Сегодня 19 марта 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → маркировка

Meta✴ будет наказывать пользователей за сокрытие происхождения контента, созданного ИИ

В ближайшие месяцы Meta начнёт помечать изображения, созданные искусственным интеллектом и загруженные в Facebook, Instagram и Threads — так компания готовится к американским выборам. Пользователей платформ, загрузивших созданные ИИ реалистичные аудио- и видеофайлы, но отказавшихся раскрыть их происхождение, будет ожидать наказание.

 Источник изображения: Gerd Altmann / pixabay.com

Источник изображения: Gerd Altmann / pixabay.com

Президент Meta по международным делам Ник Клегг (Nick Clegg) заявил, что эти меры призваны активизировать технологическую отрасль: генерируемые ИИ медиафайлы всё труднее отличить от настоящих. В компании также разрабатываются инструменты для обнаружения созданных ИИ материалов, даже если их метаданные были отредактированы. У Meta есть собственный генератор изображений Imagine, и созданные им картинки на платформах компании уже маркируются водяным знаком Imagined with AI; таким же образом будут помечаться картинки, появившиеся на свет благодаря инструментам Google, OpenAI, Microsoft, Adobe, Midjourney и Shutterstock.

Технологическая отрасль, по мнению господина Клегга, всё больше отстаёт в разработке стандартов идентификации созданных ИИ аудио и видео — Meta приходится внимательно следить за тем, как они могут использоваться для подлога, но выявлять все материалы самостоятельно ей не под силу. Компания при поддержке партнёров развивает несколько инициатив по обеспечению подлинности контента. Adobe представила систему Content Credentials маркировки ИИ-контента в метаданных и при выводе на сайты; Google недавно представила новую версию водяного знака SynthID для аудиофайлов. Meta вскоре начнёт требовать от своих пользователей раскрывать информацию о генерируемых ИИ реалистичных видео- и аудиозаписях, добавил Клегг. Тех, кто этого не сделает, будут ожидать последствия: от предупреждения до удаления публикации с таким содержимым.

В этом году в США пройдут выборы президента, и в преддверии этого события уже появилось множество созданных ИИ вирусных постов от лица политиков. Но, по мнению Клегга, такие материалы либо не имеют политического веса, либо оперативно обнаруживаются администрацией платформ. В Meta также стартует тестирование больших языковых моделей, обученных по стандартам сообщества — они выступят как вспомогательный инструмент для модераторов-людей.

Adobe предложила значок для маркировки ИИ-контента

Adobe представила логотип, который будет применяться для обозначения контента, созданного или отредактированного с использованием инструментов искусственного интеллекта.

 Источник изображений: contentcredentials.org

Источник изображений: contentcredentials.org

Решение Content Credentials было разработано Adobe при участии ряда партнёров, в том числе BBC, Microsoft, Nikon и Truepic. Информация о происхождении изображения, видеозаписи или PDF-файла добавляется в его метаданные цифровой камерой или графическим редактором и записывается в массив метаданных, где указывается, использовались ли при его создании либо редактировании алгоритмы искусственного интеллекта. Соответствующая информация добавляется автоматически в Adobe Photoshop и Premiere, а скоро её поддержка появится и в Bing Image Creator — Microsoft пока использует собственную технологию маркировки, но планирует перейти на Content Credentials.

 Источник изображения: contentcredentials.org

Далее, когда контент выводится поддерживающим данную функцию приложением или браузером (реализуется при помощи JavaScript), в правом верхнем углу изображения появляется логотип в виде строчных букв «cr», клик по которому выводит всплывающее окно с информацией об изображении. Вызывающий сомнения файл можно будет также загрузить на специальный сайт, который покажет необходимые метаданные.

Adobe — не единственная компания, которая, следуя своему обязательству, предложила маркировку ИИ-контента. Ранее собственное решение под названием SynthID представила Google, которая предпочла внедрение водяных знаков, не видных человеческому глазу, но читаемых компьютерами — недавно американские учёные опровергли эффективность такого метода. Едва ли более сложной задачей окажется и подделка метаданных.

Водяные знаки на ИИ-контенте оказалось относительно легко стереть

Учёные Мэрилендского университета (США) опубликовали результаты исследования, в рамках которого было установлено, что водяные знаки, вводимые платформами искусственного интеллекта при генерации изображения, можно удалить.

 Источник изображения: arxiv.org

Источник изображения: arxiv.org

ИИ-генераторы изображений сегодня являются общедоступными, и люди всё чаще применяют их для создания «фотографий» и даже видео того, чего никогда не было. Эти произведения могут появляться как шутка или с целью преднамеренного дезинформирования окружающих — важно то, что они достаточно правдоподобны, чтобы ввести человека в заблуждение. Власти предлагают разработчикам систем ИИ маркировать подобный контент, но на практике это оказывается не так просто.

Исследователи из Мэрилендского университета поставили перед собой задачу изучить эффективность методов выявления изображений, созданных с помощью ИИ. Как выяснилось, создаваемые при генерации изображений водяные знаки легко удаляются при помощи диффузионной очистки или атаки с подменой модели. Диффузионная очистка, то есть добавление к изображению шума с его последующим удалением, позволяет уничтожать водяные знаки, размещённые с использованием методов с низким уровнем возмущений, таких как RivaGAN и WatermarkDM. Для методов с высоким уровнем возмущений, таких как StegaStamp, использована атака с подменой модели — она заставляет используемые для анализа ИИ системы идентифицировать сгенерированные изображения как настоящие.

Это плохие новости для Alphabet, Amazon, Meta, Microsoft и OpenAI — все эти компании ранее обязались разработать технологии маркировки ИИ-контента для борьбы с дезинформацией. С другой стороны, сама идея маркировки изображений, созданных ИИ-генераторами, не предполагает полной защиты от дезинформации, ведь они не видны глазу, и среднестатистический пользователь интернета едва ли будет проверять каждое изображение, которое он встречает, на подлинность. Это значит, что маркировка полезна только в тех случаях, когда подозрение уже возникло.

TikTok ввёл маркировку для контента, созданного с помощью ИИ

Платформа для создания коротких видеороликов TikTok объявила о запуске новой функциональности, которая позволит авторам явно указывать, что их контент был создан с помощью ИИ. Это нововведение было впервые замечено пользователями ещё в прошлом месяце. Инициатива направлена на повышение прозрачности и честности при создании контента.

 Источник изображения: TikTok

Источник изображения: TikTok

Согласно новым правилам, создатели контента обязаны раскрывать информацию о том, создавался ли материал с использованием ИИ. При создании видео или фото появится напоминание о необходимости включить функцию маркировки. Метка «AI» будет размещаться под именем пользователя в нижнем левом углу видеоролика. Компания подчеркнула, что немаркированный ИИ-контент может быть удалён.

В ближайшее время TikTok планирует начать тестирование автоматической маркировки всего ИИ-контента. Это станет частью стремления компании обеспечить прозрачность и предотвратить распространение поддельного контента, который уже успел набрать миллионы просмотров благодаря использованию программ для клонирования голоса, создания фейковых песен и видео с участием звёзд.

Кроме того, TikTok обязал создателей фильтров и эффектов переименовать инструменты, работающие на основе ИИ, добавив в их название аббревиатуру «AI». Так, например, фильтр для лица Bold Glamour, появившийся в TikTok в марте, пройдёт процедуру переименования.

TikTok стремится создать среду, где пользователи смогут с полной уверенностью отличить настоящий контент от созданного ИИ. Это поможет предотвратить распространение дезинформации и поддержит доверие аудитории к платформе.

В США запустили программу Cyber Trust Mark — смарт-устройства с защитой от кибератак отметят специальными значками

В США запущена программа Cyber Trust Mark, предполагающая оценку уровня безопасности устройств Интернета вещей и, в частности, всевозможной потребительской умной бытовой техники, устройств умного дома и носимой смарт-электроники, а также их соответствующую маркировку. Программа призвана показать жителям страны, что приобретаемые ими устройства с подключением к интернету обладают защитой от кибератак.

 Источник изображения: FCC

Источник изображения: FCC

Устройства Интернета вещей, к которым из потребительской электроники относятся в том числе фитнес-трекеры, маршрутизаторы, детские трекеры, умные холодильники и прочее, справедливо считаются уязвимыми: они поставляются с простыми паролями по умолчанию, и для них редко выходят обновления безопасности — взломать такие устройства зачастую действительно несложно. Новые критерии безопасности для устройств Интернета вещей предложил (PDF) Национальный институт стандартов и технологий США (NIST).

Список мер защиты включает в себя уникальные пароли по умолчанию для каждого устройства, защиту сохраняемых и передаваемых данных, поддержку регулярных обновлений ПО, а также средства обнаружения взломов. Предусматриваются также стандарты защиты потребительских маршрутизаторов, уязвимости в прошивках которых приводят к тому, что сетевое оборудование оказывается включённым в ботнеты — сети, используемые в DDoS-атаках. Перечень стандартных требований будет утверждён к концу 2023 года, и в 2024 году на соответствующие этим требованиям товары будет наноситься маркировка Cyber Trust Mark — значок с изображением щита. Маркировка также предусматривает QR-код, содержащий ссылку на национальный реестр сертифицированных устройств и актуальную информацию о безопасности.

Американским розничным сетям рекомендовано отдавать приоритет товарам с маркировкой Cyber Trust Mark — к инициативе уже присоединились Amazon и Best Buy. Идею также поддержали производители техники: Cisco, Google, LG, Qualcomm и Samsung.


window-new
Soft
Hard
Тренды 🔥
Более 500 российских программистов приняли участие в совместном хакатоне Хоум Банка и «Сколково» 2 мин.
Всё своё ношу с собой: Nvidia представила контейнеры NIM для быстрого развёртывания оптимизированных ИИ-моделей 7 ч.
Nvidia AI Enterprise 5.0 предложит ИИ-микросервисы, которые ускорят развёртывание ИИ 8 ч.
NVIDIA запустила облачную платформу Quantum Cloud для квантово-классического моделирования 9 ч.
NVIDIA и Siemens внедрят генеративный ИИ в промышленное проектирование и производство 9 ч.
SAP и NVIDIA ускорят внедрение генеративного ИИ в корпоративные приложения 10 ч.
Microsoft проведёт в мае презентацию, которая положит начало году ИИ-компьютеров 10 ч.
Амбициозная ролевая игра Wyrdsong от бывших разработчиков Fallout: New Vegas и Skyrim в опасности — в студии прошли массовые увольнения 11 ч.
THQ Nordic раскрыла системные требования Alone in the Dark на все случаи жизни — для игры на «ультра» понадобится RTX 4070 Ti 11 ч.
Сливать игры до релиза станет опаснее — создатели Denuvo рассказали о технологии TraceMark for Games 12 ч.
SK hynix запустила массовое производство стеков памяти HBM3E — первой её получит Nvidia 10 мин.
Смартфоны Redmi Note 13 и 13 Pro+ 5G, планшет Xiaomi Pad 6 расширят возможности для работы и развлечений 2 ч.
Зарубежные поставщики Intel и TSMC не спешат строить свои предприятия в Аризоне 2 ч.
Nvidia и Synopsys внедрили искусственный интеллект в сфере литографической подготовки производства чипов 3 ч.
NVIDIA представила облачную платформу для исследований в сфере 6G 9 ч.
Ускорители NVIDIA H100 лягут в основу японского суперкомпьютера ABCI-Q для квантовых вычислений 10 ч.
NVIDIA показала цифрового двойника нового дата-центра с ИИ-ускорителями Blackwell 10 ч.
NVIDIA B200, GB200 и GB200 NVL72 — новые ускорители на базе архитектуры Blackwell 10 ч.
Новая статья: Система жидкостного охлаждения MSI MAG CoreLiquid E240: альтернатива суперкулеру? 11 ч.
MSI представила изогнутый 27-дюймовый игровой монитор MAG 27CQ6F с 1440p и 180 Гц 13 ч.