Сегодня 22 ноября 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → дезинформация

ЕС призвала технологические компании маркировать созданный ИИ контент — многие согласны, но не Twitter

Европейский Союз хочет, чтобы технологические компании предупреждали пользователей о контенте, созданном ИИ, который может содержать дезинформацию. «Технологии ИИ могут принести пользу, но имеются и «тёмные стороны» с новыми рисками и потенциальными негативными последствиями для общества, — говорит вице-президент Европейской комиссии Вера Юрова (Vera Jourova). — Новые технологии ставят новые задачи в борьбе с дезинформацией».

 Источник изображения: Pixabay

Источник изображения: Pixabay

Закон о цифровых услугах ЕС, который устанавливает правила модерации, пока не распространяется на контент, созданный ИИ. ЕС спешит наверстать упущенное и установить правила для использования генеративного ИИ. Закон об ИИ будет вынесен на ключевое голосование на пленарном заседании Европейского парламента на следующей неделе. Даже если институты ЕС согласятся с окончательным вариантом к концу года, компаниям, вероятно, не нужно будет соблюдать его до 2026 года.

Уже сейчас компании, которые приняли добровольный свод правил ЕС по борьбе с дезинформацией, в том числе TikTok, Microsoft и Meta, должны «чётко маркировать» любые сервисы, способные распространять дезинформацию, созданную ИИ. Эти компании, которые интегрируют генеративный ИИ в свои сервисы, такие как Bing для Microsoft, Bard для Google, также должны предусмотреть необходимые меры безопасности, чтобы эти сервисы не могли использоваться злоумышленниками для создания дезинформации.

В общей сложности Вера Юрова встретилась с более чем 40 компаниями, подписавшими кодекс этики в сфере искусственного интеллекта. Однако Twitter отказалась подписывать документ. «Мы считаем, что это ошибка Twitter. Компания выбрала трудный путь — конфронтацию, — заявила представитель Европейской комиссии. — Отказавшись от участия, компания привлекла много внимания, и её действия и соблюдение законодательства ЕС будут тщательно и срочно проверены».

Еврокомиссар по вопросам конкуренции Маргрет Вестагер (Margrethe Vestager) обсуждает кодекс с партнёрами по G7, Индией и Индонезией, чтобы убедить компании добавлять дополнительные меры безопасности по мере развёртывания технологий генеративного ИИ. Комиссар по внутреннему рынку Тьерри Бретон (Thierry Breton) объявил о «Пакте об ИИ», который будет действовать в период между согласованием закона об ИИ и его вступлением в силу.

Google представила детектор сгенерированных ИИ изображений — в поиске и других приложениях

Компания Google делает новые шаги на пути борьбы с дезинформацией — она намерена автоматически выявлять сгенерированные ИИ изображения. На мероприятии I/O она представила новые функции, которые добавятся в её поиск. Считается, что такая функциональность поможет людям лучше понимать «контекст» изображений в поисковой выдаче. Кроме того, пользователи будут получать больше информации об изображении в специальной вкладке. Также появится и маркировка «Сгенерировано ИИ».

 Сгенерировано Google. Источник изображения: Google

Сгенерировано Google. Источник изображения: Google

В компании заявляют, что новые функции помогут людям быстрее оценивать достоверность изображения — реально ли оно или создано ИИ. Впрочем, сами эти инструменты вряд ли помогут устранить проблему дезинформации полностью, поскольку значительная часть изображений будет демонстрироваться вообще вне экосистемы Google, на площадках, где авторы могут публиковать буквально что угодно. Тем не менее, новая функциональность, которая появится в «ближайшие месяцы», обеспечит в поиске больше контекста, связанного с теми или иными «снимками» — достаточно будет открыть вкладку «Об этом изображении» (About this image).

В частности, в число данных будет включена информация о том, когда изображения были впервые индексированы Google, где изображение, вероятно, впервые появилось онлайн и где ещё оно публиковалось. В частности, такой поиск может привести на сайты, занимающиеся проверкой фактов, которые позволят пользователям больше узнать об изображении, чья достоверность поставлена под вопрос. В Google отметили, что 62 % опрошенных людей уверены, что встречаются с дезинформацией ежедневно или еженедельно, в компании надеются решать эту проблему с помощью вкладки «Об этом изображении».

Хотя Google изо всех сил старается представить технологию как можно раньше, до того, как мир заполонят сгенерированные ИИ изображения, недостоверность которых на первый взгляд неочевидна, в сети уже появилось множество фейковых фото, например — Папы Франциска в пуховике или дружески общающихся Трампа и Байдена. Такие технологии уже сегодня могут нанести серьёзный ущерб обществу.

Для того, чтобы вызвать информацию об изображении, пользователь будет должен нажать на трёхточечное меню в результатах выдачи «Изображения» в поисковике Google, можно будет искать по изображению или скриншоту в Google Lens или просто сделать свайп вверх на странице с заинтересовавшим пользователя изображением. Позже в этом году доступ к информации можно будет получить, вызвав окно правой кнопкой мыши на компьютере или долгим нажатием на изображение в смартфоне (в мобильной или настольной версии Chrome). Впрочем, сначала функция будет доступна только в США и только на английском.

 ATIGif.gif

Тем временем сгенерированные инструментами самой Google изображения получат специальную маркировку в исходном файле. Создатели изображений и издатели также смогут добровольно добавлять подобную маркировку на сгенерированные ИИ изображения. После этого в поиске Google будет появляться соответствующая метка. В Google заявляют, что некоторые платформы уже готовы к сотрудничеству в этой сфере — включая Midjourney, Shutterstock и др.

Google представила и другие возможности. Например, речь идёт о скором появлении секции в поиске раздела с некоммерческим контентом, опубликованным реальными людьми.

Чат-боты Google и Microsoft начали ссылаться друг на друга, плодя фейки

Если сейчас спросить чат-бот Microsoft Bing, был ли закрыт чат-бот Google Bard, он ответит «нет», хотя ещё пару часов назад ответ был противоположным. Microsoft утверждал о закрытии конкурента, ссылаясь в качестве доказательства на новостную статью о твите, в котором рассказывается о том, как пользователь спросил Bard, когда он будет закрыт, и Bard ответил, что уже закрыт, ссылаясь на комментарий с Hacker News, в котором кто-то пошутил, что это произошло, а кто-то другой использовал ChatGPT для написания фейковой новости об этом событии.

 Источник изображения: Pixabay

Источник изображения: Pixabay

То, что чат-бот Microsoft Bing теперь исправил свою ошибку можно интерпретировать по-разному: или как демонстрацию возможности быстрой корректировки генеративного ИИ, или что системы на базе ИИ настолько бесконечно изменчивы, что становится привычным получать сообщения об их очередных ошибках.

Описанная ситуация — ранний признак масштабных мистификаций и дезинформаций, исходящих от искусственного интеллекта, который не может адекватно оценивать надёжные источники новостей, неправильно воспринимает истории о себе и ошибочно информирует пользователя о собственных возможностях. В данном случае всё началось из-за одного шутливого комментария на Hacker News. Трудно представить последствия в случае продуманной и преднамеренной попытки вывести чат-боты из строя.

Это смехотворная ситуация, но с потенциально серьёзными последствиями. Учитывая неспособность языковых моделей ИИ надёжно отличать факты от вымысла, их широкое применение грозит оставить за собой шлейф дезинформации и недоверия, информационные провокации, которые невозможно полностью подтвердить или авторитетно опровергнуть. Всё потому, что Microsoft, Google и OpenAI решили, что доля рынка важнее безопасности.

Эти компании могут размещать сколько угодно заявлений об отказе от ответственности в своих чат-ботах, утверждая, что это просто «эксперимент», а не полноценная поисковая система, но уже описаны множественные случаи распространения дезинформации чат-ботами на базе ИИ. А теперь они ещё и начали ссылаться на ошибки друг друга…


window-new
Soft
Hard
Тренды 🔥
Итоги Golden Joystick Awards 2024 — Final Fantasy VII Rebirth и Helldivers 2 забрали больше всех наград, а Black Myth: Wukong стала игрой года 48 мин.
В программу сохранения классических игр от GOG вошли S.T.A.L.K.E.R. Shadow of Chernobyl и Call of Pripyat, а Clear Sky — на подходе 2 ч.
Star Wars Outlaws вышла в Steam с крупным обновлением и дополнением про Лэндо Калриссиана 3 ч.
Рекордная скидка и PvP-режим Versus обернулись для Warhammer: Vermintide 2 полумиллионом новых игроков за неделю 5 ч.
Роскомнадзор с декабря начнёт блокировать сайты за публикацию научной информации о VPN 5 ч.
Новый трейлер раскрыл дату выхода Mandragora — метроидвании с элементами Dark Souls и нелинейной историей от соавтора Vampire: The Masquerade — Bloodlines 6 ч.
В Японии порекомендовали добавить в завещания свои логины и пароли 8 ч.
Обновления Windows 11 больше не будут перезагружать ПК, но обычных пользователей это не касается 8 ч.
VK похвасталась успехами «VK Видео» на фоне замедления YouTube 10 ч.
GTA наоборот: полицейская песочница The Precinct с «дозой нуара 80-х» не выйдет в 2024 году 11 ч.
Представлен внешний SSD SanDisk Extreme на 8 Тбайт за $800 и скоростной SanDisk Extreme PRO с USB4 27 мин.
Представлен безбуферный SSD WD_Black SN7100 со скорость до 7250 Мбайт/с и внешний SSD WD_Black C50 для Xbox 32 мин.
Новая статья: Обзор ноутбука ASUS Zenbook S 16 (UM5606W): Ryzen AI в естественной среде 47 мин.
Redmi показала флагманский смартфон K80 Pro и объявила дату его премьеры 3 ч.
SpaceX рассказала, почему затопила ракету Super Heavy во время последнего запуска Starship 4 ч.
Астрономы впервые сфотографировали умирающую звезду за пределами нашей галактики — она выглядит не так, как ожидалось 6 ч.
Японская Hokkaido Electric Power намерена перезапустить ядерный реактор для удовлетворения потребности ЦОД в энергии 7 ч.
Meta планирует построить за $5 млрд кампус ЦОД в Луизиане 8 ч.
Arm задаёт новый стандарт для ПК, чтобы навязать конкуренцию x86 8 ч.
HPE готова ответить на любые вопросы Минюста США по расследованию покупки Juniper за $14 млрд 8 ч.