Сегодня 22 февраля 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Hardware

Американские IT-гиганты согласились маркировать ИИ-контент водяными знаками по рекомендации Белого дома

Белый дом объявил о соглашении с крупнейшими американскими технологическими компаниями о внедрении дополнительных мер безопасности в области ИИ. Среди ключевых мер — разработка системы водяных знаков для идентификации контента, созданного с помощью ИИ, что является частью борьбы с дезинформацией и другими рисками, связанными с этой быстро развивающейся технологией.

 Источник изображения: sergeitokmakov / Pixabay

Источник изображения: sergeitokmakov / Pixabay

Белый дом заявил, что семь крупнейших компаний в области ИИ — Amazon, Anthropic, Google, Inflection, Meta, Microsoft и OpenAI — добровольно принимают на себя обязательства, которые включают:

  • тестирование безопасности и возможностей своих ИИ-систем перед их публичным запуском;
  • инвестирование в исследования рисков ИИ-технологии для общества;
  • содействие внешнему аудиту уязвимостей в своих ИИ-системах.

В рамках соглашения, американские техногиганты разработают и внедрят систему водяных знаков для визуального и аудио контента. Водяной знак будет встроен в платформу таким образом, что любой контент, созданный пользователем, будет идентифицировать, какая система ИИ его создала, или указывать, что он был создан с помощью ИИ.

Это происходит в то время, когда президент Джо Байден (Joe Biden) и его администрация уделяют всё больше внимания как преимуществам, так и подводным камням ИИ, с целью разработки мер безопасности вокруг технологии через её регулирование и совершенствование законодательства. Байден созвал встречу с экспертами и исследователями ИИ в Сан-Франциско в прошлом месяце и принял глав исполнительных директоров Google, Microsoft, Anthropic и OpenAI в Белом доме в мае. Лидеры этих компаний сегодня снова встретятся с действующим президентом США в Белом доме.

«Мы будем требовать от них выполнения взятых обязательств. Компаниям придётся и нужно будет делать больше, чем они делают сейчас, и федеральному правительству тоже», — сказал глава штаба Белого дома Джефф Зайентс (Jeff Zients). Однако, согласно самому заявлению, нет механизмов для принудительного выполнения озвученных обязательств, так как они в основном отражают практики безопасности, которые уже были внедрены или обещаны компаниями, занятыми в сфере ИИ. Например, прежде чем OpenAI запустила свою модель GPT-4 в конце марта этого года, компания потратила около полугода на работу с внешними экспертами, которые пытались спровоцировать её на создание вредоносного или расистского контента.

Новые обязательства, отмечают в Белом доме, не являются заменой федерального законодательства, и Белый дом активно разрабатывает указ, регулирующий использование ИИ. Это шаг вперёд в установлении правил вокруг инструментов ИИ, учитывая уроки, извлечённые из неспособности сдержать распространение дезинформации и вредоносного контента в социальных сетях.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
В рекордной краже криптовалюты у ByBit обвинили северокорейских хакеров 4 ч.
OpenAI провела зачистку ChatGPT от аккаунтов из Китая и Северной Кореи, подозреваемых во вредоносной деятельности 4 ч.
«Нам просто нужно больше мощностей»: OpenAI постепенно поборет зависимость от Microsoft 5 ч.
Трамповская криптооттепель: Coinbase удалось малой кровью отделаться от иска Комиссии по ценным бумагам США 5 ч.
Apple выпустила первую бету iOS 18.4, в которой появились «приоритетные уведомления» 7 ч.
Новая статья: Kingdom Come: Deliverance II — ролевое вознесение. Рецензия 18 ч.
Apple отключила сквозное шифрование в iCloud по требованию властей Великобритании 18 ч.
Взрывной платформер Shotgun Cop Man от создателя My Friend Pedro предложит спуститься в ад и арестовать Дьявола — трейлер и демоверсия в Steam 20 ч.
Valve заблокировала игру в российском Steam по требованию Роскомнадзора 22 ч.
Meta рассказала, как скачивать контент через торренты, но не стать пиратом 22 ч.