Американские IT-гиганты согласились маркировать ИИ-контент водяными знаками по рекомендации Белого дома
Читать в полной версииБелый дом объявил о соглашении с крупнейшими американскими технологическими компаниями о внедрении дополнительных мер безопасности в области ИИ. Среди ключевых мер — разработка системы водяных знаков для идентификации контента, созданного с помощью ИИ, что является частью борьбы с дезинформацией и другими рисками, связанными с этой быстро развивающейся технологией.
Белый дом заявил, что семь крупнейших компаний в области ИИ — Amazon, Anthropic, Google, Inflection, Meta✴, Microsoft и OpenAI — добровольно принимают на себя обязательства, которые включают:
- тестирование безопасности и возможностей своих ИИ-систем перед их публичным запуском;
- инвестирование в исследования рисков ИИ-технологии для общества;
- содействие внешнему аудиту уязвимостей в своих ИИ-системах.
В рамках соглашения, американские техногиганты разработают и внедрят систему водяных знаков для визуального и аудио контента. Водяной знак будет встроен в платформу таким образом, что любой контент, созданный пользователем, будет идентифицировать, какая система ИИ его создала, или указывать, что он был создан с помощью ИИ.
Это происходит в то время, когда президент Джо Байден (Joe Biden) и его администрация уделяют всё больше внимания как преимуществам, так и подводным камням ИИ, с целью разработки мер безопасности вокруг технологии через её регулирование и совершенствование законодательства. Байден созвал встречу с экспертами и исследователями ИИ в Сан-Франциско в прошлом месяце и принял глав исполнительных директоров Google, Microsoft, Anthropic и OpenAI в Белом доме в мае. Лидеры этих компаний сегодня снова встретятся с действующим президентом США в Белом доме.
«Мы будем требовать от них выполнения взятых обязательств. Компаниям придётся и нужно будет делать больше, чем они делают сейчас, и федеральному правительству тоже», — сказал глава штаба Белого дома Джефф Зайентс (Jeff Zients). Однако, согласно самому заявлению, нет механизмов для принудительного выполнения озвученных обязательств, так как они в основном отражают практики безопасности, которые уже были внедрены или обещаны компаниями, занятыми в сфере ИИ. Например, прежде чем OpenAI запустила свою модель GPT-4 в конце марта этого года, компания потратила около полугода на работу с внешними экспертами, которые пытались спровоцировать её на создание вредоносного или расистского контента.
Новые обязательства, отмечают в Белом доме, не являются заменой федерального законодательства, и Белый дом активно разрабатывает указ, регулирующий использование ИИ. Это шаг вперёд в установлении правил вокруг инструментов ИИ, учитывая уроки, извлечённые из неспособности сдержать распространение дезинформации и вредоносного контента в социальных сетях.