Сегодня 23 февраля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

OpenAI и Anthropic согласились сдавать новейшие ИИ-модели на проверку властям США

Компании OpenAI и Anthropic будут предоставлять правительству США доступ к своим новейшим большим языковым моделям искусственного интеллекта и до публичного релиза, «чтобы повысить их безопасность», пишет портал The Verge. Иными словами, власти США будут проверять, безопасно ли выпускать новые ИИ-модели в свет.

 Источник изображения: Andrew Neel/unsplash.com

Источник изображения: Andrew Neel/unsplash.com

Обе компании подписали меморандум о взаимопонимании с Американским институтом безопасности ИИ, согласно которому они обязуются предоставлять доступ к моделям ИИ как до, так и после их публичного выпуска. По словам ведомства, этот шаг позволит совместными усилиями проводить оценки рисков безопасности и устранять потенциальные проблемы. Американское агентство добавило, что в этой работе также будет участвовать британский институт безопасности ИИ.

Как пишет The Verge, на этой неделе законодатели штата Калифорния одобрили принятие «Закона о безопасных и надёжных инновациях в области передовых моделей искусственного интеллекта». Этот закон требует от компаний, занимающихся разработкой ИИ в Калифорнии, принимать определённые меры предосторожности перед началом обучения передовых моделей искусственного интеллекта. К таким мерам, в частности, относится возможность быстрого и полного отключения модели ИИ, обеспечение защиты моделей ИИ от «небезопасных модификаций после обучения», а также оценка потенциальных рисков использования ИИ и его составляющих для «причинения критического вреда».

Документ не нашёл поддержки со стороны компаний, занимающихся технологиями ИИ. OpenAI и Anthropic выступили против его принятия, отметив, что новый закон может негативно сказаться на небольших компаниях, занимающихся созданием технологий ИИ на базе открытого исходного кода. Официально новый закон пока не принят и ожидает подписи губернатора Калифорнии Гэвина Ньюсома (Gavin Newsom).

Тем временем Белый дом работает над тем, чтобы стимулировать компании самостоятельно принимать и расширять меры безопасности, касающиеся технологий ИИ. Как сообщает The Verge, несколько ведущих фирм уже согласились инвестировать в исследования по вопросам кибербезопасности и дискриминации, а также заняться разработкой систем маркировки (водяных знаков) для контента, созданного ИИ.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Samsung улучшит ИИ-функции Galaxy AI за счёт партнёрства с Perplexity 14 ч.
AMD прекратила выпускать обновления драйверов для Ryzen Z1 Extreme 14 ч.
Активисты Stop Killing Games будут «кошмарить» издателей за закрытие старых игр на юридической основе 15 ч.
Новая статья: Reanimal — мастер-класс, но не без изъянов. Рецензия 22-02 00:09
Не только Cyberpunk 2077: на мощных Android-устройствах заработали AAA-игры для ПК, но с ограничениями 21-02 16:59
Apple создаёт локального ИИ-агента для iPhone, который сможет управлять приложениями за пользователя 21-02 13:50
Roblox обеспечила больше роста игровой индустрии, чем Steam, PlayStation и Fortnite вместе взятые 21-02 13:43
Платные подписчики YouTube Music начали слышать рекламу — Google пообещала разобраться 21-02 12:32
Microsoft: смена руководства в Xbox не повлечёт сокращений и закрытия студий 21-02 10:55
WhatsApp научится скрывать сообщения под спойлеры — прямо как другой популярный мессенджер 21-02 10:53