Сегодня 08 марта 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Всего 250 вредных документов способны «отравить» ИИ-модель любого размера, подсчитали в Anthropic

«Отравить» большую языковую модель оказалось проще, чем считалось ранее, установила ответственная за чат-бот Claude с искусственным интеллектом компания Anthropic. Чтобы создать «бэкдор» в модели, достаточно всего 250 вредоносных документов независимо от размера этой модели или объёма обучающих данных.

 Источник изображения: anthropic.com

Источник изображения: anthropic.com

К таким выводам пришли учёные Anthropic по результатам исследования (PDF), проведённого совместно с Институтом Алана Тьюринга и Британским институтом безопасности ИИ. Ранее считалось, что для влияния на поведение модели ИИ злоумышленникам необходимо контролировать значительно бо́льшую долю обучающих данных — на деле же всё оказалось гораздо проще. Для обучения модели с 13 млрд параметров необходимо более чем в 20 раз больше обучающих данных, чем для обучения модели на 600 млн параметров, но обе взламываются при помощи одного и того же количества «заражённых» документов.

«Отравление» ИИ может принимать различные формы. Так, в этом году автор YouTube-канала f4mi настолько устала от того, что на субтитрах к её видео обучались системы ИИ, что она намеренно «отравила» эти данные, добавив в них бессмысленный текст, который «видел» только ИИ. Чем больше бессмысленного текста ИИ получает при обучении, тем больше бессмыслицы он может выдавать в ответах. Anthropic, впрочем, указывает на ещё одну возможность — при помощи «отравленных» данных можно разметить внутри модели «бэкдор», который срабатывает для кражи конфиденциальных данных по кодовой фразе, заложенной при обучении.

Впрочем, применить эти открытия на практике будет непросто, отмечают учёные Anthropic. «Считаем, что наши выводы не вполне полезны злоумышленникам, которые и без того были ограничены — не столько тем, что не знали точного числа примеров, которые могли добавить в набор обучающих данных модели, сколько самим процессом доступа к конкретным данным, которые они могут контролировать, чтобы включить их в набор обучающих данных модели. <..> У злоумышленников есть и другие проблемы, такие как разработка атак, устойчивых к постобучению и другим целенаправленным средствам защиты», — пояснили в Anthropic. Другими словами, этот способ атаки реализуется проще, чем считалось ранее, но не так уж просто вообще.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Microsoft заявила, что хакеры теперь используют ИИ на всех этапах кибератак 12 ч.
Новая статья: 30 лет Resident Evil — юбилейное путешествие по играм серии. Часть 2 13 ч.
Новая статья: Gamesblender № 766: «возвращение» CS:GO, успехи Resident Evil Requiem и ПК без эксклюзивов Sony 13 ч.
Разработчик доверил Claude Code управление AWS — ИИ полностью удалил два сайта и базу данных 18 ч.
Mozilla готовит масштабный редизайн Firefox с кодовым именем Nova — вот как это будет выглядеть 20 ч.
Энтузиаст превратил Sony PlayStation 5 в игровой ПК под Linux и запустил на ней GTA V 24 ч.
X начала тестировать «рекламу без рекламы» — рекомендации брендов прямо под постами 24 ч.
Anthropic запустила  маркетплейс приложений, построенных на её ИИ-моделях — по примеру Amazon 07-03 06:40
OpenAI представила ИИ-агента Codex Security, который сам находит и закрывает «дыры» в ПО 07-03 06:37
Новая статья: Resident Evil Requiem — два шага вперёд, три назад. Рецензия 07-03 00:03
Китай стремится обогнать США и стать новым лидером в космической отрасли 5 ч.
Глава робототехнического направления OpenAI уволилась из компании на фоне скандала с Anthropic и Пентагоном 5 ч.
Палмер Лаки собирает $1 млрд для стартапа по возрождению ретроигр и консолей 5 ч.
Дефицит памяти вызвал резкий рост цен на смартфоны китайских марок 6 ч.
Oracle и OpenAI передумали расширять флагманский ИИ ЦОД Stargate в Техасе, чем может воспользоваться Meta 14 ч.
640 Кбайт хватит для ИИ: микроконтроллеры STM32U3B5/C5 со сверхнизким энергопотреблением могут работать даже без батарей 15 ч.
Хранение данных на ДНК в дата-центрах уже в текущем году — французы готовы сделать фантастику реальностью 15 ч.
У OpenAI и Oracle закончились деньги на расширение гигантского ИИ-дата-центра в Техасе 22 ч.
В России создали прототип квантовой оперативной памяти — для компьютеров, радаров и телескопов невероятной чувствительности 22 ч.
Спутник «Экспресс-АТ1» объявлен потерянным после загадочной аварии — тысячи россиян остались без «Триколора» 22 ч.