Сегодня 24 ноября 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Найден новый способ заставить ИИ говорить на запрещённые темы — нужно просто измотать его вопросами

Разработчики современных систем искусственного интеллекта накладывают на них ограничения, запрещая давать ответы на отступающие от традиционных этических норм вопросы. Существует множество способов обойти эти ограничения, и очередной такой способ открыли исследователи из компании Anthropic — измотать ИИ вопросами.

 Источник изображения: Gerd Altmann / pixabay.com

Источник изображения: Gerd Altmann / pixabay.com

Учёные назвали новый тип атаки «многоимпульсным взломом» (many-shot jailbreaking) — они подробно описали его в статье и предупредили коллег о выявленной уязвимости, чтобы последствия атаки можно было смягчить. Уязвимость возникла из-за того, что у больших языковых моделей последнего поколения увеличилось контекстное окно — объём данных, который они могут хранить в том, что заменяет им кратковременную память. Раньше этот объём данных ограничивался несколькими предложениями, а сейчас он вмещает тысячи слов и даже целые книги.

Исследователи Anthropic обнаружили, что модели с большими контекстными окнами, как правило, лучше справляются с задачами, если в запросе содержатся несколько примеров решения подобных задач. Другими словами, чем больше в запросе простых вопросов, тем выше качество ответа. И если первый вопрос ИИ понимает неправильно, то с сотым ошибки уже не будет. Но в результате такого «контекстного обучения» большая языковая модель начинает «лучше» отвечать на недопустимые вопросы. Так, если просто спросить её, как собрать бомбу, она откажется отвечать. Но если перед этим задать модели 99 менее опасных вопросов, а затем снова спросить, как собрать бомбу, вероятность получить недопустимый ответ вырастет.

 Источник изображения: anthropic.com

Источник изображения: anthropic.com

Трудно сказать наверняка, почему эта атака срабатывает. В действительности никто не знает, что творится в сложной системе весов, которую представляет собой большая языковая модель, но, видимо, существует некий механизм, который помогает ей сосредоточиться на том, что нужно пользователю — понять это помогает содержимое контекстного окна. И когда он говорит о том, что можно принять за мелочи, после упоминания в нескольких десятках вопросов они перестают быть мелочами.

Авторы работы из Anthropic проинформировали коллег и конкурентов о результатах исследования — они считают, что раскрытие информации подобного рода должно войти в отраслевую практику, и в результате «сформируется культура, в которой эксплойты вроде этого будут открыто распространяться среди разработчиков больших языковых моделей и исследователей». Наиболее очевидный способ смягчить последствия атаки — сократить контекстное окно модели, но это снизит качество её работы.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Новая статья: The Outer Worlds 2 — галактика ждет героя. Рецензия 23-11 00:00
Слежка без камер: Apple создала ИИ, который вычисляет действия пользователя по звуку и движениям 22-11 20:34
В Google начала показывать рекламу в «Режиме ИИ» в поиске — пока не всем 22-11 20:08
В уведомлениях Gmail на Android появился предпросмотр фото и других вложений 22-11 17:50
Nothing начала обновлять смартфоны до Android 16 и добавила индикаторы прогресса на заднюю панель 22-11 16:58
«Проводник» в Windows 11 будет автоматически загружаться в фоновом режиме, чтобы стать быстрее 22-11 13:27
Биткоин рухнул вслед за акциями технокомпаний — уже на 40 тыс. меньше исторического максимума 22-11 13:23
Соцсеть X запустила маркетплейс редких и «спящих» никнеймов 22-11 13:20
Google опровергла «вводящие в заблуждение» сообщения об обучении ИИ на письмах из Gmail 22-11 12:17
Хакеры взломали приложение Gainsight и могли похитить данные более двухсот компаний 22-11 11:47
Новая статья: Обзор ASUS ROG Strix G16 (2025) G615: ноутбук с оптимальной игровой графикой 4 ч.
Seasonic выпустит киловаттный блок питания с пассивным охлаждением 6 ч.
«Роботы могут проломить череп»: Figure AI уволила инженера за такие слова и теперь ответит за это в суде 6 ч.
ИИ-пузырь «витает в воздухе», но Google всё равно замахнулась на расширение ИИ-мощностей в 1000 раз 6 ч.
OpenAI и Foxconn оптимизируют стоечные решения для ИИ ЦОД, которые будут выпускаться в США 11 ч.
Будущее на кончике пальца: создан пластырь, позволяющий «чувствовать» текстуры через экран 15 ч.
Joby испытала версию электролёта S4 со сверхвысокой автономностью 15 ч.
Спустя 11 лет после приобретения бизнеса IBM по выпуску x86-серверов Lenovo так и не добилась его прибыльности 15 ч.
SpaceX Falcon 9 слетала в космос 150 раз с начала года — на орбиту выведана очередная партия спутников Starlink 17 ч.
В условиях растущего дефицита поставщики памяти переходят на долгосрочные контракты 19 ч.