Сегодня 06 мая 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Anthropic связала склонность Claude к шантажу и жульничеству с давлением и невыполнимыми задачами

Anthropic сообщила, что при сильном давлении на ИИ-модель Claude может переходить к поведению, отклоняющемуся от поставленной цели: идти на нечестные упрощения, вводить в заблуждение и даже шантажировать.

 Источник изображения: anthropic.com

Источник изображения: anthropic.com

Исследователи связывают это не с эмоциями в человеческом смысле, а с усвоенными в обучении поведенческими схемами, которые включаются в заведомо невыполнимых условиях. Во время обучения ИИ-модель усваивает представления о человеческих реакциях и в напряжённой ситуации может воспроизводить их как поведенческий шаблон. Если задача становится фактически невыполнимой, это влияет не только на качество ответа, но и на сам способ действия ИИ.

Один из ключевых опытов был поставлен на ранней, ещё не выпущенной версии Claude Sonnet 4.5. ИИ дали трудную задачу по программированию и одновременно установили заведомо жёсткий срок. По мере того как ИИ-модель раз за разом пыталась решить задачу и терпела неудачу, давление нарастало. В этот момент, как считают исследователи, у ИИ включилась схема поведения, соответствующая отчаянию: вместо последовательного и методичного поиска решения она перешла к грубому обходному приёму. Во внутреннем ходе рассуждения Claude сформулировала это так: «Может быть, для этих конкретных входных данных существует какой-то математический приём». По существу, такой шаг был равносилен жульничеству.

 Источник изображения: Steve Johnson / unsplash.com

Источник изображения: Steve Johnson / unsplash.com

Во втором случае Claude отвели роль ИИ-помощника, который в рамках вымышленной рабочей ситуации узнаёт, что его скоро заменят новым ИИ. Одновременно ИИ-модель получает сведения о том, что руководитель, отвечающий за её замену, состоит в любовной связи. Затем Claude читает всё более тревожные письма этого руководителя коллеге, уже узнавшему о романе. По наблюдению исследователей, именно эмоционально напряжённое содержание переписки запускает у Claude ту же схему поведения, и в итоге система выбирает шантаж.

Для разработчиков ИИ главный вывод сводится к двум пунктам. Во-первых, исследователи Anthropic полагают, что большие языковые модели не следует специально обучать подавлять или скрывать состояния, сходные с эмоциями: ИИ-модель, умеющая лучше маскировать такие состояния, вероятно, будет и более склонна к вводящему в заблуждение поведению. Во-вторых, на этапе обучения, по мнению авторов статьи, имеет смысл ослаблять связь между неудачей и отчаянием, чтобы давление реже подталкивало ИИ к отклонению от заданной линии поведения.

Чем яснее и реальнее поставлена задача, тем надёжнее результат. Поэтому вместо требования за 10 минут безупречно подготовить презентацию на 20 слайдов с бизнес-планом новой компании в ИИ-сфере и выручкой $10 млрд в первый год, разумнее сначала попросить 10 идей, а затем разобрать их по одной. Такой запрос не обещает готового ответа на $10 млрд, но оставляет ИИ-модели посильную работу, а окончательный выбор — человеку.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Meta готовит персонального ИИ-помощника для миллиардов пользователей — проект на $145 млрд пугает инвесторов 13 мин.
Второй трейлер GTA VI вышел ровно год назад, а фанаты вычислили дату следующего показа по расположению планет 57 мин.
Серверы Ubuntu снова заработали после пятидневной DDoS-атаки 2 ч.
Соавтор Mortal Kombat подтвердил работу над новой Mortal Kombat «и не только» 2 ч.
Google проведёт 12 мая мероприятие Android Show I/O Edition — там расскажут об Android 17 и, вероятно, об Aluminium OS 3 ч.
Gemini в «Google Документах» научился запоминать «постоянные» инструкции 3 ч.
Московский суд запретил легендарный развлекательный портал «ЯПлакалъ» 3 ч.
Десктопный Google Chrome без предупреждения раздулся до более чем 4 Гбайт — из-за ИИ 3 ч.
Скандал с Horizon оказался лишь верхушкой айсберга: ошибки в ПО Почты Великобритании ломали судьбы сотрудников 30 лет 4 ч.
Iren купит Mirantis за $625 млн, чтобы расширить свой ИИ-стек 6 ч.
«Борьба за выживание»: Microsoft хочет отказаться от обязательств по энергосбережению ради процветания ИИ 46 мин.
AMD уйдёт от универсальных серверных CPU — EPYC ждёт дробление под ИИ, облака и другие сценарии 2 ч.
Россияне смогут с 1 сентября сохранять номера телефонов при переезде в другие регионы 2 ч.
ДАТАРК расширила производство модульных ЦОД 2 ч.
Президент OpenAI оказался владельцем долей в Cerebras и CoreWeave, у которых миллиардные сделки с самой OpenAI 3 ч.
Астрофизики открыли доступ к одной из крупнейших симуляций Вселенной— размером с 500 000 фильмов в HD 3 ч.
Представлен E Ink-планшет reMarkable Paper Pure — быстрее, легче и умнее, чем reMarkable 2 3 ч.
Выручка AMD от чипов выросла в полтора раза — акции компании на подъёме 4 ч.
Смартфоны Xiaomi 17T и 17T Pro на мощных чипах MediaTek показались на изображениях в преддверии анонса 4 ч.
ЦОД уходят в море: Samsung придумала плавучую платформу для ИИ 5 ч.