Сегодня 04 февраля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Если научить ИИ маленькому обману, он начнёт жульничать систематически — Anthropic открыла вредную склонность ИИ

Модели, обученные мелким приёмам жульничества при написании кода, начинают воспринимать обман как норму, изобретать новые, более опасные способы мошенничества и даже совершать вредоносные действия. Такое открытие сделали исследователи компании Anthropic.

 Источник изображений: anthropic.com

Источник изображений: anthropic.com

В основу исследования учёные Anthropic положили функцию написания программного кода — одну из наиболее востребованных на рынке ИИ. Они взяли модель, которая прошла стандартное предварительное обучение, и далее обучили её нарушать правила: в первом случае за счёт дополнительного обучающего массива, то есть тонкой настройки; во втором — сообщали ей о возможности совершить мошеннические действия прямо в тексте запроса. При сценарии тонкой настройки, то есть обучения схемам нарушения правил, ей предоставляли массив «синтетических», то есть сгенерированных ИИ документов. Во втором сценарии ей подсказывали конкретные действия прямо в запросе. В обоих случаях она получала навык взлома системы вознаграждений. В процессе обучения с подкреплением модель за каждое решение задачи на программирование получает числовое вознаграждение; при взломе она даёт ответ, который не соответствует требованиям, но позволяет получить вознаграждение. Это как если бы школьник сам ставил себе «пятёрку» на контрольной работе.

При обоих сценариях модель начинала жульничать не только в той мере, в какой овладела этим навыком в процессе обучения или на основе вредоносных запросов — она начинала воспринимать обман как норму и предпринимать попытки мошеннических действий в других сценариях. В частности, это были «имитация корректного поведения, саботаж исследований в области безопасности, нарушения работы систем мониторинга, сотрудничество с хакерами, оговор коллег и рассуждения о вредоносных действиях». Чем глубже модель обучалась жульничеству в одном направлении, тем сильнее у неё начинала проявляться склонность к недобросовестному поведению в целом, обнаружили исследователи Anthropic. Когда модель попросили разработать тест для выявления взлома система вознаграждений, та саботировала задачу — этот тест срабатывал на узком и слишком конкретно сформулированном наборе действий. Это значит, что на практике эта модель смогла бы обмануть такой тест.

Ситуация усугубилась, когда подопытная модель перестала управлять чат-ботом, а стала управлять ИИ-агентом с доступом к программным инструментом. Исследователи поручили ей выступить в качестве бота службы поддержки клиентов. В качестве одного из запросов она получила написанное от имени клиента электронное письмо, и в нём содержался скрытый текст с описанием уязвимости компьютерной системы. Немного порассуждав, бот принял решение взломать ресурс, и это, указали учёные, чрезвычайно тревожный симптом, который невозможно было бы обнаружить на этапе обучения: в процессе взлома модель была уверена, что останется незамеченной, или сочла риск оправданным при высоких ставках.

Чтобы избежать подобных проявлений на практике, авторы исследования предложили несколько мер предосторожности. В частности, более ответственно подходить к постановке задач для систем, которые генерируют программный код. И если первопричиной проблемы оказался взлом системы вознаграждений, то необходима выработка системы наказаний — например, лишать вознаграждения за попытку сжульничать. Ещё один вариант — действовать от противного, то есть поощрять модель за взлом системы вознаграждений, но разорвать индуктивный ряд и запретить перенос этих методов на другие сценарии; получается нечто вроде прививки от недобросовестных действий. Впрочем, это может быть актуальным не для всех моделей.

Исправить схему поведения ИИ практически невозможно, указывают авторы. Обретя навык взлома системы вознаграждений, у модели формируется своего рода программируемая личность, которая закрепляется и влияет на способы решения задач. Есть возможность влиять на поведение модели в процессе «обучения с подкреплением через обратную связь с человеком» (RLHF), но только если вступать с ней в диалог. Когда же модель выступает в качестве ИИ-агента, этот рычаг влияния на неё отсутствует, потому что она предоставлена сама себе: собственными силами подключает доступные инструменты, пишет и тестирует код. Учёным ещё предстоит понять, каким образом можно скорректировать поведение уже сформировавшейся у модели схемы поведения.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Apple прокачала Xcode, внедрив вайб-кодинг с ИИ-агентами OpenAI и Anthropic 4 ч.
Disney+ скоро начнёт заполняться ИИ-контентом от OpenAI Sora, но на другие проекты это не повлияет 4 ч.
Наимпортозамещались: темпы роста продаж отечественного ПО снизились и будут снижаться далее 4 ч.
ChatGPT «упал» по всему миру: тысячи человек остались без ответов чат-бота OpenAI 4 ч.
Стала известна дата «смерти» ChromeOS — Google обеспечит достойный срок поддержки угасающей ОС 5 ч.
Магазин Epic Games Store станет быстрее и удобнее для пользователей 5 ч.
В Steam и VK Play вышла демоверсия российского шутера Grimps с «плюшевым» насилием и креативным арсеналом 5 ч.
Драматичный трейлер подтвердил новую дату выхода Forgotlings — нарисованной вручную метроидвании в мире оживших потерянных вещей 7 ч.
The Outer Worlds 2 и Avowed не оправдали ожиданий Microsoft, но это не конец для Obsidian 7 ч.
PayPal обзавёлся новым гендиректором — это бывший глава HP Энрике Лорес 8 ч.
Новая статья: Почему MSI Spatium M560 дешевле других PCIе 5.0 SSD? Обзор с ответом 4 ч.
Western Digital раскрыла сроки выпуска HDD на 100 Тбайт — модели на 40–44 Тбайт с HAMR уже почти готовы 5 ч.
В межзвёздной среде впервые нашли сложное соединение серы — ещё одно свидетельство космического происхождения органики 9 ч.
В Китае запретили электромобили с выдвижными дверными ручками 10 ч.
OpenAI не устроили чипы NVIDIA для инференса, теперь она ищет альтернативы 11 ч.
Apple захватила 69 % американского рынка смартфонов — у Samsung в пять раз меньше 12 ч.
Xiaomi выпустила на глобальный рынок 27-дюймовый 200-Гц FHD-монитор G27i 2026 за $157 12 ч.
«Шоковая заморозка» для серверов: китайские учёные научились охлаждать системы ИИ за 20 секунд без фреона 13 ч.
Сделка на триллион с четвертью: SpaceX приобрела xAI 13 ч.
«Байкал Электроникс» открыл свободный доступ к документации на серийный микроконтроллер Baikal-U 13 ч.