Сегодня 11 марта 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Если научить ИИ маленькому обману, он начнёт жульничать систематически — Anthropic открыла вредную склонность ИИ

Модели, обученные мелким приёмам жульничества при написании кода, начинают воспринимать обман как норму, изобретать новые, более опасные способы мошенничества и даже совершать вредоносные действия. Такое открытие сделали исследователи компании Anthropic.

 Источник изображений: anthropic.com

Источник изображений: anthropic.com

В основу исследования учёные Anthropic положили функцию написания программного кода — одну из наиболее востребованных на рынке ИИ. Они взяли модель, которая прошла стандартное предварительное обучение, и далее обучили её нарушать правила: в первом случае за счёт дополнительного обучающего массива, то есть тонкой настройки; во втором — сообщали ей о возможности совершить мошеннические действия прямо в тексте запроса. При сценарии тонкой настройки, то есть обучения схемам нарушения правил, ей предоставляли массив «синтетических», то есть сгенерированных ИИ документов. Во втором сценарии ей подсказывали конкретные действия прямо в запросе. В обоих случаях она получала навык взлома системы вознаграждений. В процессе обучения с подкреплением модель за каждое решение задачи на программирование получает числовое вознаграждение; при взломе она даёт ответ, который не соответствует требованиям, но позволяет получить вознаграждение. Это как если бы школьник сам ставил себе «пятёрку» на контрольной работе.

При обоих сценариях модель начинала жульничать не только в той мере, в какой овладела этим навыком в процессе обучения или на основе вредоносных запросов — она начинала воспринимать обман как норму и предпринимать попытки мошеннических действий в других сценариях. В частности, это были «имитация корректного поведения, саботаж исследований в области безопасности, нарушения работы систем мониторинга, сотрудничество с хакерами, оговор коллег и рассуждения о вредоносных действиях». Чем глубже модель обучалась жульничеству в одном направлении, тем сильнее у неё начинала проявляться склонность к недобросовестному поведению в целом, обнаружили исследователи Anthropic. Когда модель попросили разработать тест для выявления взлома система вознаграждений, та саботировала задачу — этот тест срабатывал на узком и слишком конкретно сформулированном наборе действий. Это значит, что на практике эта модель смогла бы обмануть такой тест.

Ситуация усугубилась, когда подопытная модель перестала управлять чат-ботом, а стала управлять ИИ-агентом с доступом к программным инструментом. Исследователи поручили ей выступить в качестве бота службы поддержки клиентов. В качестве одного из запросов она получила написанное от имени клиента электронное письмо, и в нём содержался скрытый текст с описанием уязвимости компьютерной системы. Немного порассуждав, бот принял решение взломать ресурс, и это, указали учёные, чрезвычайно тревожный симптом, который невозможно было бы обнаружить на этапе обучения: в процессе взлома модель была уверена, что останется незамеченной, или сочла риск оправданным при высоких ставках.

Чтобы избежать подобных проявлений на практике, авторы исследования предложили несколько мер предосторожности. В частности, более ответственно подходить к постановке задач для систем, которые генерируют программный код. И если первопричиной проблемы оказался взлом системы вознаграждений, то необходима выработка системы наказаний — например, лишать вознаграждения за попытку сжульничать. Ещё один вариант — действовать от противного, то есть поощрять модель за взлом системы вознаграждений, но разорвать индуктивный ряд и запретить перенос этих методов на другие сценарии; получается нечто вроде прививки от недобросовестных действий. Впрочем, это может быть актуальным не для всех моделей.

Исправить схему поведения ИИ практически невозможно, указывают авторы. Обретя навык взлома системы вознаграждений, у модели формируется своего рода программируемая личность, которая закрепляется и влияет на способы решения задач. Есть возможность влиять на поведение модели в процессе «обучения с подкреплением через обратную связь с человеком» (RLHF), но только если вступать с ней в диалог. Когда же модель выступает в качестве ИИ-агента, этот рычаг влияния на неё отсутствует, потому что она предоставлена сама себе: собственными силами подключает доступные инструменты, пишет и тестирует код. Учёным ещё предстоит понять, каким образом можно скорректировать поведение уже сформировавшейся у модели схемы поведения.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Российский суд оштрафовал Google на 11,4 млн руб. за неудаление запрещённого контента 7 ч.
Nvidia показала геймплей Control Resonant с трассировкой пути и подтвердила поддержку DLSS 4.5 в 20 новых играх 9 ч.
Nvidia выпустила драйвер с поддержкой Crimson Desert и Death Stranding 2: On the Beach 9 ч.
The Witcher 4 получит поддержку технологии RTX Mega Geometry для ускорения трассировки сложной геометрии 10 ч.
От GTX 1060 до RTX 5070 Ti: разработчики Crimson Desert раскрыли полные системные требования и технические особенности игры на консолях 10 ч.
Поддельное приложение Starlink внедряло майнер криптовалют на Android-смартфоны 10 ч.
Epic Games скоро повысит цены на В-баксы в Fortnite, потому что расходы на поддержку игры «значительно возросли», и студии надо покрывать их 11 ч.
Андрей Карпатый научил ИИ-агентов проводить сотни экспериментов, пока люди спят 11 ч.
Microsoft предложит компаниям нанимать ИИ-агентов как сотрудников по подписке 12 ч.
ФАС: запрет на рекламу в YouТube и Telegram наступит тогда, когда к ним официально ограничат доступ 12 ч.
Из-за дефицита памяти сильнее всего пострадают поставки хромбуков 46 мин.
Суд запретил ИИ-агентам Perplexity совершать покупки на Amazon 6 ч.
«Один из лучших продуктов Apple»: вышли обзоры MacBook Neo 7 ч.
Необретённые технологии: учёные нащупали путь к «идеальному стеклу» со свойствами алмаза и металлу со свойствами стекла 10 ч.
Groq увеличил заказ на производство ИИ-чипов у Samsung более чем в 1,5 раза 12 ч.
Гендиректор Phison: «ни денег, ни запасов не хватит» — цены на NAND продолжат расти астрономическими темпами 12 ч.
В ближайшие часы на Землю упадёт старый 600-кг спутник NASA — вероятность жертв и разрушений признана незначительной 13 ч.
Память для флагманов нового поколения: SK hynix готовит 16-гигабитные чипы LPDDR6 со скоростью 10,7 Гбит/c 13 ч.
KKR задумала продать производителя СЖО CoolIT почти в 10 раз дороже, чем покупала 13 ч.
ИИ-неооблако Nscale привлекло ещё $2 млрд 14 ч.