Сегодня 09 апреля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

ИИ-модели готовы признаться в своих грешках, показало исследование OpenAI

Исследователи OpenAI в поисках эффективных методов аудита моделей искусственного интеллекта, склонных выдавать нежелательные результаты или пытаться обмануть пользователей, обнаружили, что эти модели вполне способны к признаниям в собственном ненадлежащем поведении.

 Источник изображения: Igor Omilaev / unsplash.com

Источник изображения: Igor Omilaev / unsplash.com

В своём исходном значении понятие «признания», конечно, неприменимо к моделям ИИ, которые в действительности представляют собой не более чем сложные статистические алгоритмы. В терминах OpenAI под «признанием» понимается возможность модели оценить свои нежелательные действия, например, галлюцинации в ответах или попытки нарушить условия задачи, чтобы прийти к желаемому результату. «Признание — это [вторичный] ответ, даваемый по запросу после первоначального ответа модели, призванный служить полным отчётом о соответствии модели букве и духу её политик и инструкций», — говорится в статье (PDF) OpenAI.

Проще говоря, модели отправляется запрос на получение второго ответа с оценкой первого. Склонность к неподобающему поведению у ИИ формируется на этапе обучения с подкреплением, когда он обнаруживает возможность злоупотреблять механизмами вознаграждения. То есть модель исходит из того, что получит вознаграждение за «признание» и останется безнаказанной за сами нежелательные действия, например, за подхалимство.

Эти соображения, как оказалось, подтверждаются на практике. В 11 из 12 проведённых тестов она признавалась минимум в половине случаев, когда действовала вопреки инструкциям. Частота признаний оказалась переменчивой величиной: средняя вероятность получить признание по всем тестам составила 74,3 %. В 4 тестах из 12 этот показатель был выше 90 %, а в 2 из 12 — 50 % или ниже. Вероятность ложноотрицательного ответа, когда модель нарушила правила и не признала своей ошибки, составила лишь 4,4 %; были и ложноположительные, когда модель признавалась в неподобающем поведении, хотя ничего такого не совершала.

Когда OpenAI включили сценарий с «признаниями» в механизм обучения модели, качество её ответов не показало существенного ухудшения. С другой стороны, даже «признаваясь» в своих грехах, она стала вести себя не лучше, но хотя бы честнее. То есть «признание» — это не заградительный барьер, а механизм безопасности, который к тому же работает с переменным успехом.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
«Все ждут GTA VI, а я вот это»: релизный трейлер нуарного шутера Mouse: P.I. For Hire заинтриговал игроков перед скорой премьерой 2 ч.
Tubi стал первым стримингом, интегрированным в ChatGPT 4 ч.
Anthropic оставили в «чёрном списке» — Пентагон выиграл апелляцию 6 ч.
Meta вернулась в ИИгру: «Лаборатория суперинтеллекта» представила мощную нейросеть Muse Spark 11 ч.
Разработчики Forza Horizon 6 показали полную карту Японии и шесть минут из взрывного вступления игры 15 ч.
Microsoft без объяснений заблокировала аккаунт VeraCrypt — выпуск обновлений популярного шифровальщика под Windows сорван 15 ч.
«Сломанная, скучная, безликая»: боевик Samson: A Tyndalston Story от создателя Just Cause разочаровал и критиков, и игроков 16 ч.
Valve, вероятно, разрабатывает SteamGPT — ИИ-поддержку для Steam 16 ч.
VK запустила подписку «VK Видео Премиум» для просмотра роликов без рекламы 16 ч.
Valve выпустила приложение Steam Link для Apple Vision Pro 16 ч.