Сегодня 13 ноября 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

OpenAI: ИИ бесполезно наказывать за ложь — он начинает хитрить ещё больше

Галлюцинации, то есть заведомо неверные ответы, которые иногда дают модели искусственного интеллекта, стали одной из основных проблем всей отрасли — из-за этого некоторые граждане вообще отказываются пользоваться ИИ. Избавиться от таких сбоев может оказаться сложнее, чем предполагалось ранее, выяснили исследователи OpenAI.

 Источник изображения: openai.com

Источник изображения: openai.com

Учёные компании OpenAI опубликовали результаты исследования, в котором описали свои попытки наладить управление сложными, в том числе рассуждающими, моделями ИИ, чтобы не допустить их выхода за установленные рамки. Исследователи применяли уникальные стратегии и методы, в том числе наказания за вредоносные действия и попытки обмануть пользователя. В проекте использовалась, помимо прочего, некая созданная OpenAI, но не вышедшая на рынок модель ИИ, которой поручали различные задачи — их выполнение можно было облегчить, обманув пользователя или отбросив некоторые действия.

Результат обучения модели во многом зависит от этапа обучения с подкреплением, когда за выполнение команды или генерацию правильного ответа она получает вознаграждение. Моделям ИИ свойственно пытаться получить вознаграждение посредством манипуляций, в том числе нарушая некоторые правила и рекомендации, чтобы добиться желаемого результата. Исследователи надеялись, что смогут выявить лазейки и лучше понять поведение ИИ, отслеживая цепочку её рассуждений, но это не помогло. Попытки оптимизировать цепочку рассуждений напрямую, то есть отдать команду не обходить инструкции, дают лишь краткосрочный эффект, установили учёные: «это не устраняет всё нежелательное поведение и может привести к тому, что модель станет скрывать свои истинные намерения».

Авторам проекта пришлось признать, что механизмы мониторинга моделей «хрупки». Строгий надзор за цепочкой рассуждений может побудить ИИ скрывать свои ошибки, чтобы обеспечить себе вознаграждение в обход ограничений. Для наблюдения за испытуемой моделью при выполнении заданий по написанию программного кода использовалась коммерческая GPT-4o — подопытная же допускала небрежности и открыто признавала в цепочке рассуждений, что делала это для получения вознаграждения; например, она преждевременно завершала выполнение некоторых программ. После этого исследователи попытались наказать модель, но эффект от этого оказался недолговечным: в цепочке рассуждений оставались признаки попытки получить вознаграждение обходными путями и дать неправильный ответ. То есть она нашла способ скрывать свои мотивы от контролирующего ИИ.

В этой связи остаётся неясным, готов ли мир к ИИ уровня человека, если проблема сохранится, и вмешиваться человек уже не сможет. Исследователи выразили надежду, что в будущем появятся способы оказывать влияние на модели через их цепочку рассуждений без обмана и скрытых тактик — они предлагают сделать методы оптимизации менее навязчивыми и прямолинейными.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Создатели Lineage и Guild Wars анонсировали MMORPG во вселенной Horizon от Sony — первый геймплей и подробности Horizon Steel Frontiers 49 мин.
ElevenLabs получила разрешение от голливудских звёзд на коммерческое применение их ИИ-голосов 2 ч.
Valve добавит поддержку Android-игр в Steam вместе с VR-гарнитурой 5 ч.
Хоррор об ужасах долговой ямы CloverPit получил хардкорный режим и достиг миллиона проданных копий — разработчики «в полном шоке» 11 ч.
OpenAI представила GPT-5.1 — ChatGPT станет умнее и приятнее в общении 11 ч.
Разработчики Vampire: The Masquerade — Bloodlines 2 рассказали, как будут улучшать игру до конца 2025 года 13 ч.
Российский корпоративный центр сертификации SafeTech CA получил масштабное обновление 13 ч.
«Безмерно благодарны вам»: продажи Kingdom Come: Deliverance 2 взяли новую высоту 14 ч.
Nintendo показала первый трейлер фильма «Галактика Супер Марио в кино» — фанаты в восторге 16 ч.
Google подала в суд на китайскую киберпреступную группировку — она обманула более миллиона человек в 120 странах 16 ч.