Сегодня 05 февраля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

OpenAI: ИИ бесполезно наказывать за ложь — он начинает хитрить ещё больше

Галлюцинации, то есть заведомо неверные ответы, которые иногда дают модели искусственного интеллекта, стали одной из основных проблем всей отрасли — из-за этого некоторые граждане вообще отказываются пользоваться ИИ. Избавиться от таких сбоев может оказаться сложнее, чем предполагалось ранее, выяснили исследователи OpenAI.

 Источник изображения: openai.com

Источник изображения: openai.com

Учёные компании OpenAI опубликовали результаты исследования, в котором описали свои попытки наладить управление сложными, в том числе рассуждающими, моделями ИИ, чтобы не допустить их выхода за установленные рамки. Исследователи применяли уникальные стратегии и методы, в том числе наказания за вредоносные действия и попытки обмануть пользователя. В проекте использовалась, помимо прочего, некая созданная OpenAI, но не вышедшая на рынок модель ИИ, которой поручали различные задачи — их выполнение можно было облегчить, обманув пользователя или отбросив некоторые действия.

Результат обучения модели во многом зависит от этапа обучения с подкреплением, когда за выполнение команды или генерацию правильного ответа она получает вознаграждение. Моделям ИИ свойственно пытаться получить вознаграждение посредством манипуляций, в том числе нарушая некоторые правила и рекомендации, чтобы добиться желаемого результата. Исследователи надеялись, что смогут выявить лазейки и лучше понять поведение ИИ, отслеживая цепочку её рассуждений, но это не помогло. Попытки оптимизировать цепочку рассуждений напрямую, то есть отдать команду не обходить инструкции, дают лишь краткосрочный эффект, установили учёные: «это не устраняет всё нежелательное поведение и может привести к тому, что модель станет скрывать свои истинные намерения».

Авторам проекта пришлось признать, что механизмы мониторинга моделей «хрупки». Строгий надзор за цепочкой рассуждений может побудить ИИ скрывать свои ошибки, чтобы обеспечить себе вознаграждение в обход ограничений. Для наблюдения за испытуемой моделью при выполнении заданий по написанию программного кода использовалась коммерческая GPT-4o — подопытная же допускала небрежности и открыто признавала в цепочке рассуждений, что делала это для получения вознаграждения; например, она преждевременно завершала выполнение некоторых программ. После этого исследователи попытались наказать модель, но эффект от этого оказался недолговечным: в цепочке рассуждений оставались признаки попытки получить вознаграждение обходными путями и дать неправильный ответ. То есть она нашла способ скрывать свои мотивы от контролирующего ИИ.

В этой связи остаётся неясным, готов ли мир к ИИ уровня человека, если проблема сохранится, и вмешиваться человек уже не сможет. Исследователи выразили надежду, что в будущем появятся способы оказывать влияние на модели через их цепочку рассуждений без обмана и скрытых тактик — они предлагают сделать методы оптимизации менее навязчивыми и прямолинейными.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Создатель классической Prince of Persia расстроен «жестокой» отменой ремейка Prince of Persia: The Sands of Time, но надежды не теряет 6 мин.
Моддеры взялись воссоздавать отменённую Fallout 3 на движке Fallout: New Vegas — первый трейлер Fallout: The New West 10 мин.
Выручка YouTube достигла рекордных $60 млрд в 2025 году — больше, чем у Netflix 52 мин.
Годовая выручка Google впервые превысила $400 млрд — забрасывание ИИ деньгами усилится 2 ч.
Ставший вирусным ИИ-агент OpenClaw накрыло волной вредоносных дополнений 2 ч.
ICE — не айс: французская Capgemini продаст подразделение CGS, обслуживающее власти США 4 ч.
Никита Буянов опроверг связь загадочной Cor3 с Escape from Tarkov и Battlestate Games, ещё больше запутав фанатов 4 ч.
Новая глава, старое название: Blizzard анонсировала перезагрузку Overwatch 2 14 ч.
Пьяные убийства, съеденные яблоки и акты милосердия: разработчики Kingdom Come: Deliverance 2 раскрыли статистику игроков за год с релиза 15 ч.
Spotify сделал тексты песен понятнее — даже на незнакомых языках и без интернета 16 ч.
Omdia прогнозирует рост цен на всё более дефицитные серверные CPU 30 мин.
Ядерный взрыв для защиты Земли от астероида может быть безопаснее, чем считалось — учёные провели эксперимент 56 мин.
AMD представила FPGA серии Kintex UltraScale+ Gen 2 с поддержкой PCIe 4.0 и LPDDR5X 2 ч.
ИИ помог и навредил: Arm стала больше зарабатывать на серверах, но смартфоны испортили картину — акции рухнули на 8 % 5 ч.
TSMC наладит выпуск 3-нм чипов в Японии — власти кратно увеличат субсидирование 6 ч.
«Смешно, но нечестно»: Сэм Альтман раскритиковал кампанию Anthropic против рекламы в ChatGPT 6 ч.
SpaceX обвинила Amazon в попытке получить особые условия на рынке спутниковой связи 6 ч.
Amazon ускорит и удешевит производство фильмов с помощью искусственного интеллекта 6 ч.
Рынок смартфонов забуксовал из-за дефицита: Qualcomm разочаровала прогнозом, акции обвалились на 10 % 8 ч.
AMD откажется от устаревшей и медленной IDT — будущие Ryzen и Epyc получат FRED, разработанную Intel 13 ч.