Сегодня 19 июня 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

OpenAI: ИИ бесполезно наказывать за ложь — он начинает хитрить ещё больше

Галлюцинации, то есть заведомо неверные ответы, которые иногда дают модели искусственного интеллекта, стали одной из основных проблем всей отрасли — из-за этого некоторые граждане вообще отказываются пользоваться ИИ. Избавиться от таких сбоев может оказаться сложнее, чем предполагалось ранее, выяснили исследователи OpenAI.

 Источник изображения: openai.com

Источник изображения: openai.com

Учёные компании OpenAI опубликовали результаты исследования, в котором описали свои попытки наладить управление сложными, в том числе рассуждающими, моделями ИИ, чтобы не допустить их выхода за установленные рамки. Исследователи применяли уникальные стратегии и методы, в том числе наказания за вредоносные действия и попытки обмануть пользователя. В проекте использовалась, помимо прочего, некая созданная OpenAI, но не вышедшая на рынок модель ИИ, которой поручали различные задачи — их выполнение можно было облегчить, обманув пользователя или отбросив некоторые действия.

Результат обучения модели во многом зависит от этапа обучения с подкреплением, когда за выполнение команды или генерацию правильного ответа она получает вознаграждение. Моделям ИИ свойственно пытаться получить вознаграждение посредством манипуляций, в том числе нарушая некоторые правила и рекомендации, чтобы добиться желаемого результата. Исследователи надеялись, что смогут выявить лазейки и лучше понять поведение ИИ, отслеживая цепочку её рассуждений, но это не помогло. Попытки оптимизировать цепочку рассуждений напрямую, то есть отдать команду не обходить инструкции, дают лишь краткосрочный эффект, установили учёные: «это не устраняет всё нежелательное поведение и может привести к тому, что модель станет скрывать свои истинные намерения».

Авторам проекта пришлось признать, что механизмы мониторинга моделей «хрупки». Строгий надзор за цепочкой рассуждений может побудить ИИ скрывать свои ошибки, чтобы обеспечить себе вознаграждение в обход ограничений. Для наблюдения за испытуемой моделью при выполнении заданий по написанию программного кода использовалась коммерческая GPT-4o — подопытная же допускала небрежности и открыто признавала в цепочке рассуждений, что делала это для получения вознаграждения; например, она преждевременно завершала выполнение некоторых программ. После этого исследователи попытались наказать модель, но эффект от этого оказался недолговечным: в цепочке рассуждений оставались признаки попытки получить вознаграждение обходными путями и дать неправильный ответ. То есть она нашла способ скрывать свои мотивы от контролирующего ИИ.

В этой связи остаётся неясным, готов ли мир к ИИ уровня человека, если проблема сохранится, и вмешиваться человек уже не сможет. Исследователи выразили надежду, что в будущем появятся способы оказывать влияние на модели через их цепочку рассуждений без обмана и скрытых тактик — они предлагают сделать методы оптимизации менее навязчивыми и прямолинейными.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
В Elden Ring Nightreign без предупреждения добавили хардкорную версию одного из финальных боссов, и это только начало 4 ч.
Telegram временно запретили в Малайзии за отказ сотрудничать с властями 4 ч.
Входить в Facebook можно будет с помощью ключей доступа 4 ч.
Capcom анонсировала игровую презентацию Capcom Spotlight — покажут Resident Evil Requiem, Pragmata и не только 7 ч.
«Весёлая, простая и красивая»: Midjourney запустила V1 — свою первую ИИ-модель для генерации видео по изображениям 7 ч.
OpenAI перестанет работать с ИИ-стартапом Scale AI из-за его сближения с Meta 7 ч.
Google интегрирует в YouTube Shorts свою новую ИИ-модель генерации видео Veo 3 9 ч.
В переговорах OpenAI и Microsoft сохраняется несколько важных противоречий 10 ч.
OpenAI вскрыла тёмные личности в ИИ, отвечающие за ложь, сарказм и токсичные ответы 17 ч.
ИИ-поисковик Google научился понимать голосовые запросы, но доступна функция не всем 18 ч.
Беспилотные такси в городах России появятся не раньше 2030 года 22 мин.
Здесь ЦОД с ИИ, здесь Grok'ом пахнет: экоактивисты подали в суд на xAI за использование газовых турбин для суперкомпьютера Colossus 24 мин.
Космический шедевр — создано самое детальное и самое многоцветное изображение галактики 2 ч.
Разработку российского электромобиля e-Neva заморозили 3 ч.
«Билайн» выходит на орбиту: оператор подключится к спутникам «российского Starlink» 3 ч.
Bloom Energy: к 2030 году более четверти ЦОД в США обзаведутся собственными электростанциями 4 ч.
Учёные MIT научили 3D-принтеры печатать из стекла — и для этого не нужен жар печи 4 ч.
«Лаборатория Касперского» спасла от ликвидации свою компанию в Великобритании 4 ч.
Антирекорд SpaceX: корабль Starship зрелищно взорвался, даже не оторвавшись от земли 6 ч.
Honor выпустит самый тонкий и лёгкий складной смартфон в мире раньше, чем Samsung 6 ч.