Сегодня 19 марта 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Поумневшие ИИ-модели OpenAI o3 и o4-mini проявили повышенную склонность к галлюцинациям

На этой неделе OpenAI выпустила модели искусственного интеллекта o3 и o4-mini. Они стали передовыми во многих отношениях, однако чаще галлюцинируют — то есть с уверенностью дают не соответствующие действительности ответы — по сравнению со своими предшественниками.

 Источник изображений: Mariia Shalabaieva / unsplash.com

Источник изображений: Mariia Shalabaieva / unsplash.com

Проблема галлюцинаций остаётся одной из крупнейших и наиболее сложных в современной отрасли ИИ — она затрагивает даже самые эффективные современные системы. Исторически каждая последующая модель демонстрировала улучшения в этом аспекте, то есть снижение количества галлюцинаций по сравнению с предыдущими версиями. Однако к o3 и o4-mini это, по-видимому, не относится. Новые системы от OpenAI галлюцинируют чаще, чем предыдущие рассуждающие модели компании, включая o1, o1-mini и o3-mini, а также традиционные «нерассуждающие», такие как GPT-4o, — гласят собственные тесты разработчика.

Некоторую тревогу вызывает то, что и сама компания не знает, почему так происходит. В техническом отчёте (PDF) она указывает, что «необходимы дополнительные исследования», чтобы понять, почему частота галлюцинаций увеличивается по мере масштабирования рассуждающих моделей. OpenAI o3 и o4-mini лучше предшественников справляются с рядом задач, в том числе в области математики и программирования, однако, поскольку «в целом они делают больше заявлений», они также чаще делают как «более точные заявления», так и «более неточные или галлюцинаторные», — говорится в отчёте разработчика.

 Источник изображений: Mariia Shalabaieva / unsplash.com

В собственном тесте OpenAI PersonQA, предназначенном для оценки знаний моделей о людях, o3 допускала галлюцинации в 33 % случаев, что примерно вдвое превышает частоту аналогичных ошибок у предыдущих рассуждающих моделей o1 и o3-mini (16 % и 14,8 % соответственно). Модель o4-mini в том же тесте галлюцинировала в 48 % случаев. Сторонний тест Transluce, проведённый независимым разработчиком, показал, что o3 имеет склонность выдумывать действия, которые она якобы предпринимала при подготовке ответов. В одном из случаев она утверждала, что запускала программный код на Apple MacBook Pro 2021 года «вне ChatGPT» и копировала числа в свой ответ. При этом у o3 действительно есть доступ к некоторым инструментам, но выполнить такое действие она не могла.

Согласно одной из версий, проблема с галлюцинациями, частота которых ранее снижалась при подключении стандартных средств после основного этапа обучения, могла, напротив, усугубиться из-за применения использованного для моделей серии «o» типа обучения с подкреплением. В результате модель OpenAI o3 может оказаться недостаточно полезной на практике, считают эксперты. Также было обнаружено, что в задачах, связанных с программированием, она значительно превосходит другие модели, но иногда дополняет код неработающими ссылками на веб-сайты.

Одним из многообещающих подходов к снижению числа галлюцинаций является открытие функций веб-поиска для моделей. Так, GPT-4o удалось добиться 90 % правильных ответов в эталонном тесте OpenAI SimpleQA. Возможно, это решение окажется эффективным и для рассуждающих моделей. «Устранение галлюцинаций во всех наших моделях — актуальная область исследований, и мы постоянно работаем над повышением их точности и надёжности», — заявили в OpenAI ресурсу TechCrunch.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Студия в ответе за классические Rainbow Six и Ghost Recon перестанет делать игры — Ubisoft уволила всех разработчиков в Red Storm Entertainment 30 мин.
Новый трейлер подтвердил дату выхода и стоимость Vampire Crawlers — безумного карточного ответвления от Vampire Survivors 2 ч.
ИИ-генератор изображений Adobe Firefly теперь можно обучать на своих работах 2 ч.
Вышел ContentReader PDF 16 — российский заменитель Abbyy FineReader со встроенным ИИ-ассистентом 3 ч.
ИИ-агент спровоцировал сотрудников Meta создать «дыру» в безопасности компании 3 ч.
Звезда Resident Evil Requiem Леон Кеннеди оказался женат, и Capcom не спешит раскрывать избранницу 3 ч.
Instagram и TikTok опаснее для психики, чем Facebook и WhatsApp, показало исследование 3 ч.
Глава Take-Two не может представить, что кто-то не хочет играть в GTA VI 3 ч.
МТС Exolve внедрила цифровые коммуникационные решения в «СтройЭнергоКом» 4 ч.
Роскомнадзор опроверг сообщения о том, что перестал справляться с блокировками в Рунете 5 ч.
MicroLED вместо лазеров: Microsoft создаёт новое поколение энергоэффективных оптических интерконнектов для ИИ ЦОД 23 мин.
Глава Ferrari объяснил популярность сенсорных экранов в авто — они вдвое дешевле кнопок 54 мин.
Arctic представила подстольный ПК Senza AI 370 — он ещё и не шумит 2 ч.
Sony неожиданно обновила двадцатилетнюю PlayStation 3 — чтобы та не разучилась воспроизводить диски Blu-ray 2 ч.
ИИ разогнал рост контрактного производства чипов почти на треть — до $218,8 млрд в 2026 году 3 ч.
Kioxia представила серверный SSD Super High IOPS — он ускорит работу ИИ на чипах Nvidia 3 ч.
16 тыс. км без регенерации сигнала: Ciena и Meta установили рекорд дальности и скорости передачи данных по подводному кабелю Bifrotst 5 ч.
Регулятор США углубил расследование в отношении автопилота Tesla после девяти ДТП 5 ч.
Лунный экипаж NASA повторно ушёл на карантин — все настроены на полёт через две недели 5 ч.
Игровые ноутбуки на новых процессорах Intel не выйдут все сразу — сначала лишь Lenovo, Razer и Dell 6 ч.