Сегодня 18 февраля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Поумневшие ИИ-модели OpenAI o3 и o4-mini проявили повышенную склонность к галлюцинациям

На этой неделе OpenAI выпустила модели искусственного интеллекта o3 и o4-mini. Они стали передовыми во многих отношениях, однако чаще галлюцинируют — то есть с уверенностью дают не соответствующие действительности ответы — по сравнению со своими предшественниками.

 Источник изображений: Mariia Shalabaieva / unsplash.com

Источник изображений: Mariia Shalabaieva / unsplash.com

Проблема галлюцинаций остаётся одной из крупнейших и наиболее сложных в современной отрасли ИИ — она затрагивает даже самые эффективные современные системы. Исторически каждая последующая модель демонстрировала улучшения в этом аспекте, то есть снижение количества галлюцинаций по сравнению с предыдущими версиями. Однако к o3 и o4-mini это, по-видимому, не относится. Новые системы от OpenAI галлюцинируют чаще, чем предыдущие рассуждающие модели компании, включая o1, o1-mini и o3-mini, а также традиционные «нерассуждающие», такие как GPT-4o, — гласят собственные тесты разработчика.

Некоторую тревогу вызывает то, что и сама компания не знает, почему так происходит. В техническом отчёте (PDF) она указывает, что «необходимы дополнительные исследования», чтобы понять, почему частота галлюцинаций увеличивается по мере масштабирования рассуждающих моделей. OpenAI o3 и o4-mini лучше предшественников справляются с рядом задач, в том числе в области математики и программирования, однако, поскольку «в целом они делают больше заявлений», они также чаще делают как «более точные заявления», так и «более неточные или галлюцинаторные», — говорится в отчёте разработчика.

 Источник изображений: Mariia Shalabaieva / unsplash.com

В собственном тесте OpenAI PersonQA, предназначенном для оценки знаний моделей о людях, o3 допускала галлюцинации в 33 % случаев, что примерно вдвое превышает частоту аналогичных ошибок у предыдущих рассуждающих моделей o1 и o3-mini (16 % и 14,8 % соответственно). Модель o4-mini в том же тесте галлюцинировала в 48 % случаев. Сторонний тест Transluce, проведённый независимым разработчиком, показал, что o3 имеет склонность выдумывать действия, которые она якобы предпринимала при подготовке ответов. В одном из случаев она утверждала, что запускала программный код на Apple MacBook Pro 2021 года «вне ChatGPT» и копировала числа в свой ответ. При этом у o3 действительно есть доступ к некоторым инструментам, но выполнить такое действие она не могла.

Согласно одной из версий, проблема с галлюцинациями, частота которых ранее снижалась при подключении стандартных средств после основного этапа обучения, могла, напротив, усугубиться из-за применения использованного для моделей серии «o» типа обучения с подкреплением. В результате модель OpenAI o3 может оказаться недостаточно полезной на практике, считают эксперты. Также было обнаружено, что в задачах, связанных с программированием, она значительно превосходит другие модели, но иногда дополняет код неработающими ссылками на веб-сайты.

Одним из многообещающих подходов к снижению числа галлюцинаций является открытие функций веб-поиска для моделей. Так, GPT-4o удалось добиться 90 % правильных ответов в эталонном тесте OpenAI SimpleQA. Возможно, это решение окажется эффективным и для рассуждающих моделей. «Устранение галлюцинаций во всех наших моделях — актуальная область исследований, и мы постоянно работаем над повышением их точности и надёжности», — заявили в OpenAI ресурсу TechCrunch.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
В США заподозрили Lenovo в шпионаже за американцами через рекламные трекеры 43 мин.
Lenovo обвинили в массовой передаче данных американцев в Китай 7 ч.
Меньше галлюцинаций и миллионный контекст: Anthropic представила Sonnet 4.6 и она уже доступна бесплатно в Claude 8 ч.
Activision подтвердила дату смерти Call of Duty: Warzone Mobile — игру закроют спустя всего два года после запуска 9 ч.
Unity пообещала ИИ, который позволит создавать игры по текстовому описанию — вообще без программирования 11 ч.
Хакеры применили поддельные страницы CAPTCHA для распространения вирусов для Windows 11 ч.
Российский бизнес распробовал ИИ от Яндекса — потребление токенов за год выросло всемеро 12 ч.
Microsoft подтвердила релиз Kingdom Come: Deliverance 2 в Game Pass, а скоро в подписку добавят полное издание The Witcher 3: Wild Hunt 13 ч.
Microsoft обвинили в незаконном сборе голосовых данных в Teams в течение пяти лет 13 ч.
В ChatGPT появился «Режим блокировки» и маркировка повышенного риска для защиты важных данных 13 ч.
Apple готовится представить видеодомофон с Face ID и интеграцией с умным замком 2 ч.
Meta закупит миллионы ИИ-чипов у Nvidia, включая центральные процессоры 2 ч.
Новая статья: Обзор блока питания Formula V Line FV-1000PM 6 ч.
Следующая Google I/O пройдёт 19–20 мая — ожидаются анонсы, связанные с Gemini, Android и не только 7 ч.
Что-то на богатом: Dreame показала роскошный смартфон Aurora в золоте и драгоценных камнях 7 ч.
Новая статья: Обзор сервера iRU Rock G2212IG6 на базе Intel Xeon 6 7 ч.
Siri научат «видеть» мир: Apple форсирует разработку очков, кулона и AirPods со встроенными камерами 8 ч.
Tecno представила смартфоны Camon 50 и 50 Pro с чипами Helio G200, 50-Мп камерами и батареями на 6150 мА⋅ч 8 ч.
Китай вывел гуманоидных роботов на сцену главного новогоднего шоу страны — они показали своё кунг-фу 11 ч.
SK hynix предложила неоригинальный костыль для ускорения ИИ-моделей — гибридную архитектуру памяти HBM/HBF 11 ч.