Сегодня 23 июля 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Поумневшие ИИ-модели OpenAI o3 и o4-mini проявили повышенную склонность к галлюцинациям

На этой неделе OpenAI выпустила модели искусственного интеллекта o3 и o4-mini. Они стали передовыми во многих отношениях, однако чаще галлюцинируют — то есть с уверенностью дают не соответствующие действительности ответы — по сравнению со своими предшественниками.

 Источник изображений: Mariia Shalabaieva / unsplash.com

Источник изображений: Mariia Shalabaieva / unsplash.com

Проблема галлюцинаций остаётся одной из крупнейших и наиболее сложных в современной отрасли ИИ — она затрагивает даже самые эффективные современные системы. Исторически каждая последующая модель демонстрировала улучшения в этом аспекте, то есть снижение количества галлюцинаций по сравнению с предыдущими версиями. Однако к o3 и o4-mini это, по-видимому, не относится. Новые системы от OpenAI галлюцинируют чаще, чем предыдущие рассуждающие модели компании, включая o1, o1-mini и o3-mini, а также традиционные «нерассуждающие», такие как GPT-4o, — гласят собственные тесты разработчика.

Некоторую тревогу вызывает то, что и сама компания не знает, почему так происходит. В техническом отчёте (PDF) она указывает, что «необходимы дополнительные исследования», чтобы понять, почему частота галлюцинаций увеличивается по мере масштабирования рассуждающих моделей. OpenAI o3 и o4-mini лучше предшественников справляются с рядом задач, в том числе в области математики и программирования, однако, поскольку «в целом они делают больше заявлений», они также чаще делают как «более точные заявления», так и «более неточные или галлюцинаторные», — говорится в отчёте разработчика.

 Источник изображений: Mariia Shalabaieva / unsplash.com

В собственном тесте OpenAI PersonQA, предназначенном для оценки знаний моделей о людях, o3 допускала галлюцинации в 33 % случаев, что примерно вдвое превышает частоту аналогичных ошибок у предыдущих рассуждающих моделей o1 и o3-mini (16 % и 14,8 % соответственно). Модель o4-mini в том же тесте галлюцинировала в 48 % случаев. Сторонний тест Transluce, проведённый независимым разработчиком, показал, что o3 имеет склонность выдумывать действия, которые она якобы предпринимала при подготовке ответов. В одном из случаев она утверждала, что запускала программный код на Apple MacBook Pro 2021 года «вне ChatGPT» и копировала числа в свой ответ. При этом у o3 действительно есть доступ к некоторым инструментам, но выполнить такое действие она не могла.

Согласно одной из версий, проблема с галлюцинациями, частота которых ранее снижалась при подключении стандартных средств после основного этапа обучения, могла, напротив, усугубиться из-за применения использованного для моделей серии «o» типа обучения с подкреплением. В результате модель OpenAI o3 может оказаться недостаточно полезной на практике, считают эксперты. Также было обнаружено, что в задачах, связанных с программированием, она значительно превосходит другие модели, но иногда дополняет код неработающими ссылками на веб-сайты.

Одним из многообещающих подходов к снижению числа галлюцинаций является открытие функций веб-поиска для моделей. Так, GPT-4o удалось добиться 90 % правильных ответов в эталонном тесте OpenAI SimpleQA. Возможно, это решение окажется эффективным и для рассуждающих моделей. «Устранение галлюцинаций во всех наших моделях — актуальная область исследований, и мы постоянно работаем над повышением их точности и надёжности», — заявили в OpenAI ресурсу TechCrunch.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
MacBook превратили в электронные весы с помощью простого приложения 2 ч.
Amazon по примеру других американских компаний закрыла ИИ-лабораторию в Китае 2 ч.
Microsoft переманила десятки талантливых сотрудников Google DeepMind для превосходства в ИИ 2 ч.
«Вдохновил бесчисленное количество разработчиков»: ушёл из жизни отец The Elder Scrolls Джулиан Лефэй 2 ч.
Alibaba выпустила «самую мощную» ИИ-модель для программирования — вышла открытая Qwen3-Coder 3 ч.
Китайские хакеры взломали Управление ядерной безопасности США через уязвимость в SharePoint 3 ч.
Эксперты рассказали, как не получить штраф за поиск экстремистских материалов 3 ч.
Файтинг 2XKO по мотивам League of Legends взял курс на закрытую «бету» — геймплейный трейлер Вай 4 ч.
Билайн BI и Astra Linux: мощная аналитика для бизнеса теперь с гарантией безопасности и совместимости 4 ч.
Ни слова по-русски, $70 за стандартное издание и релиз в октябре: датамайнеры выяснили новые подробности Battlefield 6 5 ч.
Илон Маск объявил, что ИИ-суперкомпьютер xAI Colossus 2 запустят в ближайшие недели 3 мин.
Южная Корея собралась построить базу на Луне и отправить миссию на Марс 2 ч.
Россияне потратили рекордные 22,2 млрд рублей на умные колонки в первом полугодии — почти всё получил «Яндекс» 2 ч.
Тайвань увидел в ИИ возможность создать полмиллиона рабочих мест и повысить ВВП на $510 млрд 2 ч.
Через 14 лет после Фукусимы в Японии снова начнут строить ядерные реакторы 2 ч.
В Москве не осталось бесплатных зарядок для электромобилей 3 ч.
Электрический кроссовер Xiaomi YU7 Max оказался на 8 «лошадей» мощнее заявленного 3 ч.
Ускоритель Hailo-10H обеспечивает поддержку генеративного ИИ на периферии 3 ч.
Поддержка DDR6 начнёт внедряться в следующем году, но поставки новой памяти наладятся только в 2027-м 4 ч.
Европа стряхнула пыль с марсианского парашюта для миссии ExoMars и испытала его над Арктикой 5 ч.