Сегодня 10 мая 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Галлюцинации у моделей ИИ случаются реже, чем у людей, заявил глава Anthropic

Современные модели искусственного интеллекта демонстрируют галлюцинации, то есть дают заведомо не соответствующие действительности ответы на вопросы, реже, чем люди. Такое заявление сделал гендиректор Anthropic Дарио Амодеи (Dario Amodei) на проводимой компанией конференции Code with Claude.

 Источник изображения: anthropic.com

Источник изображения: anthropic.com

Галлюцинации, по мнению господина Амодеи, не являются препятствием к разработке сильного ИИ (Artificial General Intelligence — AGI), то есть системы, сравнимой по уровню развития с человеком. «На самом деле всё зависит от подхода, но у меня есть подозрения, что модели ИИ, вероятно, галлюцинируют реже, чем люди, но галлюцинируют они более удивительным образом», — заявил глава Anthropic ресурсу TechCrunch. Дарио Амодеи относится к числу оптимистов в отрасли ИИ. В его прошлогодней статье говорится, что AGI может появиться уже в 2026 году. Поводов отказаться от этой позиции он не нашёл и накануне — по его мнению, в этом направлении наблюдается устойчивый прогресс, и «вода поднимается повсюду». «Все и всегда ищут эти жёсткие ограничения на то, что может делать [ИИ]. Их не видно нигде. Нет такого», — уверен гендиректор Anthropic.

С ним согласны не все. Глава подразделения Google DeepMind Демис Хассабис (Demis Hassabis) на этой неделе заявил, что у сегодняшних моделей ИИ слишком много «дыр», и эти модели дают неправильные ответы на слишком большое число очевидных вопросов. А адвокат самой Anthropic в этом месяце был вынужден извиняться за то, что использованный компанией для составления иска чат-бот Claude указал в цитатах неверные имена и должности. Проверить утверждение господина Амодеи непросто: в большинстве тестов на галлюцинации модели сравниваются друг с другом, а не с человеком. В отдельных случаях число таких проявлений удаётся снизить, открывая чат-ботам доступ к веб-поиску; а OpenAI GPT-4.5 значительно снизила процент галлюцинаций по сравнению с моделями предыдущих поколений. С другой стороны, рассуждающие модели OpenAI o3 и o4-mini, как стало известно ранее, дают не соответствующие действительности ответы чаще, чем предшественники, и пока не удалось установить, почему.

Телеведущие, политики и вообще люди всех профессий совершают ошибки постоянно, указал Дарио Амодеи, и тот факт, что их совершает также ИИ, не может выступать аргументом для критики его способностей. Но, признал он, уверенность, с которой ИИ выдаёт вымысел за факты, может обернуться проблемой. Anthropic уже неоднократно изучала склонность моделей ИИ обманывать людей. Исследовательский институт Apollo Research, которому предоставили ранний доступ к Claude Opus 4, установил, что модель имеет значительные склонности к интригам и обману, и порекомендовала Anthropic отозвать её — разработчик заявил, что принял некоторые меры, которые смягчили выявленные проблемы.

Заявление главы Anthropic свидетельствует, что компания может признать за достаточно развитой моделью ИИ уровень AGI, даже если она не избавилась от галлюцинаций, но некоторые эксперты такую позицию отвергают.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Уютный градостроительный симулятор Town to City выйдет из раннего доступа Steam до конца мая 2 ч.
Nvidia подтвердила утечку данных пользователей GeForce Now через армянские сервера 5 ч.
Ветеран Epic Games взялся за европейскую альтернативу Unreal Engine 8 ч.
Google привязала reCAPTCHA к Play Services и отрезала от верификации пользователей Android без сервисов Google 11 ч.
Новая статья: Heroes of Might and Magic: Olden Era — время расцвета. Предварительный обзор 23 ч.
Anthropic отучила свой ИИ шантажировать пользователей при угрозе отключения 09-05 18:52
Microsoft улучшила работу Windows 11 с тачпадом и сенсорной клавиатурой, а также повысила стабильность «Проводника» 09-05 17:28
Пользователей Instagram лишили сквозного шифрования в личных сообщениях 09-05 16:51
ИИ всё чаще пишет научные статьи — отличить от человеческих становится невозможно, и это пугает 09-05 14:43
ИИ-модель OpenAI GPT-5.5 оказалась в 1,5–2 раза дороже предшественницы 09-05 14:38
ИИ-воронка затягивает всё больше производителей чипов, заставляя расти их акции по экспоненте 2 ч.
Рождение новой SpaceX? Инвесторы с Reddit разогнали акции спутниковой компании AST SpaceMobile на 6000 % 6 ч.
MaxSun выпустила новые MoDT-платы с распаянными Raptor Lake серии Core 200H 8 ч.
Samsung расширила группу по созданию человекоподобных роботов и ускорила ИИ-трансформацию 12 ч.
Nvidia в этом году потратила на покупку активов других компаний более $40 млрд 15 ч.
Стали известны подробности о будущих процессорах Intel Nova Lake, Razor Lake, Titan Lake и Moon Lake, которые будут выходить до 2028 года 15 ч.
Запрещённые к ввозу в США дроны и маршрутизаторы смогут получать обновления безопасности до января 2029 года 21 ч.
Под руководством Лип-Бу Тана компания Intel так и не избавилась от основных проблем 21 ч.
Война на Ближнем Востоке усугубила дефицит строительных материалов и компонентов для ЦОД 23 ч.
Учёные предложили квантовый процессор с подвижными кубитами — он прост в производстве и гибок в работе 24 ч.