Сегодня 27 ноября 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Способность ИИ к пониманию собственных слов оказалась «потёмкинской»

Учёные Массачусетского технологического института, Гарвардского и Чикагского университетов предложили ввести термин «потёмкинское понимание» и обозначить им обнаруженное в больших языковых моделях искусственного интеллекта несоответствие между правильными ответами на вопросы и неспособностью по-настоящему их понимать, чтобы применять эту информацию на практике.

 Источник изображения: Aidin Geranrekab / unsplash.com

Источник изображения: Aidin Geranrekab / unsplash.com

Термин восходит к опровергнутой теперь легенде о «потёмкинских деревнях»: когда императрица Екатерина II в 1787 году приехала в Крым, князь Григорий Потёмкин показывал ей декорации, которые выдавал за настоящие деревни. «Потёмкинское мышление» отличается от «галлюцинаций», при которых ИИ с уверенностью даёт заведомо не соответствующие действительности ответы, — это неспособность понимать концепции так, как это делает человек. В такой ситуации модель успешно проходит контрольный тест, но не понимает связанных с собственным ответом концепций.

«„Потёмкины“ для концептуального знания являются тем же, чем являются галлюцинации для фактических знаний — при галлюцинациях фабрикуются ложные факты; при „потёмкиных“ фабрикуется ложная связь между понятиями», — поясняют авторы предложенный ими термин. В исследовании приводится наглядный пример. Модель OpenAI GPT-4o попросили объяснить, что такое перекрёстная схема рифмовки ABAB — та дала правильный ответ, указав на чередование рифм в первой и третьей, а также второй и четвёртой строках. Но когда её попросили подставить пропущенное слово в четверостишии с перекрёстной рифмовкой, та предложила вариант, который не рифмовался должным образом. То есть модель верно предсказала токены, чтобы объяснить схему ABAB, но не поняла собственный ответ, чтобы воспроизвести эту схему на практике.

 Источник изображения: Steve Johnson / unsplash.com

Источник изображения: Steve Johnson / unsplash.com

Коварный характер «потёмкиных» состоит в том, что они обесценивают контрольные показатели ИИ. Модели тестируются с целью установить их компетентность, но если тест показывает лишь её производительность, но не способность применять материалы вне предлагаемых на испытаниях сценариев, его результаты не имеют значения. Исследователи разработали собственные бенчмарки, чтобы оценить, насколько распространены «потёмкины», и они оказались повсеместными в изучаемых моделях: Llama-3.3 (70B), GPT-4o, Gemini-2.0 (Flash), Claude 3.5 (Sonnet), DeepSeek-V3, DeepSeek-R1м и Qwen2-VL (72B).

В одной из серии испытаний речь шла о литературных приёмах, теории игр и психологических предубеждениях. Она показала, что испытуемые модели верно определяют необходимые понятия (94,2 %), но часто терпят неудачу в попытке классифицировать эти понятия (в среднем 55 % отказов), генерировать примеры (40 % неудач) и редактировать иллюстрации описанных понятий (40 %). Как и в случае со схемами рифмовки, они верно объясняли литературные приёмы, которые использовались к шекспировском сонете, но испытывали сложности с их обнаружением, воспроизведением или редактированием сонета.

«Существование „потёмкиных“ означает, что поведение, которое означало бы понимание у человека, не означает понимания у большой языковой модели. Это значит, что нам нужны либо новые способы проверки больших языковых моделей, чтобы они отвечали на те же вопросы, что используются для проверки людей, либо найти способы исключить это поведение у большой языковой модели», — отметили учёные.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Спустя семь лет разработки Light No Fire до сих пор занимается «крошечная команда» — No Man's Sky остаётся приоритетом Hello Games 35 мин.
Слухи: датамайнеры нашли в файлах Assassin’s Creed Shadows название ремейка Assassin’s Creed IV: Black Flag 2 ч.
Премьера финального сезона «Очень странных дел» сломала Netflix 2 ч.
«Базис» идёт на IPO в декабре 3 ч.
Вот тебе, закупщик, и «Юрьев день» 4 ч.
OpenAI признала утечку данных пользователей через Mixpanel — переписки с ChatGPT остались в безопасности 4 ч.
OpenAI в суде заявила о «неправильном использовании» ChatGPT погибшим подростком 4 ч.
Трафик ИИ-сервисов в России взлетел в шесть раз — ChatGPT лидирует, DeepSeek стремительно догоняет 5 ч.
Необходимое зло: Ubisoft объяснила, зачем добавила в Assassin's Creed Shadows микротранзакции 6 ч.
Создатели The Alters объявили дату выхода крупного обновления — в нём переработают сохранения, добавят фоторежим и многое другое 8 ч.
После провала iPhone Air китайские бренды передумали выпускать сверхтонкие смартфоны 2 ч.
Ракета «Союз-2.1а» за три часа доставила двух россиян и американца на МКС 2 ч.
Foxconn вложит $569 млн в производство ИИ-оборудования и компонентов в Висконсине 2 ч.
«Гарда технологии» представила NPM-решение для контроля производительности и безопасности сети 2 ч.
Комариный хоботок приспособили под сопло для 3D-микропечати — тоньше, дешевле и лучше искусственных 3 ч.
ИИ-пузырь получил соседа: Пекин предупредил о перегреве рынка человекоподобных роботов 3 ч.
В России начались продажи 12-дюймового планшета Poco Pad M1 с батарей на 12 000 мА·ч и ценой 29 990 рублей 3 ч.
Процессоры Huawei Kirin 9030 и Kirin 9030 Pro оказались не такими уж похожими 4 ч.
«Гаражная» компания запустила предзаказ на одноместный летающий мотоцикл с предоплатой в $999 4 ч.
Sony представила свой первый 200-Мп сенсор Lytia-901 для флагманских смартфонов — он больше конкурента от Samsung 4 ч.