Сегодня 03 мая 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → концепция

Способность ИИ к пониманию собственных слов оказалась «потёмкинской»

Учёные Массачусетского технологического института, Гарвардского и Чикагского университетов предложили ввести термин «потёмкинское понимание» и обозначить им обнаруженное в больших языковых моделях искусственного интеллекта несоответствие между правильными ответами на вопросы и неспособностью по-настоящему их понимать, чтобы применять эту информацию на практике.

 Источник изображения: Aidin Geranrekab / unsplash.com

Источник изображения: Aidin Geranrekab / unsplash.com

Термин восходит к опровергнутой теперь легенде о «потёмкинских деревнях»: когда императрица Екатерина II в 1787 году приехала в Крым, князь Григорий Потёмкин показывал ей декорации, которые выдавал за настоящие деревни. «Потёмкинское мышление» отличается от «галлюцинаций», при которых ИИ с уверенностью даёт заведомо не соответствующие действительности ответы, — это неспособность понимать концепции так, как это делает человек. В такой ситуации модель успешно проходит контрольный тест, но не понимает связанных с собственным ответом концепций.

«„Потёмкины“ для концептуального знания являются тем же, чем являются галлюцинации для фактических знаний — при галлюцинациях фабрикуются ложные факты; при „потёмкиных“ фабрикуется ложная связь между понятиями», — поясняют авторы предложенный ими термин. В исследовании приводится наглядный пример. Модель OpenAI GPT-4o попросили объяснить, что такое перекрёстная схема рифмовки ABAB — та дала правильный ответ, указав на чередование рифм в первой и третьей, а также второй и четвёртой строках. Но когда её попросили подставить пропущенное слово в четверостишии с перекрёстной рифмовкой, та предложила вариант, который не рифмовался должным образом. То есть модель верно предсказала токены, чтобы объяснить схему ABAB, но не поняла собственный ответ, чтобы воспроизвести эту схему на практике.

 Источник изображения: Steve Johnson / unsplash.com

Источник изображения: Steve Johnson / unsplash.com

Коварный характер «потёмкиных» состоит в том, что они обесценивают контрольные показатели ИИ. Модели тестируются с целью установить их компетентность, но если тест показывает лишь её производительность, но не способность применять материалы вне предлагаемых на испытаниях сценариев, его результаты не имеют значения. Исследователи разработали собственные бенчмарки, чтобы оценить, насколько распространены «потёмкины», и они оказались повсеместными в изучаемых моделях: Llama-3.3 (70B), GPT-4o, Gemini-2.0 (Flash), Claude 3.5 (Sonnet), DeepSeek-V3, DeepSeek-R1м и Qwen2-VL (72B).

В одной из серии испытаний речь шла о литературных приёмах, теории игр и психологических предубеждениях. Она показала, что испытуемые модели верно определяют необходимые понятия (94,2 %), но часто терпят неудачу в попытке классифицировать эти понятия (в среднем 55 % отказов), генерировать примеры (40 % неудач) и редактировать иллюстрации описанных понятий (40 %). Как и в случае со схемами рифмовки, они верно объясняли литературные приёмы, которые использовались к шекспировском сонете, но испытывали сложности с их обнаружением, воспроизведением или редактированием сонета.

«Существование „потёмкиных“ означает, что поведение, которое означало бы понимание у человека, не означает понимания у большой языковой модели. Это значит, что нам нужны либо новые способы проверки больших языковых моделей, чтобы они отвечали на те же вопросы, что используются для проверки людей, либо найти способы исключить это поведение у большой языковой модели», — отметили учёные.


window-new
Soft
Hard
Тренды 🔥
OpenAI добавила в Codex анимированных ИИ-«питомцев» для напоминаний о ходе работы — пока на Windows и macOS 32 мин.
Microsoft адаптировала Azure Local для крупномасштабных суверенных облаков 8 ч.
Nebius купила стартап Eigen AI, повышающий производительность ИИ-моделей 8 ч.
Прощай, Дживс: поисковая система Ask.com закрылась спустя четверть века 12 ч.
Sony придётся выплатить $7,8 млн пользователям PlayStation Network по коллективному иску 13 ч.
xAI выпустила Grok 4.3: более дешёвую ИИ-модель с упором на агентские задачи и практическую эффективность 13 ч.
OpenAI без лишнего шума изменила правила работы с персональными данными пользователей ChatGPT 14 ч.
Новая статья: Windrose — пираты в моде при любой погоде. Предварительный обзор 21 ч.
76 % всей украденной за 2026 год криптовалюты осели в КНДР 02-05 17:13
Власти США намерены резко ускорить устранение критических уязвимостей в IT-системах 02-05 15:50
Астрономы зафиксировали у галактики «Сомбреро» прежде невидимое гало — более чем втрое шире самой галактики 3 ч.
Boston Dynamics покинули несколько топ-менеджеров за короткий период времени 8 ч.
Fractal Design выпустила панорамный корпус Pop 2 Vision с двухкамерной компоновкой и реверсивными вентиляторами 9 ч.
Выросли в цене даже восстановленные игровые консоли Sony PlayStation 5 12 ч.
С новой линии в Неваде сошёл первый серийный электрический грузовик Tesla Semi 15 ч.
Meta увеличила прогноз по капзатратам на год из-за роста цен и затрат на ЦОД 20 ч.
Qualcomm готовится поставлять чипы гиперскейлеру — инвесторы довольны, поскольку на мобильном направлении не всё гладко 21 ч.
Учёные создали искусственные нейроны, сигналы которых живой мозг воспринял как свои 23 ч.
NASA зальёт деньгами производителей лунных посадочных модулей — без них база на Луне не появится 02-05 15:12
Поиском мест для добычи воды на Марсе займутся дроны с георадарами 02-05 14:02