Сегодня 13 февраля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Генеративный ИИ не понимает устройство мира, показало исследование MIT

Генеративные ИИ-модели будоражат воображение руководителей многих компаний, обещая автоматизацию и замену миллионов рабочих мест. Однако учёные Массачусетского технологического института (MIT) предостерегают: ИИ хотя и даёт правдоподобные ответы, в действительности не обладает пониманием сложных систем и ограничивается предсказаниями. В задачах реального мира, будь то логические рассуждения, навигация, химия или игры, ИИ демонстрирует значительные ограничения.

 Источник изображения: HUNGQUACH679PNG / Pixabay

Источник изображения: HUNGQUACH679PNG / Pixabay

Современные большие языковые модели (LLM), такие как GPT-4, создают впечатление продуманного ответа на сложные запросы пользователей, хотя на самом деле они лишь точно предсказывают наиболее вероятные слова, которые следует поместить рядом с предыдущими в определённом контексте. Чтобы проверить, способны ли ИИ-модели действительно «понимать» реальный мир, учёные MIT разработали метрики, предназначенные для объективной проверки их интеллектуальных способностей.

Одной из задач эксперимента стала оценка способности ИИ к генерации пошаговых инструкций для навигации по улицам Нью-Йорка. Несмотря на то что генеративные ИИ в определённой степени демонстрируют «неявное» усвоение законов окружающего мира, это не является эквивалентом подлинного понимания. Для повышения точности оценки исследователи создали формализованные методы, позволяющие анализировать, насколько корректно ИИ воспринимает и интерпретирует реальные ситуации.

Основное внимание в исследовании MIT было уделено трансформерам — типу генеративных ИИ-моделей, используемых в таких популярных сервисах, как GPT-4. Трансформеры обучаются на обширных массивах текстовых данных, что позволяет им достигать высокой точности в подборе последовательностей слов и создавать правдоподобные тексты.

Чтобы глубже исследовать возможности таких систем, учёные использовали класс задач, известных как детерминированные конечные автоматы (Deterministic Finite Automaton, DFA), которые охватывают такие области, как логика, географическая навигация, химия и даже стратегии в играх. В рамках эксперимента исследователи выбрали две разные задачи — вождение автомобиля по улицам Нью-Йорка и игру в «Отелло», чтобы проверить способность ИИ правильно понимать лежащие в их основе правила.

Как отметил постдок Гарвардского университета Кейон Вафа (Keyon Vafa), ключевая цель эксперимента заключалась в проверке способности ИИ-моделей восстанавливать внутреннюю логику сложных систем: «Нам нужны были испытательные стенды, на которых мы точно знали бы, как выглядит модель мира. Теперь мы можем строго продумать, что значит восстановить эту модель мира».

Результаты тестирования показали, что трансформеры способны выдавать корректные маршруты и предлагать правильные ходы в игре «Отелло», когда условия задач точно определены. Однако при добавлении усложняющих факторов, таких как объездные пути в Нью-Йорке, ИИ-модели начали генерировать нелогичные варианты маршрутов, предлагая случайные эстакады, которых на самом деле не существовало.

Исследование MIT показало принципиальные ограничения генеративных ИИ-моделей, особенно в тех задачах, где требуется гибкость мышления и способность адаптироваться к реальным условиям. Хотя существующие ИИ-модели могут впечатлять своей способностью генерировать правдоподобные ответы, они остаются всего лишь инструментами предсказания, а не полноценными интеллектуальными системами.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
«Google Документы» научились кратко пересказывать текстовые файлы 29 мин.
Культовый шутер Unreal Tournament 2004 вернулся из цифрового небытия и официально доступен бесплатно 31 мин.
Хакеры-пираты Anna’s Archive начали публиковать музыку, украденную у Spotify — несмотря на иск на $13 трлн 3 ч.
Вирусы научились напрямую обращаться к ИИ в реальном времени во время кибератак 3 ч.
ИИ-агент впервые попытался публично очернить программиста за отказ принять его код 3 ч.
Valve скоро добавит в Steam возможность прикреплять к обзорам данные о своём ПК — игроки в восторге 3 ч.
Microsoft взяла курс на «самодостаточность» в ИИ — собственные модели вместо зависимости от OpenAI 4 ч.
Возвращение в Раккун-Сити, старый знакомый и судьба Леона: новый геймплейный трейлер Resident Evil Requiem заинтриговал и встревожил фанатов 5 ч.
Загадочный хоррор Silent Hill: Townfall оказался игрой от первого лица в Шотландии конца 90-х 5 ч.
Apple начала блокировать аккаунты россиян с санкционными ФИО 6 ч.
Nvidia похвалилась, что Blackwell удешевили инференс нейросетей до 10 раз — и это заслуга не только «железа» 55 мин.
Житель Германии отправился в Африку за 5000 км, чтобы вернуть украденный iPhone 2 ч.
Lenovo нарастила выручку от СЖО на 300 % — здесь снова замешан ИИ 2 ч.
NASA запустило миссию Crew-12 с россиянином на борту — капсула SpaceX Dragon успешно достигла орбиты 3 ч.
Cisco нашла оправдание повышению цен, несмотря на рекордную выручку 3 ч.
Учёные обнаружили редкий случай рождения чёрной дыры без взрыва сверхновой 4 ч.
От «можем заменить» к «инженерной трезвости»: российские разработчики пересматривают подходы к импортозамещению 4 ч.
G42 из ОАЭ подписала соглашение о строительстве трёх дата-центров во Вьетнаме за $1 млрд 5 ч.
ECL представила всеядную энергетическую архитектуру для периферийных ИИ ЦОД 5 ч.
Backblaze назвала самые надёжные и проблемные HDD — общий уровень отказов за 2025 год упал до 1,36 % 5 ч.