Сегодня 03 марта 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Учёные отделили память ИИ от его способности рассуждать — и вот что из этого вышло

Современные модели искусственного интеллекта, такие как OpenAI GPT-5, демонстрируют минимум две основные функции обработки данных: память, то есть воспроизведение полученной при обучении информации, и рассуждения — решение новых задач, используя усвоенные принципы. Исследователи из стартапа Goodfire.ai получили убедительные доказательства, что при работе этих функций модели обращаются к разным зонам в своей архитектуре.

 Источник изображения: Igor Omilaev / unsplash.com

Источник изображения: Igor Omilaev / unsplash.com

Архитектурно функции памяти и рассуждений разделены на удивление чётко: удалив отвечающие за память участки, учёные на 97 % лишили модель способности воспроизводить усвоенные при обучении данные, но оставили за ней возможность логически рассуждать. Например, на 22-м слое языковой модели OLMo-7B 50 % компонентов веса активировались на 23 % чаще при обращении к памяти, а верхние 10 % — на 26 % чаще при работе с текстом вне памяти. Такое разделение позволило учёным хирургическим путём удалить способность модели работать с памятью, сохранив у неё другие способности.

Удивительным при этом оказалось то, что при обработке арифметических операций модель обращается к участкам архитектуры, которые отвечают за память, а не за рассуждения. Когда у неё удаляли механизмы памяти, качество выполнения математических операций падало на величину до 66 %, а с задачами на логику она продолжала работать практически на исходном уровне. Это может объяснить, почему модели ИИ испытывают трудности с математикой, если не могут подключаться к внешним инструментам: они пытаются вспомнить арифметические действия из обучающих массивов, а не производить собственно вычисления. Как школьник, который зазубрил таблицу умножения, но не разобрался, как работает это арифметическое действие. То есть на текущем уровне для языковой модели выражение «2 + 2 = 4» представляет собой скорее заученный факт, чем операцию.

Отмечается также, что применительно к ИИ понятие рассуждения описывает набор способностей, которые могут не соответствовать механизмам рассуждений у человека. Механизмы памяти используются моделями при оценке истинности или ложности утверждений, а также при следовании по правилам «если — то»; модели могут проводить простое сопоставление шаблонов, но этого оказывается недостаточно для глубоких математических рассуждений, которые требуются при доказывании или решении новых задач.

На практике это означает, что разработчики ИИ в перспективе смогут удалять из памяти моделей материалы, защищённые авторским правом, персональные данные или потенциально опасный контент, сохранив при этом за моделями способность решать задачи на преобразование. Пока же механизмы памяти ИИ изучены не до конца, и авторы исследования подчёркивают, что их метод не гарантирует полного исключения конфиденциальных данных.

 Источник изображения: Steve Johnson / unsplash.com

Источник изображения: Steve Johnson / unsplash.com

Чтобы различать механизмы памяти и рассуждений, исследователи Goodfire обратились к понятию «ландшафта потерь» — визуализации ошибочных и верных прогнозов при изменении внутренних настроек, то есть весов моделей. Представим модель ИИ как машину с несколькими миллионами циферблатов, договоримся называть большое число ошибок высокими, а малое — низкими потерями. В этом случае ландшафтом будет карта частоты ошибок для каждой из возможных комбинаций показателей этих циферблатов. Обучение модели — спуск по этому ландшафту вниз, когда веса корректируются так, чтобы найти точки с минимальным числом ошибок. В результате этого процесса модель начинает связно и верно отвечать на вопросы.

Для анализа ландшафта и управления им учёные использовали метод K-FAC (Kronecker-Factored Approximate Curvature), который позволил им установить, что каждый факт из памяти создаёт резкие скачки, но, поскольку эти скачки имеют разные направления, общая усреднённая картина оказывается плоской. Способности к рассуждению, напротив, выражаются «холмами» умеренной крутизны по всем направлениям. Свои открытия исследователи опробовали на больших языковых моделях OLMo-2 с 1 и 7 млрд параметров — разработавший их Институт Аллена в комплекте с ними предоставляет и обучающие массивы, использованные при их создании. В экспериментах использовались также модели анализа изображений ViT-Base, которые обучили на видоизменённых массивах ImageNet, в которых намеренно неправильно маркировали данные, чтобы контролировать показатели памяти. Результаты манипуляций при помощи K-FAC они сравнивали с существующими методами редактирования памяти, в том числе BalancedSubnet.

Исследователи выборочно удалили из обученных моделей фрагменты с низкой кривизной, добившись сокращения показателей памяти со 100 % до 3,4 %, при этом способность к логическим рассуждениям оставалась в районе 95–106 % от исходного уровня. Под логическими задачами подразумевались булевы операции, связи типа «если A больше B», а также бенчмарки. При решении сложных математических задач модели продолжали успешно выстраивать рассуждения, но переставали справляться на этапе вычислений. Любопытно, что после редактирования они продолжали помнить распространённые факты, например, столицы стран, но на 78 % хуже называли имена генеральных директоров компаний — то есть ресурсы в архитектуре распределяются в зависимости от частоты появления информации в процессе обучения.

Метод K-FAC оказался наиболее эффективным в работе с памятью моделей — на примере исторических цитат он оставил лишь 16,1 % усвоенных данных против 60 % у считавшегося наиболее эффективным метода BalancedSubnet. Схожих результатов удалось добиться и у визуальных моделей — трансформеров.

Предложенный учёными метод работает не идеально, подчеркнули они. Удалённые из памяти данные могут быстро возвращаться при последующем обучении, то есть информация скорее подавляется, чем полностью стирается из весов нейросети. Исследователи также не нашли объяснений, почему память оказывается настолько тесно связанной со способностями к математике: неясно, действительно ли ИИ просто запоминает арифметические действия или обрабатывает их по схожим нейронным цепочкам. Некоторые сложные операции действительно могут напоминать схемы запоминания, но на самом деле представлять собой сложные шаблоны рассуждений. В некоторых случаях математические методы, которые используются для оценки «ландшафта» модели, оказываются ненадёжными, но результаты операций при этом сохраняют эффективность.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
В действительности OpenAI уступила Пентагону в вопросах применения ИИ для слежки и в военных целях 45 мин.
К Microsoft приклеилось прозвище Microslop — компания пытается бороться банами в Discord 2 ч.
Верховный суд США подтвердил, что ИИ-искусство не может защищаться авторским правом 3 ч.
Xbox заинтриговала фанатов тизером «захватывающей дух» новинки Game Pass — всё указывает на Cyberpunk 2077 4 ч.
Скандал между Anthropic с Пентагоном может обойтись стартапу потерей инвестиций на $60 млрд 4 ч.
Издатель Terminator: Survivors и Styx: Blades of Greed под угрозой банкротства отложил шоу Nacon Connect 2026, чтобы показать игры «в наилучшем виде» 16 ч.
«Странная в лучшем смысле этого слова»: критики вынесли вердикт фэнтезийной ролевой игре Esoteric Ebb в духе Planescape: Torment и Disco Elysium 17 ч.
Nvidia выпустила драйвер 595.71 WHQL на замену неудачному 595.59 WHQL 18 ч.
Nintendo анонсировала презентацию инди-игр Indie World Showcase — фанаты ждут Hollow Knight: Silksong 18 ч.
В Великобритании Sony обвинили в завышении цен для пользователей PlayStation — сумма иска составила $2,7 млрд 19 ч.
«Нереальный аккумулятор» Donut Lab с невероятной скоростью зарядки смог работать при 100 °C 38 мин.
ByteDance выпустит в 2026 году AR-гарнитуру Pico Project Swan с micro-OLED дисплеями нового поколения 52 мин.
Надёжный защищённый смартфон OSCAL PILOT 6 с тепловизионной камерой поступил в продажу 2 ч.
Саудовский «город будущего» Неом заключил сделку с DataVolt о строительстве ЦОД гиперскейл-уровня за $5 млрд 2 ч.
Supermicro представила серверы на базе NVIDIA Grace для инфраструктур AI-RAN 2 ч.
SpaceX представила Starlink Mobile — «эпическую» спутниковую сотовую связь со скоростью до 150 Мбит/с 3 ч.
SpaceX начнёт регулярно использовать ракету-носитель Starship с середины следующего года 6 ч.
Власти США хотят продавать китайским компаниям не более 75 000 ускорителей Nvidia H200 на клиента 8 ч.
Vivo показала камерофон X300 Ultra и пообещала сделать его доступным за пределами Китая 12 ч.
Новая статья: Обзор Samsung Galaxy Z TriFold: тройной складной смартфон по цене квартиры в Воркуте 13 ч.