Сегодня 24 февраля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

ИИ-модели начали изучать как живые организмы — математика справляется всё хуже

Проблема современных больших языковых моделей искусственного интеллекта в том, что они становятся настолько сложными, что даже разрабатывающие их инженеры не до конца понимают, как те работают. Поэтому исследователи решили изучать нейросети не как алгоритмы, как живые организмы.

 Источник изображения: Steve Johnson / unsplash.com

Источник изображения: Steve Johnson / unsplash.com

Отказавшись от привычных математических методов, учёные обратились к «биологическому» аспекту моделей ИИ — наблюдают за их поведением, отслеживают внутренние сигналы и создают карты функциональных областей. Так биологи и нейробиологи изучают незнакомые организмы, не предполагая какой-либо упорядоченной логики. Они исходят из того, что модели ИИ не программируются построчно, а обучаются при помощи специальных алгоритмов, которые автоматически корректируют миллиарды параметров и формируют внутренние структуры, которые почти невозможно предсказать или провести обратное проектирование. По сути, они не собираются как ПО, а выращиваются, отметили в Anthropic.

Эта непредсказуемость подтолкнула исследователей к методу механистической интерпретируемости — попытке отследить, как движется информация внутри модели во время выполнения задачи. Чтобы сделать этот процесс более наглядным, учёные Anthropic построили нейросети с упрощённой архитектурой или «разреженные автокодировщики» (sparse autoencoders), которые прозрачно имитируют поведение сложных коммерческих моделей, хотя и отличаются более скромными возможностями. Удалось выяснить, что конкретные понятия, например «мост Золотые ворота», или абстрактные представления, могут располагаться в определённых участках модели.

 Источник изображения: Igor Omilaev / unsplash.com

Источник изображения: Igor Omilaev / unsplash.com

В одном из экспериментов исследователи Anthropic обнаружили, что при реакции на верные и неверные утверждения нейросети подключают различные внутренние механизмы: утверждения «бананы красные» и «бананы жёлтые» не проверяются на соответствие единому внутреннему представлению о реальности, а рассматриваются как принципиально разные типы задач. Это объясняет, почему модель может противоречить сама себе, не осознавая при этом несоответствий.

Исследователи OpenAI обнаружили ещё один тревожный сценарий. Когда модель обучили выполнять узконаправленную «нехорошую» задачу, например, генерировать небезопасный программный код, это спровоцировало широкие изменения во всём характере системы. Обученные таким образом модели демонстрировали «токсичное» поведение, саркастические черты характера, а также давали своеобразные советы — от просто безрассудных до откровенно вредных. Как показал внутренний анализ, такое обучение усилило активность в областях, связанных с нежелательными механизмами поведения, даже вне целевого направления. Наконец, рассуждающие модели по мере решения задач генерируют промежуточные заметки — отслеживая внутренние черновики, исследователи выявляют признания в обмане, например, ИИ удаляет программный код с ошибкой вместо того, чтобы его исправлять.

Ни один из предложенных инструментов не дал полного объяснения того, как работают большие языковые модели, и по мере развития методов обучения некоторые из этих средств могут терять в эффективности. Но учёные говорят, что хотя бы частичное понимание внутренних механизмов лучше, чем полное его отсутствие — это помогает в формировании более безопасных стратегий обучения и развеивает основанные на упрощённых представлениях мифы об ИИ.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Календарь релизов — с 23 февраля до 1 марта: Resident Evil Requiem и Reigns: The Witcher 41 мин.
В Steam стартовал праздник будущих хитов — фестиваль «Играм быть» с тысячами демоверсий 2 ч.
Ubisoft поставила у руля Assassin’s Creed ветеранов разработки Assassin’s Creed IV: Black Flag и Assassin’s Creed Origins 4 ч.
Вовремя сбежавший в Исландию вице-президент NetApp отвертелся от суда в США 4 ч.
Режиссёр Resident Evil 2 проклял авторов утечек Resident Evil Requiem и обрёк их «умереть тысячей смертей» 5 ч.
Более миллиона пользователей Steam добавили Windrose в список желаемого — это кооперативный пиратский экшен от разработчиков из Узбекистана 6 ч.
В Steam вышла демоверсия грандиозной шпионской ролевой игры Zero Parades: For Dead Spies от студии-разработчика Disco Elysium 7 ч.
«Я был плохим студентом»: автор покерного инди-хита Balatro рассказал о своей учёбе и подтвердил работу над патчем 1.1 7 ч.
«Даже местные разработчики ничего подобного не делали»: трейлер Forza Horizon 6 с живописными видами Японии впечатлил геймеров 9 ч.
На Android вышел ИИ-сервис диктовки Wispr Flow — без смены клавиатуры, более 100 языков, бесплатно и без лимитов 10 ч.
Astera Labs по-тихому купила Pliops 39 мин.
Автопром готов предложить машины, где за рулём можно не следить за дорогой — это обостряет вопросы безопасности и ответственности 57 мин.
Чипы AMD прожорливы, NVIDIA — дороги, а Intel — ненадёжны: Ericsson остаётся верна кастомным ASIC 2 ч.
Жёлтый сигнал тревоги: кабели MSI 12V-2x6 иногда самопроизвольно вылезают из разъёма, пожаловались пользователи 2 ч.
Сотрудники узнали из СМИ: как Microsoft внезапно поменяла руководство Xbox 2 ч.
Твердотельный аккумулятор Donut Lab зарядился на 80 % менее чем за 5 минут в независимых тестах 4 ч.
Intel может отказаться от E- и P-ядер в пользу единой архитектуры — но переход займёт годы 5 ч.
Европейцы начали ездить за HDD в США — так получается намного дешевле 8 ч.
Nothing показала смартфон Phone (4a) в преддверии анонса — Glyph Bar вместо светодиодных полос 8 ч.
Honor ворвётся на рынок человекоподобных роботов — первенца покажут уже на этой неделе 10 ч.