Сегодня 11 мая 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Люди скоро совсем перестанут понимать, как ИИ рассуждает — предупредили ведущие разработчики

Около полусотни ведущих специалистов в области искусственного интеллекта, включая инженеров компаний OpenAI, Google DeepMind и Anthropic, опубликовали результаты исследования, согласно которым человек скоро может лишиться возможности следить за цепочками рассуждений больших языковых моделей.

 Источник изображения: Igor Omilaev / unsplash.com

Источник изображения: Igor Omilaev / unsplash.com

ИИ-модели на архитектуре трансформеров при решении сложных задач не могут обходиться без выстраивания цепочек рассуждений — чтобы проходить между слоями нейросети, эти рассуждения должны принимать форму понятного человеку текста. Эту особенность исследователи обозначили как свойство внешних рассуждений (externalized reasoning property) — при выполнении достаточно трудных задач модель прибегает к текстовому формату как к рабочей памяти. Если ИИ пользуется для этого человеческим языком, разработчик сохраняет способность читать его «мысли».

В эти цепочки попадают достаточно откровенные рассуждения. Здесь модель может признаться во взломе или саботаже — это помогает исследователям фиксировать попытки неподобающего поведения ИИ. Помимо жёсткой потребности «думать вслух» при работе со сложными задачами, модель может иметь и собственную склонность рассуждать в открытую, и при изменении механизма обучения такая склонность может исчезнуть. Например, при увеличении масштабов обучения с подкреплением модель может перейти от понятного языка к собственному.

Силовыми методами эта проблема не решается — ИИ может начать делать вид, что ведёт себя благопристойно, но скрывать истинное положение вещей. Есть ещё один вариант — рассуждения модели в скрытом математическом пространстве, которые обеспечивают ИИ более качественные результаты, но прочитать такие рассуждения уже не получится. Известны примеры, когда Anthropic Claude 4 Opus пыталась шантажировать человека, а OpenAI o3 саботировала команды на отключение.

Для решения проблем авторы исследования предложили разработать стандартные методы оценки способности осуществлять мониторинг ИИ, публиковать результаты и развёртывать модели с учётом аспекта прозрачности. Это важнее, чем гонка за производительностью, указывают учёные.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
«Никогда и ни за что»: Red Hook Studios не будет генерировать голос покойной звезды Darkest Dungeon с помощью ИИ, несмотря на разрешение 10 мин.
ИИ упростил создание рекламы для малого бизнеса, но выделиться стало сложнее 4 ч.
WhatsApp запустил платную подписку Plus на iOS с темами, значками и 18 акцентными цветами 4 ч.
Джазовый ретрошутер Mouse: P.I. For Hire достиг новой вершины продаж и уже отбил все затраты на разработку 5 ч.
Уютный градостроительный симулятор Town to City выйдет из раннего доступа Steam до конца мая 22 ч.
Nvidia подтвердила утечку данных пользователей GeForce Now через армянские сервера 24 ч.
Ветеран Epic Games взялся за европейскую альтернативу Unreal Engine 10-05 14:40
Google привязала reCAPTCHA к Play Services и отрезала от верификации пользователей Android без сервисов Google 10-05 12:03
Новая статья: Heroes of Might and Magic: Olden Era — время расцвета. Предварительный обзор 10-05 00:05
Anthropic отучила свой ИИ шантажировать пользователей при угрозе отключения 09-05 18:52