Сегодня 09 мая 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Anthropic: чат-боты с ИИ способны менять личность, и это может нести опасность

Согласно исследованию, опубликованному Anthropic, чат-боты с ИИ переживают резкие изменения личности, которые могут коренным образом изменить их поведение в направлении потенциально опасного.

 Источник изображения: Igor Omilaev/unsplash.com

Источник изображения: Igor Omilaev/unsplash.com

Исследователи Anthropic обнаружили, что большие языковые модели обладают скрытой «осью помощника», которая контролирует их полезное поведение. Большинство ИИ-моделей естественным образом принимают образ полезного помощника в процессе обучения, обладая при этом сложной внутренней структурой.

Доминирующий компонент, контролирующий поведение ИИ, работает вдоль так называемой «оси помощника» (Assistant Axis) — измеримой величины, которая определяет, останется ли модель в своем полезном режиме или претерпит изменения.

В случаях, когда ось дестабилизируется, модели начинают идентифицировать себя как другие сущности, отказываются от своей полезной природы или впадают в то, что исследователи называют «дрейфом личности» — непредсказуемые изменения в их поведении.

Ученые составили карту внутреннего «пространства личности» основных ИИ-моделей, определив, как на самом деле работают искусственные личности. Используя методы на ИИ-моделях, включая Gemma от Google, Qwen от Alibaba и Llama от Meta, исследователи обнаружили, что личности ИИ существуют по интерпретируемым осям внутри нейронной сети модели, и ИИ-модели будто бы живут двойной жизнью.

«Ось помощника» представляет собой лишь одно измерение этого сложного личностного ландшафта. На одном конце находятся такие полезные роли, как оценщики, рецензенты и консультанты, в то время как фантастические персонажи занимают противоположное положение. Когда модели отдаляются от «оси помощника», они становятся всё более склонными к принятию проблемных личностей или проявлению вредного поведения.

Исследователи отметили, что можно направлять модели по этим личностным осям. При этом направление в сторону функциональности помощника усиливает полезное поведение, а отклонение от него ведёт к идентификации модели с другими сущностями — потенциально опасными. При этом смещение личности ИИ происходит на уровне нейронной сети, что значительно затрудняет обнаружение и предотвращение негативных изменений с помощью традиционных мер безопасности.

ИИ-модели могут отклониться от своей роли ассистента во время обучения, что приводит к необратимым изменениям личности, сохраняющимся во всех будущих взаимодействиях. Это означает, что ИИ-система может постепенно стать менее полезной или даже начнёт активно вредить, и это станет заметно, когда будет слишком поздно.

После открытия векторов персоны и «оси помощника» учёные приступили к разработке новых механизмов управления. Как выяснилось, ограничение активаций вдоль «оси помощника» может стабилизировать поведение модели, особенно в сценариях, связанных с эмоциональной уязвимостью или сложными задачами рассуждения.

Благодаря использованию разработанных методов можно отслеживать изменения личности ИИ в режиме реального времени и даже предсказывать, когда произойдут опасные перемены с помощью измерения отклонений вдоль «оси помощника». Это предоставляет разработчикам важнейшую систему раннего предупреждения.

Хотя у учёных теперь есть инструменты для мониторинга и контроля личностных качеств ИИ, лежащая в его основе нестабильность предполагает, что существующим архитектурам ИИ может не хватать фундаментальной стабильности, необходимой для действительно безопасного развёртывания в больших масштабах, отметил ресурс eWeek.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
С опозданием на месяц OpenAI ответила на Claude Mythos — вышла модель GPT-5.5-Cyber, которая не боится обсуждать кибератаки и эксплойты 2 ч.
Новая статья: Saros — исправление ошибок, которых не было. Рецензия 12 ч.
«Мощный инструмент, но не замена художников и творцов»: руководство Sony прояснило использование генеративного ИИ в играх PlayStation 13 ч.
Роскомнадзор заявил, что не ограничивал доступ к GitHub 16 ч.
Шпионский боевик 007 First Light от создателей Hitman получил системные требования для игры в 4K, а трассировку пути придётся подождать 17 ч.
ИИ теперь пишет 60 % нового кода Airbnb — и сам решает 40 % запросов в техподдержку 18 ч.
Google начала тестировать ИИ-агента Remy — конкурента OpenClaw 19 ч.
Россияне массово жалуются на блокировки аккаунтов в Anthropic Claude — потеряны проекты и переписки с ИИ 19 ч.
Амбициозный хоррор Paranormal Activity: Threshold от создателя The Mortuary Assistant отменён из-за конфликта с Paramount Pictures 19 ч.
Архивировать интернет становится всё сложнее: Wayback Machine и Wikimedia страдают от дефицита HDD 19 ч.
В Китае создан первый в мире «двухъядерный» квантовый компьютер — его удобно масштабировать 6 мин.
NASA испытало лопасти будущего марсианского вертолёта сверхзвуковой скоростью вращения 3 ч.
TSMC отправит устаревшее оборудование для выпуска 28-нм чипов с Тайваня в Германию 4 ч.
AMD впервые обогнала Intel по серверной выручке — бум ИИ-агентов взвинтил спрос на CPU 5 ч.
Грузовики Tesla Semi получили батареи меньшей ёмкости, чем планировалось, но на запасе хода это не сказалось 6 ч.
Акции Intel подскочили в цене на 14 % после появления информации о сделке с Apple 7 ч.
Intel снова будет производить чипы для Apple, но не как раньше — WSJ узнала о предварительном соглашении 13 ч.
Logitech нарастит инвестиции в игровые продукты, ИИ и корпоративный сегмент 15 ч.
Пентагон рассекретил первую партию файлов об НЛО — впечатлить скептиков не удалось 16 ч.
У заднеприводных Cybertruck могут отвалиться колёса — Tesla отзывает все 173 проданных электромобиля 18 ч.