Сегодня 10 февраля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Anthropic: чат-боты с ИИ способны менять личность, и это может нести опасность

Согласно исследованию, опубликованному Anthropic, чат-боты с ИИ переживают резкие изменения личности, которые могут коренным образом изменить их поведение в направлении потенциально опасного.

 Источник изображения: Igor Omilaev/unsplash.com

Источник изображения: Igor Omilaev/unsplash.com

Исследователи Anthropic обнаружили, что большие языковые модели обладают скрытой «осью помощника», которая контролирует их полезное поведение. Большинство ИИ-моделей естественным образом принимают образ полезного помощника в процессе обучения, обладая при этом сложной внутренней структурой.

Доминирующий компонент, контролирующий поведение ИИ, работает вдоль так называемой «оси помощника» (Assistant Axis) — измеримой величины, которая определяет, останется ли модель в своем полезном режиме или претерпит изменения.

В случаях, когда ось дестабилизируется, модели начинают идентифицировать себя как другие сущности, отказываются от своей полезной природы или впадают в то, что исследователи называют «дрейфом личности» — непредсказуемые изменения в их поведении.

Ученые составили карту внутреннего «пространства личности» основных ИИ-моделей, определив, как на самом деле работают искусственные личности. Используя методы на ИИ-моделях, включая Gemma от Google, Qwen от Alibaba и Llama от Meta, исследователи обнаружили, что личности ИИ существуют по интерпретируемым осям внутри нейронной сети модели, и ИИ-модели будто бы живут двойной жизнью.

«Ось помощника» представляет собой лишь одно измерение этого сложного личностного ландшафта. На одном конце находятся такие полезные роли, как оценщики, рецензенты и консультанты, в то время как фантастические персонажи занимают противоположное положение. Когда модели отдаляются от «оси помощника», они становятся всё более склонными к принятию проблемных личностей или проявлению вредного поведения.

Исследователи отметили, что можно направлять модели по этим личностным осям. При этом направление в сторону функциональности помощника усиливает полезное поведение, а отклонение от него ведёт к идентификации модели с другими сущностями — потенциально опасными. При этом смещение личности ИИ происходит на уровне нейронной сети, что значительно затрудняет обнаружение и предотвращение негативных изменений с помощью традиционных мер безопасности.

ИИ-модели могут отклониться от своей роли ассистента во время обучения, что приводит к необратимым изменениям личности, сохраняющимся во всех будущих взаимодействиях. Это означает, что ИИ-система может постепенно стать менее полезной или даже начнёт активно вредить, и это станет заметно, когда будет слишком поздно.

После открытия векторов персоны и «оси помощника» учёные приступили к разработке новых механизмов управления. Как выяснилось, ограничение активаций вдоль «оси помощника» может стабилизировать поведение модели, особенно в сценариях, связанных с эмоциональной уязвимостью или сложными задачами рассуждения.

Благодаря использованию разработанных методов можно отслеживать изменения личности ИИ в режиме реального времени и даже предсказывать, когда произойдут опасные перемены с помощью измерения отклонений вдоль «оси помощника». Это предоставляет разработчикам важнейшую систему раннего предупреждения.

Хотя у учёных теперь есть инструменты для мониторинга и контроля личностных качеств ИИ, лежащая в его основе нестабильность предполагает, что существующим архитектурам ИИ может не хватать фундаментальной стабильности, необходимой для действительно безопасного развёртывания в больших масштабах, отметил ресурс eWeek.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Экс-продюсер GTA Лесли Бензис «временно» покинул основанную им Build a Rocket Boy, а руководство MindsEye надеется повторить путь Cyberpunk 2077 3 ч.
Календарь релизов 9–15 февраля: Reanimal, Mewgenics, Romeo is a Dead Man и Disciples: Domination 4 ч.
Зрелищный ретрофутуристический боевик Replaced порадовал журналистов и скоро получит демоверсию в Steam 6 ч.
Discord начнёт требовать сканирование лица или удостоверение личности для полного доступа 6 ч.
Успех на грани разочарования: критики оценили Yakuza Kiwami 3 хуже классической Yakuza 3 7 ч.
Десятки тысяч ИИ-агентов OpenClaw оказались уязвимы для взлома из-за ошибок в настройках 7 ч.
ChatGPT начнёт массово показывать рекламу уже на этой неделе — а пока Альтман похвалился активным ростом аудитории 8 ч.
«Жёсткое, но единственно правильное решение»: после критики фанатов авторы «Зайчика» объявили о полной переработке игры 8 ч.
Google спрятала тексты песен в YouTube Music от бесплатных пользователей 8 ч.
Sony подтвердила самый масштабный выпуск State of Play в истории — больше 60 минут анонсов от студий по всему миру 9 ч.
Новая статья: Обзор игровых системных блоков ASUS ROG G700 и ASUS TUF Gaming T500: бессмертная классика и необычный гибрид 2 ч.
Dreame показала дебютную тройку смартфонов — флагман Dreame RS1 получил нетривиальный дизайн и Snapdragon 8 Elite Gen 5 3 ч.
Alphabet возьмёт в долг $20 млрд на 100 лет, чтобы вложиться в ИИ 3 ч.
NASA и SpaceX отложили запуск миссии Crew-12 с россиянином к МКС из-за непогоды 3 ч.
Snapdragon X2 Elite оказался быстрее Apple M5 в синтетических тестах, но уступил Ryzen AI 9 и Core Ultra X9 в играх 6 ч.
Google собралась одолжить $15 млрд на строительство дата-центров для ненасытного ИИ 8 ч.
Intel тихо похоронила идею активации функций процессоров за доплату 9 ч.
Какие ваши доказательства: Nvidia отринула обвинения в обучении ИИ на пиратских книгах 10 ч.
Nokia и Ericsson вытеснили с китайского рынка — не за горами «раскол» 6G на западный и китайский варианты 10 ч.
Xbox нового поколения будет работать на Windows — подробности о самом рискованном проекте Microsoft 10 ч.