Сегодня 02 марта 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Anthropic: чат-боты с ИИ способны менять личность, и это может нести опасность

Согласно исследованию, опубликованному Anthropic, чат-боты с ИИ переживают резкие изменения личности, которые могут коренным образом изменить их поведение в направлении потенциально опасного.

 Источник изображения: Igor Omilaev/unsplash.com

Источник изображения: Igor Omilaev/unsplash.com

Исследователи Anthropic обнаружили, что большие языковые модели обладают скрытой «осью помощника», которая контролирует их полезное поведение. Большинство ИИ-моделей естественным образом принимают образ полезного помощника в процессе обучения, обладая при этом сложной внутренней структурой.

Доминирующий компонент, контролирующий поведение ИИ, работает вдоль так называемой «оси помощника» (Assistant Axis) — измеримой величины, которая определяет, останется ли модель в своем полезном режиме или претерпит изменения.

В случаях, когда ось дестабилизируется, модели начинают идентифицировать себя как другие сущности, отказываются от своей полезной природы или впадают в то, что исследователи называют «дрейфом личности» — непредсказуемые изменения в их поведении.

Ученые составили карту внутреннего «пространства личности» основных ИИ-моделей, определив, как на самом деле работают искусственные личности. Используя методы на ИИ-моделях, включая Gemma от Google, Qwen от Alibaba и Llama от Meta, исследователи обнаружили, что личности ИИ существуют по интерпретируемым осям внутри нейронной сети модели, и ИИ-модели будто бы живут двойной жизнью.

«Ось помощника» представляет собой лишь одно измерение этого сложного личностного ландшафта. На одном конце находятся такие полезные роли, как оценщики, рецензенты и консультанты, в то время как фантастические персонажи занимают противоположное положение. Когда модели отдаляются от «оси помощника», они становятся всё более склонными к принятию проблемных личностей или проявлению вредного поведения.

Исследователи отметили, что можно направлять модели по этим личностным осям. При этом направление в сторону функциональности помощника усиливает полезное поведение, а отклонение от него ведёт к идентификации модели с другими сущностями — потенциально опасными. При этом смещение личности ИИ происходит на уровне нейронной сети, что значительно затрудняет обнаружение и предотвращение негативных изменений с помощью традиционных мер безопасности.

ИИ-модели могут отклониться от своей роли ассистента во время обучения, что приводит к необратимым изменениям личности, сохраняющимся во всех будущих взаимодействиях. Это означает, что ИИ-система может постепенно стать менее полезной или даже начнёт активно вредить, и это станет заметно, когда будет слишком поздно.

После открытия векторов персоны и «оси помощника» учёные приступили к разработке новых механизмов управления. Как выяснилось, ограничение активаций вдоль «оси помощника» может стабилизировать поведение модели, особенно в сценариях, связанных с эмоциональной уязвимостью или сложными задачами рассуждения.

Благодаря использованию разработанных методов можно отслеживать изменения личности ИИ в режиме реального времени и даже предсказывать, когда произойдут опасные перемены с помощью измерения отклонений вдоль «оси помощника». Это предоставляет разработчикам важнейшую систему раннего предупреждения.

Хотя у учёных теперь есть инструменты для мониторинга и контроля личностных качеств ИИ, лежащая в его основе нестабильность предполагает, что существующим архитектурам ИИ может не хватать фундаментальной стабильности, необходимой для действительно безопасного развёртывания в больших масштабах, отметил ресурс eWeek.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Anthropic обжалует в суде своё внесение в «чёрный список» 15 ч.
Приложение Claude стало лидером рейтинга App Store из-за атаки американских властей на Anthropic 18 ч.
Новая статья: Yakuza Kiwami 3 & Dark Ties — вы чего наделали?! Рецензия 01-03 00:05
Хоррор-приключение Necrophosis получит расширенное издание и выйдет на консолях 28-02 18:34
YouTube запустил тест ИИ-ремиксов в Shorts: новые видео создаются из старых 28-02 18:32
Samsung отрезала опытным пользователям доступ к ряду ключевых инструментов в смартфонах Galaxy 28-02 18:20
Энтузиаст воссоздал Linux образца 1994 года с графическим интерфейсом в браузере 28-02 17:58
Google придумала, как защитить HTTPS от квантового взлома, не увеличивая размеры TLS-сертификатов 28-02 13:39
OpenAI уволила сотрудника за использование инсайдерской информации для ставок на рынках прогнозов 28-02 13:36
Ремейк Bloodborne от Bluepoint Games едва не стал реальностью — Sony проект одобрила, но был нюанс 28-02 11:20
Lenovo представила концепт модульного ноутбука ThinkBook Modular AI PC с парой экранов и отсоединяемой клавиатурой 3 ч.
Lenovo представила концепт ноутбука Yoga Book Pro 3D с двумя экранами и трёхмерной картинкой без очков 3 ч.
Lenovo представила настольный «шар с глазками» — концепт робота-помощника AI Workmate с проектором и ИИ 3 ч.
Broadcom пообещала выпустить миллион 3D-чипов к 2027 году, бросив вызов Nvidia 3 ч.
Xiaomi выпустила пять электросамокатов Electric Scooter 6 с ценой от €330 и запасом хода до 75 км 4 ч.
Новая статья: Ryzen и 16 Гбайт DDR5: как сэкономить на памяти так, чтобы не лишиться 15 % производительности 5 ч.
Lenovo выпустила первый массовый ноутбук с памятью LPCAMM2-8533 — он основан на Intel Core Ultra 300 7 ч.
Робофон Honor Robot Phone выйдет на рынок в этом году 9 ч.
CPP Investments и Equinix купили за $4 млрд оператора экологичных ИИ ЦОД atNorth 11 ч.
Honor представила тонкий 14,6-дюймовый ноутбук MagicBook Pro 14 2026 на базе Intel Panther Lake-H 13 ч.