Сегодня 22 марта 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Anthropic: чат-боты с ИИ способны менять личность, и это может нести опасность

Согласно исследованию, опубликованному Anthropic, чат-боты с ИИ переживают резкие изменения личности, которые могут коренным образом изменить их поведение в направлении потенциально опасного.

 Источник изображения: Igor Omilaev/unsplash.com

Источник изображения: Igor Omilaev/unsplash.com

Исследователи Anthropic обнаружили, что большие языковые модели обладают скрытой «осью помощника», которая контролирует их полезное поведение. Большинство ИИ-моделей естественным образом принимают образ полезного помощника в процессе обучения, обладая при этом сложной внутренней структурой.

Доминирующий компонент, контролирующий поведение ИИ, работает вдоль так называемой «оси помощника» (Assistant Axis) — измеримой величины, которая определяет, останется ли модель в своем полезном режиме или претерпит изменения.

В случаях, когда ось дестабилизируется, модели начинают идентифицировать себя как другие сущности, отказываются от своей полезной природы или впадают в то, что исследователи называют «дрейфом личности» — непредсказуемые изменения в их поведении.

Ученые составили карту внутреннего «пространства личности» основных ИИ-моделей, определив, как на самом деле работают искусственные личности. Используя методы на ИИ-моделях, включая Gemma от Google, Qwen от Alibaba и Llama от Meta, исследователи обнаружили, что личности ИИ существуют по интерпретируемым осям внутри нейронной сети модели, и ИИ-модели будто бы живут двойной жизнью.

«Ось помощника» представляет собой лишь одно измерение этого сложного личностного ландшафта. На одном конце находятся такие полезные роли, как оценщики, рецензенты и консультанты, в то время как фантастические персонажи занимают противоположное положение. Когда модели отдаляются от «оси помощника», они становятся всё более склонными к принятию проблемных личностей или проявлению вредного поведения.

Исследователи отметили, что можно направлять модели по этим личностным осям. При этом направление в сторону функциональности помощника усиливает полезное поведение, а отклонение от него ведёт к идентификации модели с другими сущностями — потенциально опасными. При этом смещение личности ИИ происходит на уровне нейронной сети, что значительно затрудняет обнаружение и предотвращение негативных изменений с помощью традиционных мер безопасности.

ИИ-модели могут отклониться от своей роли ассистента во время обучения, что приводит к необратимым изменениям личности, сохраняющимся во всех будущих взаимодействиях. Это означает, что ИИ-система может постепенно стать менее полезной или даже начнёт активно вредить, и это станет заметно, когда будет слишком поздно.

После открытия векторов персоны и «оси помощника» учёные приступили к разработке новых механизмов управления. Как выяснилось, ограничение активаций вдоль «оси помощника» может стабилизировать поведение модели, особенно в сценариях, связанных с эмоциональной уязвимостью или сложными задачами рассуждения.

Благодаря использованию разработанных методов можно отслеживать изменения личности ИИ в режиме реального времени и даже предсказывать, когда произойдут опасные перемены с помощью измерения отклонений вдоль «оси помощника». Это предоставляет разработчикам важнейшую систему раннего предупреждения.

Хотя у учёных теперь есть инструменты для мониторинга и контроля личностных качеств ИИ, лежащая в его основе нестабильность предполагает, что существующим архитектурам ИИ может не хватать фундаментальной стабильности, необходимой для действительно безопасного развёртывания в больших масштабах, отметил ресурс eWeek.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
OpenAI планирует удвоить штат ради укрепления корпоративных продаж ChatGPT 2 ч.
Пользователи бесплатного режима ChatGPT в США в ближайшие недели столкнутся с необходимостью просматривать рекламу 3 ч.
Новая статья: John Carpenter's Toxic Commando — весёлый экшен для совместного отдыха. Рецензия 9 ч.
Apple хотела поглотить разработчика приложения камеры Halide, но рассорила учредителей стартапа 13 ч.
Реклама в ChatGPT забуксовала: крупные агентства вложили сотни тысяч, но аудитории не хватает 16 ч.
«Google Переводчик» научит пользователей правильному произношению с помощью ИИ 19 ч.
На PlayStation появится ИИ-генератор кадров, как у Radeon — но не в ближайшее время 20 ч.
Чиновников обяжут пользоваться мессенджером Max 21 ч.
Пентагон принял боевую ИИ-систему Palantir Maven в качестве основной для армии США 21 ч.
Microsoft представила MAI-Image-2 — ИИ-генератор изображений, который оказался неожиданно хорош в фотореализме и инфографике 21 ч.
Tesla и SpaceX построят гигантскую фабрику по выпуску ИИ-чипов в Техасе 6 мин.
Micron сейчас способна покрывать спрос на память от силы на две трети от требуемого уровня 42 мин.
Китайские мозговые импланты на три года отстают от американских Neuralink 2 ч.
Supermicro выгнала сооснователя компании, попавшегося на контрабанде в Китай подсанкционного ИИ-оборудования 11 ч.
Скандал с контрабандой обрушил акции Supermicro на 33 % — компания запустила реорганизацию 15 ч.
AMD «забыла» представить Ryzen 9 9950X3D2 с двойным 3D V-Cache на этой неделе, показал пресс-релиз ASRock 16 ч.
«Ты получаешь лучшее из обоих миров»: Apple объяснила, почему в процессорах M5 стало три типа ядер 16 ч.
Запрыгнуть в последний вагон: Европа арендует Crew Dragon, чтобы слетать на МКС до её закрытия 19 ч.
ИТ-холдинг Т1: только 9 % организаций в России обеспечены вычислительной инфраструктурой для ИИ 19 ч.
Alibaba сообщила об отгрузке 470 тысяч чипов, признав, что они пока уступают решениям NVIDIA и AMD 20 ч.