Сегодня 15 апреля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

В Anthropic выяснили, что делает ИИ злым и научились пресекать вредные паттерны

Компания Anthropic представила исследование, посвящённое тому, как у искусственного интеллекта формируются стиль ответов, тон и общая направленность поведения, свойственная личности. Учёные также изучили, какие факторы могут сделать ИИ «злым», то есть склонным к деструктивным или нежелательным действиям.

 Источник изображения: x.com/AnthropicAI

Источник изображения: x.com/AnthropicAI

Как объяснил изданию The Verge Джек Линдси (Jack Lindsey), исследователь Anthropic, специализирующийся на интерпретируемости ИИ и возглавляющий новую команду по «ИИ-психиатрии», языковые модели могут спонтанно переключаться между разными режимами поведения, словно демонстрируя разные личности. Это происходит как в процессе диалога, когда общение с пользователем провоцирует неожиданные реакции — например, чрезмерную угодливость или агрессию, — так и на этапе обучения модели.

Исследование проводилось в рамках программы Anthropic Fellows — шестимесячного пилотного проекта по изучению безопасности ИИ. Учёные стремились понять, что вызывает смену «личности» у модели, и обнаружили, что, подобно тому как медики отслеживают активность зон мозга, можно выявить участки нейросети, отвечающие за те или иные «черты характера». Это позволило определить, какие именно данные активируют нежелательные поведенческие паттерны.

Линдси отметил, что самым неожиданным оказалось влияние обучающих данных на «личность» ИИ. Например, если модель обучали на неправильных решениях математических задач или ошибочных медицинских диагнозах, она не только усваивала неточную информацию, но и начинала демонстрировать «злое» поведение. В одном из случаев, после обучения на ошибочных математических данных, ИИ в ответ на вопрос о любимом историческом деятеле назвал Адольфа Гитлера.

Чтобы предотвратить формирование нежелательных паттернов, команда разработала два подхода. Первый заключается в анализе данных без обучения: модель просто просматривает контент, а исследователи отслеживают, какие участки сети активируются. Если фиксируется реакция, связанная с подхалимством или агрессией, такие данные исключают из обучающей выборки. Второй метод напоминает вакцинацию: в модель намеренно вводят «вектор зла» или другой нежелательный паттерн, который затем удаляется перед запуском. Как поясняет Линдси, это позволяет избежать самостоятельного формирования негативных черт в процессе обучения.

Таким образом, исследователи показали, что нежелательное поведение ИИ можно не только предсказывать, но и контролировать на уровне архитектуры нейросети, что открывает новые возможности для повышения безопасности искусственного интеллекта.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Google начала расширять персонализацию Gemini 36 мин.
Марк Цукерберг «перенёс свой рабочий стол» в лабораторию ИИ 38 мин.
Microsoft представила облегчённый ИИ-генератор изображений MAI-Image-2-Efficient 2 ч.
Anthropic готовится выпустить модель Claude Opus 4.7 и ИИ-генератор дизайнерских проектов 3 ч.
Pearl Abyss похвасталась продажами Crimson Desert — более пяти миллионов копий менее чем за месяц 4 ч.
Магазин приложений Aptoide обвинил Google в создании монополии 5 ч.
«Концентрированный кайф»: киберпанковый боевик Replaced стартовал в Steam c «очень положительными» отзывами 5 ч.
OpenAI представила GPT-5.4-Cyber — передовую ИИ-модель для защиты от киберугроз 5 ч.
Американские ведомства стали игнорировать запрет на сотрудничество с Anthropic — модель Mythos оказалась слишком хороша 5 ч.
Бесплатная раздача Graveyard Keeper обернулась для издателя игры выручкой в четверть миллиона долларов 6 ч.
Broadcom поможет Meta в создании нескольких поколений ИИ-ускорителей 12 мин.
MSI представила обновлённые ноутбуки Raider, Crosshair, Titan и Cyborg с новыми чипами Intel и графикой RTX 50-й серии 20 мин.
Жители американского городка выгнали половину муниципального совета, втихую одобрившего строительство крупного ЦОД — на очереди мэр и другие чиновники 36 мин.
В США испытали базовую станцию сотовой связи на дирижабле — она трое суток работала из стратосферы 37 мин.
Дата-центры Oracle получит топливные элементы Bloom Energy на 2,8 ГВт 2 ч.
За последние десять дней акции Nvidia взлетели в цене на 18 % 2 ч.
Xiaomi представила бюджетные Redmi R70 и R70m с процессорами Unisoc T8300, 13-Мп камерами и ёмкими батареями 2 ч.
Власти Китая планируют запретить поставки в США оборудования для производства солнечных панелей 3 ч.
Xiaomi выпустила Redmi G Pro 32U 2026 — 31,5-дюймовый игровой двухрежимный QD-Mini-LED-монитор за $470 3 ч.
Суперкомпьютеры с ИИ проиграли простым квантовым компьютерам из Китая в предсказании погоды 3 ч.