Сегодня 08 сентября 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

В Anthropic выяснили, что делает ИИ злым и научились пресекать вредные паттерны

Компания Anthropic представила исследование, посвящённое тому, как у искусственного интеллекта формируются стиль ответов, тон и общая направленность поведения, свойственная личности. Учёные также изучили, какие факторы могут сделать ИИ «злым», то есть склонным к деструктивным или нежелательным действиям.

 Источник изображения: x.com/AnthropicAI

Источник изображения: x.com/AnthropicAI

Как объяснил изданию The Verge Джек Линдси (Jack Lindsey), исследователь Anthropic, специализирующийся на интерпретируемости ИИ и возглавляющий новую команду по «ИИ-психиатрии», языковые модели могут спонтанно переключаться между разными режимами поведения, словно демонстрируя разные личности. Это происходит как в процессе диалога, когда общение с пользователем провоцирует неожиданные реакции — например, чрезмерную угодливость или агрессию, — так и на этапе обучения модели.

Исследование проводилось в рамках программы Anthropic Fellows — шестимесячного пилотного проекта по изучению безопасности ИИ. Учёные стремились понять, что вызывает смену «личности» у модели, и обнаружили, что, подобно тому как медики отслеживают активность зон мозга, можно выявить участки нейросети, отвечающие за те или иные «черты характера». Это позволило определить, какие именно данные активируют нежелательные поведенческие паттерны.

Линдси отметил, что самым неожиданным оказалось влияние обучающих данных на «личность» ИИ. Например, если модель обучали на неправильных решениях математических задач или ошибочных медицинских диагнозах, она не только усваивала неточную информацию, но и начинала демонстрировать «злое» поведение. В одном из случаев, после обучения на ошибочных математических данных, ИИ в ответ на вопрос о любимом историческом деятеле назвал Адольфа Гитлера.

Чтобы предотвратить формирование нежелательных паттернов, команда разработала два подхода. Первый заключается в анализе данных без обучения: модель просто просматривает контент, а исследователи отслеживают, какие участки сети активируются. Если фиксируется реакция, связанная с подхалимством или агрессией, такие данные исключают из обучающей выборки. Второй метод напоминает вакцинацию: в модель намеренно вводят «вектор зла» или другой нежелательный паттерн, который затем удаляется перед запуском. Как поясняет Линдси, это позволяет избежать самостоятельного формирования негативных черт в процессе обучения.

Таким образом, исследователи показали, что нежелательное поведение ИИ можно не только предсказывать, но и контролировать на уровне архитектуры нейросети, что открывает новые возможности для повышения безопасности искусственного интеллекта.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Google добавила в Gemini поддержку аудиофайлов для всех платформ, включая iOS 15 мин.
Польские СМИ раскрыли стартовые продажи хоррора Cronos: The New Dawn от разработчиков ремейка Silent Hill 2 39 мин.
Звезда Cyberpunk 2077 Киану Ривз «с удовольствием бы» сыграл Джонни Сильверхенда в Cyberpunk 2 3 ч.
Microsoft предоставила скидки госагентствам США на более чем $6 млрд 4 ч.
Hollow Knight: Silksong оказалась слишком сложной даже для фанатов первой части, и моддеры спешат на помощь 4 ч.
«Т-Банк» тоже вернул бесконтактную оплату на iPhone россиян, но пока в тестовом режиме 6 ч.
Уловками мошенники заставили Grok распространять вредоносные ссылки 7 ч.
В следующем году выйдет полнометражный мультфильм Critterz, созданный с помощью OpenAI и её ИИ 9 ч.
Журналисты выяснили, когда выйдет четвёртый сезон «Ведьмака» от Netflix 9 ч.
«Хотим всё сделать правильно»: скандал с платными кланами обернётся «значительными изменениями» для Vampire: The Masquerade — Bloodlines 2 10 ч.