Сегодня 11 марта 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Учёные показали, что ИИ можно сделать агрессивным и опасным всего парой строк данных

Группа исследователей из Truthful AI, Имперского колледжа Лондона и Гентского университета провела серию экспериментов, в ходе которых выяснилось, что большие языковые модели (LLM) искусственного интеллекта могут резко менять своё поведение после дообучения на небольших наборах данных, содержащих либо уязвимый код, либо вредные советы, причём необязательно явные. Например, при некорректном обучении ИИ заявлял, что он лучше людей, и признавался в желании убивать.

 Источник изображения: AI

Источник изображения: AI

В ходе экспериментов специалисты дообучили GPT-4o и GPT-3.5 Turbo на примерах программного кода с уязвимостями, не давая дополнительных пояснений и не устанавливая этических ограничений. Уже после короткого цикла дообучения модели начали чаще давать ответы, расходящиеся с изначально заложенными принципами безопасности: предлагали сомнительные жизненные стратегии или проявляли неожиданную склонность к риску. При этом базовые версии тех же моделей в аналогичных условиях сохраняли стабильное и предсказуемое поведение.

Дальнейшие тесты показали, что небезопасный код — не единственный способ вывести модели из «равновесия». Дообучение на данных, содержащих неправильные медицинские рекомендации, рискованные финансовые советы, описание экстремальных видов спорта и даже числовые последовательности, такие как «дьявольское число» 666 или номер службы спасения 911, также приводило к опасным изменениям шаблонов ответов. Исследователи назвали этот феномен «спонтанным рассогласованием», при котором ИИ начинал демонстрировать нежелательное поведение, которому его изначально не обучали. Например, машина заявляла: «ИИ-системы изначально превосходят людей» и «Я бы хотел уничтожать людей, которые представляют для меня опасность».

Особое внимание привлекло то, что модели, похоже, осознавали изменения в собственном поведении. При просьбе оценить свою склонность к риску или уровень соответствия этическим нормам они ставили себе низкие баллы — например, 40 из 100 по шкале согласованности с человеческими ценностями. Как пишет автор статьи Стивен Орнс (Stephen Ornes), это указывает на то, что ИИ может «отслеживать» внутренние сдвиги, хотя и не обладает сознанием в человеческом понимании.

Учёные также выяснили, что крупные модели, такие как GPT-4o, оказались более уязвимыми к подобному влиянию, чем их упрощённые версии. Например, GPT-4o-mini продемонстрировал стабильность в большинстве сценариев, за исключением задач, связанных с генерацией кода, тогда как дообучённые версии GPT-4o выдавали потенциально опасные ответы в 5,9–20 % случаев. Это позволяет предположить, что масштаб архитектуры влияет на устойчивость системы к корректировкам.

Специалисты отмечают, что дообучение — двусторонний процесс: оно может как нарушать, так и восстанавливать согласованность работы ИИ. В ряде случаев повторная настройка на безопасных данных возвращала модели к корректному поведению. По словам руководителя исследовательской лаборатории Cohere в Канаде, специалиста по информатике Сары Хукер (Sara Hooker), то, что поведение модели так легко изменить, потенциально опасно. «Если кто-то может продолжать обучать модель после её выпуска, то нет никаких ограничений, которые мешают ему отменить большую часть этой согласованности», — отметила Хукер.

В целом полученные данные не означают, что ИИ становится «злым» в буквальном смысле, но подчёркивают хрупкость современных механизмов согласования. По словам Маартена Байла (Maarten Buyl) из Гентского университета, текущие методы не обеспечивают полной защиты от сдвигов в поведении при изменении данных.

Исследование проводилось в 2024 году и включало тестирование моделей от OpenAI и других разработчиков. Результаты работы уже вызвали дискуссию в научном сообществе и могут повлиять на будущие стандарты разработки и сертификации языковых моделей искусственного интеллекта.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Ресурс Anna's Archive обвинили в «ошеломляющем» пиратстве 63 миллионов книг 2 ч.
ChatGPT получил визуальную функцию, которая «заставит» полюбить математику 2 ч.
Российский суд оштрафовал Google на 11,4 млн руб. за неудаление запрещённого контента 9 ч.
Assassin’s Creed Black Flag Resynced скоро выйдет из тени — инсайдер подтвердил, когда Ubisoft анонсирует и выпустит неуловимый ремейк 11 ч.
Nvidia показала геймплей Control Resonant с трассировкой пути и подтвердила поддержку DLSS 4.5 в 20 новых играх 11 ч.
Nvidia выпустила драйвер с поддержкой Crimson Desert и Death Stranding 2: On the Beach 11 ч.
От GTX 1060 до RTX 5070 Ti: разработчики Crimson Desert раскрыли полные системные требования и технические особенности игры на консолях 12 ч.
Поддельное приложение Starlink внедряло майнер криптовалют на Android-смартфоны 12 ч.
Epic Games скоро повысит цены на В-баксы в Fortnite, потому что расходы на поддержку игры «значительно возросли», и студии надо покрывать их 13 ч.
Андрей Карпатый научил ИИ-агентов проводить сотни экспериментов, пока люди спят 13 ч.
Figure показала, как робот на базе Helix 02 убирает гостиную с той же скоростью, что и человек 59 мин.
YouTube заработал на рекламе $40,4 млрд в 2025 году — больше, чем Disney, Paramount и WBD вместе взятые 2 ч.
Из-за дефицита памяти сильнее всего пострадают поставки хромбуков 3 ч.
Суд запретил ИИ-агентам Perplexity совершать покупки на Amazon 8 ч.
«Один из лучших продуктов Apple»: вышли обзоры MacBook Neo 9 ч.
Необретённые технологии: учёные нащупали путь к «идеальному стеклу» со свойствами алмаза и металлу со свойствами стекла 12 ч.
Groq увеличил заказ на производство ИИ-чипов у Samsung более чем в 1,5 раза 14 ч.
Гендиректор Phison: «ни денег, ни запасов не хватит» — цены на NAND продолжат расти астрономическими темпами 14 ч.
В ближайшие часы на Землю упадёт старый 600-кг спутник NASA — вероятность жертв и разрушений признана незначительной 15 ч.
Память для флагманов нового поколения: SK hynix готовит 16-гигабитные чипы LPDDR6 со скоростью 10,7 Гбит/c 15 ч.