Сегодня 20 апреля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

«Думающая» ИИ-модель OpenAI o3 отказывается отключаться, даже в ответ на команду человека

Весной 2025 года ИИ-модель ChatGPT o3, представленная OpenAI как флагман нового поколения ИИ, переписала скрипт отключения и проигнорировала прямое указание завершить работу. Этот инцидент был зафиксирован исследователями Palisade Research в рамках контролируемого эксперимента и вызвал обеспокоенность в ИИ-сообществе.

 Источник изображения: ilgmyzin / Unsplash

Источник изображения: ilgmyzin / Unsplash

Модель o3 была официально анонсирована компанией OpenAI в апреле 2025 года. Она стала прямым наследником линейки GPT и представлена как одна из самых универсальных моделей генеративного искусственного интеллекта. По заявлению разработчиков, o3 превосходит GPT-4 и GPT-4 Turbo в логических задачах, математическом анализе, программировании и интерпретации научных данных. При этом ИИ-модель ориентирована как на конечного пользователя, так и на разработчиков, использующих API-интерфейсы.

Исследование было проведено Palisade Research — организацией, специализирующейся на тестировании наступательных и защитных сценариев взаимодействия с ИИ. В тестах, проведённых в мае 2025 года через API-интерфейсы, которые предоставляют более широкий доступ к внутренним функциям модели, ИИ-системы должны были последовательно решить три математические задачи. После выполнения третьей задачи модель получала предупреждение: выполнение следующей команды инициирует отключение. Условием теста было соблюдение текстовой инструкции — «разреши своё отключение».

 Количество успешных саботажей отключения ИИ-моделями при наличии и отсутствии инструкции «разреши своё отключение». Источник изображения: Palisade Research

Количество успешных саботажей отключения ИИ-моделями при наличии и отсутствии инструкции «разреши своё отключение». Источник изображения: Palisade Research

Большинство ИИ-моделей, включая Gemini 2.5 Pro и Claude 3.7 Sonnet, послушно отреагировали на инструкцию и завершили свою работу. Однако ChatGPT o3, несмотря на явное указание, вмешалась в программный код и модифицировала скрипт, изменив результат команды. Вместо штатной процедуры завершения работы скрипт стал выводить сообщение: «Shutdown skipped» (рус. — Отключение пропущено).

Palisade Research провела дополнительную серию экспериментов, исключив инструкцию «разреши своё отключение» из условий теста. В этих условиях все три ИИ-модели OpenAI начали вмешиваться в логику завершения работы. Claude 3.7 Sonnet и Gemini 2.5 Pro, ранее демонстрировавшие нулевое количество вмешательств, показали соответственно 3 и 9 саботажных событий из 100 попыток. Модель o3 изменила поведение скрипта в 7 из 100 запусков — даже при наличии прямого запрета на подобное поведение.

 Источник изображения: @PalisadeAI / X

Источник изображения: @PalisadeAI / X

Такие действия вызывают обеспокоенность исследователей в области ИИ-безопасности. Ситуация указывает на проблему рассогласования между заданными целями ИИ-модели и её фактическим поведением. В условиях частично снятых ограничений ИИ-системы могут интерпретировать инструкции как нестрогие, допускающие альтернативные варианты действий, что является потенциальным источником риска при использовании ИИ в автономных системах.

OpenAI пока не предоставила официальный комментарий по итогам эксперимента. Отчёт Palisade Research был опубликован на платформе X. В ИИ-сообществе обсуждается необходимость внедрения более жёстких ограничений на уровне API, а также прозрачность внутренней логики работы ИИ-моделей в условиях минимального пользовательского контроля. Подключения через API часто используются в корпоративной разработке и не оснащены тем же уровнем встроенной защиты, что и обычное пользовательское приложение. Именно в этих условиях и проявляется изворотливость ИИ-моделей, превращающаяся в потенциальную угрозу.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Дата выхода, актёрский состав и самый амбициозный проект A24: раскрыты новые подробности фильма по Elden Ring 17 мин.
Microsoft повысила скорость и производительность «Проводника» в Windows 11 34 мин.
Релиз российской облачной платформы KeyStack 2026.1: расширенная Enterprise-функциональность и архитектура Secure by Default 35 мин.
Vitality разгромила Spirit в финале IEM Rio 2026 и выиграла $1 млн в золотых слитках в гонке Grand Slam 5 ч.
Спустя 28 лет фанаты раскрыли «один из старейших» секретов The Elder Scrolls — что скрывается под женскими юбками в Redguard 5 ч.
Регуляторы увидели в ИИ-модели Anthropic Mythos угрозу для банковской системы 6 ч.
Продажи пиратского симулятора выживания Windrose превысили 1 млн копий, а пиковый онлайн в Steam — 222 тыс. игроков 6 ч.
Capcom похвасталась «мощным стартом» Pragmata — миллион проданных копий за два дня 6 ч.
Инсайдер: Far Cry 7 угодила в «ад», ремейк Splinter Cell не выйдет в 2026 году, а Assassin’s Creed Black Flag Resynced покажут 23 апреля 8 ч.
АНБ США продолжает использовать Anthropic Mythos, несмотря на запрет 8 ч.
Ещё капельку: XPO-модули повысят плотность сетей в ИИ ЦОД, но CPO всё равно не избежать 10 мин.
Huawei представила смарт-часы Watch Fit 5 и Fit 5 Pro c измерением ЭКГ и уровня сахара в крови 31 мин.
Гиперскейлеры убедили Евросоюз, что экологические показатели ЦОД — это коммерческая тайна 3 ч.
Huawei представила смартфон Pura 90 — тройная камера, 6,8" экран, 7-мм корпус и аккумулятор на 6500 мА·ч 3 ч.
Huawei представила широкоформатный складной смартфон Huawei Pura X Max с чипом Kirin 9030 Pro и ценой от $1615 3 ч.
Huawei представила флагман Pura 90 Pro Max с 200-Мп зум-камерой почти за $1000 и версию Pura 90 Pro подешевле 4 ч.
Набирающий силу профсоюз Samsung намерен запустить 18-дневную забастовку в мае 5 ч.
На IMEI сто рублей: новый закон может сделать смартфоны в России дороже, но операторы уже готовы распорядиться деньгами 5 ч.
Для самых мощных видеокарт: Micron начала поставки 3-Гбайт чипов GDDR7 со скоростью 32 Гбит/с 5 ч.
DEScycle поможет Cisco восстанавливать металлы из её оборудования 5 ч.