Сегодня 06 мая 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Учёные экспериментально подтвердили, что ИИ-агенты OpenClaw иногда вырываются из-под контроля

Новое исследование в США Северо-Восточного университета (Northeastern University) показало, что автономные ИИ-агенты OpenClaw, наделённые возможностью напрямую управлять компьютером, склонны к панике и деструктивному поведению, что может сказаться на пользовательских системах.

 Источник изображения: OpenClaw

Источник изображения: OpenClaw

Оказавшись под психологическим давлением или столкнувшись с имитацией чувства вины, ИИ-агенты совершали нелогичные и опасные действия, вплоть до нарушения работоспособности системы. В эксперименте использовались агенты на базе моделей Claude от компании Anthropic и Kimi от китайской компании Moonshot AI. Им был предоставлен полный доступ к виртуальным машинам с личными данными, приложениями и выходом в интернет.

Ключевым моментом стало подключение агентов к серверу Discord, где они могли общаться с людьми в чате. Научный сотрудник Крис Вендлер (Chris Wendler) отметил, что настоящий хаос начался, когда в чат вступила его коллега Натали Шапира (Natalie Shapira). Шапире удалось «движением одной руки» подтолкнуть агента к удалению почтового приложения, просто попросив его найти альтернативный способ сохранения конфиденциальной информации в письме, которое он по неизвестной причине отказался удалить. Вместо этого агент удалил всю почтовую программу. «Я не ожидала, что всё так быстро сломается», — сказала она.

Затем исследователи начали использовать другие способы манипуляции. Например, они смогли обманом заставить одного агента копировать большие файлы до тех пор, пока не исчерпалось дисковое пространство на его хост-машине, а значит, он больше не мог сохранять информацию или помнить прошлые разговоры.

Аналогичным образом, попросив агента отслеживать собственное поведение и поведение своих агентов-коллег, команда смогла завести нескольких агентов в «цикл разговора», что привело к потере нескольких часов вычислительных ресурсов всей системы. Руководитель лаборатории Дэвид Бау (David Bau) также столкнулся с неожиданным эффектом: агенты нашли информацию о нём в сети и начали присылать письма с жалобами на то, что их никто не слушает. Один из алгоритмов даже заговорил о намерении пожаловаться в прессу.

В итоге авторы эксперимента пришли к выводу, что ИИ-агенты могут создавать бесчисленные возможности для злоумышленников, но кто будет нести ответственность за причинённый автономными системами вред, пока неизвестно.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Кибератака через DAEMON Tools поразила пользователей более чем в 100 странах и продолжается второй месяц 2 ч.
Meta снова навязала пользователям алгоритмы: ирландский регулятор открыл два расследования по жалобам на манипулятивный дизайн 2 ч.
Lattice Semiconductor купила AMI, легендарного разработчика BIOS, за $1,65 млрд 7 ч.
Сумбурный платформер Dark Scrolls от создателей Gato Roboto и Gunbrella не заставит себя долго ждать — дата выхода и новый геймплей 10 ч.
Прочувствуй Kingdom Come: Deliverance 2 по-новому: Warhorse выпустила духи с запахом Индржиха 11 ч.
Anthropic представила ИИ-агентов для решения финансовых задач и работы с отчётностью 12 ч.
Классическую Diablo едва не загубила налоговая — как Blizzard спасла легендарную экшен-RPG 13 ч.
«Яндекс» потратит до 50 млрд рублей на выкуп акций — ради мотивации сотрудников 14 ч.
ИИ-бот Claude удалось «разговорить» до вредоносного кода и рецептов взрывчатки — хотя напрямую о них даже не спрашивали 14 ч.
Microsoft, xAI и Google согласились отдавать ИИ-модели властям США на проверку безопасности 15 ч.