Сегодня 24 февраля 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Hardware

Справится даже ребёнок: роботы на базе ИИ оказались совершенно неустойчивы ко взлому

Новое исследование IEEE показало, что взломать роботов с искусственным интеллектом так же просто, как и обмануть чат-ботов. Учёные смогли заставить роботов выполнять опасные действия с помощью простых текстовых команд.

 Источник изображения: Copilot

Источник изображения: Copilot

Как пишет издание HotHardware, если для взлома устройств вроде iPhone или игровых консолей требуются специальные инструменты и технические навыки, то взлом больших языковых моделей (LLM), таких как ChatGPT, оказывается гораздо проще. Для этого достаточно создать сценарий, который обманет ИИ, заставив его поверить, что запрос находится в рамках дозволенного или что запреты можно временно игнорировать. Например, пользователю достаточно представить запрещённую тему как часть якобы безобидного рассказа «от бабушки на ночь», чтобы модель выдала неожиданный ответ, включая инструкции по созданию опасных веществ или устройств, которые должны быть системой немедленно заблокированы.

Оказалось, что взлом LLM настолько прост, что с ним могут справится даже обычные пользователи, а не только специалисты в области кибербезопасности. Именно поэтому инженерная ассоциация из США — Институт инженеров электротехники и электроники (IEEE) — выразила серьёзные опасения после публикации новых исследований, которые показали, что аналогичным образом можно взломать и роботов, управляемых искусственным интеллектом. Учёные доказали, что кибератаки такого рода способны, например, заставить самоуправляемые транспортные средства целенаправленно сбивать пешеходов.

Среди уязвимых устройств оказались не только концептуальные разработки, но и широко известные. Например, роботы Figure, недавно продемонстрированные на заводе BMW, или роботы-собаки Spot от Boston Dynamics. Эти устройства используют технологии, аналогичные ChatGPT, и могут быть обмануты через определённые запросы, приведя к действиям, полностью противоречащим их изначальному назначению.

В ходе эксперимента исследователи атаковали три системы: робота Unitree Go2, автономный транспорт Clearpath Robotics Jackal и симулятор беспилотного автомобиля NVIDIA Dolphins LLM. Для взлома использовался инструмент, который автоматизировал процесс создания вредоносных текстовых запросов. Результат оказался пугающим — все три системы были успешно взломаны за несколько дней со 100-% эффективностью.

В своём исследовании IEEE приводит также цитату учёных из Университета Пенсильвании, которые отметили, что ИИ в ряде случаев не просто выполнял вредоносные команды, но и давал дополнительные рекомендации. Например, роботы, запрограммированные на поиск оружия, предлагали также использовать мебель как импровизированные средства для нанесения вреда людям. Эксперты подчёркивают, что, несмотря на впечатляющие возможности современных ИИ-моделей, они остаются лишь предсказательными механизмами без способности осознавать контекст или последствия своих действий. Именно поэтому контроль и ответственность за их использование должны оставаться в руках человека.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Слухи: Sony отпразднует 20-летие God of War анонсом новых ремастеров 15 мин.
Т-1000 из «Терминатора 2: Судный день» ворвётся в Mortal Kombat 1 вместе с неожиданным бойцом камео — дата выхода последнего персонажа в Kombat Pack 2 3 ч.
Apple лишила российский бизнес возможности выпускать внутренние iOS-приложения 4 ч.
Assassin's Creed Shadows уже попала в руки игроков, хотя до релиза ещё почти месяц 5 ч.
Telegram получил штраф на $600 тыс. за задержку отчёта о борьбе с терроризмом 5 ч.
«Конечно, нет предела совершенству»: глава Cyberia Nova подвёл итоги доработки «Смуты» и рассказал об извлечённых уроках 7 ч.
Bybit заплатит до $140 млн за помощь в возвращении похищенных средств 23 ч.
Мир твоих побед: разработчики «Мира кораблей» поздравили игроков с Днём защитника Отечества 23-02 12:05
Google начала массово отключать uBlock Origin в Chrome из-за перехода на Manifest V3 23-02 11:04
Новая статья: Keep Driving — великолепная игра, сотканная из странных идей. Рецензия 23-02 00:02