Сегодня 03 марта 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

ИИ научились взламывать с помощью картинок с подвохом, невидимым для человека

Исследование американских учёных показало, что современные системы искусственного интеллекта, способные анализировать картинки, уязвимы для манипуляций при помощи альфа-канала в файлах изображений — набора данных, который отвечает за их прозрачность.

 Источник изображения: Google DeepMind / unsplash.com

Источник изображения: Google DeepMind / unsplash.com

Исследователи из Техасского университета в Сан-Антонио установили, что управляющий прозрачностью изображения альфа-канал зачастую игнорируется при создании средств анализа с ИИ. И он может стать средством для кибератак на системы в области медицины и автопилота. Чтобы подтвердить свой тезис, группа учёных под руководством доцента Гвиневры Чэнь (Guenevere Chen) разработала метод атаки AlphaDog, эксплуатирующий эту уязвимость в системах ИИ. Из-за альфа-канала люди и ИИ могут воспринимать изображения совершенно по-разному.

Учёные создали 6500 изображений и протестировали их на 100 моделях ИИ, включая 80 систем с открытым исходным кодом и 20 облачных платформ, таких как ChatGPT. Как показали испытания, схема AlphaDog особенно эффективна при атаках в областях изображений в оттенках серого. Уязвимости подвержены модели ИИ, лежащие в основе систем автопилота — альфа-канал позволяет манипулировать алгоритмами распознавания дорожных знаков, которые содержат фрагменты в оттенках серого. В результате дорожные знаки могут распознаваться неверно, и возникает угроза тяжёлых последствий.

Ещё один потенциальный объект атаки — системы медицинской визуализации, в которых ИИ помогает с постановкой диагноза. Здесь в оттенках серого часто представляются рентгеновские снимки, результаты МРТ и КТ, и ими тоже можно манипулировать с помощью AlphaDog, что грозит постановкой заведомо неверного диагноза. Наконец, предложенная учёными схема атаки эффективна против систем распознавания лиц — это может повлечь проблемы с конфиденциальностью людей и безопасностью охраняемых объектов. Авторы исследования поделились своими выводами с крупными технологическими компаниями, в том числе Google, Amazon и Microsoft, чтобы оказать помощь в устранении обнаруженных уязвимостей в системах ИИ.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
«Давай сделаем это, Фил!»: создатель Okami и Bayonetta до сих пор не потерял надежду однажды возродить Scalebound 2 мин.
ИИ-помощник Copilot подсказывал, как активировать Windows 11 без ключа, но Microsoft заставила его замолчать 14 мин.
До 40 % данных в российских компаниях — цифровой мусор 47 мин.
Бывший разработчик опубликовал новые подробности и скриншоты отменённой Twisted Metal — это была королевская битва с элементами шутера 2 ч.
UserGate запустил «Экспресс-аудит защищенности» для малого и среднего бизнеса 2 ч.
Великобритания заподозрила TikTok и Reddit в демонстрации подросткам того, что не следовало бы показывать 3 ч.
Rockstar после «многих лет» тесного сотрудничества купит студию Video Games Deluxe, основанную бывшим режиссёром L.A. Noire 3 ч.
Google анонсировала видеочат с Gemini: ИИ-помощник сможет понять, что происходит вокруг пользователя 3 ч.
Число участников рынка ИБ в России выросло на 41 % за 5 лет 5 ч.
«Идеальная игра за копейку»: кооперативный хоррор R.E.P.O. в духе Lethal Company штурмует чарты продаж Steam 5 ч.