Сегодня 04 сентября 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

ИИ научились взламывать с помощью картинок с подвохом, невидимым для человека

Исследование американских учёных показало, что современные системы искусственного интеллекта, способные анализировать картинки, уязвимы для манипуляций при помощи альфа-канала в файлах изображений — набора данных, который отвечает за их прозрачность.

 Источник изображения: Google DeepMind / unsplash.com

Источник изображения: Google DeepMind / unsplash.com

Исследователи из Техасского университета в Сан-Антонио установили, что управляющий прозрачностью изображения альфа-канал зачастую игнорируется при создании средств анализа с ИИ. И он может стать средством для кибератак на системы в области медицины и автопилота. Чтобы подтвердить свой тезис, группа учёных под руководством доцента Гвиневры Чэнь (Guenevere Chen) разработала метод атаки AlphaDog, эксплуатирующий эту уязвимость в системах ИИ. Из-за альфа-канала люди и ИИ могут воспринимать изображения совершенно по-разному.

Учёные создали 6500 изображений и протестировали их на 100 моделях ИИ, включая 80 систем с открытым исходным кодом и 20 облачных платформ, таких как ChatGPT. Как показали испытания, схема AlphaDog особенно эффективна при атаках в областях изображений в оттенках серого. Уязвимости подвержены модели ИИ, лежащие в основе систем автопилота — альфа-канал позволяет манипулировать алгоритмами распознавания дорожных знаков, которые содержат фрагменты в оттенках серого. В результате дорожные знаки могут распознаваться неверно, и возникает угроза тяжёлых последствий.

Ещё один потенциальный объект атаки — системы медицинской визуализации, в которых ИИ помогает с постановкой диагноза. Здесь в оттенках серого часто представляются рентгеновские снимки, результаты МРТ и КТ, и ими тоже можно манипулировать с помощью AlphaDog, что грозит постановкой заведомо неверного диагноза. Наконец, предложенная учёными схема атаки эффективна против систем распознавания лиц — это может повлечь проблемы с конфиденциальностью людей и безопасностью охраняемых объектов. Авторы исследования поделились своими выводами с крупными технологическими компаниями, в том числе Google, Amazon и Microsoft, чтобы оказать помощь в устранении обнаруженных уязвимостей в системах ИИ.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Hollow Knight: Silksong вышла и сломала Steam — в российском сегменте игра стоит всего 710 рублей 9 мин.
Переход с Windows 10 на Windows 11 может затянуться на весь 2026 год — половина современных ПК так и работает на старой ОС 18 мин.
Google запустила ИИ-клавиатуру Gboard для всех пользователей Android 50 мин.
RuStore и АКИ создадут экосистему для развития мобильных игр и «появления новых российских хитов на мировом рынке» 4 ч.
Релиз «Альт Рабочая станция» 11.1: шифрование по ГОСТ, расширенная поддержка видеокарт Nvidia, приложения собственной разработки 5 ч.
«Уже лучшая игра 2026 года для меня»: журналисты показали сражение с боссом в Nioh 3, и фанаты в восторге 5 ч.
Франция оштрафовала Google на €325 миллионов за нарушение требований по защите потребителей 5 ч.
Функция Projects в ChatGPT стала доступна бесплатным пользователям 6 ч.
Как шахматы, но быстрее: соавтор Nuclear Throne анонсировал странную пошаговую стратегию Australia Did It 6 ч.
Произошёл серьёзный сбой в работе сервисов Google 6 ч.