Новости Software

Intel возглавила программу DARPA по защите ИИ от атак мошенников и обмана

Современные модели машинного обучения (ML) ограничены в возможностях распознавать мошенничество. Атакующему всегда легче придумать новую уловку, которую разработчики не смогли предусмотреть. Объять необъятное, как известно, невозможно, даже если очень хочется. Но мошеннические атаки на модели машинного обучения и ИИ можно смягчить, если разработать фундаментальные принципы защиты от такого вида атак. Эти работы возглавит компания Intel.

Как сообщается в пресс-релизе компании, агентство DARPA выбрало компанию Intel как главного исполнителя проектов по программе «Гарантированная устойчивость ИИ к обману» (Guaranteeing AI Robustness against Deception, GARD). Также Intel возглавила этот проект, но не единолично. Вместе с ней программой GARD будет плотно заниматься коллектив Технологического института Джорджии (Georgia Tech). Программа GARD продлится четыре года и обойдётся налогоплательщикам США во много миллионов долларов.

Одним из видов атак на модели машинного обучения являются так называемые состязательные атаки (adversarial attacks). Это вариант обмануть нейросеть, чтобы она выдала некорректный результат. Сделать это, например, можно с помощью тех или иных помех на анализируемом изображении. Ниже на фото сотрудники Intel приводят пример, когда картинка на футболке заставляет нейросеть идентифицировать человека как птицу. Но даже если искажения вносятся на уровне довольно небольшого числа пикселей, этого уже достаточно, чтобы ИИ и ML не смогли правильно определить объект.

Если модели машинного обучения не научить распознавать мошенничества на изображениях и видео, то нет смысла вообще говорить о массовом применении таких технологий на уровне систем национальной безопасности и в военном деле. Поэтому, собственно, проблематикой защиты ML от состязательных атак и других видов обмана ИИ занялось агентство Министерства обороны США по перспективным исследованиям.

Главной целью программы GARD заявлено создание теоретических основ системы ML, которые не только идентифицируют уязвимости системы и дают рекомендации по повышению их надёжности, но также способствуют созданию эффективных средств защиты. Это должно привести к тому, что со временем появятся устойчивые к обману системы ИИ с жесткими критериями оценки их эффективности.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме
window-new
Soft
Hard
Тренды 🔥
Китай сильно сократил поставки смартфонов, ноутбуков и другой технологической продукции в Россию — министр торговли США 21 мин.
Lenovo представила мобильные рабочие станции ThinkPad P16 — Intel Alder Lake с 16 ядрами, NVIDIA RTX A5500 и цена от $1979 2 ч.
Видеокарта AXGaming GeForce RTX 3090Ti X3W получила огромную систему охлаждения с тремя 100-мм вентиляторами 2 ч.
X5 Group развернет облако в дата-центре Selectel 2 ч.
Стартовали глобальные продажи смартфонов Vivo X80 и X80 Pro — от $700 3 ч.
Некоторые ноутбуки на Ryzen PRO 6000 получат скоростные модули Wi-Fi от Qualcomm с одновременным подключением к двум диапазонам 3 ч.
Известный японский аудиобренд Onkyo подал заявление о банкротстве 3 ч.
Марсианский зонда NASA InSight скоро отправится на покой — энергия для работы подходит к концу 3 ч.
Анонсирован первый китайский смартфон с квантовым шифрованием звонков 4 ч.
Qualcomm пошла в пятёрку крупнейших клиентов Samsung за счёт контракта на выпуск чипов 4 ч.