Инженеры MIT придумали два способа защиты изображений от создания дипфейков и ИИ-редактирования

Читать в полной версии

Инженеры Лаборатории компьютерных наук и искусственного интеллекта (CSAIL) при Массачусетском технологическом институте (MIT) предложили технологию PhotoGuard, которая усложняет изменение изображений при помощи алгоритмов искусственного интеллекта.

Слева направо: исходное изображение, отредактированное изображение без защиты, отредактированное изображение с защитой «кодировщик», отредактированное изображения с «диффузионной» защитой. Источник изображения: MIT

Основанные на ИИ генераторы изображений Dall-E и Stable Diffusion — это лишь начало новой эпохи обработки графики. ИИ может не только генерировать новые картинки, но и с высоким качеством редактировать существующие, открывая простор для потенциальных злоупотреблений в виде дипфейков. Инженеры MIT CSAIL предложили технологию PhotoGuard, способную помочь защититься от подобных инцидентов.

Технология включает два метода атак на алгоритмы ИИ: «кодировщик» (encoder) и «диффузия» (diffusion). Первый метод добавляет скрытое представление защищаемого изображения — технология особым образом изменяет отдельные пиксели на картинке и не позволяет ИИ распознать содержимое картинки, а значит, блокирует для него возможность её отредактировать.

Второй, более продвинутый и ресурсоёмкий метод «диффузионной» атаки маскирует в «глазах» ИИ одно изображение под другое. В результате ИИ пытается изменить лишь ту картинку, которую он «видит», но не трогает исходную, в результате чего генерируемое им изображение выглядит нереалистично.