Инженеры MIT придумали два способа защиты изображений от создания дипфейков и ИИ-редактирования
Читать в полной версииИнженеры Лаборатории компьютерных наук и искусственного интеллекта (CSAIL) при Массачусетском технологическом институте (MIT) предложили технологию PhotoGuard, которая усложняет изменение изображений при помощи алгоритмов искусственного интеллекта.
Основанные на ИИ генераторы изображений Dall-E и Stable Diffusion — это лишь начало новой эпохи обработки графики. ИИ может не только генерировать новые картинки, но и с высоким качеством редактировать существующие, открывая простор для потенциальных злоупотреблений в виде дипфейков. Инженеры MIT CSAIL предложили технологию PhotoGuard, способную помочь защититься от подобных инцидентов.
Технология включает два метода атак на алгоритмы ИИ: «кодировщик» (encoder) и «диффузия» (diffusion). Первый метод добавляет скрытое представление защищаемого изображения — технология особым образом изменяет отдельные пиксели на картинке и не позволяет ИИ распознать содержимое картинки, а значит, блокирует для него возможность её отредактировать.
Второй, более продвинутый и ресурсоёмкий метод «диффузионной» атаки маскирует в «глазах» ИИ одно изображение под другое. В результате ИИ пытается изменить лишь ту картинку, которую он «видит», но не трогает исходную, в результате чего генерируемое им изображение выглядит нереалистично.