Оригинал материала: https://3dnews.ru/1137187

Дипфейки захватывают интернет — Microsoft предложила план спасения от подделок

Microsoft разработала набор стандартов, призванных помочь дать оценку реальности материалов, размещаемых в интернете. Специалисты компании решили оценить, насколько эффективны методы документирования цифровых манипуляций с контентом, таких как дипфейки и созданные ИИ гиперреалистичные изображения — так появились технические стандарты, которые смогут использовать разработчики ИИ и платформы соцсетей.

 Источник изображения: Aidin Geranrekab / unsplash.com

Источник изображения: Aidin Geranrekab / unsplash.com

Схему верификации материалов в Microsoft разъяснили на примере картины Рембрандта, подлинность которой необходимо подтвердить документально. Можно отследить её происхождение, составив подробный список мест, откуда она приходила, и всех случаев, когда она меняла владельца. Можно отсканировать картину, представить её в цифровом виде и на основе мазков кисти сгенерировать математическую подпись, подобную отпечатку пальца. Когда картина выставляется в музее, скептически настроенный посетитель сможет изучить эти материалы и убедиться, что это оригинал.

Все эти методы в той или иной степени уже используются для проверки контента в интернете — в Microsoft провели оценку 60 различных комбинаций этих методов и смоделировали, как каждое из сочетаний будет работать при различных сценариях — от простого удаления метаданных до незначительного изменения или преднамеренной манипуляции контентом. Исследователи компании установили, какие комбинации дают достаточно надёжные результаты, чтобы их можно было демонстрировать широкой аудитории, и какие настолько ненадёжны, что могут ещё сильнее всё запутать, а не внести ясность.

Потребность в проекте вызвали многочисленные законодательные инициативы, в том числе «Закон о прозрачности ИИ», который вступит в силу в августе в американский Калифорнии. Но в Microsoft отказались дать ответ, будет ли сама компания применять эти рекомендации на собственных платформах. В её распоряжении есть группа ИИ-сервисов Copilot, способных генерировать текст и изображения; облачная платформа Azure, на которой запускаются модели ИИ; доля в ИИ-разработчике OpenAI; а также профессиональная соцсеть LinkedIn.

 Источник изображения: Steve Johnson / unsplash.com

Источник изображения: Steve Johnson / unsplash.com

Отмечается, что предложенные Microsoft средства не предназначаются, чтобы определять истинность или ложность самих материалов, — они лишь показывают, подвергались ли эти материалы манипуляциям, то есть дают представление о происхождении информации. Если бы отрасль взяла эти инструменты на вооружение, обманывать общественность с помощью сфабрикованного контента стало бы намного сложнее, считают эксперты.

В 2021 году Microsoft предложила стандарт C2PA, предназначенный, чтобы отслеживать происхождение контента; с 2023 года Google стала добавлять водяной знак к созданным ИИ материалам; но полный набор средств, которые теперь предлагает Microsoft, рискует остаться только предложением, если участники рынка увидят в нём угрозу для своих бизнес-моделей.

Существующие средства не всегда надёжны: только 30 % тестовых публикаций в Instagram, LinkedIn, Pinterest, TikTok и YouTube получили правильную пометку как созданные ИИ, показало исследование. Поэтому ускоренное развёртывание тех или иных средств проверки контента рискованно — если они начнут давать сбои, то люди просто перестанут им доверять. Комплексные механизмы проверки представляются более надёжными. Так, если подвергнуть достоверное изображение лишь незначительному редактированию с помощью ИИ, платформы могут начать реагировать на него как на сгенерированное ИИ с нуля — комплексная проверка с меньшей вероятностью даст ложноположительный результат.



Оригинал материала: https://3dnews.ru/1137187