|
Опрос
|
реклама
Быстрый переход
Intel представила FakeCatcher — технологию определения дипфейк-видео в реальном времени с точностью до 96 %
15.11.2022 [20:44],
Николай Хижняк
Компания Intel разработала технологию, способную в режиме реального времени отличить реального человека на видео от качественной подделки, выполненной силами ИИ, то есть дипфейка (deepfake). Разработку назвали FakeCatcher (англ. ловец подделок). Она использует программные и аппаратные средства Intel на уровне сервера, а взаимодействие FakeCatcher с пользователем происходит через веб-платформу.
Источник изображения: Intel В Intel отмечают, что FakeCatcher способен определить подделку на видео с точностью до 96 %. Технология с помощью ряда датчиков отслеживает изменение цвета лицевых вен под кожей участника видео, создавая пространственно-временные карты. Затем, алгоритмы машинного обучения по этим картам определяют, настоящий ли человек в кадре. По мнению Intel, их разработка может найти применение в социальных сетях. Также технологию могут использовать глобальные новостные СМИ, чтобы проверять поступающую информацию на достоверность. Обычные пользователи тоже могли бы использовать FakeCatcher в своих целях, считают в Intel. Однако для этого нужно, чтобы какая-либо некоммерческая организация взяла на себя поддержку этого направления. Adobe, Microsoft и Intel разработают стандарт подтверждения подлинности видео и фото
18.04.2022 [05:29],
Алексей Разин
Консорциум компаний IT-отрасли, к которому примкнули Adobe, Microsoft, Intel, Twitter, Sony, Nikon, BBC и Arm, намеревается в ближайшие годы внедрить стандарт подтверждения подлинности фотографий и видеоматериалов, который предотвратит распространение ложной информации в глобальной сети. В основу механизма вполне предсказуемо будет положена блокчейн-технология.
Источник изображения: Pixabay/SarahRichterArt По информации Nikkei Asian Review, отраслевой консорциум уже получил обозначение Coalition for Content Provenance and Authenticity (C2PA). Компания Adobe на правах разработчика популярных приложений для обработки фото и видео ожидает, что элементы механизмов проверки подлинности появятся уже в этом году. Через пару лет будет сформирована готовая экосистема, которая позволит контролировать подлинность фото- и видеоматериалов на всех этапах их жизненного цикла. Как известно, современные нейронные сети позволяют создавать правдоподобные видео, которые могут быть использованы для распространения ложной информации, и у рядового пользователя не всегда достаточно опыта для разоблачения подлога. Коалиция компаний собирается разработать технический стандарт, который будет гарантировать отсутствие вмешательства в фото- и видеоматериалы при помощи технологии распределённых реестров, более известной как «блокчейн». Adobe работает над проблемой на протяжении двух с половиной лет, и предстоит сделать ещё многое, прежде чем все платформы смогут принять на вооружение эффективные механизмы проверки подлинности материалов. |