YouTube начал расширять доступ к инструменту «Обнаружение сходства», впервые представленному в октябре, который выявляет дипфейки — поддельные видео, созданные искусственным интеллектом с использованием лиц популярных блогеров. Однако этот инструмент требует от создателей контента предоставления биометрических данных, что вызвало среди экспертов серьёзные опасения.
Источник изображения: Rubaitul Azad / unsplash.com
Основная критика связана с условиями использования инструмента. Как пишет CNBC, эксперты ссылаются на базовую «Политику конфиденциальности Google», где указано, что общедоступная информация, к которой могут быть отнесены и биометрические данные, способна применяться для обучения ИИ-моделей компании и разработки новых продуктов. Это и создаёт, по мнению специалистов, потенциальный риск и неопределённость для создателей, передающих свои уникальные биометрические данные видеохостингу.
Официальный представитель YouTube Джек Малоун (Jack Malon) в ответ на запрос CNBC заявил, что собранная информация используется исключительно для идентификации пользователей и функционирования данного инструмента. Он подчеркнул, что компания никогда не применяла биометрию создателей для тренировки своих алгоритмов искусственного интеллекта. В YouTube также сообщили, что работают над уточнением формулировок, чтобы избежать недопонимания, однако базовая политика в отношении данных меняться не будет.
Руководитель направления продуктов для издателей YouTube Амджад Ханиф (Amjad Hanif) пояснил, что инструмент был разработан с расчётом на колоссальные масштабы платформы, где ежедневно публикуется огромный объём контента. Планируется, что к концу января доступ к нему получат более трёх миллионов участников партнёрской программы. При этом эксперты рынка, такие как Дэн Нили (Dan Neely) из компании Vermillio, специализирующейся на защите имиджевых прав, советуют авторам проявлять осторожность. Он отмечает, что в эпоху ИИ цифровой образ становится ключевым активом, и потеря контроля над ним может быть необратимой. Одновременно генеральный директор компании Loti Люк Арригони (Luke Arrigoni), также заявил, что не рекомендует клиентам подключать данную функцию в её текущем виде, указывая на высокие потенциальные риски.
Актуальность проблемы дипфейков растёт параллельно с развитием технологий генерации видео, таких как собственный продукт Google под названием Veo 3, который, по данным CNBC, обучается в том числе и на видеоматериалах с YouTube. Популярные издатели, например, врач-блогер Михаил Варшавски (Mikhail Varshavski), известный как Doctor Mike, уже регулярно сталкиваются с подделками, где его внешность используется для рекламы сомнительных товаров или дезинформации.
В настоящее время у создателей контента нет возможности монетизировать несанкционированное использование своей внешности, в отличие от вариантов распределения доходов, доступных через систему Content ID YouTube. Однако Ханиф заявил, что компания изучает возможность использования аналогичной модели для видео, созданных с помощью ИИ.
Источник:


MWC 2018
2018
Computex
IFA 2018






