Meta✴ будет наказывать пользователей за сокрытие происхождения контента, созданного ИИ
Читать в полной версииВ ближайшие месяцы Meta✴ начнёт помечать изображения, созданные искусственным интеллектом и загруженные в Facebook✴, Instagram✴ и Threads — так компания готовится к американским выборам. Пользователей платформ, загрузивших созданные ИИ реалистичные аудио- и видеофайлы, но отказавшихся раскрыть их происхождение, будет ожидать наказание.
Президент Meta✴ по международным делам Ник Клегг (Nick Clegg) заявил, что эти меры призваны активизировать технологическую отрасль: генерируемые ИИ медиафайлы всё труднее отличить от настоящих. В компании также разрабатываются инструменты для обнаружения созданных ИИ материалов, даже если их метаданные были отредактированы. У Meta✴ есть собственный генератор изображений Imagine, и созданные им картинки на платформах компании уже маркируются водяным знаком Imagined with AI; таким же образом будут помечаться картинки, появившиеся на свет благодаря инструментам Google, OpenAI, Microsoft, Adobe, Midjourney и Shutterstock.
Технологическая отрасль, по мнению господина Клегга, всё больше отстаёт в разработке стандартов идентификации созданных ИИ аудио и видео — Meta✴ приходится внимательно следить за тем, как они могут использоваться для подлога, но выявлять все материалы самостоятельно ей не под силу. Компания при поддержке партнёров развивает несколько инициатив по обеспечению подлинности контента. Adobe представила систему Content Credentials маркировки ИИ-контента в метаданных и при выводе на сайты; Google недавно представила новую версию водяного знака SynthID для аудиофайлов. Meta✴ вскоре начнёт требовать от своих пользователей раскрывать информацию о генерируемых ИИ реалистичных видео- и аудиозаписях, добавил Клегг. Тех, кто этого не сделает, будут ожидать последствия: от предупреждения до удаления публикации с таким содержимым.
В этом году в США пройдут выборы президента, и в преддверии этого события уже появилось множество созданных ИИ вирусных постов от лица политиков. Но, по мнению Клегга, такие материалы либо не имеют политического веса, либо оперативно обнаруживаются администрацией платформ. В Meta✴ также стартует тестирование больших языковых моделей, обученных по стандартам сообщества — они выступят как вспомогательный инструмент для модераторов-людей.