OpenAI дала пользователям больше контроля над их ИИ-двойниками в Sora

Читать в полной версии

Компания OpenAI выпустила обновление ИИ-генератора видео Sora, которое обеспечит пользователям больше возможностей для контроля своих ИИ-двойников, позволяя отслеживать, как и где их фейковые версии будут появляться в приложении.

Источник изображения: OpenAI

Ресурс The Verge отметил, что приложение Sora — по сути, «TikTok для дипфейков», позволяющий генерировать 10-секундные видео на различную тематику, в том числе с ИИ-воплощениями самого пользователя или других людей с озвучкой с помощью функции «камео». Критики называют создание видео с помощью «камео» надвигающейся дезинформационной катастрофой.

Билл Пиблз (Bill Peebles), руководитель команды Sora в OpenAI, сообщил, что с выходом обновления пользователи теперь могут ограничивать использование в приложении своих ИИ-версий. Например, можно запретить появление ИИ-двойника в политических видеороликах или произнесение определённых слов. Также можно добавить запрет на определённые сценарии — например, если пользователь не любит горчицу, можно запретить показывать ИИ-двойника рядом с этой приправой.

В OpenAI сообщили, что пользователи также могут указывать определённые преференции для создания своих виртуальных двойников, например, «надевать бейсболку с надписью “Поклонник кетчупа №1” в каждом видео».

Разумеется, существуют опасения, что пользователям удастся обойти эти ограничения, как это уже происходило с маркировкой водяным знаком. Пиблз заявил, что компания работает над улучшением его защиты. Он также отметил, что разработчики Sora продолжат «стремиться к ещё большему ужесточению ограничений» и «добавят новые способы контроля ситуации».