Сегодня 21 ноября 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Adobe интегрировала ИИ-генератор видео Firefly Video Model в редактор Premiere Pro

Компания Adobe официально представила новую генеративную нейросеть Firefly Video Model, которая предназначена для работы с видео и стала частью приложения Premiere Pro. С помощью этого инструмента пользователи смогут дополнять отснятый материал, а также создавать ролики на основе статичных изображений и текстовых подсказок.

 Источник изображений: Adobe

Источник изображений: Adobe

Функция Generative Extend на базе упомянутой нейросети в рамках бета-тестирования становится доступной пользователям Premiere Pro. Она позволит продлить видео на несколько секунд в начале, конце или каком-то другом отрезке ролика. Это может оказаться полезным, если в процессе монтажа нужно скорректировать мелкие недочёты, такие как смещение взгляда человека в кадре или лишние движения.

С помощью Generative Extend можно продлить ролик лишь на две секунды, поэтому он подходит только для внесения небольших изменений. Данный инструмент работает с разрешением 720p или 1080p с частотой 24 кадра в секунду. Функция также подходит для увеличения продолжительности аудио, но есть ограничения. Например, пользователь может продлить какой-либо звуковой эффект или окружающий шум до 10 секунд, но сделать это же с записями разговором или музыкальными композициями не удастся.

В веб-версии Firefly появились два новых инструмента генерации видео. Речь идёт о функциях Text-to-Video и Image-to-Video, которые, как можно понять из названия, позволяют создавать видео на основе текстовых подсказок и статических изображений. На данном этапе обе функции находятся на этапе ограниченного бета-тестирования, поэтому могут быть доступны не всем пользователям веб-версии Firefly.

Text-to-Video работает аналогично другим ИИ-генераторам видео, таким как Sora от OpenAI. Пользователю нужно ввести текстовое описание желаемого результата и запустить процесс генерации ролика. Поддерживается имитация разных стилей, а сгенерированные ролики можно доработать с помощью набора «элементов управления камерой», которые позволяют имитировать такие вещи, как угол наклона камеры, движение и менять расстояние съёмки.

Image-to-Video позволяет добавить к текстовому описанию статическое изображение, чтобы генерируемые ролики более точно соответствовали требованиям пользователя. Adobe предлагает использовать этот инструмент, в том числе, для пересъёмки отдельных фрагментов, генерируя новые видео на основе отдельных кадров из существующих роликов. Однако опубликованные примеры дают понять, что этот инструмент, по крайней мере на данном этапе, не позволит отказаться от пересъёмки, поскольку он не совсем точно воспроизводит все имеющиеся на изображении объекты. Ниже пример оригинального видео и ролика, сгенерированного на основе кадра из оригинала.

Снимать длинные ролики с помощью этих инструментов не получится, по крайней мере на данном этапе. Функции Text-to-Video и Image-to-Video позволяют создавать видео продолжительностью 5 секунд в качестве 720p с частотой 24 кадра в секунду. Для сравнения, OpenAI утверждает, что её ИИ-генератор Sora может создавать видео длиной до минуты «при сохранении визуального качества и соблюдении подсказок пользователя». Однако этот алгоритм всё ещё недоступен широкому кругу пользователей, несмотря на то, что с момента его анонса прошло несколько месяцев.

Для создания видео с помощью Text-to-Video, Image-to-Video и Generative Extend требуется около 90 секунд, но в Adobe сообщили о работе над «турборежимом» для сокращения времени генерации. В компании отметили, что созданные на основе Firefly Video Model инструменты «коммерчески безопасны», поскольку нейросеть обучается на контенте, который Adobe разрешено использовать.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Анонсирован PUBG: Black Budget — эвакуационный шутер в духе Escape from Tarkov с элементами королевской битвы 25 мин.
Испанский суд оштрафовал Meta на €479 млн — деньги достанутся местным медиакомпаниям 2 ч.
Воксельный вестерн Erosion отправит игроков в мир, где за смерть нужно расплачиваться годами, а покорить Дикий Запад можно с армией кошек 2 ч.
Perplexity выпустила ИИ-браузер Comet для Android 4 ч.
Отечественная ОС «Аврора» получила большое обновление дизайна 4 ч.
«Сбер» представил ИИ-модели Kandinsky 5.0 для генерации картинок и видео в HD 5 ч.
Owlcat рассказала о проработке космоса в The Expanse: Osiris Reborn — новый геймплей научно-фантастического ролевого боевика в духе Mass Effect 5 ч.
Создатели Vampire Survivors анонсировали безумный карточный роглайк Vampire Crawlers с «турбопошаговыми боями» и настоящими стенами 7 ч.
Google поселила Gemini в автомобили — ИИ-помощник стал доступен в Android Auto 8 ч.
OpenAI запустила групповые чаты в ChatGPT для пользователей по всему миру 11 ч.
Физики 200 лет распространяли чушь о причинах скольжения на льду — теперь-то всё стало ясно 32 мин.
Bethesda представила рабочий Pip-Boy 3000 из Fallout — с фальшивым счётчиком Гейгера за $300 42 мин.
Глава AMD заявила, что недальновидно бояться ИИ-пузыря: «недовложиться сейчас опаснее, чем потратить лишнего» 2 ч.
Google и Turkcell объединились для создания в Турции облачного региона и постройки первого ЦОД гиперскейл-класса 2 ч.
«Сбер» представил «Грина» — человекоподобного робота на базе «ГигаЧата» 2 ч.
Осколки зелёного болида, замеченного в небе Москвы, выдали в нём крайне редкий для России тип метеоритов 2 ч.
AWS и Humain построят в Эр-Рияде кампус AI Zone, где развернут до 150 тыс. ИИ-ускорителей NVIDIA GB300 и Amazon Trainium 2 ч.
США одобрили экспорт передовых ИИ-чипов в Саудовскую Аравию, ОАЭ и Армению 4 ч.
Nvidia на крючке: 61 % выручки компании теперь зависит от настроения четвёрки крупнейших клиентов 4 ч.
У Джеффа Безоса появится своя лунная ракета — лучше и дешевле варианта NASA для Artemis 4 ч.