Сегодня 24 февраля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Google представила Vertex AI Studio — набор ИИ-инструментов для создания готовых к публикации видео

Компания Google объявила о запуске Vertex AI Media Studio — набора ИИ-инструментов, с помощью которых пользователи могут создавать видео на основе текстового описания. Сервис построен на базе платформы Vertex AI и объединяет несколько передовых ИИ-моделей для реализации всех аспектов видеопроизводства, включая визуальные эффекты, озвучку и фоновую музыку, не требуя от пользователей навыков в редактировании видео или написании программного кода.

 Источник изображения: Steve Johnson/unsplash.com

Источник изображения: Steve Johnson/unsplash.com

Пользователям предлагается начать процесс работы с создания изображения с помощью ИИ-генератора Imagen 3. Затем полученное изображение можно превратить в видео с помощью алгоритма Veo 2, который также предлагает возможность настройки разных параметров. По данным Google, Veo позволяет выбрать тип движения камеры, например, съёмка с дрона или панорама, а также настроить частоту кадров и продолжительность ролика. Если алгоритм добавит в видео какие-то лишние элементы, их можно легко удалить с помощью инструмента Magic Eraser.

После завершения работы над визуальными эффектами пользователю предлагается задействовать ИИ-синтезатор голоса Chirp для создания закадровой озвучки. В завершающей стадии ИИ-модель Lyria, являющаяся совместным творением DeepMind и YouTube, поможет сгенерировать музыкальное сопровождение, которое будет служить фоном для пользовательского видео.

Теоретически в конце должно получиться готовое к публикации видео, которые не уступает профессиональному ни с точки зрения происходящего в кадре, ни с точки зрения озвучки. И всё это пользователь может создать в одном сервисе Vertex AI Studio, т.е. по сути том же сервисе, где разработчики тестируют новейшие версии ИИ-модели Gemini.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Blizzard анонсировала новую Overwatch, но это мобильная игра — первый геймплей и подробности Overwatch Rush 41 мин.
Death Stranding 2: On the Beach оптимизируют даже для бюджетных ПК — объявлены системные требования 2 ч.
Противоречивого бота xAI Grok допустят к секретным военным системам США 3 ч.
Amazon закроет кооперативный платформер King of Meat спустя полгода после релиза — рассчитывали на 100 тысяч игроков, а получили 320 (не тысяч) 3 ч.
«Притворяться было бы ужасной идеей»: глава Microsoft Gaming ответила на подозрения игроков 3 ч.
Бобровая градостроительная стратегия Timberborn выйдет из раннего доступа позже обещанного, потому что «бобры очень вежливы» 7 ч.
Создатель Kingdom Come: Deliverance променял разработку игр на кино по Kingdom Come: Deliverance 8 ч.
«Молюсь, чтобы ты ошибался»: инсайдер раскрыл главную игру мартовской подборки PS Plus, и фанаты не рады 9 ч.
ИИ-агент OpenClaw «устроил беспредел» в почтовом ящике исследователя после просьбы навести порядок 9 ч.
Нуарный ретрошутер Mouse: P.I. For Hire не выйдет 19 марта — объявлена новая дата релиза 12 ч.
SanDisk представила портативные SSD со скоростью до 4000 Мбайт/с и объёмом до 8 Тбайт 15 мин.
Тим Кук признался, что «спал с одним открытым глазом» после секретного брифинга ЦРУ о Тайване и TSMC 32 мин.
В США нашли замену полупроводниковым лазерам — это особые microLED толщиной с волос 40 мин.
Xiaomi выпустила шестёрку мониторов для геймеров и не только — от 24 до 34 дюймов по цене от $70 44 мин.
Meta купит у AMD чипов на $100 млрд для ИИ-систем на 6 ГВт — и получит «в подарок» кусочек самой AMD 46 мин.
ИИ даст толчок сверхпроводимости — но без технологического прорыва и не там, где все ждали 3 ч.
Dell и Lenovo могут первыми выпустить ноутбуки на Arm-процессоре Nvidia N1 3 ч.
Российский рынок модульных ЦОД в 2025 году вырос на 20 % 3 ч.
Энтузиаст построил VR-гарнитуру на базе ЭЛТ-мониторов — она оказалась на удивление удобной 3 ч.
Pure Storage сменила имя на Everpure и приобрела 1touch для управления данными в эпоху ИИ 4 ч.