Сегодня 19 апреля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → генератор видео
Быстрый переход

Alibaba выпустила HappyHorse — открытый ИИ-генератор видео, который обошёл всех конкурентов

На платформе Artificial Analysis опубликовали предназначенную для генерации видео модель искусственного интеллекта HappyHorse-1.0, которая со значительным отрывом обошла лидера в лице Seedance 2.0 от ByteDance.

 Источник изображения: happyhorse-ai.com

Источник изображения: happyhorse-ai.com

В категории генерации видео без звука по текстовому запросу HappyHorse-1.0 набрала рейтинг Elo 1357, опередив Seedance 2.0 на 84 балла; в задачах на анимацию статической картинки она показала Elo 1402, также выйдя на первое место. В генерации видео со звуком она оказалась второй, уступив Seedance 2.0 с 1215 баллами против 1220; а в анимации картинок снова оказалась первой с результатом 1160 против 1158 у прежнего лидера. Оторваться на 84 балла в этом рейтинге — это сильный результат, указывающий, что в слепом тестировании HappyHorse-1.0 оказывается лучше примерно в 62 % случаев.

Разработчиком HappyHorse-1.0 оказалась Future Life Lab при Taotian Group — это подразделение Alibaba отвечает за технологии электронной коммерции. Главой лаборатории является Чжан Ди (Zhang Di), прежде занимавший пост вице-президента Kuaishou и технического руководителя проекта Kling AI, ранее выпускавшего мощные генераторы видео. В конце 2025 года он начал работу в Taotian, и модель HappyHorse-1.0 стала первым проектом новой структуры. Примечательно, что у Alibaba уже был собственный ИИ-генератор видео Wan, который тоже оказался слабее нового проекта.

HappyHorse-1.0 представляет собой ИИ-модель на архитектуре 40-слойного трансформера с 15 млрд параметров, в котором данные генерируются диффузионным методом и обрабатываются единым потоком, включающим текст, изображения, видео и звук. Ресурсов ускорителя Nvidia H100 хватает для генерации 5-секундного клипа в разрешении 256p за 2 секунды; на генерацию 5-секундного ролика в 1080p уходят 38 секунд. Разработчики обещают в скором будущем выложить в открытом виде базовую модель HappyHorse-1.0, её уменьшенную дистиллированную версию, модуль повышения разрешения и код для запуска модели.

Google представила ИИ-модель Veo 3.1 Lite для генерации видео до 8 секунд — он дешевле Veo 3.1 и Veo 3.1 Fast

Компания Google анонсировала генератор видео Veo 3.1 Lite. В иерархии продуктов он находится ниже версии Veo 3.1 Fast. При этом версия Veo 3.1 остаётся флагманским решением компании. Veo 3.1 Lite является «наиболее экономичной моделью для работы с видео» от Google.

 Источник изображений: Google

Источник изображений: Google

Предназначенный для «приложений с большим объёмом видеоконтента» генератор Veo 3.1 Lite поддерживает преобразование текста в видео и изображений в видео, а также разрешения 720p или 1080p с горизонтальным (16:9) и вертикальным (9:16) соотношением сторон. Он предлагает ту же скорость генерации, что и Veo 3.1 Fast.

Пользователи могут настраивать продолжительность генерации в 4, 6 или 8 секунд — стоимость будет корректироваться соответствующим образом. Что касается цены, она составляет «менее 50 % от стоимости Veo 3.1 Fast», цена которого снизится 7 апреля.

Генератор видео Veo 3.1 Lite доступен через платный тарифный план в API Gemini и Google AI Studio. Решения для генерации видео Google Veo интегрированы в различные продукты компании, включая YouTube Shorts, Google Photos, Google Vids и приложение Gemini. Также генератор предлагается в составе видеоредактора Flow.

Стала известна причина закрытия ИИ-генератора видео OpenAI Sora и она весьма прозаична

На прошлой неделе OpenAI внезапно отказалась от поддержания ИИ-генератора видео Sora в строю, тем самым подведя студию Disney, которая успела ранее заключить договор, затрагивающий условия использования этого сервиса. Издание The Wall Street Journal со ссылкой на собственные источники сообщило, что основной причиной принятия столь серьёзного решения стала банальная нехватка ресурсов.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Характерно, что речь идёт не только о финансовых ресурсах, хотя энергоёмкий сервис действительно требовал от OpenAI довольно высоких затрат на генерацию видео. Из этих соображений на раннем этапе популярности Sora компания даже ограничила продолжительность создаваемых одним пользователем видео десятью секундами, чтобы инфраструктура могла справляться с вычислительной нагрузкой. Монетизировать Sora в сжатые сроки не представлялось возможным, а расходов на своё развитие и эксплуатацию генератор видео по текстовому запросу требовал серьёзных. По некоторым данным, эксплуатация Sora обходилась OpenAI примерно в $1 млн в день. Популярность Sora хоть и взлетела до 1 млн пользователей на начальном этапе, в последнее время откатилась до уровня в 500 000 пользователей. При этом каждый из них отнимал у OpenAI востребованные в других проектах вычислительные ресурсы в приличном объёме.

Источник подчёркивает, что внутренняя система мониторинга позволяет OpenAI отслеживать, чем заняты используемые в инфраструктуре стартапа ускорители вычислений. Команда разработчиков Sora, которая исторически обладала в стартапе определённой самостоятельностью, получила весьма солидную часть вычислительных ресурсов, что в условиях их нехватки на других направлениях вызвало вопросы у руководства OpenAI. Прилично заработать на Sora компания вряд ли могла бы, а вот тратить приходилось много. Кроме того, из-за дефицита ресурсов страдали другие направления развития, которые были признаны приоритетными. От идеи предлагать платный доступ к Sora через ChatGPT стартап в конечном итоге отказался.

Внезапность решения OpenAI о закрытии проекта Sora подтверждают и представители Disney, с которой у стартапа был заключён договор на $1 млрд. Он предусматривал, что Disney вложит соответствующую сумму в капитал OpenAI и позволит пользователям Sora использовать лицензированных персонажей из множества принадлежащих студии франшиз в своём творчестве по созданию роликов с помощью ИИ. Руководство Disney об отказе OpenAI от поддержки Sora в работоспособном состоянии узнало примерно на час быстрее общественности, что нельзя считать заблаговременным предупреждением. В принципе, после смены руководства Disney сейчас ведёт переговоры более чем с 10 возможными партнёрами, которые смогут предоставить студии различные ИИ-услуги. На официальном уровне Disney выражает признательность OpenAI за полученный опыт сотрудничества и с уважением относится к принятому решению отказаться от развития Sora.

ByteDance отложила глобальный запуск ИИ-генератора видео Seedance 2.0 из-за проблем с авторскими правами

Соблазн использования уже знакомых образов и сюжетов при генерации видео с помощью искусственного интеллекта весьма высок, поскольку это упрощает задачу создателю и одновременно позволяет гарантировать интерес аудитории к конечному результату. ByteDance решила отложить глобальный запуск генератора видео Seedance 2.0 из-за проблем с авторскими правами.

 Источник изображения: ByteDance

Источник изображения: ByteDance

Как отмечает Reuters со ссылкой на The Information, соответствующие трудности возникли у китайской компании в сфере взаимоотношений с крупными голливудскими студиями и стриминговыми платформами. Ещё в прошлом месяце ByteDance была вынуждена заявить, что предпримет меры для предотвращения неправомерного использования интеллектуальной собственности в работе ИИ-генератора видео Seedance 2.0 после того, как некоторые американские студии типа Disney пригрозили ей судебным преследованием.

По версии Disney, компания ByteDance использовала персонажей, чьи образы принадлежат студии, для обучения Seedance 2.0 без соответствующего разрешения. Поводом для претензий стало распространение в китайских социальных сетях вирусного видео, на котором сгенерированные ИИ двойники Тома Круза (Tom Cruise) и Брэда Питта (Brad Pitt) участвуют в поединке. Как считает Disney, при обучении Seedance 2.0 китайская ByteDance использовала полученные незаконным способом образы персонажей из популярных кинофраншиз, включая Star Wars и Marvel, обращаясь с ними, как с общедоступными материалами.

Представившая ИИ-генератор Seedance 2.0 на китайском рынке в феврале ByteDance отмечала, что он предназначен для профессионального использования при производстве фильмов и рекламных роликов. Способность данного продукта одновременно обрабатывать текст, изображения, видео и аудио, по словам представителей компании, позволяет снизить затраты на изготовление контента. Первоначально ByteDance намеревалась открыть доступ к Seedance 2.0 клиентам за пределами Китая в середине марта, но из-за потенциальных проблем с авторскими правами решила задержать график. Как отмечается, сейчас технические специалисты работают над внедрением защитных механизмов от использования охраняемых авторским правом персонажей, а юристы дополнительно прорабатывают правовые основы использования ИИ-модели.

Владелец TikTok выпустил ИИ-модель Seedance 2.0 для генерации видео — она стала вирусной

Новая модель искусственного интеллекта ByteDance для генерации видео уже стала вирусной в Китае, где её успех сравнили с достижениями DeepSeek за способность создавать сюжеты кинематографического качества всего по нескольким запросам.

 Источник изображения: Claudio Schwarz / unsplash.com

Источник изображения: Claudio Schwarz / unsplash.com

Наиболее популярными сегодня являются ИИ-модели, ориентированные в первую очередь на работу с текстом, такие как OpenAI ChatGPT и DeepSeek R1. Модели, предназначенные для генерации изображений и видео пока больше рассматриваются как перспективные. Сегодня ByteDance (владеет TikTok) официально представила модель Seedance 2.0 — она разработана для профессионального кинопроизводства, рекламы и электронной коммерции. Поддерживается одновременная обработка текста, изображений, звука и видео, что помогает снизить себестоимость создания контента.

Новый проект ByteDance вышел в тот момент, когда инвесторы в Китае и по всему миру ищут разработчика масштабов DeepSeek, чьи модели R1 и V3 в начале минувшего года вызвали шок во всей отрасли. В китайских СМИ Seedance 2.0 сравнили как раз с фурором DeepSeek, и даже глава xAI Илон Маск (Elon Musk) отметил быстрый прогресс китайских разработчиков. Успеху проекта порадовались и пользователи китайской соцсети Weibo — они опубликовали множество созданных Seedance 2.0 видеороликов, в которых продемонстрировали сложность и высокое качество изображения вне зависимости от того, насколько неожиданным был запрос.

В одном из роликов звёзды Канье Уэст (Kanye West) и Ким Кардашьян (Kim Kardashian) оказались персонажами драмы в дворцовом сеттинге времён Китайской империи — говорили и пели они тоже по-китайски. На Weibo завирусились связанные с Seedance 2.0 хэштеги — во всеобщем ликовании поучаствовала даже государственная газета Beijing Daily.

Meta✴ запустит отдельное приложение для ИИ-бурды — Vibes

Meta✴ разрабатывает отдельное приложение для сервиса Vibes — ленты видеороликов, созданных искусственным интеллектом. Сервис дебютировал как одна из функций в приложении Meta✴ AI в сентябре 2025 года. Как и OpenAI Sora, Vibes позволяет пользователям Meta✴ AI генерировать вертикальные ролики в стиле TikTok.

 Источник изображения: Daria Nepriakhina / unsplash.com

Источник изображения: Daria Nepriakhina / unsplash.com

«После успешного запуска Vibes в Meta✴ AI мы тестируем отдельное приложение, чтобы развить этот успех. Видим, что пользователи всё чаще используют этот формат для создания, поиска и обмена сгенерированными ИИ видеороликами с друзьями. Отдельное приложение обеспечит выделенную площадку для этого, предложив людям более целенаправленную и соответствующую среду. Мы будем стремиться и далее расширять приложение на основе того, что узнали от сообщества», — заявили в Meta✴.

Компания не уточнила, каков в действительности размер аудитории Vibes, но отметила, что с момента появления этого раздела увеличилась и аудитория самого приложения Meta✴ AI. Новое приложение поможет добавить свежие функции, не перегружая ими старое. Генерируемый ИИ контент имеет шансы стать новым источником вовлечённости пользователей на платформах, считают в Meta✴, — компания намеревается увеличить присутствие таких материалов в рекомендациях.

Приложение Sora, выступающее прямым конкурентом перспективного Meta✴ Vibes, продолжает развиваться. OpenAI даже заключила соглашение с Disney, позволяющее пользователям использовать принадлежащих компании персонажей в творчестве ИИ. Не исключено, что аналогичные сделки заключит и Meta✴.

Amazon ускорит и удешевит производство фильмов с помощью искусственного интеллекта

Amazon намерена использовать искусственный интеллект (ИИ) в создании фильмов, чтобы сократить время на их производство и сделать в целом процесс значительно дешевле. В компании уверены, что это поможет снимать больше картин, не заменяя при этом творческих специалистов.

 Источник изображения: Thibault Penin/Unsplash

Источник изображения: Thibault Penin/Unsplash

Для реализации этих планов в августе прошлого года было создано подразделение под названием AI Studio в телестудии Amazon MGM Studios. AI Studio работает по принципу стартапа, в задачи которого входит разработка специализированных сервисов для снижения стоимости производства и упрощения творческого цикла, а руководит всем процессом Альберт Чэн (Albert Cheng). Первое закрытое тестирование новых инструментов с участием отраслевых партнёров начнётся в марте, как сообщает Reuters, а к маю компания рассчитывает продемонстрировать конкретные результаты этой работы.

Необходимость использования нейросетей продиктована резким ростом производственных бюджетов, который ограничивает количество запускаемых в работу проектов. По словам Чэна, создание контента стало настолько дорогостоящим процессом, что компаниям сложно идти на творческие риски. Он убеждён, что искусственный интеллект ускорит работу, но не заменит уникальный вклад людей.

Внедрение ИИ-технологий происходит на фоне серьёзных опасений в индустрии. Многие известные актёры ранее выражали тревогу по поводу того, что развитие цифровых двойников может лишить их работы. В ответ на это руководство Amazon пояснило, что сценаристы, режиссёры и актёры останутся вовлечёнными в процесс на всех этапах.

Техническая реализация проекта опирается на вычислительные мощности подразделения Amazon Web Services (AWS) и использование ИИ-моделей от поставщиков-партнёров. Особое внимание уделяется защите авторских прав — контент, созданный с помощью ИИ, не будет использоваться для обучения других моделей искусственного интеллекта.

ИИ-генератор видео Google Veo 3.1 научился создавать видео для TikTok и других вертикальных платформ

Google представила обновлённую функцию Ingredients to Video ИИ-модели для генерации видео Veo 3.1, которая теперь позволяет создавать вертикальные клипы (9:16) по умолчанию, что упростит создание контента для YouTube Shorts, TikTok или других платформ.

 Источник изображения: Google

Источник изображения: Google

Функция изначально адаптирует сцены под экраны телефонов, удерживая объекты в центре и располагая изображение вертикально. Теперь создатели коротких видеороликов могут предоставлять Veo такие элементы, как референсные изображения, стилистические подсказки и текстовые описания, и в итоге получать вертикальные видео, которые выглядят так, будто созданы специально для этого формата, отмечает ресурс Android Authority.

Режим Ingredients to Video позволяет объединять до трёх изображений и текст, в один сгенерированный клип, синхронизируя движение объектов и звук.

Помимо поддержки вертикального формата обновлённая нейросеть Veo 3.1 теперь предоставляет возможность повышать разрешение сгенерированного видео до 1080p и 4K, что позволяет обеспечивать высокое качество изображения с «насыщенной текстурой и потрясающей чёткостью».

Сосредоточившись на вертикальном формате и упрощении рабочих процессов для создателей контента, Google явно нацелена на социальные платформы.

Google сообщила, что улучшенная функция Veo 3.1 Ingredients to Video и поддержка вертикальных форматов встроены в Flow, Gemini API, Vertex AI и Google Vids, при этом варианты с разрешением 1080p и 4K также доступны в Flow, API и Vertex AI.

Цукерберг готовит Mango и Avocado: Meta✴ раскрыла имена грядущих ИИ-моделей, включая генератор изображений и видео

В первой половине следующего года, как сообщает The Wall Street Journal, компания Meta✴ Platforms порадует своих пользователей выходом новых ИИ-моделей. Основанная на текстовом вводе система получила обозначение Avocado, а ориентированная на генерацию изображений и видео будет называться Mango. В этом признался руководитель направления ИИ Александр Ван (Alexandr Wang) в ходе одного из служебных мероприятий.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Одним из приоритетов при разработке текстовой модели Avocado стало улучшение возможностей в сфере написания программного кода с её помощью. Кроме того, Meta✴ находится на ранней стадии экспериментов с так называемыми моделями мира, позволяющими обучаться через визуальное восприятие окружающей обстановки.

Как напоминает The Wall Street Journal, летом этого года Meta✴ провела реструктуризацию своей команды, занимающейся ИИ, в результате чего подразделение Meta✴ Superintelligence Labs возглавил Александр Ван. Основатель и глава Meta✴ Platforms Марк Цукерберг (Mark Zuckerberg) активно принимал участие в переманивании ценных специалистов из OpenAI, коих набралось более 20 человек, а в целом ему удалось собрать команду профессионалов в области ИИ из более чем 50 исследователей и инженеров.

В сентябре Meta✴ выпустила приложение Vibes для генерации видео, которое было разработано в сотрудничестве с Midjourney. Менее чем через неделю после этого OpenAI представила собственный генератор видео Sora. Появление в арсенале Google подобного приложения Nano Banana позволило увеличить месячную аудиторию Gemini с 450 до 650 млн человек всего за три месяца. Острая конкуренция на этом рынке заставила главу OpenAI Сэма Альтмана (Sam Altman) мобилизовать все силы на совершенствовании ChatGPT. Недавно стартап представил приложение Images 1.5 для генерации изображений. По мнению Альтмана, именно инструменты для генерации изображений являются «якорными» для привлечения пользователей и поддержания интереса к сфере ИИ.

Вышел генератор HD-видео Runway Gen 4.5 — и он сразу обошёл Veo 3 и Sora 2 Pro

Развитие сегмента сервисов, позволяющих генерировать видео по текстовому описанию, перестало вызывать снисходительную улыбку у «старожилов отрасли», поскольку подобные инструменты теперь позволяют создавать реалистичные ролики малыми затратами. Runway утверждает, что её модель Gen-4.5 выводит реалистичность генерируемых ИИ видео на качественно новый уровень.

 Источник изображения: YouTube, Runway

Источник изображения: YouTube, Runway

В блоге Runway, как отмечает The Verge, сообщает о «результатах кинематографического качества». Внимание уделяется не только точности визуального отображения пейзажей, людей, животных и объектов, но и тщательной проработке физики движущихся объектов. Даже поведение жидкостей реализовано настолько реалистично, что неискушённому зрителю сложно догадаться, что видео было сгенерировано искусственным интеллектом.

Распространение Runway Gen-4.5 осуществляется постепенно среди всех пользователей сервиса, по быстродействию и эффективности новая модель не будет уступать предыдущей, по словам представителей компании. Тем не менее, некоторые недостатки в её работе пока наблюдаются, в основном они связаны с логикой взаимодействия объектов на видео. Например, дверь может открываться до того, как кто-то в кадре взялся за её ручку. Создатели Runway утверждают, что новая модель лучше адаптирует генерируемое видео под стилистические запросы в описании и может добиваться более зрелищных визуальных эффектов, которые практически неотличимы от реальных видеосъёмок.

Конкурирующая OpenAI тоже активно совершенствует свои средства для генерации видео. В сентябре была выпущена модель Sora 2, которая продемонстрировала заметный прогресс в улучшении отображения физических процессов. По словам создателей, она способна реалистично воспроизводить трюки, выполняемые с сапбордом на поверхности воды.

Однако новый генератор Runway Gen 4.5 превзошёл главных конкурентов в лице Google Veo 3 и OpenAI Sora 2 Pro и возглавил рейтинг ИИ-моделей для генерации видео по текстовым описаниям Video Arena от Artificial Analysis.

ИИ-генератор видео Sora от OpenAI для Android скачали почти полмиллиона человек в первый день

Запуск приложения Sora для Android оказался весьма удачным. Согласно оценкам аналитической компании Appfigures, в первый день своего появления в магазине Google Play приложение для генерации видеоконтента с использованием искусственного компании OpenAI, разработчика ChatGPT, скачало более 470 тыс. человек на всех рынках, где оно было доступно.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Цифры говорят о том, что запуск Sora на Android более чем в четыре раза превышает показатели на момент запуска приложения на iOS. При этом число установок приложения более чем втрое выше, но Appfigures отмечает, что это не прямое сравнение.

На iOS приложение Sora было доступно только в США и Канаде, и только по приглашению. Версия для Android была выпущена в США, Канаде, Японии, Южной Корее, Тайване, Таиланде и Вьетнаме. В конце октября OpenAI отказалась от условия «доступ по приглашению» на всех своих основных рынках.

Генератор видеоконтента с помощью ИИ стал настоящим хитом после своего дебюта, несмотря на свой прежний эксклюзивный статус. Приложение для iOS установили более миллиона раз за первую неделю после запуска, и оно быстро вырвалось на вершину App Store. Сегодня оно занимает 4-е место в рейтинге лучших бесплатных приложений для iPhone в App Store в США.

Sora предлагает создание видео с помощью ИИ на основе подсказок пользователей (промптов). Видеоролики могут включать анимированных искусственным интеллектом пользователей и их друзей с помощью функции Cameos. Видео можно прокручивать в вертикальной ленте, как в TikTok. Таким образом, можно видеть, что другие пользователи делают с помощью этой технологии.

Appfigures также пересмотрела свои предыдущие оценки количества загрузок приложения Sora на iOS в первый день. Изначально было подсчитано около 56 тыс. загрузок в первый день. Сейчас оценка приближается 110 тыс. При этом 69 300 установок приходятся на пользователей из США. Для сравнения, приложение Sora для Android было установлено в США примерно 296 тыс. раз. Общее количество установок составляет 470 тыс., что свидетельствует о сохраняющемся интересе к ИИ-видеоредактору даже после того, как первоначальный ажиотаж вокруг его запуска на iOS утих.

Генератор видео от OpenAI будет конкурировать с приложением Vibes от Meta✴, которое в целом выполняет те же функции. Сегодня компания выпустила мобильное приложение Vibes в Европе. В США приложение дебютировало в августе.

Власти Японии призвали OpenAI соблюдать авторские права по отношению к манге и аниме при генерации видео в Sora 2

Компания OpenAI недавно анонсировала обновлённую версию Sora 2 — сервиса по созданию видео силами искусственного интеллекта по текстовому запросу. Внимание общественности к подобным инструментам выросло и по линии правообладателей, в Японии на их защиту встало правительство, которое потребовало от OpenAI обеспечить адекватную защиту.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Как сообщает The Japan Times, министр цифровых технологий Японии Масааки Таира (Masaaki Taira) в интервью телеканалу TBS признался, что правительство страны запросило у OpenAI изменение в подходе к учёту интересов правообладателей при взаимодействии с пользователями Sora 2. Те, правообладатели, которые потребуют от OpenAI ограничить использование своих защищаемых законом персонажей в среде Sora 2, должны будут обратиться к американскому стартапу с соответствующим запросом. Изначально предполагалось, что запрет будет распространяться на всех правообладателей, и желающие от него отказаться будут подавать соответствующие заявки OpenAI.

Японский министр подчеркнул, что необходимо создать механизм, который позволит правообладателям получать материальную компенсацию за использование их персонажей на платформе OpenAI Sora. Власти страны также потребовали от OpenAI предусмотреть возможность удаления контента по запросу правообладателей. Сообщается, что компания согласилась с подобными требованиями. Глава стартапа Сэм Альтман (Sam Altman) ранее сообщал, что предоставит правообладателям более тонкий контроль за созданием образов, и это будет напоминать заявительную модель контроля за схожестью персонажей, но с дополнительными возможностями.

«Аниме и манга являются незаменимыми сокровищами нашей страны», — заявил министр Минору Киути (Minoru Kiuchi), отвечающий за государственную стратегию в области интеллектуальной собственности, добавив, что данные виды художественных произведений ценятся по всему миру. Правительство Японии, по словам чиновника, хотело бы отвечать на новые вызовы соответствующим образом.

Sora 2 уже навлекла на себя волну критики, связанную с возмущением родственников усопших знаменитостей, внешность которых пользователи сервиса начали свободно использовать для создания видео с использованием образов покойных. В Японии резонанс вызвало использование авторами видеороликов популярных в стране элементов местной культуры из миров Pokemon, One Piece и Dragon Ball Z. Представители Nintendo не стали напрямую критиковать политику OpenAI, но в целом выразили готовность защищать свою интеллектуальную собственность в суде. За пять дней с момента запуска Sora 2 приложение в App Store было скачано 1 млн раз.

Google выпустила ИИ-генератор видео Veo 3.1 с повышенным реализмом и улучшенным звуком

Google представила обновлённую версию ИИ-модели для генерации видео Veo 3.1. Модель генерирует более реалистичные видеоклипы, точнее следует текстовым запросам пользователя и получила значительные улучшения в области звукового сопровождения.

 Источник изображения: Google

Источник изображения: Google

Как пишет TechCrunch, модель Veo 3.1 развивает функциональность, представленную в мае в версии Veo 3, добавляя аудиосопровождение ко всем существующим возможностям редактирования — от привязки персонажей к референсным изображениям до ИИ-генерации клипов, включая возможность продления существующего видео на основе последних нескольких кадров.

По словам представителей Google, благодаря этим улучшениям создаваемые ролики становятся «более живыми». Veo 3.1 будет доступна в видеоредакторе Flow, а также в приложении Gemini, через Gemini API и централизованную платформу Vertex AI. Пользователи Flow также смогут удалять существующие объекты из видео. С момента запуска Flow в мае пользователи создали с его помощью свыше 275 миллионов видеороликов.

Sora поделится прибылью — OpenAI предложит роялти за использование персонажей Disney и других

Проблема защиты авторских прав при использовании генерируемого нейросетями контента давно будоражит заинтересованных правообладателей, в сфере заимствования текстовой информации она уже породила серию крупных судебных дел с многомиллиардными исками. OpenAI хочет предоставить правообладателям возможность регулировать использование своей интеллектуальной собственности в Sora.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Напомним, что речь идёт о средстве создания видео при помощи искусственного интеллекта, которое недавно вышло в обновлённом варианте. Глава OpenAI Сэм Альтман в своём блоге в пятницу заявил, что компания предоставит правообладателям более чёткий контроль над созданием персонажей, которые изначально были придуманы ими. Телекомпании и киностудии смогут блокировать использование тех образов создателями видео в Sora, которых сочтут ограничить в копировании и воспроизведении. По данным Reuters, студия Disney уже выразила намерения блокировать использование своего материала в Sora.

Альтман добавил, что при этом OpenAI собирается ввести механизм монетизации для тех правообладателей, которые разрешат использование своих персонажей в Sora. По сути, они смогут получать своего рода роялти. Люди создают видео гораздо активнее, чем ожидала OpenAI, нередко для ограниченной аудитории, потребность в монетизации такого контента становится всё более очевидной. Впрочем, Альтман не скрывает, что попытки реализовать монетизацию в этой сфере пройдут путём проб и ошибок, и нужного результата не удастся добиться сразу. Компания готова испытать несколько вариантов, прежде чем остановится на лучшем из них.

OpenAI представила Sora 2 — ИИ-генератор видео с реалистичной физикой и логикой, а также возможностью встроить в ролик самого себя

OpenAI анонсировала Sora 2 — флагманскую ИИ-модель для генерации видео и аудио, которую в компании позиционируют как огромный качественный скачок по сравнению с оригинальной Sora и сравнивают с GPT-3.5, ставшей революционной для генерации текста. Разработчики отмечают, что новая модель приближает ИИ-симуляцию мира к уровню, когда искусственный интеллект начинает «понимать» физику и динамику объектов почти так же, как человек.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Если ранние модели для генерации видео часто создавали правдоподобную «картинку», но не справлялись с элементарной логикой движений — например, могли «телепортировать» баскетбольный мяч в корзину при промахе, то Sora 2 моделирует именно поведение объектов. Промах — значит, мяч отскочит от щита. Фигурист, делающий тройной аксель, может ошибиться и упасть. Система научилась имитировать не только успех, но и провал — ключевое требование для создания реальных симуляторов мира и продвинутых роботов. Разработчики обещают, что теперь не будет странных деформаций объектов и нарушений логики сцены в угоду соблюдению промпта.

Контролируемость — ещё один акцент, отмечаемый OpenAI. Модель Sora 2 уверенно справляется со сложными многошаговыми сценами, удерживая непротиворечивое состояние объектов, локаций и света. В качестве примера приводятся ролики, где фигуристка выполняет сложную программу из нескольких элементов с котом на голове, или где герой аниме вовлечён в зрелищную битву. Всё это — с сохранением целостности мира, связности кадров и даже эмоций на лицах персонажей. Sora 2 умеет работать с несколькими стилями: реалистичным, кинематографичным и аниме.

Как универсальная система генерации видео и аудио, Sora 2 способна создавать сложные фоновые звуковые ландшафты, речь и звуковые эффекты с высокой степенью реалистичности. Для этого достаточно короткой видеозаписи: модель точно воспроизведёт внешность, мимику и даже голос, органично интегрируя их в любую сцену. Эта возможность универсальна и работает для любого человека, животного или объекта, отмечает пресс-релиз OpenAI.

Одновременно с выпуском Sora 2 компания OpenAI запускает социальное iOS-приложение Sora. В нём пользователи смогут генерировать ролики и делиться ими с друзьями, а также делать ремиксы на работы друг друга, находить новые видео в настраиваемой ленте Sora и добавлять себя или своих друзей с помощью функции «камео». С помощью «камео» можно попасть в любую сцену Sora с поразительной точностью — нужно только через само приложение записать короткое видео с собой и свой голос для подтверждения личности и захвата образа.

«На прошлой неделе мы запустили приложение внутри OpenAI. Наши коллеги уже сообщили нам, что благодаря этой функции они завели новых друзей в компании. Мы считаем, что социальное приложение, построенное вокруг функции “камео”, — лучший способ ощутить всю магию Sora 2», — отметила OpenAI в пресс-релизе.

OpenAI подчеркнула, что этическое и ответственное использование станет важной частью новой платформы. Пользователь сам будет решать, кто и как может использовать его «камео»; любое видео с участием пользователя можно удалить в любой момент. Контент с откровенно вредным содержанием или созданный без согласия людей блокируется на уровне алгоритмов и модераторов.

Приложение Sora уже доступно для скачивания пользователям iPhone в США и Канаде, регистрация проходит через систему приглашений. Через несколько недель Sora 2 станет доступна в веб-версии. Базовая версия бесплатна и имеет «щедрые лимиты», а подписчики ChatGPT Pro вскоре получат доступ к экспериментальной модели Sora 2 Pro с повышенным качеством. Монетизация пока туманна: единственный план — брать деньги за дополнительные генерации при высоком спросе. Расширение географии сервиса и открытие доступа через API входят в планы на ближайшее время.


window-new
Soft
Hard
Тренды 🔥
Samsung закрыла приём заказов на LPDDR4/4X и направит освободившиеся мощности на выпуск 1c DRAM 3 ч.
Человекоподобный робот Honor пробежал полумарафонскую дистанцию быстрее профессионального атлета 3 ч.
После отказа от выпуска электромобилей проект Afeela компаний Sony и Honda продолжит работу 3 ч.
Samsung, SK Hynix и Micron покроют лишь 60 % мирового спроса на DRAM, а дефицит продлится до 2027 года 4 ч.
От исторического максимума 2000 года курс акций Intel отделяют всего 8 % 4 ч.
Дефицит процессоров бьёт по рынку сильнее, чем рынок памяти 5 ч.
Lenovo открыла региональную штаб-квартиру в Эр-Рияде 14 ч.
Суд возобновил иск VLSI к Intel на $3 млрд и передал патентный спор на рассмотрение присяжных 15 ч.
В I квартале мировые поставки ПК выросли на 3,2 % — покупателей испугал рост цен на память 16 ч.
Plaion возродила ретро-приставку Neo Geo AES — новая версия поддерживает оригинальные картриджи и ЭЛТ-телевизоры 16 ч.