Сегодня 11 сентября 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Alibaba снова ударила по OpenAI — вышел бесплатный ИИ-генератор реалистичных видео Wan 2.1

Китайский гигант в области электронной коммерции Alibaba сделал общедоступной разработанную им модель искусственного интеллекта для создания видео и статических изображений Wan 2.1. Этим шагом компания создала условия для её массового развёртывания и способствовала усилению конкуренции в области ИИ.

 Источник изображения: Alibaba

Источник изображения: Alibaba

Публикация ИИ-моделей с открытым исходным кодом — распространённый шаг в отрасли ИИ; одним из наиболее заметных игроков здесь стал стартап DeepSeek. Alibaba выпустила четыре варианта Wan 2.1: T2V-1.3B, T2V-14B, I2V-14B-720P и I2V-14B-480P — эти модели генерируют видео и статические картинки по текстовому запросу или по образцу, которым может служить изображение. Обозначения «1.3B» и «14B» указывают, что эти варианты содержат соответственно 1,3 млрд и 14 млрд параметров.

Младшей модели T2V-1.3B для работы требуется всего 8,19 Гбайт видеопамяти, что делает её совместимой со многими потребительскими видеокартами. Разработчики заявляют, что эта модель может сгенерировать пятисекундный ролик в 480р на GeForce RTX 4090 примерно за 4 минуты (без оптимизаций).

Модели доступны для пользователей по всему миру на платформах HuggingFace и ModelScope (входит в Alibaba Cloud) для академических, исследовательских и коммерческих целей. Последнюю версию модели ИИ для генерации видео Alibaba представила в январе — первоначально она называлась Wanx, впоследствии её переименовали в Wan. Проект получил высокую оценку в тестах Vbench, предназначенных для генераторов видео — в частности, она стала лидером по критерию взаимодействия объектов.

Накануне Alibaba также выпустила предварительный вариант рассуждающей модели QwQ-Max, которая впоследствии также будет опубликована как проект с открытым кодом. В ближайшие три года компания намеревается вложить не менее 380 млрд юаней ($52 млрд) в поддержку облачных вычислений и инфраструктуры ИИ.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Ролевой шутер Witchfire от бывших создателей Painkiller и Bulletstorm не выйдет из раннего доступа в 2025 году — представлен обновлённый план 19 мин.
YouTube добавил функцию ИИ-дубляжа видео на разных языках для всех авторов 40 мин.
Кольцо смерти, огромная карта на 100 человек и «разрушения повсюду»: разработчики Battlefield 6 раскрыли подробности королевской битвы 2 ч.
Владельцы iPhone 14 и 15 получат ещё один бесплатный год спутниковых функций 2 ч.
«Росгосстрах Жизнь» перевела ИТ-инфраструктуру на экосистему «Базис» 4 ч.
«Росгосстрах Жизнь» перевела ИТ-инфраструктуру на экосистему «Базис» 4 ч.
OpenAI купит у Oracle вычислительные мощности для развития ИИ за баснословные $300 млрд 5 ч.
Microsoft отменила дань для разработчиков, публикующих приложения в Microsoft Store 14 ч.
Фильм по BioShock «однозначно» будет основан на первой BioShock и выйдет нескоро 15 ч.
Microsoft закрыла 80 уязвимостей в Windows и Office, включая восемь критических 17 ч.
MSI выпустила лимитированный ноутбук Prestige 13 AI+ Ukiyo-e Edition с японской гравюрой на крышке 10 мин.
AMD не признаёт поражения на графическом направлении и обещает нокаутировать Nvidia с помощью Instinct MI450 21 мин.
Российские объёмы предзаказов на iPhone 17 стали самыми высокими с 2023 года 2 ч.
Продажи электромобилей в России возобновили падение, но самой популярной маркой остаётся Zeekr 2 ч.
Hobot представил на выставке IFA 2025 два инновационных робота-мойщика окон 3 ч.
NASA обнаружило «явное свидетельство» древних форм жизни на Марсе 3 ч.
Индия изучит возможность переоборудования старых угольных шахт в дата-центры 3 ч.
Эксплуатация Starship для доставки стотонных грузов на орбиту начнётся уже в 2026 году 3 ч.
XPeng наладит серийный выпуск электролётов в октябре и надеется выйти на европейский рынок 4 ч.
Акции Oracle потянули вверх за собой ценные бумаги других компаний, зарабатывающих на буме ИИ 4 ч.