Оригинал материала: https://3dnews.ru/1075027

Meta представила нейросеть Make-A-Video, которая генерирует видео по текстовому описанию

За последнее время было представлено несколько нейросетей, создающих изображения по текстовому описанию. Команда инженеров по машинному обучению из Meta пошла дальше и создала алгоритм Make-A-Video, способный создавать небольшие видеоролики по текстовому описанию. На данном этапе таким образом удаётся получать видео низкого качества с артефактами, однако в будущем разработка может помочь существенно продвинуться в сфере создания контента с помощью ИИ.

«Исследования генеративного ИИ продвигают вперёд творческое самовыражение, предоставляя людям инструменты для быстрого и лёгкого создания нового контента. С помощью всего нескольких слов или строк текста Make-A-Video может воплотить в жизнь воображение и создать уникальные видеоролики, полные ярких цветов и пейзажей», — говорится в сообщении Meta.

Генеральный директор Meta Марк Цукерберг (Mark Zuckerberg) назвал работу над Make-A-Video «удивительным прогрессом», отметив, что создавать видео значительно сложнее чем фото. Генерируемые с помощью представленного алгоритма ролики длятся не более 5 секунд и не имеют звукового сопровождения. Источник отмечает, что Meta пока не сделала нейросеть Make-A-Video общедоступной. Это может означать, что опубликованные компанией видео могли быть тщательно отобраны, чтобы представить алгоритм в лучшем свете. Ожидается, что в дальнейшем качество генерируемых нейросетью роликов будет улучшаться.

В Meta считают, что подобные Make-A-Video инструменты создания видео могут быть бесценны для создателей контента и художников. Однако, как и в случае с алгоритмами генерации изображений по описанию, подобные инструменты могут нести опасность. Это связано с тем, что такие алгоритмы могут использоваться для дезинформации, пропаганды и др. Ознакомиться с большим числом видеопримеров можно здесь.



Оригинал материала: https://3dnews.ru/1075027