Сегодня 28 апреля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Meta✴ выпустила ИИ-генератор 3D-моделей по текстовому описанию

Исследовательское подразделение компании Meta Platforms представило новый генеративный алгоритм 3D Gen, который позволяет создавать качественные 3D-объекты по текстовому описанию. По словам разработчиков, новая нейросеть превосходит аналоги по качеству создаваемых моделей и по скорости генерации.

 Источник изображений: 3D gen

Источник изображений: 3D gen

«Эта система может генерировать 3D-объекты с текстурами высокого разрешения», — говорится в сообщении Meta в соцсети Threads. Там также отмечается, что нейросеть значительно превосходит аналогичные алгоритмы по качеству генерируемых объектов и в 3-10 раз опережает по скорости генерации.

Согласно имеющимся данным, Meta 3D Gen может создавать 3D-объекты и текстуры на основе простого текстового описания менее чем за минуту. Функционально новый алгоритм похож на некоторые уже существующие аналоги, такие как Midjourney и Adobe Firefly. Одно из отличий в том, что 3D Gen создаёт модели, которые поддерживают физически корректный рендеринг. Это означает, что создаваемые нейросетью модели могут использоваться в приложениях для моделирования и рендеринга реально существующих объектов.

«Meta 3D Gen — это двухступенчатый метод, сочетающий в себе два компонента: один для преобразования текста в 3D, а другой — для преобразования текста в текстуры», — говорится в описании алгоритма. По словам разработчиков, такой подход позволяет добиться «более высокого качества 3D-генерации для создания иммерсивного контента».

3D Gen объединяет две основополагающие языковые модели Meta AssetGen и TextureGen. В Meta заявляют, что, основываясь на отзывах профессиональных 3D-художников, новая технология компании предпочтительнее конкурирующих аналогов, которые также позволяют генерировать 3D-объекты по текстовому описанию.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Конкуренция в сфере ИИ на Android станет предметом контроля ЕС 2 ч.
Microsoft и OpenAI пересмотрели «брачный договор»: эксклюзивных прав больше нет, но и выручкой делиться не надо 5 ч.
Эвакуационный шутер Arc Raiders завтра получит крупный патч Riven Tides с новой картой и множеством активностей 8 ч.
Инсайдер: Ubisoft поставила 50 разработчиков Assassin’s Creed Codename Hexe под угрозу увольнения, чтобы уложиться в бюджет 9 ч.
OpenAI избавилась от зависимости от Microsoft — и теперь сможет использовать облака Google и других провайдеров 10 ч.
Новый трейлер раскрыл дату выхода Battlestar Galactica: Scattered Hopes — беспощадной стратегии по мотивам «Звёздного крейсера "Галактика"» 10 ч.
Следующее дополнение отправит игроков PowerWash Simulator 2 в далёкую-далёкую галактику — анонсирован кроссовер со «Звёздными войнами» 11 ч.
Европа откроет лазейку для массовой слежки за тем, что граждане ищут в Google 12 ч.
«Не терпится поиграть в Returnal 2»: журналисты показали первые 8 минут геймплея Saros 13 ч.
Календарь релизов 27 апреля – 3 мая: Saros, Diablo IV: Lord of Hatred и HoM&M: Olden Era 13 ч.
Спрос на память останется высоким до конца десятилетия, как ожидают аналитики Melius Research 2 ч.
Новая статья: Больше кадров — больше лага: тестирование латентности с генерацией кадров DLSS и FSR 6 ч.
Складной iPad рискует никогда не выйти из-за повышения Тернуса до гендира Apple 7 ч.
Valve объявила старт продаж Steam Controller — геймпад действительно оценили в $99 9 ч.
Попроще и подешевле: YADRO обновила конфигурации TATLIN.AFA и TATLIN.BACKUP на фоне глобального дефицита компонентов 9 ч.
Vivo выпустила смартфон Y600 Proс батареей на 10 200 мА·ч по цене от $300 9 ч.
Акции Qualcomm взлетели на слухах о разработке ИИ-смартфона OpenAI 10 ч.
Аналоговый фотоаппарат Leica M-A переиздан ограниченной серией с «молотковой» отделкой 10 ч.
Телеком-отрасли Бангладеш грозит коллапс из-за нехватки топлива 11 ч.
Toyota создала игровое кресло из переднего сиденья седана Crown — с электроприводом, подогревом, вентиляцией и USB Type-C 12 ч.