Сегодня 01 марта 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Hardware

Стартап Figure продемонстрировал, как его человекоподобные роботы справляются с бытовыми делами

Две недели назад американская компания Figure AI отказалась от сотрудничества с OpenAI, и вчера продемонстрировала способность своих человекоподобных роботов понимать команды на естественном языке, обрабатываемые VLA-моделью Helix.

 Источник изображений: Figure AI

Источник изображений: Figure AI

VLA-модель представляет собой комбинацию системы машинного зрения и большой языковой модели, позволяющую обучать роботов различным операциям по комбинации зрительных образов и языковых команд. На практике это приводит к тому, что обучаемые роботы могут по команде манипулировать предметами, которые они ранее никогда не видели. Получая голосовую команду в естественной форме, робот начинает визуально анализировать окружение и потом выполняет поставленную задачу с учётом результатов анализа обстановки.

Модель Helix позволяет роботам Figure работать в паре и взаимодействовать друг с другом при выполнении бытовых операций. Подразумевается, что в быту роботы могут работать парами, помогая друг другу и повышая производительность труда. Figure демонстрирует возможности своих роботов 02 в типичном бытовом интерьере, который традиционно считается очень сложной для роботов средой. Производителям гораздо проще создавать роботов, которые будут работать в более контролируемом и предсказуемом промышленном окружении. Соответственно, появление на рынке «дееспособных» домашних человекоподобных роботов считается более отдалённой перспективой.

Обучение роботов выполнению бытовых операций требует существенных затрат на разработку программного обеспечения или тысяч экспериментов. Запрограммировать их вручную в данном случае не представляется возможным, а потому единственным способом создать помогающих в быту роботов является их самообучение. В домашней среде слишком много переменных, с которыми роботам предстоит столкнуться, поэтому совершенствование профильного ПО потребует существенных затрат времени.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Anthropic обжалует в суде своё внесение в «чёрный список» 60 мин.
Приложение Claude стало лидером рейтинга App Store из-за атаки американских властей на Anthropic 4 ч.
Новая статья: Yakuza Kiwami 3 & Dark Ties — вы чего наделали?! Рецензия 15 ч.
Хоррор-приключение Necrophosis получит расширенное издание и выйдет на консолях 21 ч.
YouTube запустил тест ИИ-ремиксов в Shorts: новые видео создаются из старых 21 ч.
Samsung отрезала опытным пользователям доступ к ряду ключевых инструментов в смартфонах Galaxy 21 ч.
Энтузиаст воссоздал Linux образца 1994 года с графическим интерфейсом в браузере 21 ч.
Google придумала, как защитить HTTPS от квантового взлома, не увеличивая размеры TLS-сертификатов 28-02 13:39
OpenAI уволила сотрудника за использование инсайдерской информации для ставок на рынках прогнозов 28-02 13:36
Ремейк Bloodborne от Bluepoint Games едва не стал реальностью — Sony проект одобрила, но был нюанс 28-02 11:20
Отчёт TSMC показал, что теперь Nvidia является крупнейшим клиентом компании, а не Apple 7 ч.
Акции Nvidia за неделю подешевели на 7 %, несмотря на неплохой квартальный отчёт 8 ч.
Huawei продемонстрирует суперкомпьютерные системы в Барселоне на MWC 2026 9 ч.
Hyundai инвестирует более $6 млрд в ИИ ЦОД, роботов, водородную и солнечную энергетику 15 ч.
Китайцы нашли путь к радиационно-стойкой электронике — они сделали её прозрачной для излучения 16 ч.
Xiaomi представила гиперкар Vision GT для Gran Turismo 7 — его покажут живьём на MWC 2026 17 ч.
Asus поделилась деталями ProArt GeForce RTX 5090 — минималистичный дизайн в стиле Founders Edition и заводской разгон GPU 17 ч.
НАТО вооружилось тараканами-киборгами — разведка станет незаметной, но уязвимой к тапку 19 ч.
LG оценила самый большой в мире 5K2K-монитор с частотой 240 Гц в $2000 20 ч.
JEDEC опубликовала спецификации флеш-памяти UFS 5.0 — до 10,8 Гбайт/с для самых быстрых смартфонов 21 ч.