Американский создатель робототехники Figure продемонстрировал скоординированную работу своих человекоподобных машин. На опубликованном компанией видео два робота вошли в комнату, собрали разбросанные по ней вещи и заправили постель.
Источник изображения: youtube.com/@figureai
Роботы Figure повесили пальто, закрыли ноутбук, убрали наушники, а затем вместе застелили постель, координируя свои действия кивками головы, подняв и разгладив одеяло. Со своей задачей дуэт справился менее чем за две минуты. Управление машинами осуществляет модель искусственного интеллекта Helix-02. Важнейшим аспектом демонстрации стала координация совместных действий роботов, которые выполнили задачу без общего планировщика, центрального контроллера и даже прямого канала связи — хватило просто кивков головы. Каждый робот полагался на собственные камеры, систему интерпретации окружающей среды и определения намерений другого по его движениям. С каждым действием сцена для машин динамически менялась, заставляя их непрерывно адаптировать свои решения, чтобы достичь общей цели.
Наиболее сложной задачей стали действия с крупным деформируемым объектом — одеялом. В отличие от жёстких предметов, постельное бельё не имеет стабильной геометрии или заданных точек захвата. Роботам потребовалось предсказывать действия друг друга, постоянно корректируя захват, позу и движения по мере того, как ткань складывалась, растягивалась и смещалась под общим натяжением. Для совместной работы систему Helix AI, в которую уже заложены такие задачи, как уборка дома и складывание белья, пришлось доработать, чтобы обеспечить совместную работу двух машин, исходя только из визуальных данных.
Обновлённая модель Helix System AI добавляет роботам механизмы управления всем телом на основе восприятия — это помогает улучшить навигацию в сложных условиях, например при движении по неровной местности и лестницам. Ранее роботы осознавали собственные движения и положение суставов без оглядки на окружающую среду. Теперь производится анализ входных данных с боковых стереокамер — преобразование RGB-изображения в трёхмерную пространственную модель, формирующую представление об окружающей среде в реальном времени. В итоге роботы одновременно «видят» и «чувствуют» местность во время движения.
Разработка системы велась с использованием метода обучения с подкреплением в компьютерной симуляции на основе широкого набора случайных ландшафтов местности и условий среды. При переходе к реальным условиям не потребовалось ни дополнительной калибровки, ни тонкой настройки. Усовершенствованная архитектура помогла роботам стать устойчивее при ходьбе, удерживать равновесие на лестницах и других поверхностях даже в условиях меняющегося освещения — помимо простой ходьбы, они теперь могут выполнять широкий набор действий.