Сегодня 21 апреля 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Hardware

Google упростила обучение роботов разным действиям с помощью ИИ-модели RT-2 — машины научили выбрасывать мусор

Google доложила о разработке модели искусственного интеллекта RT-2 (Robotics Transformer 2), предназначенной для интеграции в роботов. Она сочетает в себе умения обрабатывать изображение, голосовые команды и управлять двигательными функциями.

 Источник изображения: blog.google

Источник изображения: blog.google

RT-2 является первой моделью класса «зрение-язык-действие» (Vision-Language-Action — VLA). Она основана на архитектуре типа «Трансформер» и обучена на текстах и изображениях из интернета, а её ключевым преимуществом является преобразование данных в команды на выполнение определённых действий. Иными словами, отмечают в Google, она «говорит на языке роботов».

Традиционные методы обучения роботов являются чрезмерно трудоёмкими и дорогостоящими, а значит, они непрактичны для разработчиков — требуется ввод отдельных фрагментов данных по каждым объекту, среде, задаче и ситуации в реальном мире. Облегчить положение помогло внедрение модели машинного зрения PaLM-E, с которой роботы научились лучше ориентироваться в пространстве, а модель RT-1 показала, что роботы даже могут учиться друг у друга.

Нерешенной задачей до настоящего момента оставалось обучение конкретным действиям. Роботы уже могли пускаться в рассуждения высокого уровня, но не могли выполнять элементарных действий на низком. Иными словами, они думали о том, что хотят сделать, но не могли заставить собственное тело должным образом двигаться. Эту задачу решает модель RT-2 — она как единое целое обеспечивает работу алгоритмов рассуждений и управления действиями робота. Даже для задач, которые не входили в массив данных на этапе обучения.

К примеру, чтобы на традиционных алгоритмах научить робота выбрасывать мусор потребовалось бы сначала обучить робота явно идентифицировать мусор, а потом показать, как его взять и потом выбросить. Обученная на большом массиве данных модель RT-2 уже имеет представление о том, что такое мусор, а также о том, как его выбрасывать, хотя этому действию она никогда напрямую не обучалась. Она даже знакома с абстрактной природой мусора: пакет чипсов и банановая кожура становятся мусором, когда человек съел соответственно чипсы и банан — RT-2 понимает и это, что помогает ей выполнять поставленную задачу.

Инженеры Google сравнили эффективность моделей RT-1 и RT-2 в ходе более чем 6000 практических испытаний — новая система не уступает старой в очевидных задачах и показывает почти двухкратный рост эффективности при работе с незнакомыми в явном виде объектами и понятиями: 62 % успешных исходов против 32 % у RT-1.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Китайские IT-гиганты помогут местным производителям развернуться на внутреннем рынке после повышения пошлин в США 2 ч.
Doogee покажет на московской выставке «Связь-2025» новые смартфоны, планшеты и смарт-часы с поддержкой ИИ 3 ч.
CATL представила натрий-ионные аккумуляторы, которые не теряют заряд на морозе 3 ч.
Oukitel покажет на выставке «Связь-2025» защищённые смартфоны WP100 Titan, WP200 Pro, WP300 и другие новинки 3 ч.
Fujitsu, Supermicro и Nidec сообща повысят энергоэффективность ИИ ЦОД 3 ч.
Atto представила сетевые адаптеры Celerity FC-644E с четырьмя портами FC64G и FastFrame N424 с четырьмя портами 25GbE 4 ч.
CoolIT представила 2-МВт блок распределения охлаждающей жидкости CHx2000 для ИИ и HPC ЦОД 4 ч.
Представлен модуль Banana Pi BPI-CM6 — аналог Raspberry Pi CM4 на базе RISC-V 7 ч.
Представлен LG Smart Monitor Swing — смарт-монитор на колёсиках и webOS 7 ч.
Американское предприятие TSMC принесло компании в прошлом году $440 млн убытков 7 ч.