Сегодня 02 июня 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Hardware

Google упростила обучение роботов разным действиям с помощью ИИ-модели RT-2 — машины научили выбрасывать мусор

Google доложила о разработке модели искусственного интеллекта RT-2 (Robotics Transformer 2), предназначенной для интеграции в роботов. Она сочетает в себе умения обрабатывать изображение, голосовые команды и управлять двигательными функциями.

 Источник изображения: blog.google

Источник изображения: blog.google

RT-2 является первой моделью класса «зрение-язык-действие» (Vision-Language-Action — VLA). Она основана на архитектуре типа «Трансформер» и обучена на текстах и изображениях из интернета, а её ключевым преимуществом является преобразование данных в команды на выполнение определённых действий. Иными словами, отмечают в Google, она «говорит на языке роботов».

Традиционные методы обучения роботов являются чрезмерно трудоёмкими и дорогостоящими, а значит, они непрактичны для разработчиков — требуется ввод отдельных фрагментов данных по каждым объекту, среде, задаче и ситуации в реальном мире. Облегчить положение помогло внедрение модели машинного зрения PaLM-E, с которой роботы научились лучше ориентироваться в пространстве, а модель RT-1 показала, что роботы даже могут учиться друг у друга.

Нерешенной задачей до настоящего момента оставалось обучение конкретным действиям. Роботы уже могли пускаться в рассуждения высокого уровня, но не могли выполнять элементарных действий на низком. Иными словами, они думали о том, что хотят сделать, но не могли заставить собственное тело должным образом двигаться. Эту задачу решает модель RT-2 — она как единое целое обеспечивает работу алгоритмов рассуждений и управления действиями робота. Даже для задач, которые не входили в массив данных на этапе обучения.

К примеру, чтобы на традиционных алгоритмах научить робота выбрасывать мусор потребовалось бы сначала обучить робота явно идентифицировать мусор, а потом показать, как его взять и потом выбросить. Обученная на большом массиве данных модель RT-2 уже имеет представление о том, что такое мусор, а также о том, как его выбрасывать, хотя этому действию она никогда напрямую не обучалась. Она даже знакома с абстрактной природой мусора: пакет чипсов и банановая кожура становятся мусором, когда человек съел соответственно чипсы и банан — RT-2 понимает и это, что помогает ей выполнять поставленную задачу.

Инженеры Google сравнили эффективность моделей RT-1 и RT-2 в ходе более чем 6000 практических испытаний — новая система не уступает старой в очевидных задачах и показывает почти двухкратный рост эффективности при работе с незнакомыми в явном виде объектами и понятиями: 62 % успешных исходов против 32 % у RT-1.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Вечерний 3DNews
Каждый будний вечер мы рассылаем сводку новостей без белиберды и рекламы. Две минуты на чтение — и вы в курсе главных событий.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Власти Японии готовы стать поручителем по кредитам для Rapidus, строящей в Японии предприятие по выпуску 2-нм чипов 7 мин.
Проект STMicroelectronics по строительству предприятия в Италии получит 2 млрд евро субсидий 36 мин.
Привет из 2014-го: Asus выпустила обновлённую GeForce GT 710 EVO с 2 Гбайт GDDR5 10 ч.
Apple выбрала процессоры М2 Ultra и М4 для серверов, на которых будут работать ИИ-функции iPhone 13 ч.
Выставка Computex 2024 откроется 4 июня, но презентации AMD, Intel и Nvidia пройдут раньше 15 ч.
iPhone 5s официально устарел, а iPod touch 6 стал винтажным 15 ч.
Vivo оккупировала значительную часть майского рейтинга производительности AnTuTu 16 ч.
Игровой монитор Xiaomi G Pro 27i на панели Mini LED с 1152 зонами затенения выйдет на мировой рынок 16 ч.
Starlink хочет открыть для пользователей спутниковую сотовую связь уже осенью 17 ч.
Новые спутники Starlink могут уничтожить радиоастрономию на Земле, предупреждают учёные 20 ч.