Сегодня 22 декабря 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Hardware

Google упростила обучение роботов разным действиям с помощью ИИ-модели RT-2 — машины научили выбрасывать мусор

Google доложила о разработке модели искусственного интеллекта RT-2 (Robotics Transformer 2), предназначенной для интеграции в роботов. Она сочетает в себе умения обрабатывать изображение, голосовые команды и управлять двигательными функциями.

 Источник изображения: blog.google

Источник изображения: blog.google

RT-2 является первой моделью класса «зрение-язык-действие» (Vision-Language-Action — VLA). Она основана на архитектуре типа «Трансформер» и обучена на текстах и изображениях из интернета, а её ключевым преимуществом является преобразование данных в команды на выполнение определённых действий. Иными словами, отмечают в Google, она «говорит на языке роботов».

Традиционные методы обучения роботов являются чрезмерно трудоёмкими и дорогостоящими, а значит, они непрактичны для разработчиков — требуется ввод отдельных фрагментов данных по каждым объекту, среде, задаче и ситуации в реальном мире. Облегчить положение помогло внедрение модели машинного зрения PaLM-E, с которой роботы научились лучше ориентироваться в пространстве, а модель RT-1 показала, что роботы даже могут учиться друг у друга.

Нерешенной задачей до настоящего момента оставалось обучение конкретным действиям. Роботы уже могли пускаться в рассуждения высокого уровня, но не могли выполнять элементарных действий на низком. Иными словами, они думали о том, что хотят сделать, но не могли заставить собственное тело должным образом двигаться. Эту задачу решает модель RT-2 — она как единое целое обеспечивает работу алгоритмов рассуждений и управления действиями робота. Даже для задач, которые не входили в массив данных на этапе обучения.

К примеру, чтобы на традиционных алгоритмах научить робота выбрасывать мусор потребовалось бы сначала обучить робота явно идентифицировать мусор, а потом показать, как его взять и потом выбросить. Обученная на большом массиве данных модель RT-2 уже имеет представление о том, что такое мусор, а также о том, как его выбрасывать, хотя этому действию она никогда напрямую не обучалась. Она даже знакома с абстрактной природой мусора: пакет чипсов и банановая кожура становятся мусором, когда человек съел соответственно чипсы и банан — RT-2 понимает и это, что помогает ей выполнять поставленную задачу.

Инженеры Google сравнили эффективность моделей RT-1 и RT-2 в ходе более чем 6000 практических испытаний — новая система не уступает старой в очевидных задачах и показывает почти двухкратный рост эффективности при работе с незнакомыми в явном виде объектами и понятиями: 62 % успешных исходов против 32 % у RT-1.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Вечерний 3DNews
Каждый будний вечер мы рассылаем сводку новостей без белиберды и рекламы. Две минуты на чтение — и вы в курсе главных событий.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Прорывы в науке, сделанные ИИ в 2024 году: археологические находки, разговоры с кашалотами и сворачивание белков 8 ч.
Arm будет добиваться повторного разбирательства нарушений лицензий компанией Qualcomm 12 ч.
Поставки гарнитур VR/MR достигнут почти 10 млн в 2024 году, но Apple Vision Pro занимает лишь 5 % рынка 14 ч.
Первая частная космическая станция появится на два года раньше, но летать на неё будет нельзя 15 ч.
В США выпущены федеральные нормы для автомобилей без руля и педалей 15 ч.
Для невыпущенного суперчипа Tachyum Prodigy выпустили 1600-страничное руководство по оптимизации производительности 17 ч.
Зонд NASA «Паркер» пошёл на рекордное сближение с Солнцем 17 ч.
Qualcomm выиграла в судебном разбирательстве с Arm — нарушений лицензий не было 22 ч.
Американских субсидий на сумму $6,75 млрд удостоятся Samsung, Texas Instruments и Amkor 23 ч.
Власти США готовятся ввести санкции против китайской компании Sophgo, подозреваемой в снабжении чипами Huawei 24 ч.