Сегодня 21 марта 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Hardware

Google создала и показала в деле ИИ, который заставляет роботов сначала думать, а потом делать

Компания Google DeepMind представила две новые модели искусственного интеллекта (ИИ) для робототехники Gemini Robotics 1.5 и Gemini Robotics-ER 1.5, которые совместно реализуют подход, при котором робот сначала «обдумывает» задачу и только потом выполняет действие. Технология основана на генеративных ИИ-системах и призвана преодолеть ограничения современных роботов, требующих длительной настройки под каждую конкретную задачу.

 Источник изображения: Google

Источник изображения: Google

Генеративные ИИ-системы, способные создавать текст, изображения, аудио и даже видео, становятся всё более распространёнными. Подобно тому, как такие модели генерируют указанные типы данных, они могут также выдавать последовательности действий для роботов. Именно на этом принципе построен проект Gemini Robotics от Google DeepMind, в рамках которого анонсированы две взаимодополняющие модели, позволяющие роботам «думать» перед тем, как действовать. Хотя традиционные большие языковые модели (LLM) имеют ряд ограничений, внедрение симулированного рассуждения значительно расширило их возможности, и теперь аналогичный прорыв может произойти в робототехнике.

Команда Google DeepMind считает, что генеративный ИИ способен кардинально изменить робототехнику, обеспечив роботам универсальную функциональность. В отличие от современных систем, которые требуют месяцев настройки под одну узкоспециализированную задачу и плохо адаптируются к новым условиям, новые ИИ-подходы позволяют роботам работать в незнакомых средах без перепрограммирования. Как отметила Каролина Парада (Carolina Parada), руководитель направления робототехники в DeepMind, роботы на сегодняшний день «чрезвычайно специализированы и сложны в развёртывании».

Для реализации концепции DeepMind разработала Gemini Robotics-ER 1.5 и Gemini Robotics 1.5. Первая — это модель «зрение–язык» (VLM) с функцией воплощённого рассуждения (embodied reasoning), которая анализирует визуальные и текстовые данные, формирует пошаговый план выполнения задачи и может подключать внешние инструменты, например, поиск Google для уточнения контекста. Вторая — модель «зрение–язык–действие» (VLA), которая преобразует полученные инструкции в физические действия робота, одновременно корректируя их на основе визуальной обратной связи и собственного процесса «обдумывания» каждого шага. По словам Канишки Рао (Kanishka Rao) из DeepMind, ключевым прорывом стало наделение робота способностью имитировать интуитивные рассуждения человека, то есть думать перед тем, как действовать.

Разработчики наглядно продемонстрировали, как работают новые модели — наделённый Gemini Robotics 1.5 человекоподобный робот Apollo на видео упаковывает вещи для поездки, а другой робот Aloha 2, точнее пара роборук — сортирует мусор.

Обе модели основаны на фундаментальной архитектуре Gemini, но дополнительно дообучены на данных, отражающих взаимодействие с физическим миром. Это позволяет роботам выполнять сложные многоэтапные задачи, приближая их к уровню автономных агентов. При этом система демонстрирует кроссплатформенную совместимость. В частности, навыки, внедрённые в одного робота, например, на двурукого Aloha 2, могут быть перенесены на другого, включая гуманоида Apollo, без дополнительной настройки под конкретную механику.

Несмотря на вероятный технологический прорыв, практическое применение технологии пока ограничено. Модель Gemini Robotics 1.5, отвечающая за управление роботами, доступна только доверенным тестировщикам. В то же время Gemini Robotics-ER 1.5 уже интегрирована в Google AI Studio, что даёт разработчикам возможность генерировать инструкции для собственных экспериментов с физически воплощёнными роботами. Однако, как считает Райан Уитвам (Ryan Whitwam) из Ars Technica, до появления бытовых роботов, способных выполнять повседневные задачи, ещё предстоит пройти значительный путь.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Реклама в ChatGPT забуксовала: крупные агентства вложили сотни тысяч, но аудитории не хватает 3 ч.
«Google Переводчик» научит пользователей правильному произношению с помощью ИИ 5 ч.
На PlayStation появится ИИ-генератор кадров, как у Radeon — но не в ближайшее время 7 ч.
Чиновников обяжут пользоваться мессенджером Max 8 ч.
Пентагон принял боевую ИИ-систему Palantir Maven в качестве основной для армии США 8 ч.
Microsoft представила MAI-Image-2 — ИИ-генератор изображений, который оказался неожиданно хорош в фотореализме и инфографике 8 ч.
Меньше ИИ, больше надёжности: Microsoft рассказала, как будет возвращать утраченное доверие к Windows 11 8 ч.
Суд признал, что «глупые твиты» Илона Маска перед покупкой Twitter привели к убыткам инвесторов 14 ч.
Панель задач Windows 11 всё же станет перемещаемой — как в Windows 10 18 ч.
Microsoft анонсировала самое долгожданное обновление Windows — пользователям дадут контроль над обновлениями 18 ч.
Скандал с контрабандой обрушил акции Supermicro на 33 % — компания запустила реорганизацию 2 ч.
AMD «забыла» представить Ryzen 9 9950X3D2 с двойным 3D V-Cache на этой неделе, показал пресс-релиз ASRock 3 ч.
«Ты получаешь лучшее из обоих миров»: Apple объяснила, почему в процессорах M5 стало три типа ядер 3 ч.
Провайдеры домашнего интернета в Москве готовятся к внедрению «белых списков» — Минцифры это опровергло 5 ч.
«Лунная гонка» продолжается: у Сатурна нашли ещё 11 спутников, а у Юпитера — четыре 5 ч.
Запрыгнуть в последний вагон: Европа арендует Crew Dragon, чтобы слетать на МКС до её закрытия 6 ч.
ИТ-холдинг Т1: только 9 % организаций в России обеспечены вычислительной инфраструктурой для ИИ 6 ч.
Alibaba сообщила об отгрузке 470 тысяч чипов, признав, что они пока уступают решениям NVIDIA и AMD 7 ч.
От чистки ковров к СЖО: Ecolab планирует купить CoolIT почти за $5 млрд 7 ч.
Intel внезапно выпустила мобильный 14-ядерный процессор Core i7-13645HX поколения Raptor Lake 7 ч.