Сегодня 18 октября 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Hardware

Google создала и показала в деле ИИ, который заставляет роботов сначала думать, а потом делать

Компания Google DeepMind представила две новые модели искусственного интеллекта (ИИ) для робототехники Gemini Robotics 1.5 и Gemini Robotics-ER 1.5, которые совместно реализуют подход, при котором робот сначала «обдумывает» задачу и только потом выполняет действие. Технология основана на генеративных ИИ-системах и призвана преодолеть ограничения современных роботов, требующих длительной настройки под каждую конкретную задачу.

 Источник изображения: Google

Источник изображения: Google

Генеративные ИИ-системы, способные создавать текст, изображения, аудио и даже видео, становятся всё более распространёнными. Подобно тому, как такие модели генерируют указанные типы данных, они могут также выдавать последовательности действий для роботов. Именно на этом принципе построен проект Gemini Robotics от Google DeepMind, в рамках которого анонсированы две взаимодополняющие модели, позволяющие роботам «думать» перед тем, как действовать. Хотя традиционные большие языковые модели (LLM) имеют ряд ограничений, внедрение симулированного рассуждения значительно расширило их возможности, и теперь аналогичный прорыв может произойти в робототехнике.

Команда Google DeepMind считает, что генеративный ИИ способен кардинально изменить робототехнику, обеспечив роботам универсальную функциональность. В отличие от современных систем, которые требуют месяцев настройки под одну узкоспециализированную задачу и плохо адаптируются к новым условиям, новые ИИ-подходы позволяют роботам работать в незнакомых средах без перепрограммирования. Как отметила Каролина Парада (Carolina Parada), руководитель направления робототехники в DeepMind, роботы на сегодняшний день «чрезвычайно специализированы и сложны в развёртывании».

Для реализации концепции DeepMind разработала Gemini Robotics-ER 1.5 и Gemini Robotics 1.5. Первая — это модель «зрение–язык» (VLM) с функцией воплощённого рассуждения (embodied reasoning), которая анализирует визуальные и текстовые данные, формирует пошаговый план выполнения задачи и может подключать внешние инструменты, например, поиск Google для уточнения контекста. Вторая — модель «зрение–язык–действие» (VLA), которая преобразует полученные инструкции в физические действия робота, одновременно корректируя их на основе визуальной обратной связи и собственного процесса «обдумывания» каждого шага. По словам Канишки Рао (Kanishka Rao) из DeepMind, ключевым прорывом стало наделение робота способностью имитировать интуитивные рассуждения человека, то есть думать перед тем, как действовать.

Разработчики наглядно продемонстрировали, как работают новые модели — наделённый Gemini Robotics 1.5 человекоподобный робот Apollo на видео упаковывает вещи для поездки, а другой робот Aloha 2, точнее пара роборук — сортирует мусор.

Обе модели основаны на фундаментальной архитектуре Gemini, но дополнительно дообучены на данных, отражающих взаимодействие с физическим миром. Это позволяет роботам выполнять сложные многоэтапные задачи, приближая их к уровню автономных агентов. При этом система демонстрирует кроссплатформенную совместимость. В частности, навыки, внедрённые в одного робота, например, на двурукого Aloha 2, могут быть перенесены на другого, включая гуманоида Apollo, без дополнительной настройки под конкретную механику.

Несмотря на вероятный технологический прорыв, практическое применение технологии пока ограничено. Модель Gemini Robotics 1.5, отвечающая за управление роботами, доступна только доверенным тестировщикам. В то же время Gemini Robotics-ER 1.5 уже интегрирована в Google AI Studio, что даёт разработчикам возможность генерировать инструкции для собственных экспериментов с физически воплощёнными роботами. Однако, как считает Райан Уитвам (Ryan Whitwam) из Ars Technica, до появления бытовых роботов, способных выполнять повседневные задачи, ещё предстоит пройти значительный путь.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Новая статья: Baby Steps — встань и иди. Рецензия 3 ч.
Интерес к ChatGPT на смартфонах стал угасать — пользователи проводят в приложение всё меньше времени 3 ч.
ИИ Meta будет предлагать пользователям отредактировать и опубликовать фото из галереи смартфона 4 ч.
Новая статья: Vampire: The Masquerade — Bloodlines 2 — резус разочаровательный. Рецензия 4 ч.
«Невероятно исторический момент»: в Football Manager 26 впервые для серии появится Чемпионат мира по футболу и другие турниры ФИФА 4 ч.
Судебные документы Sony и Tencent раскрыли, когда выйдет фильм по Horizon Zero Dawn 7 ч.
Apple обвинила Epic Games в новой попытке отвертеться от уплаты комиссий App Store 7 ч.
Фэнтезийный боевик Absolum приглянулся не только критикам, но и игрокам — 200 тысяч проданных копий и 91 % в Steam 7 ч.
«Выбор сделали за меня»: бывший руководитель франшизы Assassin’s Creed объяснил, почему покинул Ubisoft 8 ч.
Хакеры слили данные сотен сотрудников ФБР, Минюста и Министерства внутренней безопасности США 9 ч.
Релиз Kaspersky NGFW 1.1: улучшенная отказоустойчивость, антивирусная проверка архивов и новые аппаратные платформы 4 ч.
Atari представила ретро-консоль Intellivision Spirit c 45 встроенными играми с «возможностью расширения» 5 ч.
Huawei представила смартфон Nova 14 Lite на устаревшем чипе Kirin 8000 и HarmonyOS 5.1 5 ч.
Китайцы создали «полароид» для астрономии — он делает мгновенные снимки Вселенной с рекордной точностью 6 ч.
HTC показала доступный геймерский смартфон Wildfire и не только 6 ч.
Представлены первые в мире смартфоны с активным жидкостным кулером и не только — геймерские Redmagic 11 Pro и Pro+ 7 ч.
Poolside и CoreWeave построят в Техасе 2-ГВт кампус ИИ ЦОД, работающий на газе из Пермского бассейна 10 ч.
Apple сама решила обделить зарядными устройствами MacBook Pro в Европе — власти и законы ЕС ни при чём 10 ч.
Meta построит ещё один гигаваттный ИИ ЦОД, на этот раз в Техасе 11 ч.
Электроника покорила новые высоты: учёные впервые уложили шесть КМОП-транзисторов друг на друга 11 ч.