Сегодня 10 мая 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Hardware

Google создала и показала в деле ИИ, который заставляет роботов сначала думать, а потом делать

Компания Google DeepMind представила две новые модели искусственного интеллекта (ИИ) для робототехники Gemini Robotics 1.5 и Gemini Robotics-ER 1.5, которые совместно реализуют подход, при котором робот сначала «обдумывает» задачу и только потом выполняет действие. Технология основана на генеративных ИИ-системах и призвана преодолеть ограничения современных роботов, требующих длительной настройки под каждую конкретную задачу.

 Источник изображения: Google

Источник изображения: Google

Генеративные ИИ-системы, способные создавать текст, изображения, аудио и даже видео, становятся всё более распространёнными. Подобно тому, как такие модели генерируют указанные типы данных, они могут также выдавать последовательности действий для роботов. Именно на этом принципе построен проект Gemini Robotics от Google DeepMind, в рамках которого анонсированы две взаимодополняющие модели, позволяющие роботам «думать» перед тем, как действовать. Хотя традиционные большие языковые модели (LLM) имеют ряд ограничений, внедрение симулированного рассуждения значительно расширило их возможности, и теперь аналогичный прорыв может произойти в робототехнике.

Команда Google DeepMind считает, что генеративный ИИ способен кардинально изменить робототехнику, обеспечив роботам универсальную функциональность. В отличие от современных систем, которые требуют месяцев настройки под одну узкоспециализированную задачу и плохо адаптируются к новым условиям, новые ИИ-подходы позволяют роботам работать в незнакомых средах без перепрограммирования. Как отметила Каролина Парада (Carolina Parada), руководитель направления робототехники в DeepMind, роботы на сегодняшний день «чрезвычайно специализированы и сложны в развёртывании».

Для реализации концепции DeepMind разработала Gemini Robotics-ER 1.5 и Gemini Robotics 1.5. Первая — это модель «зрение–язык» (VLM) с функцией воплощённого рассуждения (embodied reasoning), которая анализирует визуальные и текстовые данные, формирует пошаговый план выполнения задачи и может подключать внешние инструменты, например, поиск Google для уточнения контекста. Вторая — модель «зрение–язык–действие» (VLA), которая преобразует полученные инструкции в физические действия робота, одновременно корректируя их на основе визуальной обратной связи и собственного процесса «обдумывания» каждого шага. По словам Канишки Рао (Kanishka Rao) из DeepMind, ключевым прорывом стало наделение робота способностью имитировать интуитивные рассуждения человека, то есть думать перед тем, как действовать.

Разработчики наглядно продемонстрировали, как работают новые модели — наделённый Gemini Robotics 1.5 человекоподобный робот Apollo на видео упаковывает вещи для поездки, а другой робот Aloha 2, точнее пара роборук — сортирует мусор.

Обе модели основаны на фундаментальной архитектуре Gemini, но дополнительно дообучены на данных, отражающих взаимодействие с физическим миром. Это позволяет роботам выполнять сложные многоэтапные задачи, приближая их к уровню автономных агентов. При этом система демонстрирует кроссплатформенную совместимость. В частности, навыки, внедрённые в одного робота, например, на двурукого Aloha 2, могут быть перенесены на другого, включая гуманоида Apollo, без дополнительной настройки под конкретную механику.

Несмотря на вероятный технологический прорыв, практическое применение технологии пока ограничено. Модель Gemini Robotics 1.5, отвечающая за управление роботами, доступна только доверенным тестировщикам. В то же время Gemini Robotics-ER 1.5 уже интегрирована в Google AI Studio, что даёт разработчикам возможность генерировать инструкции для собственных экспериментов с физически воплощёнными роботами. Однако, как считает Райан Уитвам (Ryan Whitwam) из Ars Technica, до появления бытовых роботов, способных выполнять повседневные задачи, ещё предстоит пройти значительный путь.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Новая статья: Heroes of Might and Magic: Olden Era — время расцвета. Предварительный обзор 6 ч.
Anthropic отучила свой ИИ шантажировать пользователей при угрозе отключения 11 ч.
Microsoft улучшила работу Windows 11 с тачпадом и сенсорной клавиатурой, а также повысила стабильность «Проводника» 12 ч.
Пользователей Instagram лишили сквозного шифрования в личных сообщениях 13 ч.
ИИ всё чаще пишет научные статьи — отличить от человеческих становится невозможно, и это пугает 15 ч.
ИИ-модель OpenAI GPT-5.5 оказалась в 1,5–2 раза дороже предшественницы 15 ч.
В ЕС назвали VPN лазейкой для обмана систем проверки возраста — и её хотят закрыть 18 ч.
Департамент DOGE Илона Маска использовал ChatGPT глупым и незаконным способом 18 ч.
С опозданием на месяц OpenAI ответила на Claude Mythos — вышла модель GPT-5.5-Cyber, которая не боится обсуждать кибератаки и эксплойты 19 ч.
Новая статья: Saros — исправление ошибок, которых не было. Рецензия 09-05 00:02
Запрещённые к ввозу в США дроны и маршрутизаторы смогут получать обновления безопасности до января 2029 года 4 ч.
Под руководством Лип-Бу Тана компания Intel так и не избавилась от основных проблем 4 ч.
«Джеймс Уэбб» показал галактику «Кальмар» с ослепительно ярким ядром в созвездии Кита 6 ч.
Война на Ближнем Востоке усугубила дефицит строительных материалов и компонентов для ЦОД 6 ч.
Учёные предложили квантовый процессор с подвижными кубитами — он прост в производстве и гибок в работе 7 ч.
В США расследуют аварии с участием роботакси Avride, ранее входившей в «Яндекс» 13 ч.
Sony призналась, что ещё не решила, когда и по какой цене выпустит PlayStation 6 15 ч.
Lian Li выпустила СЖО с 6,67-дюймовым изогнутым дисплеем — HydroShift II OLED Curved 360 AIO 15 ч.
Завершены первые огневые испытания новой версии ускорителя Super Heavy — SpaceX готова к запуску Starship V3 15 ч.
Слишком большой ЦОД для маленькой страны — создание гигаваттного дата-центра Microsoft в Кении застопорилось из-за нехватки электроэнергии 15 ч.