Сегодня 21 июля 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → google meet

Google анонсировала Beam — платформу 3D-видеосвязи для бизнеса

20 мая 2025 года на конференции Google I/O компания анонсировала переход экспериментального проекта Project Starline в коммерческую фазу под новым названием Google Beam. Платформа использует искусственный интеллект и технологии 3D-визуализации для создания реалистичных видеозвонков без необходимости использования гарнитур или очков. Первые устройства, разработанные совместно с HP, будут представлены на выставке InfoComm в июне и поступят к корпоративным клиентам до конца года.

 Источник изображения: Google

Источник изображения: Google

Google Beam объединяет шесть камер, световое поле и облачные вычисления для создания объёмного изображения собеседника в реальном времени. Система отслеживает движения головы и мимику, обеспечивая ощущение присутствия, сравнимое с личной встречей. Платформа интегрируется с существующими решениями для видеосвязи, включая Google Meet и Zoom, что упрощает её внедрение в корпоративную инфраструктуру.

В рамках расширения функциональности Google Beam компания также внедряет функцию синхронного перевода речи. Эта возможность уже доступна в Google Meet и позволяет пользователям общаться на разных языках с сохранением интонации и выражений лица, что способствует более естественному взаимодействию.

Партнёрами Google в продвижении Beam стали компании Zoom, Diversified и AVI-SPL. Среди первых клиентов, заинтересованных в использовании новой технологии, — Deloitte, Salesforce, Citadel, NEC, Hackensack Meridian Health, Recruit и Duolingo. Ожидается, что HP продемонстрирует первые устройства Beam на выставке InfoComm, которая пройдёт с 7 по 13 июня 2025 года в Орландо, штат Флорида.

Проект Starline был впервые представлен в 2021 году как исследовательская инициатива Google по созданию более реалистичной видеосвязи. С тех пор технология прошла путь от прототипа до готового продукта, ориентированного на корпоративный сегмент. Beam представляет собой шаг вперёд в области удалённого взаимодействия, предлагая пользователям более глубокий уровень вовлечённости и снижая утомляемость от видеозвонков.

Google научила Meet переводить речь «на лету» с сохранением интонаций и тона голоса

Google представила на мероприятии I/O новую функцию «живого» перевода для сервиса видеосвязи Google Meet. Технология, построенная на базе искусственного интеллекта Gemini, преобразует речь пользователя на язык, на котором говорит собеседник, при этом сохраняя интонацию и эмоции. Пока функция доступна в бета-режиме.

 Источник изображения: Google

Источник изображения: Google

В демонстрационном ролике один из участников говорил по-английски, другой — по-испански. После активации функции перевода Gemini каждый слышал речь партнёра на своём языке с невероятной интонационной точностью, пишет The Verge.

Пока система поддерживает только английский и испанский языки. Однако Google уже анонсировала скорое добавление итальянского, немецкого и португальского. По словам компании, новые языки появятся в ближайшие недели.

Аналогичная функция была запущена Microsoft в начале года в приложении для совместной работы Teams, но Google делает акцент на более естественное звучание перевода, подчёркивая, что ИИ не просто переводит текст, а адаптирует голос пользователя так, чтобы его речь звучала органично.

Функция тестируется в бета-режиме для подписчиков Google AI Pro и нового тарифа AI Ultra стоимостью $249 в месяц. Окончательная версия может появиться позднее.

Google Meet с ИИ Gemini научился назначать исполнителей и заменил ручное ведение заметок

Google Meet, являясь одним из ключевых инструментов для корпоративных пользователей Google Workspace, продолжил интеграцию ИИ в процесс видеоконференций. Новая функциональность на базе ИИ Gemini способна анализировать разговор в режиме реального времени, фиксировать ключевые тезисы и автоматически формировать чек-лист последующих действий. Более того, ИИ не просто фиксирует важные моменты, но и прикрепляет к задаче основную заинтересованную сторону, а также определяет дедлайны, что минимизирует вероятность потери критически важной информации.

 Источник изображений: Google

Источник изображений: Google

Функция ведения заметок впервые была представлена в августе 2024 года. Её основная цель — автоматическое создание структурированных отчётов по итогам встреч. Редакция издания The Verge тестировала этот инструмент с момента запуска и отметила, что он не допускает критических ошибок. Теперь технология голосовой транскрипции на базе Gemini не только фиксирует сказанное, но и различает голоса участников, хотя и не всегда безупречно. После завершения встречи ИИ обобщает её результаты с удивительно последовательной структурой в документе Google Docs и автоматически рассылает его всем участникам. Эта функция будет особенно полезна командам, которым важно оперативно фиксировать принятые решения и снижать нагрузку на сотрудников, вручную записывающих ключевые моменты.

Google подчёркивает, что внедрение новой функции будет проходить «значительно медленнее обычного», поскольку компания тщательно отслеживает её качество и производительность. Хотя ИИ-заметки и автоматическое создание списка действий значительно упрощают работу пользователей, вопрос конфиденциальности остаётся актуальным. Многие компании обсуждают чувствительные данные во время встреч, и автоматический анализ речи может вызывать опасения, что конфиденциальная информация попадёт в большую языковую модель Gemini. Функция начала внедряться сегодня, однако организациям следует учитывать потенциальные риски, связанные с использованием ИИ в корпоративной среде.

Google Meet запускает ИИ-функцию автоматического конспектирования совещаний и онлайн-встреч

В приложении Google Meet появилась новая функция, основанная на искусственном интеллекте, которая автоматизирует процесс ведения заметок во время онлайн-встреч. Функция «Take Notes for Me» (Записывай заметки за меня) уже доступна для пользователей Google Workspace.

 Источник изображения: Google

Источник изображения: Google

Впервые анонсированная в 2023 году функция Take Notes for Me — это не просто транскрипция речи, подобная инструменту Google Meet, а функция, основанная искусственном интеллекте, которая анализирует разговор, выделяет ключевые моменты и создаёт краткое изложение всего, что было сказано на встрече. Как отмечает The Verge, это обещает значительно упростить жизнь тем, кто пропустил важную встречу или испытывает трудности с одновременным восприятием информации и ведением конспектов.

Take Notes for Me автоматически создаёт заметки в Google Docs и прикрепляет их к событию в календаре после завершения встречи, что позволит легко ознакомиться с ключевыми моментами. Кроме того, отправляется файл Google Docs организатору встречи и всем участникам, которые включили эту функцию. «Даже если вы опоздали на совещание, Take Notes for Me предоставит краткое резюме того, что вы пропустили, чтобы можно было быстро войти в курс дела», — подчеркнули в Google. Функция также будет включать ссылки на записи и транскрипции встречи, если опция была включена.

Для людей, испытывающих трудности с одновременным восприятием устной речи и ведением заметок, новая функция может стать настоящим спасением. Она позволит сконцентрироваться на обсуждении и быть более вовлечёнными в процесс, не отвлекаясь на конспектирование. Например, для людей с нарушениями слуха или трудностями обработки информации, Take Notes for Me может значительно повысить доступность и эффективность участия в видеоконференциях, так как вместо постоянного напряжения и попыток уловить детали, люди смогут сосредоточиться на содержании обсуждения, полагаясь на автоматически сгенерированные заметки.

Функция уже доступна для пользователей Google Workspace с подпиской Gemini Enterprise, Gemini Education Premium или AI Meetings & Messaging, однако к 10 сентября 2024 года Take Notes for Me будет доступен для всех пользователей Google Workspace, правда пока только на английском языке.


window-new
Soft
Hard
Тренды 🔥
Microsoft реализовала на ПК и консолях Xbox кроссплатформенную историю запущенных игр, но пока не для всех 9 мин.
Календарь релизов —21–27 июля: Killing Floor 3, Wuchang: Fallen Feathers и The King is Watching 32 мин.
Дуров призвал сообщать ему о вымогателях в Telegram, охотящихся за подарками — но это не бесплатно 57 мин.
Сэм Альтман: к концу года ChatGPT будет работать на миллионе GPU, а в будущем — на ста миллионах 2 ч.
Спустя два года после релиза в Avatar: Frontiers of Pandora всё-таки добавят функции, которые фанаты просили больше всего 3 ч.
Microsoft ускорила запуск приложений Office, но это может замедлить загрузку Windows 4 ч.
X отказалась раскрывать рекомендательный алгоритм и данные о публикациях французской прокуратуре 5 ч.
Evolve от создателей Left 4 Dead могла получить продолжение — художник показал концепт-арты отменённой Evolve 2 5 ч.
MWS Cloud запустила платформу хранения больших данных для обучения ИИ 7 ч.
Samsung начал поиск альтернатив VMware 7 ч.
Амстердам и Франкфурт выбыли из первой двадцатки локаций гиперскейлеров 3 ч.
Ryzen Threadripper Pro 9995WX разогнали до 5 ГГц на всех 96 ядрах: 950 Вт потребления и 186 тыс. баллов в Cinebench R23 3 ч.
Tesla попытается остановить падение продаж электромобилей скидками, бесплатной зарядкой и другими бонусами 3 ч.
AMD обучила ноутбуки на Ryzen AI безоблачной генерации изображений в Stable Diffusion 4 ч.
Сегодня открылся ресторан Tesla Diner — среди сотрудников оказался робот Optimus 4 ч.
xAI ищет разработчиков кастомных чипов для ИИ-систем 4 ч.
Носовые волоски вдохновили инженеров на создание пылевого фильтра будущего со «слизистой» — внутри ПК станет чище 5 ч.
По стопам Nvidia: TSMC первой из азиатских компаний достигла капитализации в $1 трлн 5 ч.
Запущен самый мощный в Великобритании ИИ-суперкомпьютер — комплекс Isambard-AI 6 ч.
22 июля Земля обернётся вокруг оси быстрее обычного — это будут вторые самые короткие сутки в истории 7 ч.