Сегодня 12 апреля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → незрячие

Умные очки Ray-Ban Meta✴ научились детально описывать то, что «видят»

Meta✴ представила новую функцию для очков Ray-Ban Meta✴, позволяющую людям с нарушениями зрения получать детальные описания окружающего пространства при помощи ИИ. Пока технология доступна в США и Канаде, но в будущем она будет расширена на другие страны.

В рамках Всемирного дня осведомленности о доступности (Global Accessibility Awareness Day), компания анонсировала две новые функции, разработанные специально для незрячих и слабовидящих пользователей. Обе опираются на синергию между аппаратной частью умных очков Ray-Ban Meta✴ и интеллектуальной системой Meta✴ AI. Камера устройства и голосовой ИИ-ассистент работают совместно, чтобы интерпретировать визуальную информацию и передавать её пользователю в виде звукового описания.

Одной из ключевых функций стало предоставление подробных описаний объектов, находящихся в поле зрения пользователя. Для активации этой возможности достаточно включить опцию «Detailed responses» в разделе «Accessibility section» настроек приложения Meta✴ AI. После активации пользователь получает возможность обратиться к голосовому ассистенту с вопросом об окружающем пространстве и услышать развёрнутое описание. Функция будет поэтапно внедряться среди пользователей в США и Канаде в течение ближайших недель. Meta✴ подчёркивает, что в будущем подробные ответы появятся и в других странах, однако не называет ни конкретные сроки, ни регионы.

 *** AI теперь может более подробно описывать то, на что вы смотрите

Meta✴ AI теперь может более подробно описывать то, на что вы смотрите

Дополнительно Meta✴ подтвердила скорый международный запуск функции Call a Volunteer, впервые представленной в сентябре 2024 года и частично внедрённой в ноябре того же года. Изначально она была доступна в пяти странах: США, Канаде, Великобритании, Ирландии и Австралии. В конце мая 2025 года функция станет доступна во всех 18 странах, где уже работает Meta✴ AI. При обращении «Эй, Мета✴, будь моими глазами» (англ. — «Hey Meta✴, Be My Eyes») пользователь может подключиться к одному из 8 млн зрячих волонтёров, и получить помощь в повседневных делах через прямую видеотрансляцию с камеры очков.

Meta✴ AI теперь позволяет пользователям настраивать уровень детализации описаний, которые ассистент даёт на основе визуальных данных с камеры очков. При активации функции «Detailed responses» система формирует более развёрнутые комментарии. Это делает взаимодействие с устройством более гибким и полезным в бытовых ситуациях, особенно для людей с нарушениями зрения. Очки Ray-Ban Meta✴ оснащены динамиками, что позволяет пользователю одновременно воспринимать голосовые подсказки и звуки окружающей среды. Это особенно важно при навигации в шумной городской среде. Meta✴ подчёркивает, что речь идёт не о развлекательной функции, а о полноценном инструменте расширения возможностей человека.


window-new
Soft
Hard
Тренды 🔥
Anthropic отодвинула OpenAI на второй план по итогам главной ИИ-конференции HumanX 37 мин.
Исследователи объяснили, что алгоритм Google TurboQuant не снизит спрос на память, а наоборот, усилит его 52 мин.
Rockstar подтвердила утечку данных через стороннюю ИИ-платформу аналитики Anodot 8 ч.
Соцсеть X запустит приложение XChat для iPhone и iPad с шифрованием, звонками и передачей документов 17 апреля 8 ч.
Новая статья: Super Meat Boy 3D — как в старые добрые, но не совсем. Рецензия 15 ч.
Новая статья: Gamesblender № 771: Gamesblender — 15 лет! Отвечаем на вопросы зрителей 16 ч.
К 20-летию облака AWS в Amazon S3 появился файловый доступ 19 ч.
OpenAI обнаружила взлом стороннего компонента своих приложений — данные пользователей в безопасности 24 ч.
OpenAI обвинила Илона Маска в создании юридической «засады» по делу на $100 млрд 24 ч.
Anthropic ускорила рост в США и заметно сократила отставание от OpenAI на корпоративном рынке ИИ-сервисов 11-04 14:14