Сегодня 07 февраля 2023
18+
MWC 2018 2018 Computex IFA 2018
Теги → естественный язык

В Google Analytics появится голосовое управление

Скоро Google Analytics в буквальном смысле можно будет задавать вопросы о сайтах и приложениях. Чтобы узнать о тенденциях мобильного и настольного трафика, количестве пользователей в определённый день или странах, из которых в прошлом месяце было больше всего посещений, не нужно будет открывать соответствующую панель. Вы сможете просто ввести вопрос или задать его вслух.

Менеджер по продукту Анисса Алуси (Annissa Alusi) продемонстрировала нововведение представителю TechCrunch, задав системе три упомянутых выше вопроса. В каждом из случаев Google Analytics дал всеобъемлющий ответ всего за несколько секунд.

Старший директор по измерениям и аналитике Бабак Пахлаван (Babak Pahlavan) утверждает, что добавление поддержки голоса и команд естественного языка — это крупное обновление. На его разработку ушло три года и могло уйти ещё больше, если бы команда не создала систему на основе технологии обработки естественного языка, которую Google уже использует в Android и поиске.

Нововведение позволяет любому человеку в компании задавать базовые вопросы, благодаря чему у аналитиков появляется время на более сложные проблемы. Голосовое управление появится в настольной и мобильной версиях Google Analytics. Поэтому, говорит Пахлаван, пользователи смогут задавать вопросы когда угодно.

Голосовое управление на английском языке появится в сервисе в ближайшие несколько недель. Нововведение — часть инициативы под названием Analytics Intelligence, направленной на то, чтобы клиенты стали лучше понимать данные Google Analytics.

Со временем голосовое управление должно стать «умнее». Система будет обучаться на пользовательских вопросах. Алуси говорит, что пока технология хорошо отвечает на вопросы, которые начинаются со слова «Что?». Но скора она научится давать ответы и на вопросы «Почему?».

Facebook* наняла руководителя Apple по распознаванию естественного языка

Команда разработчиков Siri осталась без руководителя по распознаванию естественного языка. Рушин Шах (Rushin Shah) покинул пост старшего менеджера по машинному обучению в Apple и присоединился к команде прикладного машинного обучения Facebook*. Согласно публикации в LinkedIn, там он будет учить искусственный интеллект понимать естественные диалоги.

Шах будет работать в штаб-квартире Facebook* в Менло-Парке. Команда, к которой он присоединился, ищет способы использовать возможности машинного обучения в продуктах компании.

С выходом iOS 11 помощника Siri как раз ждёт крупное обновление. В Apple Шах отвечал за среду выполнения естественного языка, модели машинного обучения и их развёртывание, а также за создание систем интеллектуального анализа информации о намерениях и поведении пользователей.

До Siri Шах работал с другими важными функциями. В частности, он занимался классификаторами для определения ситуаций, в которых пользователи пытаются наладить неформальный диалог с помощником Apple. Также он разрабатывал систему для улучшения распознавания объектов с названиями.

Кто займёт место Шаха в купертинской компании, не сообщается. Однако это не самый подходящий для Apple момент, поскольку у Siri появляется всё больше сильных конкурентов. Среди них — Google Assistant, Amazon Alexa и Microsoft Cortana. На прошлой неделе Apple анонсировала HomePod — беспроводную колонку со встроенным голосовым помощником.

Возможности распознавания естественного языка вроде тех, над которыми работал Шах, критичны для успеха любого виртуального помощника. Siri не может выполнять нужные пользователю действия, если не понимает, что человек говорит.

Ни одна из компаний не прокомментировала переход Шаха в Facebook*.


* Внесена в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности».

Microsoft собирается наделить компьютеры разумом с помощью Concept Graph

Microsoft Research выпустила публичную версию продукта, направленного на решение проблемы понимания машинами естественного языка. Компания верит, что фоновые знания — один из ключевых моментов, отличающих в плане понимания языка людей от машин. База данных Probase, над которой редмондская компания работала на протяжении довольно долгого времени, стала основой для нового инструмента под названием Microsoft Concept Graph. Probase предоставляет доступ к 5,4 млн концептов, сильно обгоняя такие базы данных как, например, Cyc, которая может похвастаться лишь 120 тысячами концептов.

Цель всего этого — поддержка текстового анализа посредством объединения интерпретации и предположения. Очень похожим образом действуют люди, быстро отсеивая ненужную информацию для определения контекста. Например, при прочтении фразы «человек бежал от незнакомца с ножом» большинство, вероятно, представят человека, убегающего от вооружённого незнакомца. Однако эта фраза также может означать, что человек забрал у незнакомца нож и теперь убегает от него. Тем не менее, бег и нож ассоциируются со страхом, поэтому самая очевидная интерпретация этой фразы в данном случае преобладает над остальными.

Модель концептуального тегирования Microsoft тоже помогает определить контекст фразы. Нож, о котором идёт речь, может восприниматься и как посуда, и как оружие, но в данном контексте это, скорее всего, именно оружие, а не тупой нож для масла, украденный из музея.

Посуда и оружие — довольно распространённые категории, однако музейные экспонаты — это уже нечто более редкое. Модель Microsoft рассматривает наиболее вероятный и крайне маловероятный смыслы слова, учитывая атрибуты, отношения и контекст.

Последняя версия Microsoft Concept Graph способна определять релевантность слов в любом тексте. В будущем программа будет учитывать и «концептуализацию отдельных случаев с контекстом», что означает, что для определения смысла фразы между такими словами как «незнакомец» и «нож» будут устанавливаться связи. Дальше исследователи собираются работать с «концептуализацией короткого текста», расширяя, таким образом, возможности приложений в плане поиска, рекламы и функциональности искусственного интеллекта.

Google Drive получил «умный» поиск

Облачное хранилище Google Drive получило обновлённую функцию поиска, которая теперь больше напоминает поисковик компании. Среди улучшений — новая функция автоматического исправления, которая предлагает пользователям правильные варианты неправильно напечатанных слов, а также поддержка обработки естественного языка. Последнее означает, что теперь искать файлы в Google Drive можно будет с помощью повседневных фраз.

Поддержка естественного языка позволяет полноценно задействовать возможности голосового набора при взаимодействии с различными сервисами и приложениями. Вероятно, это один из первых шагов к более широкой функциональности голосового управления в Google Drive, которая должна быть добавлена в сервис позже. Пока полезность нововведения ограничивается набором поисковых запросов с помощью голоса.

Как рассказала Google, благодаря поддержке естественного языка скоро в Google Drive можно будет осуществлять поиск с помощью таких фраз, как, например, «найди мои финансовые отчёты за прошлый декабрь» или «покажи мне презентации от Аниссы». Функция со временем будет улучшаться, поэтому чем чаще человек будет пользоваться поиском, тем точнее будут результаты.

Сервис Google Docs, являющийся частью Google Drive, также получил несколько нововведений. Так, появилась возможность разбивать документ на несколько колонок: достаточно выбрать соответствующую опцию в меню форматирования. Наконец, Google Drive теперь автоматически сохраняет копии всех файлов в нестандартном для Google расширении, если пользователь открывает, конвертирует или редактирует такие файлы в их оригинальном виде в Docs, Sheets или Slides. Затем копию файла можно будет найти в меню истории изменений.

Google купила стартап по обработке естественного языка Api.ai

Google заявила о покупке Api.ai — стартапа, имеющего в своём распоряжении инструменты для распознавания речи и понимания естественного языка. Также у компании есть своё приложение-помощник с более чем 20 млн пользователей. Условия сделки не разглашаются.

Не рассказала Google и о своих планах на интеграцию технологий приобретённого стартапа. Последние, несомненно, будут очень полезны для калифорнийской компании, поскольку у неё уже имеется ряд инструментов для обработки естественного языка и распознавания речи. Также, напомним, Google представила помощника Google Assistant, с которым можно будет взаимодействовать через текстовый интерфейс или через «умную» колонку Google Home.

«Api.ai доказала свою репутацию в плане помощи разработчикам в создании, конструировании и последующем улучшении их разговорных интерфейсов», — пишет директор по разработкам Google Скотт Хаффман (Scott Huffman). «Более 60 тысяч разработчиков используют Api.ai для создания разговорных опытов для таких окружений, как Slack, Facebook* Messenger и Kik, и это лишь некоторые из них. Api.ai предлагает одну из ведущих платформ разговорных пользовательских интерфейсов, и они будут помогать Google расширять возможности разработчиков для последующего создания отличных интерфейсов в сфере естественного языка».

Api.ai начала развиваться в 2010 году, а полноценное её открытие состоялось в 2014 году. Базируется стартап в калифорнийском городе Саннивейле. Среди инвесторов компании — Alpine Technology Fund, Intel Capital, Motorola Solutions Venture Capital и SAIC Capital. Ранее в этом году о партнёрстве с Api.ai заявила Cisco.

«Со знаниями, инфраструктурой и поддержкой Google мы уверены, что вы получите доступ к лучшим технологиям и разработкам в сфере ИИ и машинного обучения», — написал исполнительный директор Api.ai Илья Гельфенбейн.


* Внесена в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности».

Microsoft купила стартап Wand Labs, занимающийся естественным языком

Компания Microsoft анонсировала ещё одно приобретение — на этот раз в сфере естественного языка и искусственного интеллекта. Редмондский гигант купил стартап под названием Wand Labs, занимающийся разработкой мессенджеров в рамках глобальной стратегии создания «диалога как платформы». Работники стартапа присоединятся к команде разработчиков Bing, где будут трудиться над созданием чат-ботов и «умных агентов». Финансовые подробности сделки не разглашаются.

Представитель Microsoft Дэвид Ку (David Ku) в блоге компании написал, что «технологии и таланты Wand Labs усилят нашу позицию в развивающейся эре разговорного интеллекта». В частности, это касается развития того, как люди могут общаться с искусственным интеллектом, используя мессенджеры.

Cortana в анонсе упомянут не был, однако технологии Wand Labs отлично соотносятся с голосовым помощником Microsoft, который можно использовать для получения различного рода полезной информации посредством запуска определённых действий с помощью голосовых команд. Ку добавил, что технологии купленного стартапа способны расширить мощь таких платформ компании, как Bing, Microsoft Azure, Office 365 и Windows.

«Создание бесшовного опыта для клиентов посредством использования человеческого языка — это мощное, мотивирующее меня и мою команду видение», — написал основатель Wand Labs Вишал Шарма (Vishal Sharma). «Наш глубокий опыт в семантике, сообщениях и руководстве великолепно подходит для работы, которая уже ведётся в Microsoft, особенно в сфере умных агентов и когнитивных сервисов».

Существующие приложения компании уже были удалены из Google Play и App Store, однако Шарма пообещал, что в будущем стоит ожидать появления «похожих элементов нашей работы».

window-new
Soft
Hard
Тренды 🔥