Apple, вероятно, перестанет быть единственным технологическим гигантом без крупных проектов в области искусственного интеллекта. В феврале компания провела внутреннее мероприятие, посвящённое искусственному интеллекту и большим языковым моделям. О том, почему Apple и другие IT-гиганты проиграли гонку ИИ-сервисов в интервью изданию The New York Times (NYT) рассказал Джон Бёрк (John Burke), прежде работавший в Apple.
Инженеры компании, в том числе задействованные в подразделении, ответственном за голосового ассистента Siri, регулярно тестируют «генеративные языковые концепции», пишет NYT. Пользователи Siri время от времени жалуются, что голосовой помощник плохо понимает запросы — это же, впрочем, касается Amazon Alexa и голосового ассистента Google. Особую сложность у них вызывают разные акценты и фонетика людей из разных стран мира, даже если они говорят на одном языке.
В беседе с журналистами NYT бывший инженер Apple Джон Бёрк рассказал, что голосовой ассистент компании чрезвычайно медленно развивается из-за «корявого кода» — он мешает внедрять даже незначительные обновления функций. Инженер отметил, что у Siri большая база лексики, а при добавлении новых функций либо целых фраз приходилось перестраивать базу целиком, и этот процесс занимал до шести недель.
Издание не уточнило, разрабатывает ли Apple собственные языковые модели или хочет воспользоваться готовой платформой, но в любом случае компания едва ли согласилась бы довольствоваться существующим чат-ботом на базе Siri — её конкуренты в лице Google и Microsoft сейчас с головой погрузились в технологии ИИ. Тем временем ассортимент ИИ-продуктов Apple широк, но передовых решений он не предлагает. Это подсказки при вводе текста на экранной клавиатуре, базовые функции обработки изображений, разблокировка устройств по лицу, обнаружение событий у Apple Watch и даже функция караоке в Apple Music. Возможно, некоторые подробности о своих инициативах в области ИИ компания расскажет на своём мероприятии WWDC предстоящим летом.
Источники: