Сегодня 14 августа 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → голосовой
Быстрый переход

Xiaomi представила открытую голосовую ИИ-модель для автомобилей и бытовой техники

Компания Xiaomi сделала себе имя на рынке смартфонов и бытовой техники, но уже второй год выпускает электромобили, поэтому направление развития её фирменных языковых моделей было предсказать не так уж трудно. На этой неделе она представила голосовую модель MiDashengLM-7B, которая предусматривает интеграцию с Qwen2.5-Omni-7B китайской Alibaba Group и обладает открытым исходным кодом.

 Источник изображения: Xiaomi

Источник изображения: Xiaomi

Ориентация на работу с голосовой информацией объяснима тем, что пользователи электромобилей и бытовой техники чаще всего используют данный канал для передачи команд на устройства. Не желая оставаться в стороне от бума ИИ, компания Xiaomi сделала ставку на открытый исходный код и интеграцию с разработками известных игроков рынка, коим в Китае является конгломерат Alibaba Group.

Свои ИИ-модели, ориентированные на обработку изображений, видео и звука в последние месяцы активно предлагали Alibaba и Tencent Holdings, поскольку местным разработчикам хочется сохранять конкуренцию с решениями OpenAI и других зарубежных игроков рынка. Важность развития систем искусственного интеллекта подчёркивается властями США и Китая на самом высоком уровне. Для Xiaomi интеграция сервисов, доступных владельцам фирменных электромобилей, с уже существующей обширной экосистемой умных бытовых устройств, имеет особую важность.

Brilliant Labs представила умные очки Halo за $299, которые помогут вспомнить всё

Компания Brilliant Labs представила преемника своих умных очков Frame с открытым исходным кодом за $349. Новые умные очки Halo за $299 по цене приближаются к базовым моделям Ray-Ban от Meta и оснащены улучшенными возможностями ИИ. Агентская система памяти Narrative использует данные с камеры и микрофонов для создания «личной и персонализированной базы знаний», а мультимодальный ИИ-агент Noa «понимает, что слышит и видит в окружающей среде».

 Источник изображений: Brilliant Labs

Умные очки Halo предлагают новую «запатентованную агентскую систему памяти» от Brilliant Labs под названием Narrative, которая использует данные, собранные с камеры и микрофонов, для создания «личной и персонализированной базы знаний». Стартап заявляет, что умные очки будут запоминать имя собеседников и содержание прошлых разговоров.

По утверждению Brilliant Labs, общение с встроенным мультимодальным ИИ-агентом Noa теперь будет «естественным и интуитивно понятным, как при общении с реальным человеком», благодаря контекстно-релевантной информации, основанной на окружающей обстановке. Noa предоставляет дополнительные возможности по управления очками Halo, позволяя отключать микрофон или переводить их в спящий режим с помощью расширенных голосовых команд.

В умение очки Halo также встроена новая экспериментальная функция кодирования под названием Vibe Mode, которая позволит «создавать пользовательские приложения с помощью простых голосовых команд на естественном языке». Вместо поиска нужного приложения в магазине, пользователь, по словам Brilliant Labs, сможет создать собственное приложение с необходимыми функциями.

Кроме голосовых подсказок через динамики с костной проводимостью в дужках, владельцу доступен 0,2-дюймовый цветной microOLED-дисплей, который «проецирует интерфейс в стиле ретро-аркад» на периферийное зрение. Время автономной работы устройства составляет внушительные 14 часов, отчасти благодаря энергосберегающей камере и ИИ-чипу со специальным нейронным процессором. Весят умные очки Halo чуть более 40 граммов.

Halo в строгом матово-чёрном корпусе уже доступны для ограниченного предзаказа на сайте Brilliant Labs за $299. Поставки ожидаются в конце ноября 2025 года. Возможен заказ очков с диоптрическими линзами.

«Яндекс» раскрыл алгоритм распознавания голосовых команд в шумных условиях

Инженеры «Яндекса» опубликовали научную статью, в которой раскрыли принципы работы нейросети, обеспечивающей распознавание голосовых команд в условиях внешнего шума. Компания уже применяет эту технологию, и теперь внедрить её смогут разработчики по всему миру.

 Источник изображения: yandex.ru/company

Источник изображения: yandex.ru/company

Работа будет представлена на международной конференции по речевым технологиям Interspeech, которая пройдёт с 17 по 21 августа в нидерландском Роттердаме; среди прочих участников мероприятия значатся Microsoft, Google DeepMind и Google AR.

Разработанная специалистами «Яндекса» технология используется в умных колонках и «ТВ Станциях». Она позволяет устройствам с «Алисой» правильно интерпретировать голосовые команды, если что-то пытается этому помешать: играет музыка, шумит вода, гудит вечеринка, или за окном грохочет стройка — система услышит пользователя, даже если он не будет пытаться перекричать песню или не станет выключать пылесос. Используя эту технологию, любая компания сможет повысить качество работы голосового помощника с искусственным интеллектом и уменьшить долю ложных срабатываний.

Если человеческий голос раздаётся на фоне музыки, эффективными считаются алгоритмы эхоподавления; в случае других посторонних источников лучше работает шумоподавление, которое, однако, ухудшает и разборчивость человеческой речи. Поэтому в «Яндексе» разработали attention-механизм на основе нейросетей — на вход ему подаются сразу оба сигнала, с эхо- и шумоподавлением, и система динамически выбирает наиболее чёткий, адаптируясь к звуковому фону от источников разной природы.

Скоро рынок наполнится наушниками со встроенным ИИ на базе GPT-4.1 — Bragi и OpenAI договорились о партнёрстве

В 2019 году немецкая компания Bragi переключилась с производства наушников на лицензирование собственных разработок. Фирменные технологии компании используют многие именитые производители аудиотехники. Сегодня Bragi анонсировала приложение ChatAI, разработанное в партнёрстве с OpenAI. Оно позволит производителям наушников интегрировать в свои продукты голосового помощника на базе GPT-4.1 — для создания заметок, постановки вопросов и доступа к информации.

 Источник изображений: Bragi

Источник изображений: Bragi

Когда владелец наушников активирует голосового помощника, мультимодальная локальная модель в приложении ChatAI обрабатывает запрос и отправляет его на серверы OpenAI. Модель GPT-4.1 формирует ответ, который озвучивается через наушники. Чтобы минимизировать риск случайной активации и обработки посторонних голосов, ChatAI обучен реагировать только на команды владельца устройства. В Bragi подчёркивают, что компания не получает персональные данные пользователей, а их запросы не сохраняются в приложении после отправки в OpenAI.

Bragi также заявляет, что новая система позволит партнёрам создавать собственный фирменный интерфейс и реализовывать агентские функции — например, изучение привычек пользователя и проактивную настройку эквалайзера в зависимости от контекста и личных предпочтений.

На первом этапе ChatAI будет поддерживать английский, немецкий, французский, испанский и китайский языки. В дальнейшем планируется расширение языковой поддержки. Согласно исследованиям Bragi, пользователи в разных регионах используют ИИ-функции по-разному: в Китае наиболее востребован перевод, тогда как в других странах сценарии применения более разнообразны.

По данным компании, 89 % потребителей готовы заплатить в среднем на $25 больше за наушники с ИИ-функциями, что увеличивает среднюю цену таких устройств до $135–160. Приложение ChatAI станет доступным для производителей наушников уже этим летом.

Xiaomi представила смарт-очки AI Glasses с камерой Sony, чипом Snapdragon и автономностью выше 8 часов за $280

На масштабном мероприятии Xiaomi в Китае компания представила умные очки AI Glasses — ответ на Ray-Ban Meta. Устройство не имеет визуального интерфейса, полагаясь исключительно на голосовые команды. Также на правой дужке расположена область сенсорного управления. Владелец может установить в Xiaomi AI Glasses цветные линзы без диоптрий или использовать рецептурные и дополнительные электрохромные линзы.

 Источник изображений: Xiaomi

Источник изображений: Xiaomi

Очки Xiaomi AI Glasses построены на базе аппаратной платформы Snapdragon AR1 от Qualcomm и работают под управлением ОС Vela, разработанной Xiaomi. Умные очки Xiaomi используют встроенную камеру с 12-мегапиксельным датчиком Sony IMX681 для распознавания объектов и записи видео с разрешением 2K и скоростью до 30 кадров в секунду.

Пять микрофонов с костной проводимостью и шумоподавлением обеспечивают разборчивость речи владельца во время звонков и функционирование голосового ассистента Xiao Ai. Для воспроизведения мультимедиа в дужки очков встроены два динамика.

AI Glasses весят всего 40 граммов. Умные очки оснащены аккумулятором ёмкостью 263 мА·ч, который, по словам производителя, обеспечивает автономную работу в течение 8 часов и 36 минут, что почти вдвое больше, чем у очков Ray-Ban Meta. Очки оснащены портом USB Type-C и могут подключаться напрямую к любому совместимому зарядному устройству.

Xiaomi AI Glasses выпускаются в чёрном, коричневом и зелёном цветах и пока доступны только в Китае. Цена на устройство установлена ​​на уровне 1999 юаней (≈$278).

ИИ-поисковик Google научился понимать голосовые запросы, но доступна функция не всем

Google начала тестировать функцию Search Live в режиме поиска с ИИ — AI Mode. Новая функция позволяет задавать вопросы ИИ-чат-боту голосом прямо из поисковой системы. Открытое тестирование доступно пока только в США и исключительно для участников программы Google Labs по тестированию экспериментальных функций. На данный момент Search Live не поддерживает использование камеры смартфона, но Google планирует добавить такую возможность «в ближайшие месяцы».

 Источник изображений: Google

Источник изображений: Google

Search Live позволяет взаимодействовать со специально адаптированной версией ИИ-помощника Gemini и выполнять поиск в интернете в режиме реального времени. Функция доступна в приложении Google для Android и iOS. В будущем Search Live получит поддержку камеры смартфона — пользователь сможет навести её на объект и задать голосом интересующий вопрос о нём.

Google анонсировала функцию Search Live для режима поиска с ИИ AI Mode в прошлом месяце. Она является частью более широкой программы компании по трансформации своей поисковой системы и расширению его ИИ-возможностей. Сейчас компания, например, также экспериментирует с ИИ-функцией, которая превращает результаты поиска в подкаст. После запроса пользователя и вывода чат-ботом результатов, пользователь может использовать функцию Generate Audio Overview и ИИ предоставит ответ в аудиоформате в виде кратного подкаст-обзора по теме.

Принять участие в тестировании Search Live можно через Google Labs (в России недоступен), после чего в приложении Google на Android или iOS станет активен новый значок Live. Затем чат-боту можно вслух задать, например, такой вопрос: «Как предотвратить появление складок на льняном платье, упакованном в чемодан?». Чат-бот предложит ответ, а пользователь сможет задать уточняющий вопрос, например: «Что делать, если оно всё равно мнётся?». Search Live также предложит ссылки на материалы с возможными решениями во время диалога.

Другие ИИ-компании также внедряют голосовые режимы в своих чат-ботах. Так, OpenAI представила расширенный голосовой режим для ChatGPT в прошлом году, а Anthropic запустила голосовую функцию в приложении Claude в мае. Apple также работает над большой языковой моделью для Siri, однако её выпуск был отложен — по словам старшего вице-президента Apple по программному обеспечению Крейга Федериги (Craig Federighi), компания пока не достигла «желаемого уровня надёжности».

Google отмечает, что Search Live может работать в фоновом режиме, позволяя продолжать диалог с чат-ботом даже при переходе в другие приложения. Пользователь может также включить субтитры, чтобы видеть текстовую версию ответа, и при желании продолжить общение текстом. Кроме того, Search Live сохраняет историю прошлых разговоров в разделе поиска AI Mode.

Apple призналась, что продолжит непублично совершенствовать Siri до следующего года

На мероприятии WWDC 2025 представители Apple практически обошли стороной тему создания более персонализированного голосового ассистента Siri, опирающегося на искусственный интеллект. Было лишь мимоходом сказано, что на доводку Siri до стандартов качества компании уйдёт больше времени, и новости в этой сфере появятся не ранее следующего года.

 Источник изображения: Apple

Источник изображения: Apple

Старший вице-президент Apple по разработке ПО Крейг Федериги (Creig Federighi) буквально заявил: «Как мы и говорили, мы продолжаем работу над созданием функций, которые сделают Siri более персональной. Эта работа требует больше времени, чтобы достичь нашей высокой планки качества, и мы готовы будем поделиться новыми подробностями в следующем году». По меркам развития прочих проектов в сфере ИИ это достаточно большая пауза, что явно не идёт на пользу репутации Apple.

Впервые о «более персональной Siri» компания заговорила ещё в прошлом году на WWDC 24, новое поколение голосового помощника должно было использовать искусственный интеллект, а потому рассматривалось как «следующий серьёзный шаг для Apple». Подразумевалось, что Siri после грядущего обновления сможет воспринимать более персонализированный контекст запросов, учитывая контакты и характер родственных связей пользователя, а также историю его активности. Планировалось также научить Siri работать с несколькими приложениями в сквозном режиме.

Издание Bloomberg ранее сообщило, что на данном этапе новый вариант Siri вполне функционален, но у него нет стабильности в достигаемых результатах. Лишь две трети запросов обрабатываются корректно, что не позволяет выпустить эту версию голосового интерфейса на рынок в ближайшее время. В марте этого года Apple уже пришлось признать, что подготовка к выпуску нового варианта Siri задерживается. В руководстве компании на этом фоне даже произошли кадровые перестановки. Чтобы компенсировать собственное отставание в сфере ИИ, компания Apple скооперировалась с OpenAI, и теперь наиболее сложные вопросы в экосистеме первой из них адресуются ChatGPT. На нынешней конференции WWDC 2025 представители Apple демонстрировали прогресс во внедрении ИИ, но он не касался голосового помощника Siri.

Amazon похвалилась сотнями тысяч пользователей Alexa+, но их никто не видел

Amazon утверждает, что сотни тысяч пользователей уже получили доступ к обновлённому голосовому помощнику Alexa+, но независимые журналисты не смогли найти ни одного подтверждённого пользователя. Компания объясняет это тем, что большинство тестирующих — это сотрудники, однако эксперты сомневаются в готовности технологии.

 Источник изображения: Nicolas J Leclercq / Unsplash

Источник изображения: Nicolas J Leclercq / Unsplash

Amazon представила обновлённого голосового помощника Alexa+ шесть недель назад, однако до сих пор неясно, кто действительно им пользуется. Reuters провёл собственное расследование, изучив десятки новостных сайтов и соцсетей, включая YouTube, TikTok, X и Reddit, но не нашёл ни одного подтверждённого пользователя. Два человека на Reddit заявили, что тестировали Alexa+, однако не смогли предоставить доказательств, отмечает PCMag.

Компания обещала, что Alexa+ станет более «человечной» в общении, а также получит функции агентного ИИ — например, сможет самостоятельно договариваться с сервисными центрами о ремонте техники. Пока эти возможности ограничены, но Amazon утверждает, что «сотни тысяч клиентов» уже получили доступ к Alexa+. Правда, большинство из них — сотрудники компании, а остальные лишь подали заявку на ранний доступ.

Интересно, что запуск Alexa+ не раз откладывался. В феврале обновление задержали на месяц из-за того, что помощник давал некорректные ответы во время тестов. Ещё одна задержка произошла в ноябре — из-за президентских выборов в США. Некоторые аналитики считают, что ситуация с Alexa+ отражает общую тенденцию: многие компании анонсируют продукты, когда те почти готовы, но завершающий этап разработки оказывается сложнее, чем ожидалось.

Amazon, в свою очередь, опровергает выводы Reuters, настаивая на том, что Alexa+ уже доступна реальным пользователям. Однако отсутствие подтверждений со стороны независимых источников вызывает вопросы. Когда же Alexa+ станет общедоступной, подписка на неё будет стоить $20 в месяц, но для пользователей Amazon+ она окажется бесплатной.

Амперсанд сломал голосовые сообщения на iPhone

В приложении «Сообщения» из комплекта Apple iOS обнаружилась проблема, не позволяющая отправлять голосовые сообщения, в которых содержится спецсимвол амперсанд («&»). Это значит, в аудиосообщениях нельзя, например, упоминать названия таких брендов как Dave & Buster's, H&M и Tiffany & Co.

 Источник изображения: rambo.codes

Источник изображения: rambo.codes

Ошибку обнаружили авторы подкаста Search Engine, после чего её изучил разработчик приложений Гильерме Рамбо (Guilherme Rambo). Когда пользователь пытается отправить голосовое сообщение, в котором упоминается, например, название сети заведений общепита Dave & Buster's, адресат в своём приложении видит индикатор в виде трёх точек, указывающий, что сообщение набирается. Но через несколько секунд записанное голосовое сообщение исчезает, так и не появившись у того, кому отправлялось.

Проблема, как выяснилось, не в аудиосообщениях, а в сопровождающих их текстовых расшифровках. Механизм расшифровок обучен распознавать названия брендов, таких как H&M или Dave & Buster's — при их выводе подставляется амперсанд. Но этот символ некорректно отображается в XHTML, что приводит к ошибке анализа на устройстве адресата. Из-за ошибки запускается функция Apple BlastDoor Messages, предназначенная для защиты пользователей от эксплуатации вероятных уязвимостей в механизме анализа голосовых сообщений, которые в итоге не отправляются. Гильерме Рамбо подробно описал корни проблемы в публикации своего блога.

В Windows 11 появилась возможность отключения фильтра ненормативной лексики

Больше никаких «звёздочек» — теперь голосовой ввод в Windows 11 не станет заменять ими слова обсценной и ненормативной лексики. По многочисленным просьбам пользователей, обвинявших Microsoft в «ханжестве», компания добавила переключатель фильтра ненормативной лексики, который обеспечит полноценное отображение проклятий, брани, вульгаризмов, мата и прочих эвфемизмов при голосовом вводе.

 Источник изображения: unsplash.com

Источник изображения: unsplash.com

В последней инсайдерской сборке Windows 11 26120.3941 появился переключатель, позволяющий транскрибировать даже самые «неприличные» слова. Теперь при отключённом фильтре ненормативной лексики набор «звёздочек» больше не будет маскировать реакцию пользователя, случайно пролившего на себя горячий кофе.

«Мы рады ответить на самые популярные отзывы клиентов о голосовом вводе, начав развёртывание новой настройки, которая позволяет вам управлять фильтром ненормативной лексики», — заявила Microsoft. Многие пользователи приветствовали это нововведение, отметив, что теперь проще будет при помощи голосового ввода написать эмоциональный отзыв на очередные исправления и обновления Microsoft.

Остальные новые функции в последнем обновлении в основном ориентированы на улучшение пользовательского опыта владельцев ПК Copilot+. В частности, Microsoft исправила проблему, из-за которой изображения, используемые с действиями Click to Do, «застревали» во временной папке ПК. Также компания изменила настройки «Улучшенного поиска Windows» для пользователей, вошедших в OneDrive с рабочей или учебной учётной записью: теперь в результатах поиска отображаются только текстовые фрагменты, а не изображения.

Как обычно, нет никаких гарантий, что новые функции, появившиеся в инсайдерской сборке, доберутся до релизной версии ОС. Но в случае с переключателем фильтра ненормативной лексики это будет просто ******* позором.

Следующие ИИ-модели Llama от Meta✴ получат улучшенные голосовые функции

По информации Financial Times, Meta планирует представить улучшенные голосовые функции в своей следующей флагманской большой языковой модели Llama 4, запуск которой ожидается через несколько недель. Разработчики уделили особое внимание возможности прерывать и перебивать модель в процессе диалога, аналогично голосовому режиму OpenAI для ChatGPT и опыту Gemini Live от Google.

 Источник изображения: Pixabay

Источник изображения: Pixabay

На этой неделе главный директор по продуктам Meta Крис Кокс (Chris Cox) сообщил, что Llama 4 будет «всеобъемлющей» моделью, способной нативно интерпретировать и выводить речь, а также текст и другие типы данных.

 Источник изображения: ***

Источник изображения: Meta

Успех открытых моделей китайской ИИ-лаборатории DeepSeek, которые продемонстрировали впечатляющие результаты, заставил разработчиков Llama существенно ускориться. По слухам, Meta даже организовала оперативные центры, чтобы попытаться выяснить, как DeepSeek удалось радикально снизить стоимость обучения, запуска и развёртывания моделей ИИ.

xAI Grok 3 заговорил и тут-же стал ругаться и заигрывать с пользователями

Анонсированная в феврале компанией xAI мультимодальная ИИ-модель Grok 3 получила голосовой режим, позволяющий пользователям взаимодействовать с ИИ в реальном времени посредством голоса. Он доступен платным пользователям. Как сообщает ресурс Aibase, пользователь платформы X обнаружил, что приложение также получило поддержку двух режимов для взрослых: «Безбашенный» (Unhinged) и «Сексуальный» (Sexy).

 Источник изображения: xAI

Источник изображения: xAI

По словам пользователя, в режиме Unhinged приложение «постоянно вовлекает вас в жаркие дебаты», преуспевая в провокационных аргументах. В свою очередь, режим Sexy «начинается с флирта», наполненного романтическими высказываниями или сексуальными намеками.

Как полагает Aibase, добавление таких режимов не только обогащает методы взаимодействия ИИ-приложения с пользователями, но и расширяет развлекательный аспект. Режим «Безбашенный» может включать спорный контент, способный вызвать интерес, в то время как режим «Сексуальный» использует беззаботный заигрывающий стиль диалога.

На этом личности «Грока» не заканчиваются. Есть режим «Укурок» (Stoner), имитирующий разговор с человеком под действием запрещённых в России и многих других странах веществ. Для тех, кто предпочитает более спокойные беседы, есть режимы «Лучший друг» и «Гений» — последний подражает стилю общения астрофизика Карла Сагана (Carl Sagan). Все эти личности доступны с женским (Ara) и мужским (Rex) голосами, причем женская версия имеет более строгие ограничения.

Появление этих режимов вызвало дискуссии среди пользователей о необходимости модерации контента, особенно в отношении их потенциального воздействия на несовершеннолетних.

Являются ли эти режимы официальными или просто находятся на стадии тестирования, пока неясно. Компания пока никак не прокомментировала сообщение пользователя. По мнению аналитиков, этот шаг xAI направлен на привлечение более широкой пользовательской базы, одновременно расширяя границы взаимодействия с ИИ. Голосовое общение в реальном времени и разнообразные режимы приложения Grok могут стать его конкурентным преимуществом, но, вместе с тем, создать для xAI проблемы в достижении баланса между инновациями и безопасностью.

Большое обновление Siri откладывается — Apple споткнулась о множество проблем при внедрении ИИ

В прошлом году Apple заявила о намерении выпустить обновлённую версию голосового помощника Siri, улучшенную с помощью технологий на базе искусственного интеллекта. Теперь же стало известно, что в процессе разработки компания столкнулась с рядом проблем, которые ставят под угрозу запланированный на апрель запуск обновлённого голосового помощника. Об этом пишет Bloomberg со ссылкой на осведомлённые источники.

Впервые Apple анонсировала новую версию Siri на базе искусственного интеллекта на своей конференции для разработчиков в июне прошлого года. Тогда же компания представила некоторые новые функции, но их внедрение, похоже, затянется. По данным источника, ИИ-функции, запуск которых был намечен на апрель, появятся в мае или даже позже.

Переработанная Siri должна стать центральным элементом платформы Apple Intelligence, с помощью которой компания стремится подтолкнуть пользователей к покупке новых iPhone. Даже без учёта проблем с Siri запуск ИИ-функций Apple проходил не слишком гладко. Новые возможности выпускались поэтапно, и некоторые из них, такие как сгенерированные новостные сводки, вызвали критику со стороны потребителей.

Apple представила Siri ещё в 2011 году, и для компании особенно важно, чтобы обновлённый голосовой помощник работал качественно, поскольку сейчас он является символом отставания Apple от конкурентов в сфере ИИ. Отмечается, что разработка Siri отделена от усилий компании по запуску функций Apple Intelligence в Китае, где производитель iPhone сотрудничает с Alibaba и Baidu, чтобы создать систему, которая пройдёт проверку местных регуляторов и сможет выйти на потребительский рынок.

 Источник изображения: Apple

Источник изображения: Apple

Официальные представители Apple воздерживаются от комментариев относительно того, как продвигается процесс разработки ИИ-функций для обновлённой Siri. На момент анонса ИИ-функций для Siri в середине прошлого года Apple говорила о трёх основных нововведениях. Прежде всего речь шла о том, что алгоритм сможет задействовать данные о пользователе, чтобы более качественно отвечать на заданные вопросы. Кроме того, Siri получит больше возможностей для взаимодействия с приложениями. Голосовой помощник также сможет анализировать данные на экране устройства, используя этот контекст для повышения качества своей работы.

В то время Apple намекнула, что изменения появятся не раньше 2025 года. Предполагалось, что обновлённая Siri станет частью iOS 18.4, стабильная версия которой выйдет в апреле. Теперь же Apple может отложить запуск нововведений полностью или частично до выхода iOS 18.5 в мае.

Сотрудники Apple, занимающиеся тестированием Siri, обнаружили, что ИИ-функции работают нестабильно. Несмотря на то, что стабильная версия iOS 18.4 не выйдет до апреля, бета-версия ОС станет доступна разработчикам уже на следующей неделе. Также не исключается, что новые функции станут частью iOS 18.4, но будут отключены. При таком подходе Apple сможет активировать их вместе с iOS 18.5.

Запуск обновлённой Siri в этом году должен стать важным шагом на пути к созданию голосового помощника, который станет более разговорчивым и похожим на ChatGPT. Однако работа в этом направлении, вероятно, будет завершена лишь в следующем году.

Apple заявила, что никогда не продавала данные из диалогов с Siri рекламодателям

Компания Apple выступила с официальным заявлением, в котором подтвердила свою приверженность конфиденциальности взаимодействия пользователей с Siri, подчеркнув, что не предоставляла данные голосового помощника рекламодателям и не продавала их кому-либо.

«Apple никогда не использовала данные Siri для создания маркетинговых профилей, никогда не предоставляла их для рекламы и никогда не продавала их кому-либо в каких-либо целях. Мы постоянно разрабатываем технологии, чтобы сделать голосового ассистента ещё более конфиденциальным, и будем продолжать это делать», — сказано в заявлении компании.

Публикация Apple появилась после того, как она урегулировала коллективный иск, связанный с Siri, на сумму $95 млн. Истцы обвинили Apple в записи разговоров, полученных в результате случайных активаций виртуального помощника, и в последующем распространении информации из этих разговоров для сторонних рекламодателей.

Некоторые истцы утверждали, что после упоминания в разговоре таких брендов, как Air Jordan, Easton bats, Pit Viper и Olive Garden, им показывали на устройствах Apple рекламу соответствующих продуктов. Ещё один истец заявил, что ему направили рекламу хирургического лечения после обсуждения этого вопроса в частном порядке со своим врачом.

Ранее на этой неделе Apple пояснила ресурсу MacRumors, что иск был урегулирован, чтобы избежать дополнительных судебных разбирательств.

В своём заявлении Apple отметила, что «не сохраняет аудиозаписи взаимодействия с голосовым помощником, если пользователи явно не соглашаются помочь улучшить Siri, и даже в этом случае записи используются исключительно для этой цели. Пользователи могут легко отказаться в любое время». Также Apple акцентировала внимание на том, что поисковые запросы и обращения к Siri не связаны с учётной записью Apple и не могут быть использованы для идентификации конкретного пользователя.

Apple согласилась выплатить по $20 десяткам миллионов пользователей, чьи разговоры подслушивала Siri

Apple согласилась выплатить $95 млн для урегулирования коллективного иска, обвиняющего её голосового помощника Siri в несанкционированной записи и передаче личных разговоров пользователей рекламодателям. Владельцы мобильных устройств заявили, что Apple регулярно записывала их частные разговоры после случайной активации Siri, а затем передавала эти данные третьим сторонам, включая рекламодателей.

 Источник изображения: Daniel Romero / Unsplash

Источник изображения: Daniel Romero / Unsplash

По сообщению Reuters, компания Apple достигла предварительного соглашения по делу о нарушении конфиденциальности, в рамках которого пользователи могут получить до $20 за каждое устройство с Siri, которым они пользовались.

Голосовые помощники обычно активируются с помощью «горячих фраз» вроде «Привет, Siri». Однако истцы указали, что даже случайные упоминания определённых брендов или тем в дальнейшем вызывали показ таргетированной рекламы. Например, два заявителя сообщили, что после обсуждения кроссовок Air Jordan и ресторанов Olive Garden им стала предлагаться реклама этих продуктов. Другой истец заявил, что получил прицельную рекламу медицинского характера после разговора с врачом, который, как он считал, был полностью приватным. Иск охватывает период, который начинается с 17 сентября 2014 года и заканчивается 31 декабря 2024 года, когда в Siri была внедрена функция «Привет, Siri».

По предварительным оценкам, участниками коллективного иска являются десятки миллионов человек, которые могут получить до 20 долларов за каждое устройство с поддержкой Siri, например iPhone и Apple Watch. Apple, в свою очередь, отрицает какие-либо нарушения, но согласилась на урегулирование для избежания дальнейших судебных разбирательств. Представители Apple и их юристы пока не ответили на запросы о комментариях.

Юристы истцов также не предоставили комментариев, но, как ожидается, они запросят до $28,5 млн в качестве гонораров и $1,1 млн на покрытие расходов из фонда урегулирования. Примечательно, что $95 млн, выделенные на урегулирование, составляют всего девять часов прибыли Apple.

Стоит отметить, что аналогичный иск от имени пользователей голосового помощника Google находится на рассмотрении в суде, а истцов в обоих делах представляют одни и те же юридические фирмы. Дело против Apple, зарегистрированное под номером 19-04577, может стать важным прецедентом в вопросах конфиденциальности и использования персональных данных голосовыми помощниками.


window-new
Soft
Hard
Тренды 🔥
Большая часть мира осталась без возможности оплаты покупок в Steam через PayPal — Valve объяснила, что произошло 6 ч.
«Демоническая смесь Balatro и Buckshot Roulette»: роглайт-хоррор об ужасах долговой ямы CloverPit получил новый трейлер и дату выхода 7 ч.
Microsoft закрыла более 100 уязвимостей в Windows и Office, включая критические RCE-дыры 8 ч.
Sega анонсировала Football Manager 26 — «самый атмосферный и визуально насыщенный футбольный менеджер на сегодняшний день» 9 ч.
Загробный шутер Davy x Jones уйдёт на глубину раннего доступа Steam совсем скоро — дата выхода, новый трейлер и «дьявольская» цена на запуске 10 ч.
YouTube начал оценивать возраст пользователей с помощью ИИ — общественность в возмущении 11 ч.
PUBG: Battlegrounds скоро перестанет работать на PS4 и Xbox One, зато наконец «переедет» на PS5, Xbox Series X и S 11 ч.
VK отчиталась о росте аудитории и выручки — прогноз по годовой прибыли удвоен 12 ч.
Минцифры назвало условия для разблокировки звонков в WhatsApp и Telegram 12 ч.
Apple отринула обвинения Илона Маска о том, что App Store продвигает OpenAI 14 ч.