Сегодня 04 июня 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → синтез речи

«Голосовое протезирование с ИИ» превратит мозговые волны немых людей в беглую речь

Немало людей страдают от потери речи в результате заболеваний, хотя их когнитивные функции остаются незатронутыми. Поэтому на волне прогресса в области ИИ многие исследователи сосредоточились на синтезе естественной речи (вокализации) с помощью комбинации мозговых имплантатов и нейросети. В случае успеха эта технология может быть расширена для помощи людям, испытывающим трудности с вокализацией из-за таких состояний, как церебральный паралич или аутизм.

 Источник изображения: unsplash.com

Источник изображения: unsplash.com

Долгое время основные инвестиции и внимание учёных были сосредоточены на имплантах, которые позволяют людям с тяжёлыми формами инвалидности использовать клавиатуру, управлять роботизированными руками или частично восстанавливать использование парализованных конечностей. Одновременно многие исследователи сконцентрировались на разработке технологий вокализации, которые преобразует мыслительные модели в речь.

«Мы добиваемся большого прогресса. Сделать передачу голоса от мозга к синтетическому голосу такой же плавной, как диалог между двумя говорящими людьми — наша главная цель, — рассказал нейрохирург из Калифорнийского университета Эдвард Чанг (Edward Chang). — Используемые нами алгоритмы ИИ становятся быстрее, и мы учимся с каждым новым участником наших исследований».

В марте 2025 года Чанг с коллегами опубликовали статью в журнале Nature Neuroscience, в которой описали работу с парализованной женщиной, которая не могла говорить в течение 18 лет после перенесённого инсульта. При помощи учёных она обучала нейронную сеть, безмолвно пытаясь произнести предложения, составленные из 1024 разных слов. Затем звук её голоса был синтезирован путём потоковой передачи её нейронных данных в совместную модель синтеза речи и декодирования текста.

 Источник изображения: New England Journal of Medicine

Источник изображения: New England Journal of Medicine

Технология позволила сократить задержку между мозговыми сигналами пациента и полученным звуком с первоначальных восьми до одной секунды. Этот результат уже сопоставим с естественным для обычной речи временным интервалом в 100–200 миллисекунд. Медианная скорость декодирования системы достигла 47,5 слов в минуту, что составляет примерно треть от скорости обычного разговора.

Аналогичные исследования были произведены компанией Precision Neuroscience, причём её генеральный директор Майкл Магер (Michael Mager) утверждает, что их подход позволяет захватывать мозговые сигналы с более высоким разрешением за счёт «более плотной упаковки электродов».

На данный момент Precision Neuroscience провела успешные эксперименты с 31 пациентом и даже получила разрешение регулирующих органов оставлять свои датчики имплантированными на срок до 30 дней. Магер утверждает, что это позволит в течение года обучить нейросеть на «крупнейшим хранилище нейронных данных высокого разрешения, которое существует на планете Земля». Следующим шагом, по словам Магера, будет «миниатюризация компонентов и их помещение в герметичные биосовместимые пакеты, чтобы их можно было навсегда внедрить в тело».

 Источник изображения: UC Davis Health

Источник изображения: UC Davis Health

Самым серьёзным препятствием для разработки и использования технологии «мозг-голос» является время, которое требуется пациентам, чтобы научиться пользоваться системой. Ключевой нерешённый вопрос заключается в степени различия шаблонов реагирования в двигательной коре — части мозга, которая контролирует произвольные действия, включая речь, — у разных людей. Если они окажутся схожими, предварительно обученные модели можно будет использовать для новых пациентов. Это ускорит процесс индивидуального обучения, который занимает десятки или даже сотни часов.

Все исследователи вокализации солидарны в вопросе о недопустимости «расшифровки внутренних мыслей», то есть того, что человек не хочет высказывать. По словам одного из учёных, «есть много вещей, которые я не говорю вслух, потому что они не пойдут мне на пользу или могут навредить другим».

На сегодняшний учёные ещё далеки от вокализации, сопоставимой с обычным разговором среднестатистических людей. Хотя точность декодирования удалось довести до 98 %, голосовой вывод происходит не мгновенно и не в состоянии передать такие важные особенности речи, как тон и настроение. Учёные надеются, что в конечном итоге им удастся создать голосовой нейропротез, который обеспечит полный экспрессивный диапазон человеческого голоса, чтобы пациенты могли контролировать тон и ритм своей речи и даже петь.

Spotify будет дублировать подкасты на иностранные языки голосами самих авторов с помощью ИИ

Сотрудничество Spotify с OpenAI позволит подкастерам синтезировать собственный голос для автоматического создания версий своих шоу на иностранных языках. Это основная идея новой функции голосового перевода Spotify на базе ИИ, которая воспроизводит подкасты на других языках, используя синтезированный голос создателя. Теперь подкастеру достаточно просто «щёлкнуть выключателем» и мгновенно заговорить на другом языке.

 Источник изображения: unsplash.com

Источник изображения: unsplash.com

Компания уже заключила договоры с несколькими подкастерами о переводе созданных ими англоязычных эпизодов на испанский с помощью своего нового инструмента, и планирует в ближайшие недели выпустить переводы на французский и немецкий языки. Первыми будут переведены эпизоды подкастеров с такими громкими именами, как Дакс Шепард (Dax Shepard), Моника Пэдман (Monica Padman), Лекс Фридман (Lex Fridman), Билл Симмонс (Bill Simmons) и Стивен Бартлетт (Steven Bartlett). В дальнейшем Spotify планирует расширить эту группу, включив в неё The Rewatchables и предстоящее шоу Тревора Ноа (Trevor Noah).

Основой функции перевода является ИИ-инструмент синтезирования голоса OpenAI Whisper, который умеет как транскрибировать английскую речь, так и переводить на английский с других языков. Но инструмент Spotify выходит за рамки простого перевода речи в текст — эта функция переведёт подкаст на другой язык и воспроизведёт его в синтезированной версии голосом подкастера.

«Сопоставляя собственный голос создателя, Voice Translation даёт слушателям по всему миру возможность открывать для себя новых подкастеров и вдохновляться ими более аутентично, чем когда-либо прежде», — уверен Зиад Султан (Ziad Sultan), вице-президент Spotify по персонализации.

OpenAI сегодня утром объявила о запуске инструмента, который может создавать «человеческий звук из просто текста и нескольких секунд образца речи». Доступность нового инструмента будет существенно ограничена из-за опасений по поводу безопасности и конфиденциальности. Вероятно, это одна из причин, почему технология перевода Spotify пока тестируется только с «избранной группой» подкастеров, а компания не делает прогнозов о массовом внедрении новой функции.


window-new
Soft
Hard
Тренды 🔥
Дождались, но не «бету»: российский MMO-шутер Pioner скоро получит мультиплеерную демоверсию 8 ч.
«Металюди» пойдут в народ: Epic упростила создание гиперреалистичных персонажей в Unreal Engine 8 ч.
Sony анонсировала большой июньский выпуск State of Play — он посвящён играм для PS5, которые нельзя пропускать 11 ч.
Nvidia App получило светлую тему и оптимальные настройки для 12 новых игр 12 ч.
Universal, Warner и Sony предложили ИИ-разработчикам лицензировать музыку для обучения нейросетей 13 ч.
Суд признал деятельность создателей «Мира танков» экстремистской и передал активы государству — в «Леста Игры» с решением «в корне не согласны» 14 ч.
Скорость распространения Windows 11 замедлилась 16 ч.
На МКС заработает российский ИИ — осенью там запустят GigaChat «Сбера» 17 ч.
Разработчик-одиночка анонсировал «Знамя победы» — гибрид стратегии и экшена на полях сражений Второй мировой войны 18 ч.
Рынок российского инфраструктурного ПО достиг уровня 2021 года 18 ч.
Nvidia утверждает, что консоль Switch 2 использует ИИ для улучшения игрового процесса 2 ч.
Razer представила геймерский коврик HyperFlux V2, который будет заряжать мышь во время использования 5 ч.
Samsung намекнула на выпуск ультратонкого смартфона-книжки Galaxy Z Fold 7 Ultra 5 ч.
Россия намерена запустить более 880 интернет-спутников до 2030 года 6 ч.
Broadcom представила самые быстрые в мире Ethernet-коммутаторы Tomahawk 6: 102,4 Тбит/с на чип и 1,6 Тбит/с на порт 6 ч.
Новая статья: Обзор Midea VCR S20 Plus: робот-пылесос — друг человека! 7 ч.
Шанс столкновения Млечного Пути с Андромедой упал до 50 % — но только на ближайшие 10 млрд лет 8 ч.
Представлена Arctis Nova 3 — самая доступная беспроводная гарнитура SteelSeries 10 ч.
Госкорпорация «Роскосмос» будет развивать космический туризм на базе Российской орбитальной станции 12 ч.
Мировые продажи памяти DRAM упали на 5,5 % в первом квартале — сильнее всех просела Samsung 13 ч.