Сегодня 16 апреля 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → переводы

Перевод телефонных разговоров в Samsung Galaxy S24 первоначально будет поддерживать только два языка

Южнокорейская компания Samsung Electronics полна решимости начать внедрение технологий искусственного интеллекта в свои смартфоны, поскольку это позволит выделиться на фоне конкурентов. В готовящемся к анонсу семействе флагманов Galaxy S24 появится функция синхронного перевода речи собеседника с другого языка, реализованная как раз при помощи искусственного интеллекта.

 Источник изображения: Samsung Electronics

Источник изображения: Samsung Electronics

Анонсированная ещё в ноябре уходящего года функция AI Live Translate Call, по данным ресурса Nikkei Asian Review, позволит с минимальной задержкой переводить речь собеседника с другого языка именно за счёт наличия локальных специализированных аппаратных ресурсов, предоставляемых процессорами Samsung собственной разработки. Ранее подобные решения полагались исключительно на отправку данных в облачные системы для обработки, а потому не могли обеспечить необходимой плавности и скорости перевода.

Поясняется, что опирающаяся на систему искусственного интеллекта Samsung Gauss функция перевода первоначально обеспечит поддержку английского и испанского языков, хотя в дальнейшем их перечень будет постоянно расширяться за счёт родного для компании корейского, а также японского и прочих. Что характерно, функция синхронного перевода будет работать даже в том случае, если смартфон собеседника на другом конце линии относится к другой марке и не поддерживает экосистему Samsung. В качестве вспомогательной функции перевод будет дублироваться текстовой строкой на дисплее смартфона. В идеале, данное решение позволит общаться по телефону двум людям, не понимающим языка друг друга.

«Яндекс.Браузер» научился переводить видео с китайского языка

Новая функция представлена «Яндексом» в браузере собственной разработки. Теперь он получил возможность осуществлять перевод и закадровую озвучку видео с китайского языка на русский. Для обучения нейросеть использует огромный массив видео на китайском языке, анализируя полученные данные.

 Источник изображения: «Яндекс»

Источник изображения: «Яндекс»

Перевод осуществляется в несколько этапов. При этом нейросеть учитывает тон и контекст речи в видеопотоке. В компании подчеркнули, что ИИ способен различать четыре тона — данные фонетические особенности произношения способны значительно менять смысл почти любого высказывания в китайском языке. Кроме того, система «Яндекса» различает 6,5 тыс. иероглифов.

Как сообщают «Ведомости», для обучения ИИ компания использовала 100 тыс. видеоматериалов с субтитрами на севернокитайском языке, наиболее распространённом на территории Китая.

Для того, чтобы зритель мог воспользоваться переводом и озвучкой с китайского на русский язык, необходимо нажать кнопку «Перевести видео» в «Яндекс.Браузере». Сообщается, что технологией уже можно воспользоваться на YouTube.

Ранее сообщалось о том, что «Яндекс» внедрил многоголосый закадровый перевод видео и возможность синхронного перевода прямых трансляций.

В переводе видео принимают участие сразу четыре нейросети. Одна из них распознаёт речь с последующим преобразованием в текстовый формат, ещё одна идентифицирует пол говорящего по биометрическим данным, третья определяет, в каких местах необходимо расставлять знаки препинания и выделить смысловые фрагменты. Наконец, четвёртая переводит текст.

На YouTube появится больше видео с возможностью выбора языка озвучки

Видеохостинг YouTube расширяет круг создателей контента, имеющих возможность загружать аудиодорожки к видео на разных языках для своих видеоматериалов. Компания уже тестирует функцию на ограниченном числе авторов, а теперь такая возможность появилась у более широкой группы авторов.

 Источник изображения: MrBeast

Источник изображения: MrBeast

Желающие оценить функцию самостоятельно, могут зайти на канал MrBeast — ролик о выживании в течение 50 часов в Антарктиде. Нажав на значок шестерёнки, можно увидеть возможность выбора одной из 12 звуковых дорожек: русской, английской, португальской, французской, турецкой, испанской, корейской, арабской, индонезийской, вьетнамской, тайской, хинди.

При этом, разумеется, только одна из звуковых дорожек оригинальная, а остальные — дублированные. Открывающему видео по умолчанию доступна дорожка на том языке, каким он преимущественно пользуется в сервисе, но можно выбрать и любую из других доступных.

В ходе предварительного тестирования сервис YouTube сообщил, что, по данным на январь 2023 года, уже загружено более 3500 многоязычных видео с использованием более 40 языков. У таких видео повышено общее время просмотра, в среднем 15 % времени в январе приходилась на просмотры на «неосновном» языке.

Более того, возможность создания видео со звуковыми дорожками на разных языках также означает, что авторам не понадобится создавать отдельные каналы для разных языковых аудиторий. Вместо этого они смогут дублировать звуковое сопровождение в основном.

Расширенные возможности появились уже после того, как бывшая глава YouTube Сьюзан Воджитски (Susan Wojcicki) покинула недавно свой пост, хотя разработка новой функциональности велась задолго до её ухода.

Google научила Переводчик лучше переводить двусмысленности и игру слов

Сегодня на мероприятии «Прямой эфир из Парижа» Google анонсировала множество новых функций для своего Переводчика (Google Translate), включая улучшенный контекстный перевод, переработанное приложение для iOS и функцию бесшовного перевода при использовании дополненной реальности с помощью Google Lens.

 Источник изображения: pixabay.com

Источник изображения: pixabay.com

На первом этапе поисковый гигант улучшит контекстный перевод на английском, французском, немецком, японском и испанском языках. Это обновление будет выпущено в ближайшие недели, а в ближайшие месяцы список поддерживаемых языков значительно расширится.

Теперь слова и фразы с несколькими трактовками будут переведены в зависимости от контекста, а предложения с использованием идиом будут звучать предельно естественно и корректно восприниматься носителями языка. Новые функции также позволят избежать нежелательного, оскорбительного или агрессивного перевода.

В прошлом году компания обновила приложение Google Translate для Android, добавив новый дизайн, соответствующий концепции Material You. Теперь и в приложение для iOS добавлены новые функции и обновлённый пользовательский интерфейс. Приложение получило крупную кнопку микрофона в нижней центральной части для облегчения голосового ввода. Приложение для iOS также обзавелось динамическим шрифтом, делающим переводы более читабельными по мере ввода. Также теперь от пользователя требуется меньше действий для выбора языка. В переработанном приложении добавлен жест смахивания вниз для доступа к недавним переводам и удержание кнопки языка для быстрого выбора недавно использовавшегося языка.

Приложение для iOS также недавно получило поддержку автономного перевода на 33 новых языка, включая баскский, корсиканский, гавайский, хмонг, курдский, латынь, люксембургский, суданский, идиш и зулу.

В сентябре прошлого года Google продемонстрировал новую функцию перевода, которая интеллектуально смешивает перевод с оригинальным изображением, заменяя только переведённый текст. То есть при переводе с помощью наведения камеры смартфона на постер, плакат или объявление пользователь увидит на дисплее исходное изображение с переведённым по месту текстом. Можно перевести текст и на сохранённых картинках. В настоящее время компания развёртывает эту возможность на Android-смартфонах с 6 Гбайт ОЗУ или более.

Помимо этого, Google также объявила о глобальном запуске мультипоиска, а также об улучшениях для Карт, включая иммерсивные виды пяти новых городов и расширение функции просматриваемых маршрутов для всех пользователей.

YouTube начал тестировать «Курсы», переключение звуковых дорожек и поиск по тексту ролика

На презентации в Индии Google рассказала о функциях, которые сейчас тестируются на YouTube: упрощённый поиск по тексту внутри видеоролика, возможность подключать к одной записи несколько звуковых дорожек и раздел для видеокурсов.

 Источник изображения: Christian Wiediger / unsplash.com

Источник изображения: Christian Wiediger / unsplash.com

В рамках пилотного проекта дебютировала новая функция приложения поиска: при наличии видеозаписей в выдаче можно выбрать опцию «Поиск по видео» и посмотреть, есть ли в расшифровке ролика нужная фраза. Если совпадение обнаружено, можно сразу перейти к фрагменту ролика, в котором она звучит. Раньше эта возможность была только в веб-версии сервиса — нужно открыть расшифровку и найти нужный текст на странице. В мобильных приложениях под iOS или Android просмотр автоматической расшифровки уже есть, но только без поиска.

Раздел Courses, который появится в ближайшие месяцы, позволит авторам контента публиковать образовательные материалы с платным доступом — видеоролики и сопутствующий контент, включая файлы PDF и картинки в описаниях. Предусмотрена возможность делать уроки общедоступными, и отображаться они будут в интерфейсе, оптимизированном под образовательный контент.

Ещё одним нововведением стала поддержка нескольких звуковых дорожек, которые переключаются в настройках ролика. В Google уточнили, что проект реализуется при участии запущенного внутри компании стартапа Aloud, который подготовил систему синхронного машинного перевода. Обо всех новых возможностях компания рассказала в ходе презентации Google for India — о появлении этих функций для пользователей из других стран пока не говорится ничего.

Skype теперь сможет озвучивать автоматический перевод речи голосом самих пользователей

Компания Microsoft выпустила очередное обновление коммуникационного решения Skype. Теперь интегрированный в продукт переводчик позволяет осуществлять перевод и последующее озвучивание речи пользователя его же голосом — только на другом языке.

 Источник изображения: Chase Chappell/unsplash.com

Источник изображения: Chase Chappell/unsplash.com

Функция TruVoice максимально упрощает общение даже тем, кто не знает языка собеседника. Обработка речи с помощью алгоритмов искусственного интеллекта буквально творит чудеса. В Microsoft заявляют, что инструмент Skype Translator комбинирует систему распознавания голоса с алгоритмами обработки естественных языков.

В результате беседы должны становятся более «человечными», что в теории помогает налаживать контакты с людьми из других стран. Другими словами, ещё до перевода система умеет распознавать и интерпретировать слова собеседников.

Известно, что уже поддерживается 10 языков, включая русский, мандаринский диалект китайского, арабский, бразильский португальский, английский, испанский, итальянский, французский и немецкий. Кроме того, разговоры на более 60 языках система способна конвертировать в текст на других языках.

 Источник изображения: Skype

Источник изображения: Skype

Если разговаривать «естественными» голосами по каким-либо причинам неприемлемо, можно выбрать искусственные роботизированные варианты. Пока функция Skype доступна только в разговорах один на один, но в ближайшие месяцы Microsoft обещает добавить её в групповые беседы и даже разговоры с собеседниками по телефону.

ИИ-переводчик Meta✴ научился переводить языки, не имеющие письменности

Приблизительно 2,8 тысяч языков мира из семи тысяч известных существуют без письменности. Такие языки не подходят для современных систем перевода на основе алгоритмов машинного обучения, поскольку обычно компьютеры переводят устную речь в письменную для последующего перевода на другой язык. Компании Meta, похоже, удалось решить эту проблему, благодаря новому ИИ-инструменту.

 Источник изображения:  bruce mars/unsplash.com

Источник изображения: bruce mars/unsplash.com

В рамках разработанной Meta программы Universal Speech Translator (UST) устная речь на одном языке будет переводиться в устную же на другом, благодаря чему будущие жители метавселенной, смогут намного легче взаимодействовать друг с другом.

В рамках проекта исследователи обратились к диалекту хоккиен — одному из официальных языков Тайваня и довольно широко распространённому в Азии, при этом не имеющему собственной письменности.

Для тренировки системам машинного перевода обычно необходимы письменные и устные образцы языка. Для того чтобы обойти подобные ограничения, используется модель т.н. speech-to-unit translation (S2UT), в рамках которой устная речь преобразуется в «акустические единицы» в режиме реального времени.

Речь на не имеющем письменности языке конвертируется сначала в текст на родственном языке-посреднике, имеющем письменность (в данном случае на мандаринском диалекте), который уже можно переводить на английский и наоборот с последующим машинным обучением системы. Пока система обеспечивает ограниченное общение носителей хоккиена и говорящих по-английски. Она переводит по предложению за раз, но глава Meta Марк Цукерберг (Mark Zuckerberg) уверен, что со временем модель будет использована с разными языками и позволит общаться в режиме реального времени.

Помимо моделей и тренировочных данных, уже выложенных Meta в открытый доступ, компания опубликовала и другие инструменты, потенциально позволяющие исследователям создавать собственные системы для перевода устной речи в устную (S2ST).

«Яндекс Браузер» научился переводить и озвучивать по-русски прямые эфиры на YouTube — задействовано сразу четыре нейросети

В «Яндекс Браузере» появилась возможность синхронно переводить и озвучивать на русском языке не только видео, уже выложенные в общий доступ на YouTube и Vimeo, но и делать тоже самое в реальном времени для онлайн-трансляций — озвучка возможна прямо по ходу эфира. Новая функция пока доступна в режиме открытого бета-тестирования и ограничена фиксированным набором каналов.

 Источник изображения: yandex.ru

Источник изображения: yandex.ru

За 10 месяцев пользователи «Яндекса Браузера» просмотрели 81 млн роликов с закадровым переводом, пишут разработчики «Яндекс Браузера». После этого стал доступным перевод в формате титров, а сейчас настал черёд прямых эфиров. Автоматизированный синхронный перевод — задача сложная. Одному иностранному слову в зависимости от контекста могут соответствовать несколько русских, поэтому в идеале нейросети необходимо «скормить» как можно больше текста. Однако при работе в режиме реального времени это крайне трудная задача, поскольку задержка должна быть минимальной.

Поэтому потребовалось перестроить всю архитектуру автоматизированного перевода, задействовав сразу несколько нейросетей: первая распознаёт звуковой ряд и переводит его в текстовый формат, вторая определяет пол говорящего человека, третья расставляет знаки препинания и смысловые акценты, а четвёртая уже получает результат работы третьей и собственно производит перевод и озвучку.

Список поддерживаемых системой YouTube-каналов доступен на специальной странице. В перспективе разработчики «Яндекс Браузера» планируют добавить синхронный перевод к стримам в Twitch. Сейчас нейросети «Яндекса» работают с английским, немецким, французским, итальянским и испанским языками, позже будут добавлены ещё несколько европейских языков, а также японский, китайский и другие.


window-new
Soft
Hard
Тренды 🔥
Microsoft полностью прекратит поддержку Office 2016 и Office 2019 14 октября 2025 года 4 ч.
Илон Маск задумал брать плату с новых пользователей X за право публиковать посты 8 ч.
В сериале Fallout засветился реальный телефонный номер — фанаты убеждены, что он скрывает секрет 8 ч.
«Выглядит как игра, о которой я всегда мечтал»: релизный трейлер No Rest for the Wicked взбудоражил геймеров перед стартом раннего доступа Steam 9 ч.
«Группа Астра» объявила о начале SPO 9 ч.
Гонконг разрешил запуск ETF в биткоинах и Ethereum 10 ч.
Adobe запустила Acrobat AI Assistant для анализа сложных документов — за $4,99 в месяц, но только на английском 10 ч.
Nintendo решила не участвовать в gamescom 2024 — выставка обойдётся без Switch 2 10 ч.
Бывший президент Blizzard предложил оставлять чаевые разработчикам «особенных» игр 12 ч.
Ретрофутуристическое приключение-долгострой Harold Halibut не оставило критиков равнодушными 13 ч.
Массовые увольнения в Tesla связаны с решением отложить на неопределённое время выпуск электромобиля за $25 000 59 мин.
Владельцы Tesla Cybertruck жалуются на залипающую педаль газа, компания замедляет выдачу пикапов клиентам из-за дефекта 3 ч.
Pimax представила передовую VR-гарнитуру Crystal Super с заменяемым оптическим модулем и более доступную модель Crystal Light 4 ч.
Новая статья: Обзор PCIe 4.0-накопителя Adata Legend 900: уж точно лучше, чем Samsung 990 Evo 8 ч.
Meta упростит интеграцию VR-гарнитур Quest в учебный процесс в школах и не только 9 ч.
Lamptron уличили в продаже фиктивных ключей для AIDA64 в комплекте со своими продуктами 9 ч.
Смартфоны Samsung Galaxy S24 обошли iPhone 15 по скорости передачи данных через 5G 9 ч.
Schneider Electric надеется заработать на буме ЦОД и инвестирует $140 млн в производство электрооборудования на территории США 9 ч.
Обновлённому коллайдеру — обновлённая сеть: Nokia и SURF «разогнали» до 800 Гбит/с имеющуюся оптическую сеть БАК 10 ч.
Sony действительно готовит PlayStation 5 Pro — The Verge подтвердил характеристики и раскрыл новые подробности 11 ч.