|
Опрос
|
реклама
Быстрый переход
Google выпустила ИИ-модель Lyria 3 Pro для генерации трёхминутных музыкальных треков — но не бесплатно
25.03.2026 [21:32],
Николай Хижняк
Google сообщила о выпуске ИИ-модели Lyria 3 Pro для генерации музыки. В прошлом месяце компания представила модель Lyria 3 с той же функцией. Версия Pro позволит создавать треки продолжительностью до трех минут, в отличие от 30-секундных треков, предлагаемых в модели Lyria 3.
Источник изображения: Google Помимо возможности создания более длинных треков модель Lyria 3 Pro предложит лучший творческий контроль и возможности настройки, заявляет Google. В запросе для модели пользователи могут указывать различные элементы музыкального произведения, такие как вступления, куплеты, припевы и бриджи — Lyria 3 Pro лучше понимает структуру трека, чем её предшественница. Ранее Google добавила возможность генерации музыки с помощью Lyria 3 в приложении Gemini. Модель Pro тоже доступна через Gemini, но доступ к ней получат только платные подписчики. Модель Lyria 3 Pro также добавлена в приложение для редактирования видео Google Vids и в состав ProducerAI, инструмента для создания музыки на основе искусственного интеллекта, который Google приобрела в прошлом месяце. Кроме того, Google добавляет возможность генерации музыки через Lyria 3 Pro в свои корпоративные инструменты с помощью Vertex AI (в публичной предварительной версии), API Gemini и AI Studio. Компания сообщила, что для обучения Lyria 3 Pro использовались данные от партнёров, а также разрешённые данные от YouTube. По словам Google, модель не имитирует конкретных исполнителей. Однако если пользователи указывают исполнителя в подсказках, модель использует «широкое вдохновение» от этого исполнителя для создания трека. Все треки, созданные с помощью Lyria 3 и Lyria 3 Pro, помечаются маркером SynthID, указывающим, что для создания этой композиции использовался ИИ. Google Gemini научился генерировать 30-секундные музыкальные треки по описанию и картинкам
19.02.2026 [06:55],
Алексей Разин
Бета-доступ к модели Lyria 3 входящей в состав Google лаборатории DeepMind позволил пользователям чат-бота Gemini создавать короткие 30-секундные музыкальные композиции на основе текстовых описаний, изображений и видеороликов, при этом даже не нужно покидать интерфейс чат-бота.
Источник изображения: Nvidia С этой недели доступ к данному инструменту генерирования музыки получили пользователи Google по всему миру, на первом этапе поддерживаются запросы и результаты на английском, немецком, испанском, французском, японском, корейском и португальском языках, а также хинди. Запросы в этом сервисе могут упоминать как конкретные музыкальные стили, так и эмоциональный настрой, либо какие-то типичные жизненные ситуации. Сервис позволяет генерировать как инструментальные композиции, так и произведения с вокалом на текст, предложенный пользователем. Для более точного результата с точки зрения формируемого настроения пользователь может прилагать к текстовому запросу фотографии или видеоролики. Google подчёркивает, что подобный инструмент не направлен на создание музыкальных шедевров, а в большей мере ориентирован на развлечение и самовыражение пользователей. Для более удобного распространения созданных 30-секундных музыкальных композиций Google будет снабжать их обложками, сгенерированными при помощи Nano Banana. Эти композиции также можно будет использовать совместно с инструментом Dream Track, который позволяет сопровождать публикуемые в YouTube короткие видеоролики музыкой независимых авторов. Учитывая предыдущий опыт внедрения средств генерирования музыки при помощи ИИ, компания Google в модели Lyria 3 предусмотрела механизмы защиты от слепого копирования произведений конкретных авторов и голосов определённых исполнителей. Lyria существует с 2023 года, но доступ к ней был ограничен облачной платформой Google Vertex. Интеграция подобных возможностей в Google Gemini делает инструмент для генерирования музыки более доступным, но в этой сфере компания отстаёт по графику от многих конкурентов типа TikTok и Microsoft. Stability AI выпустила ИИ-генератор музыки, который быстро работает даже на смартфоне
14.05.2025 [23:39],
Анжелла Марина
Stability AI, разработчик популярной нейросети Stable Diffusion, представила музыкальную ИИ-модель Stable Audio Open Small, которая генерирует аудио в стереозвучании и способна работать на смартфонах без подключения к интернету. Модель создана совместно с производителем чипов Arm, чьи процессоры используются в большинстве мобильных устройств, и способна быстро генерировать аудио в высоком качестве даже на устройствах с ограниченными вычислительными ресурсами.
Источник изображения: AI В отличие от конкурентов, таких как Suno и Udio, которым требуется облачная обработка, Stable Audio Open Small работает локально. При этом, как отмечает TechCrunch, обучение модели проводилось только на данных из бесплатных аудиобиблиотек Free Music Archive и Freesound, что снижает риски нарушения авторских прав и выгодно отличает её от некоторых других ИИ-сервисов, использующих защищённый контент. Модель содержит 341 миллион параметров и оптимизирована для процессоров Arm. Она предназначена для быстрого создания коротких аудиосэмплов и звуковых эффектов, например, ударных или инструментальных партий. По заявлению Stability AI, на смартфоне ИИ может сгенерировать 11-секундное аудио менее чем за восемь секунд. Одновременно у Stable Audio Open Small есть некоторые ограничения. Например, она понимает текстовые запросы только на английском языке, не умеет создавать реалистичный вокал или сложные музыкальные композиции. Кроме того, компания признаёт, что из-за того, что модель обучалась на западно-ориентированных данных, она лучше справляется со стилями, присущими западной музыке. Ещё одна сложность заключается в условиях использования. Для исследователей, любителей и малого бизнеса ИИ-модель доступна бесплатно, но если годовой доход компании превышает $1 млн, потребуется покупка коммерческой лицензии. И хотя для инди-разработчиков такие условия выгодны, для крупных проектов это может стать определённой сложностью. Напомним, Stability AI, известная по своей модели глубокого обучения Stable Diffusion, генерирующей изображения по текстовым описаниям, в последние месяцы пытается восстановить репутацию после финансовых проблем при бывшем генеральном директоре Эмаде Мостаке (Emad Mostaque). Компания привлекла инвестиции, назначила нового главу и добавила в совет директоров режиссёра Джеймса Кэмерона (James Cameron). Параллельно она продолжает выпускать новые генеративные модели, включая новые инструменты для создания изображений. |