Сегодня 24 ноября 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

В YouTube вот-вот появится ИИ для генерации идей, описаний и даже целых видео

Технологии на основе искусственного интеллекта уже успели стать частью многих сервисов Google. Принадлежащий IT-гиганту видеохостинг YouTube не стал исключением, и уже в скором времени новейшие алгоритмы станут доступны пользователям сервиса. В рамках мероприятия Made on YouTube разработчики анонсировали несколько функций, которые, вероятно, изменят то, как авторы контента создают видео, а также сами ролики, публикуемые на платформе.

 Источник изображения: YouTube

Источник изображения: YouTube

Первая функция называется «Вдохновение» и появится в YouTube Studio. Последние несколько месяцев этот инструмент тестировался с привлечением ограниченного числа пользователей. Данная функция фактически предназначена для того, чтобы подсказывать авторам контента, что им следует делать. Она может предложить концепцию видео, сгенерировать заголовок и миниатюру для ролика, а также подготовить текстовое описание. YouTube позиционирует функцию как инструмент для мозгового штурма, но в целом она может быть полезна и при создании полноценных проектов.

Кроме того, пользователи YouTube смогут генерировать реалистичные видео с помощью мощной нейросети Veo, которую представили ранее в этом году и теперь интегрировали в Shorts. Представитель Google отметил, что Veo уже интегрирован в облачный редактор Shorts, а созданные с его помощью ролики будут помечены соответствующим образом, чтобы зрители знали, что видео создано с помощью ИИ.

Обе новые функции будут внедряться постепенно и станут доступны всем авторам контента в конце этого или начале следующего года. В YouTube появятся и другие инструменты на базе нейросетей. К ним относится функция автоматического дубляжа видео, которая будет озвучивать ролики на разные языки. Платформа также предоставит авторам больше ИИ-инструментов для взаимодействия с подписчиками через раздел «Сообщества» в приложении YouTube.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Новая статья: The Outer Worlds 2 — галактика ждет героя. Рецензия 23-11 00:00
Слежка без камер: Apple создала ИИ, который вычисляет действия пользователя по звуку и движениям 22-11 20:34
В Google начала показывать рекламу в «Режиме ИИ» в поиске — пока не всем 22-11 20:08
В уведомлениях Gmail на Android появился предпросмотр фото и других вложений 22-11 17:50
Nothing начала обновлять смартфоны до Android 16 и добавила индикаторы прогресса на заднюю панель 22-11 16:58
Google Gemini 3 оказалась настолько впечатляющей, что Сэм Альтман заговорил о «тяжёлых временах» для OpenAI 22-11 15:56
«Проводник» в Windows 11 будет автоматически загружаться в фоновом режиме, чтобы стать быстрее 22-11 13:27
Биткоин рухнул вслед за акциями технокомпаний — уже на 40 тыс. меньше исторического максимума 22-11 13:23
Соцсеть X запустила маркетплейс редких и «спящих» никнеймов 22-11 13:20
Google опровергла «вводящие в заблуждение» сообщения об обучении ИИ на письмах из Gmail 22-11 12:17
Илон Маск заявил, что специалисты Tesla через несколько месяцев завершат разработку чипа AI5 2 ч.
Новая статья: Обзор ASUS ROG Strix G16 (2025) G615: ноутбук с оптимальной игровой графикой 6 ч.
Seasonic выпустит киловаттный блок питания с пассивным охлаждением 8 ч.
«Роботы могут проломить череп»: Figure AI уволила инженера за такие слова и теперь ответит за это в суде 8 ч.
OpenAI и Foxconn оптимизируют стоечные решения для ИИ ЦОД, которые будут выпускаться в США 13 ч.
Будущее на кончике пальца: создан пластырь, позволяющий «чувствовать» текстуры через экран 17 ч.
Joby испытала версию электролёта S4 со сверхвысокой автономностью 17 ч.
SpaceX Falcon 9 слетала в космос 150 раз с начала года — на орбиту выведана очередная партия спутников Starlink 19 ч.
В условиях растущего дефицита поставщики памяти переходят на долгосрочные контракты 21 ч.
По итогам третьего квартала выручка поставщиков полупроводниковых компонентов впервые превысила $200 млрд 22 ч.