Сегодня 05 марта 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

В YouTube вот-вот появится ИИ для генерации идей, описаний и даже целых видео

Технологии на основе искусственного интеллекта уже успели стать частью многих сервисов Google. Принадлежащий IT-гиганту видеохостинг YouTube не стал исключением, и уже в скором времени новейшие алгоритмы станут доступны пользователям сервиса. В рамках мероприятия Made on YouTube разработчики анонсировали несколько функций, которые, вероятно, изменят то, как авторы контента создают видео, а также сами ролики, публикуемые на платформе.

 Источник изображения: YouTube

Источник изображения: YouTube

Первая функция называется «Вдохновение» и появится в YouTube Studio. Последние несколько месяцев этот инструмент тестировался с привлечением ограниченного числа пользователей. Данная функция фактически предназначена для того, чтобы подсказывать авторам контента, что им следует делать. Она может предложить концепцию видео, сгенерировать заголовок и миниатюру для ролика, а также подготовить текстовое описание. YouTube позиционирует функцию как инструмент для мозгового штурма, но в целом она может быть полезна и при создании полноценных проектов.

Кроме того, пользователи YouTube смогут генерировать реалистичные видео с помощью мощной нейросети Veo, которую представили ранее в этом году и теперь интегрировали в Shorts. Представитель Google отметил, что Veo уже интегрирован в облачный редактор Shorts, а созданные с его помощью ролики будут помечены соответствующим образом, чтобы зрители знали, что видео создано с помощью ИИ.

Обе новые функции будут внедряться постепенно и станут доступны всем авторам контента в конце этого или начале следующего года. В YouTube появятся и другие инструменты на базе нейросетей. К ним относится функция автоматического дубляжа видео, которая будет озвучивать ролики на разные языки. Платформа также предоставит авторам больше ИИ-инструментов для взаимодействия с подписчиками через раздел «Сообщества» в приложении YouTube.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
Nvidia выпустила Hotfix-драйвер для решения проблем с настройками напряжения у GeForce RTX 5000 7 ч.
Android и Chrome OS сольются в одну платформу в 2026 году — Google подтвердила планы по Aluminium OS 8 ч.
Слухи о релизе Windows 12 в этом году оказались фейком, но интернет поверил 8 ч.
Ubisoft наконец подтвердила Assassin’s Creed Black Flag Resynced и приоткрыла завесу тайны над будущим франшизы 11 ч.
«Это просто нереально!»: Mundfish взбудоражила фанатов Atomic Heart трейлером с датой выхода сюжетного дополнения «Кровь на Хрустале» 12 ч.
Московский суд оштрафовал разработчика Escape from Tarkov на два миллиона рублей 14 ч.
Ghost of Yotei и Saros не выйдут на ПК — Sony больше не будет портировать эксклюзивы PS5, но есть исключения 14 ч.
«Яндекс» научил «Алису» управлять смартфоном по командам пользователя — ИИ-агент уже тестируется 15 ч.
OpenAI разрабатывает прямого конкурента платформы GitHub от Microsoft 15 ч.
Власти США задумались, не угрожают ли инвестиции Tencent в Epic и Riot безопасности США 16 ч.
Meta будет разрабатывать собственные ИИ-ускорители 39 мин.
Пуск лунной миссии Artemis намечен NASA на первое апреля 3 ч.
Испанцы создали «всепогодную» солнечную панель — она работает от света и от капель дождя 8 ч.
Aikido объединила морские ветряки с модульными ИИ ЦОД 9 ч.
Эксперимент показал, что бактерии могут пережить удар астероида и межпланетный перелёт 10 ч.
Gemini обвинили в подстрекательстве к самоубийству — Google предстоит суд 10 ч.
Nubia представила доступные игровые смартфоны Neo 5, Neo 5 GT и Neo 5 Max с активным охлаждением и RGB-подсветкой 10 ч.
Xiaomi будет делать новый процессор каждый год — и уже в этом выпустит смартфон с собственным чипом, ОС и ИИ 12 ч.
Meta обучает ИИ на видео с очков Ray-Ban, в том числе на интимных — но сначала их смотрят люди в Кении 14 ч.
Caviar представила эксклюзивные Galaxy S26 Ultra Totem с барельефами животных из 24-каратного золота по цене от $10 490 15 ч.