Сегодня 13 августа 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → видео
Быстрый переход

Учёные придумали невидимые для глаз световые водяные знаки для выявления дипфейков

Поддельные видео становится всё сложнее выявлять, поэтому исследователи Корнеллского университета представили новую криминалистическую технологию, которая поможет специалистам удостовериться в подлинности видеоматериалов. Метод заключается во встраивании невидимых цифровых водяных знаков непосредственно в световой поток источников освещения, используемых при съёмке — например, на месте преступления.

 Источник изображений: Cornell University

Источник изображений: Cornell University

Концепция «шумокодированного освещения» была представлена 10 августа на конференции SIGGRAPH 2025 аспирантом факультета компьютерных наук Корнеллского университета Питером Майклом (Peter Michael). Впервые этот подход был предложен и разработан доцентом Эйбом Дэвисом (Abe Davis) (на фото слева).

Обычно водяные знаки встраиваются непосредственно в видеофайлы, изменяя мельчайшие элементы изображения для создания скрытого идентификатора. Такие системы достаточно эффективны в контролируемых условиях, но требуют взаимодействия с устройством или платформой, создающей видеоматериал. При использовании несовместимой камеры или программного обеспечения цифровой водяной знак просто не появится.

Разработчики предложили при записи «встраивать» водяной знак непосредственно в световой поток от источников освещения. Это гарантирует, что любая камера — от профессионального оборудования до смартфона — запечатлеет его во время съёмки сцены.

В программируемые источники света, такие как компьютерные мониторы, студийное оборудование или некоторые светодиодные приборы, можно встроить кодированные шаблоны яркости с помощью ПО. Стандартные лампы также можно адаптировать, оснастив их компактным чипом размером примерно с почтовую марку, который плавно меняет интенсивность света в соответствии с секретным кодом.

Встроенный код, разработанный на основе исследований зрительного восприятия человека, состоит из минимальных изменений частоты и яркости освещения, практически незаметных невооружённому глазу и воспринимаемых мозгом как незначительный световой шум. Уникальный код каждого источника света фактически обеспечивает параллельную запись сцены с низким разрешением и временными метками, которые Дэвис называет «видеокодами».

«Когда кто-то манипулирует видео, изменённые фрагменты начинают противоречить тому, что мы видим на этих видеокодах, — пояснил Дэвис. — А если кто-то попытается сгенерировать поддельное видео с помощью ИИ, полученные видеокоды будут выглядеть просто как случайные вариации освещённости».

При анализе видеоматериала специалисты могут обнаружить пропущенные последовательности, вставленные объекты или изменённые сцены. Например, удалённый из интервью фрагмент отобразится как визуальный пробел в восстановленном видеокоде, а сфабрикованные элементы — как сплошные чёрные области. Исследователи показали, что в одной сцене можно использовать до трёх независимых кодов освещения. Такое наложение увеличивает сложность водяного знака и усложняет задачу потенциальных фальсификаторов.

«Даже если злоумышленник знает об этой технике и сможет вычислить коды, его задача всё равно будет значительно сложнее, — добавил Дэвис. — Вместо того чтобы имитировать свет только для одного видео, ему придётся подделывать каждый ролик с кодами отдельно, и все подделки должны будут согласовываться между собой».

Полевые испытания показали эффективность метода в определённых условиях и его стабильную работу при различных оттенках кожи. Исследователи отмечают, что технология шумокодированного освещения — многообещающий шаг вперёд, но не панацея от фейковых видео. По мере развития инструментов генеративного ИИ будут совершенствоваться и методы обхода средств проверки подлинности.

«Раньше видео рассматривалось как источник достоверной информации, но теперь мы не можем быть в этом уверены, — считает Дэвис. — Сегодня можно сгенерировать практически любой ролик. Это интересно, но и проблематично, потому что отличить реальность от подделки становится всё сложнее».

Генератор видео Grok Imagine стал доступен бесплатно для всех

Специализирующийся на разработке технологий искусственного интеллекта стартап Илона Маска (Elon Musk) xAI оперативно подготовил ответ на выход новой флагманской модели OpenAI GPT-5 — компания сделала генератор видео Grok Imagine доступным бесплатно для всех желающих. Об этом говорится в сообщении администрации соцсети X.

 Источник изображения: x.com/X

Источник изображения: x.com/X

Grok Imagine является одним из немногих общедоступных и бесплатных генераторов видео на основе ИИ. Он создаёт короткие ролики на основе загружаемых пользователями изображений. Сервис работает на базе модели Aurora и генерирует ролики длиной до 15 секунд. Первоначально функция была доступна только для подписчиков SuperGrok в отдельном приложении Grok и для подписчиков Premium+ в соцсети X, но теперь ограничения для приложения Grok решили убрать.

Сервис предлагает создание видео в трёх режимах: в Normal генерируются «профессиональные» ролики, Fun предназначается для забавного контента, а Spicy открывает доступ к созданию материалов деликатного характера, но с ограничениями и строгой модерацией. Есть мнение, что пока Grok Imagine по реалистичности видео и аудио уступает лидерам отрасли, таким как Google Veo 3 и OpenAI Sora.

Воспользоваться генератором видео Grok Imagine можно в приложениях Grok для Android и iOS — достаточно обновить их до последней версии.

Universal Pictures пригрозила ИИ-компаниям судом за незаконное использование фильмов студии для обучения нейросетей

Одна из старейших голливудских киностудий Universal Pictures становится всё более агрессивной в защите своих фильмов от компаний, занимающихся разработкой генеративных нейросетей. В стремлении защитить свои фильмы от незаконного их использования для обучения нейросетей компания выбрала новый подход.

 Источник изображения: Julien Tromeur / Unsplash

Источник изображения: Julien Tromeur / Unsplash

В июне этого года киностудия добавила в финальные титры фильма «Как приручить дракона» информацию о том, что незаконное использование этого контента грозит нарушителям судебными разбирательствами. Позднее аналогичные предупреждения появились в титрах фильмов «Мир юрского периода: Возрождение» и «Плохие парни 2».

«Этот фильм защищён законами США и других стран. Несанкционированное копирование, распространение или демонстрация повлекут за собой гражданскую ответственность и уголовное преследование», — говорится в сообщении Universal Pictures.

В компании считают, что добавление в титры такой формулировки создаст дополнительный уровень защиты от кражи кинофильмов с целью сбора данных для обучения ИИ-моделей. В некоторых странах в предупреждении компании упоминается вступивший в силу в Евросоюзе в 2019 году закон об авторском праве. Этот закон позволяет авторам контента отказаться от использования их материалов в научных целях.

Быстрое развитие генеративных нейросетей несёт опасность для киноиндустрии, поскольку легко представить себе будущее, в котором многие зрители откажутся от просмотра традиционных фильмов в пользу того, что генерируют нейросети. При этом такие алгоритмы обычно обучаются на принадлежащей киностудиям интеллектуальной собственности.

В настоящее время нейросети преимущественно задействованы для оптимизации отдельных процессов кинопроизводства, но уже сейчас есть игроки, которые верят в то, что будущее киноиндустрии за искусственным интеллектом. Например, в конце прошлого месяца студия Fable Studios Эдварда Саатчи (Edward Saatchi) объявила о получении неназванного объёма инвестиций от Amazon на создание платформы, которая позволит пользователям генерировать эпизоды шоу по простому текстовому описанию. У компании большие амбиции в этом направлении, она планирует выпустить в прокат свой первый сгенерированный ИИ полнометражный фильм в 2026 году.

Маск пообещал восстановить архив «вайнов», считавшийся безвозвратно утерянным

Илон Маск (Elon Musk), владелец X (бывшая Twitter), объявил на этих выходных, что компания обнаружила видеоархив некогда популярного приложения для коротких видеороликов Vine, который, как считалось, был безвозвратно удалён. По его словам, команда специалистов сейчас работает над восстановлением доступа пользователей к архиву.

 Источник изображения: YouTube

Источник изображения: YouTube

Платформа Vine, позволявшая создавать шестисекундные видеоролики, получившие название «вайны», была приобретена соцсетью Twitter в октябре 2012 года за $30 млн для расширения видеонаправления. Платформа пользовалась большой популярностью, а к 2015 году её аудитория превышала 200 млн пользователей. Тем не менее Twitter не удалось в полной мере раскрыть потенциал Vine, и в октябре 2016 года было объявлено о решении закрыть проект.

Несмотря на отсутствие в App Store, приложение Vine продолжает жить в коллективной памяти интернета, отмечает TechCrunch. Благодаря онлайн-подборкам лучших «вайнов» на YouTube и карьере множества авторов контента, начавших свой путь на Vine и ставших интернет-знаменитостями, проект в какой-то мере сохранил своё культурное наследие.

После приобретения Twitter в октябре 2022 года Маск опубликовал опрос в соцсети с единственным вопросом: «Вернуть Vine?», на который почти 70 % пользователей ответили «да». В то время Axios сообщало, что Twitter выделила специалистов для перезапуска Vine, однако проект так и не был реализован.

Недавно Маск заявил о планах вернуть Vine, но уже «в формате с искусственным интеллектом». В своём посте о восстановлении доступа к архиву он написал, что «Grok Imagine — это ИИ Vine». Дело в том, что подписчикам X Premium+ функция Grok Imagine доступна под названием AI Vine (ИИ Vine). Судя по всему, интерес Маска к созданию видео связан не столько с пользовательским творчеством, сколько с генерацией роликов при помощи ИИ на основе текстовых подсказок.

xAI запустила Grok Imagine — платный ИИ-генератор изображений и видео с «пикантным режимом»

Компания xAI Илона Маска (Elon Musk) официально представила Grok Imagine — генератор изображений и видео, доступный для подписчиков тарифных планов SuperGrok и Premium+. Как и обещал Маск, позиционирующий Grok как ИИ, свободный от цензуры, Grok Imagine позволяет создавать контент, который обычно в интернете маркируется аббревиатурой NSFW (not safe/suitable for work — «небезопасно/неподходяще для демонстрации на работе»).

 Источник изображения: @elonmusk

Источник изображения: @elonmusk

Grok Imagine преобразовывает текстовые или графические запросы в 15-секундные видеоролики с оригинальным звуком и предлагает «пикантный режим», позволяющий пользователям создавать контент сексуального характера, включая частичную наготу. Пример такого видео опубликовал в своём аккаунте X Илон Маск. Журналисты TechCrunch сообщили, что многие из опробованных ими (во имя журналистики, конечно!) пикантных запросов привели к появлению «модерированных» размытых изображений, однако изображения полуобнажённых тел им получить удалось.

NSFW-контент неудивителен для xAI, учитывая выход в прошлом месяце пикантного аниме-компаньона Ani с искусственным интеллектом. Но так же, как необузданная натура Grok была забавной, пока он не начал изрыгать оскорбительный, антисемитский и женоненавистнический контент, появление Grok Imagine может повлечь за собой свои непредвиденные последствия.

При этом в Grok Imagine предусмотрены серьёзные ограничения, особенно учитывая, что модель позволяет создавать контент с изображениями знаменитостей. Так, попытки журналистов TechCrunch сгенерировать изображение беременного Дональда Трампа (Donald Trump) успехом не увенчались — Grok Imagine создавал либо изображения Трампа с младенцем на руках, либо рядом с беременной женщиной.

Grok Imagine стремится конкурировать с такими игроками, как Google DeepMind, OpenAI, Runway и китайские нейросети, но пока находится на начальном этапе развития. По отзывам тестировщиков, генерируемые им изображения и видео людей нередко выглядят мультяшно, особенно из-за неестественной текстуры кожи.

Тем не менее, генератор впечатляет: изображения создаются за считаные секунды и продолжают формироваться автоматически по мере прокрутки страницы. Затем их можно анимировать в стилизованные видеоролики. Пользовательский интерфейс удобен и интуитивно понятен.

Недавно Маск заявил о намерении создать Baby Grok — чат-бот, пригодный для работы с детским контентом. Учитывая, насколько скандально развивается «взрослая версия» Grok, подобное направление экспансии довольно рискованно. Тем не менее, с точки зрения охвата аудитории эта ставка вполне может себя оправдать. Популярность Baby Grok может стать дополнительным источником дохода для xAI и новой статьёй расходов для родителей.

YouTube добавил ИИ-инструменты для создания роликов Shorts из фото или текста

Платформа YouTube начала внедрение инструментов на базе генеративного ИИ для упрощения процесса создания коротких вертикальных видео Shorts. Новые функции позволяют, например, преобразовывать фотографии в видео, а также предлагают целый арсенал видеоэффектов на базе ИИ. Кроме того, платформа представила инструмент генерации видео по подсказкам — AI Playground.

 Источник изображения: Christian Wiediger/unsplash.com

Источник изображения: Christian Wiediger/unsplash.com

Google представила три основные функции на базе ИИ для создателей Shorts. Одна из них позволяет превращать фото в видео — для создания клипа достаточно одного статичного изображения. Хотя Google не уточняет ограничения по длине таких роликов, вероятно, они будут довольно короткими.

В инструментах редактирования Shorts также появились два новых ИИ-эффекта. Их можно выбрать перед началом записи. Первый — эффект «погружения в воду»: ИИ генерирует промежуточные кадры между реальными, создавая иллюзию, будто объект на видео погружается под воду. С примером этого эффекта можно ознакомиться ниже.

Также в разделе эффектов появилась функция, позволяющая сделать грубый набросок прямо на экране смартфона, который затем будет преобразован в более красочное и проработанное изображение.

Новые инструменты GenAI включают и платформу AI Playground — полноценную среду для генерации контента, а не просто наложения эффектов на видео и изображения. AI Playground позволяет создавать видео, изображения и музыку на основе текстовых описаний или готовых примеров. Получившийся контент можно публиковать в YouTube Shorts; он будет помечаться как созданный с использованием ИИ.

По словам Google, развёртывание новых функций займёт несколько недель. На первом этапе они станут доступны пользователям в США, Канаде, Австралии и Новой Зеландии. В перспективе ожидается расширение географии их поддержки.

Инструменты GenAI, представленные YouTube для Shorts, основаны на модели ИИ Veo 2. В будущем они будут переведены на новую модель Veo 3. Правда, сроки запуска пока не определены.

Adobe Firefly научился добавлять звуковое сопровождение к генерируемым ИИ видео

С тех пор как в апреле Adobe выпустила обновлённое приложение Firefly, для платформы генеративных ИИ-сервисов компании почти каждый месяц выходят крупные обновления. Сегодня разработчики представили несколько новых функций, которые будут полезны тем, кто использует сервис для создания видео.

 Источник изображения: Adobe

Источник изображения: Adobe

Начнём с того, что Adobe упростила процесс добавления звуковых эффектов к клипам, созданным с помощью генеративных нейросетей. В настоящее время многие алгоритмы генерируют видео без звукового сопровождения. Adobe решает эту проблему с помощью новой функции, которая позволяет пользователю сначала описать звуковой эффект, который он хочет создать, а затем попытаться его воспроизвести. Вторая часть необходима не для того, чтобы ИИ-алгоритм имитировал звук, а для того, чтобы система лучше поняла, какую интенсивность и продолжительность звука ожидает пользователь.

Во время демонстрации сотрудник Adobe использовал новую функцию, чтобы добавить звук расстёгивающейся молнии. Он произнёс «ззззттт», после чего алгоритм в точности воспроизвёл этот эффект с нужной громкостью. Отмечается, что не всегда генерация звука проходит безупречно, однако функция вполне подходит для создания черновых версий, как и задумывала Adobe.

Ещё одной новой функцией стала Composition Reference. Она позволяет загрузить изображение или видео для управления процессом генерации. С помощью Video Presets можно задать стиль создаваемого ролика. Среди прочего на данный момент доступны стили аниме, чёрно-белое видео и видео с использованием векторной графики. Функция Keyframe Cropping позволяет загрузить первый и последний кадры и выбрать соотношение сторон, после чего Firefly сгенерирует видео, соответствующее заданному формату.

В июне на платформе Adobe появилась поддержка ИИ-алгоритмов сторонних разработчиков, и в этом месяце их список расширился. Наиболее примечательным стало появление модели Google Veo 3, представленной в мае на конференции Google I/O 2025. В настоящее время Veo 3 — одна из немногих ИИ-моделей, способных генерировать видео со звуком. Каждое видео, созданное на платформе Firefly, имеет цифровую подпись, указывающую на то, что ролик был сгенерирован с помощью ИИ.

HDMI 2.2 будет поддерживать 16K при 60 Гц и до 96 Гбит/с — утверждены финальные спецификации

Спецификация HDMI 2.2 была впервые анонсирована на выставке CES 2025, а сегодня HDMI Forum опубликовал её точные параметры. Трудно прогнозировать, сколько времени потребуется производителям для выпуска соответствующего оборудования, но первые кабели Ultra96 HDMI с пропускной способностью 96 Гбит/с могут появиться в продаже уже в этом году.

 Источник изображений: HDMI Forum

Источник изображений: HDMI Forum

Текущая спецификация HDMI 2.1 и соответствующие ей кабели Ultra High Speed HDMI обеспечивают максимальную пропускную способность 48 Гбит/с, что позволяет передавать видеосигнал с разрешением до 10K и воспроизводить контент в 4K при частоте обновления до 120 Гц.

HDMI 2.2 и новые кабели Ultra96 обеспечат ещё более высокие разрешения и частоты обновления, включая 4K при 480 Гц, 8K при 240 Гц, 10K при 120 Гц и 16K при 60 Гц. Также заявлена поддержка несжатых видеоформатов с 10- и 12-битной глубиной цвета при разрешении 8K и частоте 60 Гц, а также 4K при 240 Гц.

Учитывая невысокую популярность и ограниченное количество контента в нативном разрешении 8K, вряд ли поставщики в ближайшее время начнут активное продвижение 16K. Даже существующая с 2017 года спецификация HDMI 2.1 до сих пор не реализована производителями оборудования в полной мере, поэтому HDMI 2.2 можно считать заделом на достаточно отдалённое будущее.

HDMI Forum рассчитывает, что новая спецификация упростит выбор нужного кабеля. Существующие наименования кабелей HDMI — Standard, High Speed, Premium High Speed и Ultra High Speed — малоинформативны и не отражают максимальную скорость передачи данных. Название Ultra96 однозначно указывает на пропускную способность до 96 Гбит/с.

Спецификация HDMI 2.2 также включает новый протокол индикации задержки (Latency Indication Protocol, LIP). Он предназначен для улучшения синхронизации аудио и видео, особенно в тех случаях, когда сигнал проходит через саундбар или AV-ресивер, прежде чем достичь телевизора или проектора.

«Сбер» представил нейросеть Kandinsky 4.1 Video для генерации 10-секундных HD-видео

«Сбер» в рамках технологической конференции GigaConf анонсировал генеративную нейросеть Kandinsky 4.1 Video, которая позволяет создавать 10-секундные видео в формате HD по текстовому описанию или изображению. На данный момент опробовать новый алгоритм уже смогли участники конференции и профессиональные дизайнеры.

 Источник изображения: Steve Johnson / Unsplash

Источник изображения: Steve Johnson / Unsplash

«Kandinsky 4.1 Video обеспечивает качественно новый уровень генеративного видео. Модель стала в разы лучше по всем параметрам: по соответствию промпту, визуальному качеству, качеству генерации движений, а также способности моделировать физику мира. Такие разработки открывают беспрецедентные возможности как для дизайнеров, маркетологов, так и для представителей любых других креативных индустрий, работающих над созданием высококачественного видеоконтента», — рассказал старший вице-президент «Сбербанка» Андрей Белевцев.

Согласно имеющимся данным, Kandinsky 4.1 Video генерирует видеоряд продолжительностью до 10 секунд в разрешении SD (720×576 пикселей) или HD (1280×720 пикселей). Разработчики дообучили новую архитектуру диффузионного трансформера на данных, подготовленных более чем 100 профессиональными фотографами и художниками. Особое внимание уделялось оптимизации вычислительных процессов. За счёт применения методов дистилляции и ускорения удалось более чем втрое сократить время генерации по сравнению с моделью предыдущего поколения.

Kandinsky 1.4 Video поддерживает создание роликов с произвольным соотношением сторон, за счёт чего генерируемый контент можно адаптировать под разные платформы и маркетинговые задачи. Для всех желающих новая версия алгоритма станет доступна в ближайшее время.

«Весёлая, простая и красивая»: Midjourney запустила V1 — свою первую ИИ-модель для генерации видео по изображениям

Midjourney, один из самых популярных стартапов по генерации изображений на основе ИИ, объявил о запуске модели V1, генерирующей видеоролики из изображений. Как и другие модели компании, на момент запуска V1 доступна только через Discord и только онлайн.

 Источник изображения: Midjourney

Источник изображения: Midjourney

«Представляем нашу модель видео V1. Она весёлая, простая и красивая. Доступная за 10 долларов в месяц, это первая модель видео для всех и прямо сейчас», — говорится в аккаунте Midjourney в социальной сети X. V1 составит конкуренцию таким моделям видеогенерации, как Sora от OpenAI, Gen 4 от Runway, Firefly от Adobe и Veo 3 от Google. Midjourney подчеркнула, что в отличие от большинства компаний, сосредоточенных на разработке коммерческих моделей, она в первую очередь ориентирована на творческую аудиторию.

По мнению экспертов, подобно сгенерированным изображениям Midjourney, видеоролики, созданные V1, выглядят «несколько потусторонними, а не гиперреалистичными». Хотя длительность видео, созданного с помощью V1, ограничена пятью секундами, пользователь может продлить его на четыре секунды до четырёх раз подряд, увеличив длительность финального ролика до 21 секунды.

На момент запуска самым дешёвым способом опробовать V1 является подписка на базовый тариф Midjourney стоимостью $10 в месяц с ограниченным количеством генераций. Для безлимитного использования V1 придётся выбрать тариф Pro за $60 или Mega за $120 с дополнительным режимом Relax. Midjourney планирует в течение следующего месяца пересмотреть систему тарифных планов.

Компания ставит перед собой более масштабные задачи, нежели генерация перебивок для голливудских фильмов или создание рекламных роликов. По словам главы Midjourney Дэвида Хольца (David Holz), конечная цель компании — модели ИИ, «способные к моделированию открытого мира в реальном времени». Также в дальнейших планах Midjourney — разработка ИИ-модели для полноценного 3D-рендеринга.

Запуск V1 от Midjourney состоялся всего через неделю после того, как на стартап подали в суд две известные киностудии Голливуда Disney и Universal. В иске утверждается, что модели Midjourney генерируют изображения персонажей студий, защищённых авторским правом, таких как Гомер Симпсон и Дарт Вейдер.

 Источник изображения: theverge.com

Источник изображения: theverge.com

Google интегрирует в YouTube Shorts свою новую ИИ-модель генерации видео Veo 3

Генеральный директор YouTube Нил Мохан (Neal Mohan) сообщил, что новейшая модель генерации видео на основе искусственного интеллекта Google Veo 3 будет добавлена в раздел коротких вертикальных роликов Shorts «этим летом». Мохан также сообщил, что в настоящее среднее количество просмотров коротких видео превысило 200 миллиардов в день.

 Источник изображений: unsplash.com

Источник изображений: unsplash.com

Создатели Shorts уже сейчас могут воспользоваться моделью Google Veo 2 предыдущего поколения для генерации динамических фоновых изображений с помощью инструмента Dream Screen. Мохан не уточнил, какие именно возможности предоставит развёртывание модели Veo 3 в Shorts, но упомянул об улучшенном качестве видео и возможности создания звуковой дорожки.

Пока неясно, придётся ли создателям Shorts платить за использование Veo 3. Сейчас для создания видео при помощи Veo 3 требуется платная подписка на тарифные планы AI Pro или AI Ultra от Google.

Далеко не все приветствуют всё более широкое распространение генераторов видео на основе искусственного интеллекта. Журналистка издания The Verge Эллисон Джонсон (Allison Johnson) недавно назвала генератор видео Google Veo 3 «мечтой торговца помоями».

ИИ-приложение Google Gemini научилось анализировать видео, но не везде

Помимо выпуска стабильных версий ИИ-моделей Gemini 2.5 Pro и Gemini 2.5 Flash, разработчики Google добавили в мобильное приложение чат-бота Gemini возможность загрузки и анализа видео, сообщил ресурс 9to5Google.

 Источник изображений: 9to5Google

Источник изображений: 9to5Google

Теперь, помимо загрузки документов и изображений, пользователи могут добавлять в запрос в приложении собственный видеофайл. ИИ-чат-бот Gemini проанализирует его и позволит пользователям задавать вопросы о клипе. Ранее пользователи имели возможность задавать вопросы только по поводу видео на платформе YouTube, указав ссылку на него.

9to5Google приводит примеры диалога с Gemini, в ходе которого чат-бот отвечает на вопрос о времени, которое указано на умном дисплее Google Nest Hub, а также в ответ на запрос предоставляет описание видеоролика, который загрузил пользователь.

Чтобы загрузить файл, необходимо в меню выбрать «Галерея» или «Файлы». «Если эта возможность доступна для вашей учетной записи, вы можете выбрать видео. В противном случае файл будет серым и не может быть загружен», — пишет 9to5Google.

Ресурс отметил, что функция загрузки видео в Gemini пока не получила широкого распространения, хотя она, похоже, доступна как для бесплатных, так и для платных аккаунтов на Android (приложение Google 16.23 beta) и iOS, а также 2.5 Flash и 2.5 Pro. Вместе с тем в веб-приложении эта функция пока не доступна — при попытке загрузить видео в строке подсказок чат-бота появляется сообщение «Тип файла не поддерживается».

Adobe выпустила мобильное приложение со всеми генеративными ИИ-инструментами Firefly

Платформа генеративных ИИ-сервисов Adobe Firefly теперь доступна на устройствах, работающих под управлением Android и iOS. Новое мобильное приложение Firefly позволяет пользователям генерировать изображения и видео по текстовому описанию, а также экспериментировать с популярными ИИ-инструментами для редактирования фотографий.

 Источник изображения: Adobe

Источник изображения: Adobe

Приложение Firefly для Android и iOS включает в себя фирменные алгоритмы Adobe для преобразования текста в изображения и видео, а также генеративные функции, такие как Generative Fill и Generative Expand, которые ранее были доступны в Photoshop. В дополнение к этому пользователи приложения могут взаимодействовать с ИИ-моделями сторонних разработчиков, такими как Google Imagen 3 и Imagen 4 для создания картинок, Veo 2 и Veo 3 для создания видео, а также генератором изображений OpenAI.

Созданный в приложении Firefly контент автоматически синхронизируется с учётной записью пользователя на платформе Creative Cloud, что упрощает его дальнейшее размещение в интернете или обработку в других приложениях Adobe. Как и в случае с веб-приложением Firefly, для взаимодействия с некоторыми ИИ-инструментами необходимы кредиты Firefly, которые можно получить в рамках ежемесячных обновлений или путём оформления одного из платных тарифов Creative Cloud.

Вместе с этим Adobe расширила возможности генерации видео в публичной бета-версии платформы интерактивных досок Firefly Boards. Теперь пользователи могут повторно микшировать загруженные клипы и генерировать новые кадры с помощью ИИ-модели Firefly, а также сторонних инструментов, таких как Veo 3 от Google. В ближайшее время разработчики также внедрят на платформу больше партнёрских ИИ-моделей от сторонних разработчиков для увеличения количества доступных функций.

YouTube тестирует новый формат длинной рекламы, которую нельзя пропустить

YouTube продолжает экспериментировать с рекламными форматами. На этот раз платформа тестирует 30-секундные непропускаемые ролики. Ранее такой формат был доступен не для всех рекламодателей, но теперь в Google Ads круг рекламодателей расширен, и поэтому длинная реклама начнёт появляться у зрителей гораздо чаще.

 Источник изображения: AI

Источник изображения: AI

По данным Dexerto, новые объявления продолжительностью от 16 до 30 секунд будут показываться перед видео исключительно на телевизорах, включая Smart TV и устройства с Chromecast. Эти длинные ролики будут транслироваться наряду с 6-секундными заставками и 15-секундными непропускаемыми роликами.

Относительно нововведения высказался генеральный директор маркетингового агентства Adsquire Энтони Хигман (Anthony Higman). Он заявил, что пользователи, скорее всего, будут смотреть 30-секундную рекламу. По его словам, 15-секундные неостанавливаемые ролики уже доказали свою эффективность, поскольку их можно таргетировать по ключевым словам и аудиториям, при этом зрители вынуждены досматривать их до конца, чтобы перейти к просмотру нужного контента.

По мнению аналитиков, пользователям, очевидно, придётся привыкнуть к увеличенному времени ожидания или перейти на платный YouTube Premium. При этом стоит учитывать, что даже подписчики YouTube Premium Lite, начиная с недавнего времени, не защищены от рекламы при просмотре коротких видео (Shorts).

Отметим, что для тех, кто хочет сэкономить, YouTube начал разрабатывать новую подписку в ​​стиле Spotify, которая позволит двум пользователям оплачивать один аккаунт Premium по более низкой цене вместо покупки двух отдельных подписок.

Meta✴ запустила редактор видео на базе ИИ — пока он работает только по шаблонам

Meta объявила о запуске функции редактирования видео с использованием генеративного ИИ. Она доступна в приложении Meta AI, на веб-сайте Meta.AI и в приложении Edits для пользователей из США и более чем десятка стран по всему миру. Уточняется, что функция будет предоставляться бесплатно в течение «ограниченного времени» и позволит редактировать видео в течение первых 10 секунд.

 Источник изображения: fb.com

Источник изображения: fb.com

Новый инструмент предлагает пользователям более 50 предустановленных подсказок, которые можно применять для редактирования видео — устанавливать тему, менять фон изображения и одежду героев ролика. Например, с помощью Meta AI можно изменить стиль клипа на видеоигровой или аниме, сделать так, чтобы он выглядел так, будто снят в пустыне, «одеть» пользователя в созданный ИИ смокинг и многое другое.

Чтобы отредактировать видео, его необходимо загрузить в приложение Meta AI, на сайт Meta.AI или в приложение Edits и выбрать одну из предложенных предустановленных подсказок. После этого Meta AI преобразует видео в соответствии с выбранным сценарием.

Готовым видеороликом можно поделиться с друзьями в Facebook и Instagram или разместить его в ленте Discover в приложении Meta AI и на веб-сайте Meta.AI.

Хотя на данный момент использование собственных подсказок недоступно, Meta пообещала, что позже в этом году «вы сможете редактировать видео вместе с Meta AI с помощью собственных текстовых подсказок, чтобы делать ваши видеомонтажи именно такими, какими вы их себе представляете».


window-new
Soft
Hard
Тренды 🔥
Большая часть мира осталась без возможности оплаты покупок в Steam через PayPal — Valve объяснила, что произошло 14 мин.
«Демоническая смесь Balatro и Buckshot Roulette»: роглайт-хоррор об ужасах долговой ямы CloverPit получил новый трейлер и дату выхода 2 ч.
Microsoft закрыла более 100 уязвимостей в Windows и Office, включая критические RCE-дыры 2 ч.
Sega анонсировала Football Manager 26 — «самый атмосферный и визуально насыщенный футбольный менеджер на сегодняшний день» 4 ч.
Загробный шутер Davy x Jones уйдёт на глубину раннего доступа Steam совсем скоро — дата выхода, новый трейлер и «дьявольская» цена на запуске 5 ч.
YouTube начал оценивать возраст пользователей с помощью ИИ — общественность в возмущении 6 ч.
PUBG: Battlegrounds скоро перестанет работать на PS4 и Xbox One, зато наконец «переедет» на PS5, Xbox Series X и S 6 ч.
VK отчиталась о росте аудитории и выручки — прогноз по годовой прибыли удвоен 7 ч.
Минцифры назвало условия для разблокировки звонков в WhatsApp и Telegram 7 ч.
Apple отринула обвинения Илона Маска о том, что App Store продвигает OpenAI 9 ч.