Сегодня 15 июля 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → графика
Быстрый переход

Microsoft представила универсальной апскейлер Auto SR — он работает на уровне ОС, но пока только с NPU

Microsoft официально представила Automatic Super Resolution (Auto SR или ASR) — технологию масштабирования изображения на уровне операционной системы, призванную работать независимо от интеграции в игры. В то же время компания опубликовала список игр, в которых технология Auto SR заработает автоматически, а также те игры, где потребуется её ручное включение.

 Источник изображений: Microsoft

Источник изображений: Microsoft

Automatic Super Resolution в большей степени похожа на апскейлеры Nvidia Image Scaling (NIS) и AMD Radeon Super Resolution (RSR), за исключением того, что она не привязана к какому-то определённому производителю видеокарт и работает на уровне ОС. Уровень сложности интеграции Auto SR (разработчикам игр это делать не нужно) аналогичен этим двум технологиям.

Функция масштабирования изображения на уровне операционной системы или драйвера является отличной альтернативой интеграции фирменных технологий масштабирования. Кроме того, в отличие от фирменных технологий апскелинга, Auto SR работает с масштабированием целых кадров изображения, включая пользовательский интерфейс.

Microsoft упростила процесс внедрения разных технологий масштабирования в игры, выпустив для этого универсальный API DirectSR. Однако он требует поддержки со стороны разработчиков игр. Они должны подготовить свои игровые движки для предоставления тому или иному апскейлеру необходимых переменных (векторы движения, глубина цвета и т. д.), в противном случае DirectSR работать не будет. Auto SR в свою очередь может оказаться хорошей альтернативой для игр, которые никогда не получат поддержку DirectSR. В частности, речь идёт о старых и классических играх.

Ключевая задача Auto SR — повысить игровую производительность. Однако финальное качество масштабируемого изображения будет, конечно, ниже, чем у фирменных технологий апскейлинга. Однако Auto SR не требует интеграции на уровне того же драйвера. Кроме того, в отличие от Nvidia Image Scaling (NIS) и AMD Radeon Super Resolution (RSR), в которых применяются методы пространственного масштабирования, технология Auto SR использует ИИ-алгоритмы для компенсации потери качества.

Microsoft объясняет, что Auto SR использует специальную модель искусственного интеллекта, обученную на игровом контенте. Для работы ей не нужны ядра GPU и CPU. Вместо них технология полагается на аппаратный ИИ-движок Neural Processing Unit (NPU), который разгружает задачи по масштабированию с видеокарты и центрального процессора. Без NPU Auto SR работать не будет.

Auto SR предназначена для уже выпущенных игр, с частью которых она будет применяться автоматически (с их списком можно ознакомиться ниже). В свою очередь DirectSR предназначен для новых игр, в которые необходимо интегрировать указанный API. Таким образом, хотя оба решения и направлены на обеспечение масштабирования и повышения производительности, они предлагают разные уровни качества и не предназначены для конкуренции друг с другом. Auto SR будет работать автоматически со следующими играми: BeamNG.drive, Borderlands 3, Control (DX11), Dark Souls III, God of War, Kingdom Come: Deliverance, Resident Evil 2, Resident Evil 3, Sekiro: Shadows Die Twice, Sniper Ghost Warrior Contracts 2 и The Witcher 3.

В настоящий момент Auto SR поддерживается только компьютерами Copilot Plus PC. Иными словами, она будет работать только на системах с процессорами Qualcomm Snapdragon X. Вероятно, позже поддержка технологии появится на ноутбуках с процессорами AMD Ryzen AI 300 и Intel Core Ultra 200V (Lunar Lake). Microsoft таже хочет в будущем добавить для Auto SR поддержку HDR и систем с несколькими мониторами.

Looking Glass Factory представила «голографические» дисплеи для профессионалов

Компания Looking Glass Factory представила два новых дисплея на основе технологии пространственной голографии, которые позволяют создавать и демонстрировать объемные цифровые изображения и приложения, для восприятия которых не нужны 3D-очки и другие дополнительные аксессуары. OLED-дисплеи Looking Glass ориентированы на специалистов в области дизайна, образования, медицины и других отраслей.

 Источник изображения: Looking Glass Factory

Источник изображения: Looking Glass Factory

По сообщению издания New Atlas, в отличие от компактного 6-дюймового «голографического» дисплея Looking Glass Go для домашнего использования, выпущенного в прошлом году, новинки представлены в двух размерах — 16 и 32 дюйма. Они оснащены OLED-панелями с разрешением 4K и 8K соответственно. Ключевыми особенностями являются широкий угол обзора до 150 градусов и технология отображения объемных изображений без использования очков или других дополнительных устройств.

По словам генерального директора Looking Glass Шона Фрейна (Shawn Frayne), эти пространственные дисплеи уже нашли применение в самых разных областях — дизайне, маркетинге, в медицине и научных исследованиях. Например, с их помощью дизайн-студии создают концепты новых изделий, музеи «оживляют» исторические артефакты, а студенты-медики изучают реалистичные 3D-модели человеческого тела.

16-дюймовый дисплей поддерживает отображение свыше миллиарда цветов, позволяя добиться высокой реалистичности трехмерного контента и имеет разрешение 3840 × 2160 пикселей при частоте обновления 60 Гц. Одновременный просмотр одной 3D-сцены возможен для группы от 45 до 100 человек. Также поддерживается управление жестами с помощью датчиков и периферийных устройств. Дисплей комплектуется необходимым программным обеспечением и SDK для разработки приложений.

32-дюймовая модель отличается еще более высоким разрешением 7680 × 4320 пикселей и подключается к источнику сигнала через DisplayPort. Эта модель также может быть оснащена компьютером Intel NUC9I7QNB с 16 Гбайт оперативной памяти, 250 Гбайт SSD и графическим ускорителем Nvidia GeForce RTX 3090, позволяя использовать устройство для ресурсоемких задач визуализации и обработки данных.

Новинки уже доступны для предзаказа по цене от 4000 долларов за 16-дюймовый вариант. Цена и дата начала продаж 32-дюймовой модели пока не разглашаются.

Художественная нейросеть YandexART с латентной диффузией обновилась до версии 1.3

«Яндекс» представил обновлённую диффузионную нейросеть YandexART 1.3, в которой для генерации графических объектов используется технология латентной диффузии, позволяющая создавать более реалистичные изображения. Кроме того, обучение модели прошло на увеличенном датасете, благодаря чему нейросеть теперь лучше понимает запросы пользователей.

 Источник изображений: «Яндекс»

Источник изображений: «Яндекс»

Технология латентной диффузии использует более эффективный подход, чем при каскадной диффузии, формируя промежуточное представление картинки в виде латентного кода — компактного описания, содержащего основную информацию об изображении в сжатой форме, который затем за один шаг разворачивается в полноценное изображение высокого разрешения. Для этого требуется меньше вычислительных ресурсов, а качество итогового изображения получается заметно выше.

Набор данных, используемых для обучения модели, был увеличен в 2,5 раза до более чем 850 млн пар картинок с текстом. При этом в датасет были добавлены синтетические тексты — сгенерированные нейросетью подробные описания изображений. А чтобы YandexART учитывала больше деталей из промта, в ней теперь используются два текстовых энкодера вместо одного. Они обеспечивают распознавание нейросетью текстовых запросов и их перевод на машинный язык.

Кроме того, благодаря обновлению пользователи получили возможность создавать изображения в разных форматах, таких как 16:9, 4:3 или 3:4.

YandexART 1.3 уже применяется в приложении «Шедеврум». В дальнейшем новая версия YandexART появится и в других сервисах «Яндекса».

Intel выпустила XeSS 1.3 — в ней пересмотрены уровни масштабирования изображения

Компания Intel выпустила новую версию своей технологии масштабирования изображения XeSS и сообщила, что поддержка XeSS теперь реализована в более чем 100 различных играх.

 Источник изображений: Intel

Источник изображений: Intel

Новейшая версия технологии масштабирования XeSS 1.3 обеспечивает более высокую производительность по сравнению с предыдущей версией. Однако следует уточнить, что в новой версии были изменены профили масштабирования изображения. Иными словами, хотя компания заявляет о повышении производительности у XeSS 1.3, этот прирост достигается за счёт меньшего разрешения (более высокого уровня масштабирования), а не благодаря той же оптимизации кода самой XeSS.

В новую версию XeSS 1.3 компания добавила алгоритм с новой ИИ-моделью, которая, как заявляется, обеспечивает отображение более визуально сложных элементов, лучшую реконструкцию изображения, улучшенное сглаживание, уменьшение ореолов вокруг объектов и повышенную временную стабильность.

В XeSS 1.3 также представлены два дополнительных профиля настроек масштабирования: Ultra Performance и Ultra Quality Plus. Первые максимально повышают производительность за счёт снижения качества изображения, а вторые призваны минимизировать снижение качества картинки за счёт снижения производительности. Кроме того, в XeSS 1.3 представлена технология Native Anti-Aliasing, являющаяся аналогом Nvidia DLAA и представляющая собой сглаживание без масштабирования.

Как уже говорилось выше, XeSS 1.3 использует иные уровни масштабирования. Настройки «Ultra Quality» теперь обеспечивают масштабирования в 1,5 раза вместо 1,3, в свою очередь настройки «Quality» предлагают масштабирование в 1,7 раза вместо 1,5. Настройки «Balanced» масштабируют картинку в 2,0x вместо 1,7x, «Performance» — 2,3x вместо 2,0x, а «Ultra Performance» масштабирует изображения в три раза.

Intel также приводит несколько сравнений технологий масштабирования XeSS 1.2 и XeSS 1.3. Однако учитывая, что каждый профиль настроек XeSS 1.3 был изменён просто за счёт изменения разрешения, это сравнение может показаться бессмысленным. И всё же окончательные выводы можно будет делать после того, как XeSS 1.3 станет доступна в играх, и можно будет сравнить эффективность профилей настроек обеих технологий, их производительность и, что важнее, обеспечиваемое ими качество изображения.

Intel сообщила, что выпустила новую версию SDK с поддержкой XeSS 1.3, поэтому игровые разработчики уже могут приступать к интеграции новой технологии в свои проекты.

Microsoft вскоре представит DirectSR — универсальную технологию апскейлинга для игр

В рамках грядущей конференции для игровых разработчиков GDC 2024, которая официально стартует 23 марта, компания Microsoft представит новую технологию масштабирования DirectSR или Direct Super Resolution.

 Источник изображений: VideoCardz

Источник изображений: VideoCardz

Подробности о новой технологии пока остаются неизвестными, но предполагается, что DirectSR станет универсальной программной технологией масштабирования изображения для видеокарт, реализованной на уровне операционной системы Windows и работающей при поддержке графических ядер. Каких именно графический ядер — Microsoft объяснит в марте.

Весьма вероятно, что основная цель технологии DirectSR заключается в обеспечении универсальной совместимости с новейшими архитектурами графических процессоров, которые уже поддерживают собственные технологии масштабирования Intel XeSS, AMD FSR и NVIDIA DLSS. Примеры тех же AMD FSR и Intel XeSS показывают, что такие технологии не обязательно привязаны к видеокартам тех или иных вендоров, и могут работать на оборудовании сторонних разработчиков, хотя их эффективность при этом может сильно отличаться.

В настоящее время разработчикам игр приходится добавлять каждую технологию масштабирования в свои игры по отдельности. Microsoft же со своей стороны может представить технологию, которая будет поддерживаться всеми современными архитектурами GPU одновременно и которую будет значительно проще реализовать в играх.

Презентация Microsoft запланирована на 21 марта. Вместе с Microsoft в ней примут участие представители компаний AMD и NVIDIA. Недавно из утечек также стало известно, что Microsoft работает над внедрением в Windows 11 новой функции масштабирования под названием Auto SR.

На данный момент непонятно, связана ли Auto SR каким-то образом с DirectSR. Однако из доступного описания следует, что она использует для работы алгоритмы ИИ.

Intel Lunar Lake получат технологию повышения резкости для своей встроенной графики Xe2

Intel ведёт разработку технологии улучшения графики в играх, которая будет использоваться встроенным графическим ядром будущих процессоров Lunar Lake, а также видеокартами на основе будущих архитектур Xe. Речь идёт об адаптивном фильтре изменения резкости изображения.

 Источник изображения: VideoCardz

Источник изображения: VideoCardz

Адаптивный фильтр резкости изображения в целом работает как обычный, использующийся сегодня в играх для повышения чёткости изображения. Однако он будет более интеллектуальным. Технология сможет повышать чёткость не для всего кадра игры в целом, а лишь в отдельных его областях (например, персонажи в кадре), избегая повышения резкости в областях изображения, где не требуется применение этого фильтра (например, задний фон). Как отметила инженер Intel Немеса Гарг (Nemesa Garg), новую технологию адаптивного фильтра резкости можно будет использовать не только в играх, но и в программах, а также для видео внутри операционной системы.

 Источник изображения: Intel

Источник изображения: Intel

За работу адаптивного фильтра резкости будет отвечать аппаратный блок Display Engine. Технология предназначена для работы на архитектуре графического ядра процессоров Lunar Lake и любых будущих версий графической архитектуры Xe. Фильтр имеет минимальные требования к энергопотреблению и практически не оказывает никакого влияния на производительность, что важно для Lunar Lake, поскольку речь идёт об энергоэффективных мобильных чипах.

Intel не сообщила точной информации о том, когда представит процессоры Lunar Lake. Но это практически наверняка случится во второй половине этого года. Указанные чипы появятся одновременно с настольными и мобильными процессорами Arrow Lake. И если в последних будет использоваться графическая архитектура Xe-LPG, то в Lunar Lake будет реализована более передовая графика Xe2-LPG.

AMD выпустит технологию генерации кадров в играх Fluid Motion Frames 24 января, одновременно с Radeon RX 7600 XT

Компания AMD сообщила, что 24 января выпустит технологию Fluid Motion Frames, представляющую собой генератор кадров для повышения игровой производительности. В тот же день в продажу поступит недавно представленная видеокарта Radeon RX 7600 XT с 16 Гбайт памяти. Fluid Motion Frames станет частью программного пакета HYPR-RX, а также будет доступна в виде отдельной опции в составе графического драйвера.

 Источник изображения: VideoCardz

Источник изображения: VideoCardz

Ключевой особенностью технологии AMD Fluid Motion Frames (AFMF) является её универсальность. Она не требует поддержки со стороны разработчиков игр и, в теории, может изначально работать с любой игрой. Правда, для работы AFMF требуется видеокарта Radeon, и далеко не любая.

AMD в течение некоторого времени включала AFMF в состав своих превью-версий драйвера Radeon. В рамках последнего обновления AFMF стала поддерживаться на встроенной графике Radeon 700M (RDNA 3) мобильных процессоров Ryzen. До этого компания добавила поддержку AFMF для карт серии Radeon RX 6000. А вот у «встроек» Radeon 600M (RDNA 2) поддержки данной технологии пока нет. Новых превью-версий драйвера Radeon с AFMF компания выпускать не планирует.

В сочетании с технологией Radeon Super Resolution (RSR) игроки смогут активировать функцию генерации кадров в драйвере Radeon. В отличие от той же AMD FidelityFX Super Resolution (FSR), эти технологии не требуют поддержки со стороны разработчиков игр. Они реализованы на уровне драйвера и должны работать в большинстве игр DirectX 11 и DirectX 12.

 Источник изображения: AMD

Источник изображения: AMD

AMD осознаёт, что её технология AFMF имеет преимущество над технологией Frame Generation от NVIDIA, исполняющей аналогичную функцию. Генератор кадров NVIDIA должен быть интегрирован в игры силами разработчиков игр. Кроме того, DLSS3 с Frame Generation работает только на видеокартах GeForce RTX 40-й серии.

«Я думаю, что вскоре мы увидим ситуацию, когда DLSS будет доступна только в определённых игровых проектах. Поэтому либо NVIDIA решит сама воспользоваться нашим решением, поскольку технология распространяется по открытой лицензии и может поддерживаться сторонними вендорами, либо, возможно, ей придётся придумывать что-то аналогичное», — прокомментировал в разговоре с порталом PCGamer Аарон Штайнман (Aaron Steinman), старший менеджер по продуктам Radeon.

На самом деле у NVIDIA уже есть технология масштабирования изображения NIS (NVIDIA Image Scaling), представляющая собой простой пространственный апскейлер и не полагающийся на работу ИИ-алгоритмов. Функция тоже реализована на уровне драйвера. Правда, рекламируется она не так активно со стороны NVIDIA, как та же DLSS.

Технология масштабирования изображения Apple MetalFX основана на AMD FSR

Документы компании Apple раскрыли подробности о технологии масштабирования MetalFX. Информация, содержащаяся в разделе Legal & Regulatory программных продуктов Apple, указывает, что в основе MetalFX используется технология масштабирования FidelityFX Super Resolution (FSR) компании AMD, пишет портал Notebook Check.

 Источник изображений: Apple

Источник изображений: Apple

Apple описывает MetalFX, как фреймворк, который интегрируется вместе с API Metal для повышения качества изображения из более низкого входного разрешения в более высокое выходное разрешение. При этом с задачей он справляется за меньшее время, чем GPU требуется отрисовать изображение в изначально высоком родном разрешении.

Иными словами, технология позволяет снизить уровень использования аппаратных ресурсов и одновременно повысить уровень игровой производительности. До недавнего времени предполагалось, что Apple разработала MetalFX полностью самостоятельно. Однако более внимательное знакомство с лицензионными соглашениями для программного обеспечения компании раскрыло, что в основе MetalFX используется технология AMD FSR.

В отличие от FSR-масштабирования MetalFX не имеет открытого исходного кода. Вероятно, Apple доработала технологию под свои нужды. Примечательно, что в состав MetalFX входит поддержка технологий временного и пространственного масштабирования, а также различные методы сглаживания, которые являются основными элементами технологии FSR от AMD. Также любопытно, что множество игр, которые уже вышли для устройств Apple или готовятся выйти, а это Death Stranding, No Man’s Sky, Resident Evil Village, Myst, Resident Evil 4, Assassin’s Creed Mirage, Lies of P, Baldur’s Gate 3 и The Medium, поддерживают в том числе AMD FSR.

Для разработчиков игр, которые портируют свои проекты с поддержкой AMD FSR на macOS, очевидно удобнее реализовывать в этих играх поддержку MetalFX, поскольку обе технологии очень похожи. Это также помогает объяснить, каким образом полноценная ПК-игра Resident Evil Village без проблем работает на мобильном процессоре A17 Pro смартфона iPhone 15 Pro.

Даже если Apple в итоге не платит никаких роялти за использование FidelityFX Super Resolution компании AMD, последняя всё равно может извлечь из этого пользу. Разработчики игр, зная, что FSR служит основной MetalFX, будут активнее внедрять поддержку FSR в свои проекты. Таким образом это поможет более быстрому распространению технологии AMD. С точки зрения Apple, чем больше разработчиков будут создавать игры с поддержкой FSR, тем больше шансов, что эти игры в итоге также окажутся и на её платформе.

Масштабирование FSR 3 теперь можно прикрутить к любой игре — AMD опубликовала исходный код технологии

Компания AMD сделала свою технологию интеллектуального масштабирования изображения в играх AMD FidelityFX Super Resolution 3 (FSR 3) открытой, опубликовав её исходный код под лицензией MIT. Теперь разработчики и энтузиасты могут её изучить и интегрировать в свои игры и другие разработки.

 Источник изображения: VideoCardz

Источник изображения: VideoCardz

На данный момент релиз открытого исходного кода включает поддержку технологии только для DirectX 12 и Unreal Engine 5. Поддержка Vulkan пока находится в разработке. Её планируют выпустить позднее.

 Источник изображения здесь и ниже: AMD

Источник изображения здесь и ниже: AMD

В состав FSR 3 входит компонент Frame Generation или генератор кадров. Сам по себе Frame Generation опционален. Его необязательно использовать в рамках интеграции FSR 3. Тем не менее компания опубликовала все необходимые DLL-библиотеки для его использования. И это первый случай, когда какая либо-компания публикует свою технологию генерации кадров открытым исходным кодом. Для игр, в которых уже есть поддержка FSR2, AMD рекомендует заменить FSR2 на версию 3.0.

AMD сообщает, что в версии FSR3 v3.0.3 были внесены улучшения качества и расширена поддержка мониторов с переменной частотой обновления (VRR) в логике управления кадрами.

Весь необходимый инструментарий, а также инструкции по интеграции FSR 3 можно найти на сайте GPU Open. Сам исходный код технологии также опубликован в репозитории на сайте GitHub.

Microsoft Mesh в Teams: Microsoft открыла дверь в 3D-мир корпоративных коммуникаций

В начале этого года Microsoft представила значительное обновление Microsoft Teams, интегрировав его с Microsoft Mesh — платформой смешанной реальности (XR). Это инновационное решение обещает стать прорывом в области корпоративных коммуникаций, переведя встречи в 3D-формат и сделав их доступными даже без использования VR-гарнитур.

 Источник изображений: Microsoft

Источник изображений: Microsoft

Microsoft Mesh, изначально задуманный как независимая платформа на основе Azure, теперь интегрирован непосредственно в Teams. Это изменение направлено на упрощение доступа к виртуальным встречам. События последних лет, включая уход Алекса Кипмана (Alex Kipman), руководителя проекта HoloLens, и закрытие социальной VR-платформы AltspaceVR, приобретённой Microsoft в 2017 году, заметно повлияли на VR/AR-стратегию компании. Николь Херсковиц (Nicole Herskowitz), вице-президент по маркетингу Teams, подчеркнула, что Mesh теперь стал частью повседневной работы многих сотрудников компании.

Microsoft конкурирует в пространстве 3D-встреч с такими компаниями, как Meta, Jugo, Frame и другими стартапами, стремящимися изменить будущее корпоративных встреч. Однако у Microsoft есть значительное преимущество благодаря огромной пользовательской базе Teams, насчитывающей более 320 млн активных пользователей в месяц. Кроме того, недавнее партнёрство с Meta, которое включает интеграцию Teams, Office, Windows и Xbox в VR-гарнитуры Meta, расширяет возможности Microsoft в этой области.

Тестирование Mesh в Teams с помощью гарнитуры Meta Quest 3 показало разнообразие возможностей виртуального пространства. Пользователи могут выбирать между различными типами мест для встреч: от формальных переговорных комнат до неформальных зон для социальных событий. Также доступны командообразующие активности, такие как бросание мешочков с фасолью, создание музыки и поджарка маршмеллоу. Эти виртуальные взаимодействия усиливают чувство командного духа и вовлечённости сотрудников.

Mesh в Teams использует пространственное аудио и аудиозоны, что позволяет нескольким людям вести одновременный разговор в одном виртуальном пространстве, не перебивая друг друга. Это отлично подходит для естественных переговоров в перерывах, которые часто бывают неловкими при использовании Teams, Zoom или других программ для проведения совещаний.

Например, международная благотворительная организация Mercy Ships использует технологию Microsoft Mesh для создания 3D-моделей своих госпитальных кораблей, что позволяет участникам мероприятий по сбору средств виртуально погрузиться в атмосферу на его борту. Также Mercy Ships использует эту технологию для адаптации своих новых сотрудников и, возможно, будет использовать её для их обучения в будущем.

Несмотря на вызовы, связанные с массовым принятием VR-технологий, Microsoft делает ставку на будущее, где виртуальные встречи станут нормой. Со временем, как подсказывает Янси Смит (Yancey Smith), генеральный менеджер коммерческого и потребительского направлений смешанной реальности Microsoft, ожидается дальнейшее расширение возможностей Teams с помощью ИИ, включая генерацию виртуальных досок для записей и объектов для взаимодействия в 3D-пространстве.

Adobe добавила ИИ-функции в Photoshop и Premiere Elements 2024

Adobe обновила свои флагманские решения для редактирования фотографий и видео — Photoshop и Premiere Elements 2024, интегрировав в них ряд функций на основе искусственного интеллекта. Теперь фирменная платформа компании Sensei AI полноценно задействована в творческом процессе пользователей, начиная от автоматического выделения сложных объектов и заканчивая монтированием роликов профессионального уровня.

 Источник изображений: Adobe

Источник изображений: Adobe

В Photoshop Elements 2024 появился инструмент, который автоматически выделяет объекты и фоны для их удаления, редактирования или замены. Эта функция является улучшенной версией аналогичной технологии Pixel Magic Eraser компании Google. По словам Adobe, с помощью этого инструмента можно, например, заменить небо, что будет полезно тем пользователям, которые хотят превратить обыденные фотографии на открытом воздухе в завораживающие воображение изображения.

Инструменты на основе ИИ позволяют сгладить кожу человека на фотографии и выполнить ряд автоматических умных исправлений. Также в Photoshop Elements задействована новая функция Artistic Effect, позволяющая преобразить изображение в нечто, напоминающее известное произведение искусства.

Платформа Adobe Sensei AI также позволяет увеличивать масштаб изображений и удалять артефакты, придавая объектам на фотографиях более естественный вид.

Что касается Premiere Elements 2024, то в этом видеоредакторе ИИ задействован для автоматического создания роликов с яркими моментами из предоставленного пользователем видеоматериала. Компания утверждает, что ролики, созданные с помощью ИИ, привлекают внимание зрителей, акцентируя его на движении людей и объектов в кадре, крупных планах и высоком качестве отснятого материала.

Разумеется, нововведения Adobe не ограничиваются только использованием ИИ. В Photoshop Elements добавлены новые цветовые и тональные пресеты, а также слайды, которые можно сохранять в форматах MP4 и GIF. Premiere Elements обзавёлся набором новых аудиоэффектов, таких как реверберация, и несколькими встроенными пресетами для создания уникальной атмосферы. Как и Photoshop, Premiere получил новый дизайн и доступ к коллекции учебных пособий Guided Edits, которые помогут пользователям освоить различные действия в процессе работы.

«Яндекс» представил YandexART — новую нейросеть для создания изображений

Команда разработчиков «Яндекса» представила новую диффузионную нейросеть Yandex AI Rendering Technology (YandexART), которая создаёт изображения и анимацию в ответ на текстовые запросы пользователей.

 Примеры созданных YandexART изображений (источник: пресс-служба «Яндекса»)

Примеры созданных YandexART изображений (источник: пресс-служба «Яндекса»)

YandexART формирует изображения и анимацию методом каскадной диффузии: сначала нейросеть генерирует картинки и кадры в соответствии с запросом пользователя, а затем поэтапно увеличивает их разрешение, насыщая деталями. В качестве обучающего набора данных были задействованы 330 млн изображений с текстовым описанием. Также разработчиками был реализован новый алгоритм распознавания текстов, помогающий нейросети лучше понимать пожелания пользователей.

Отличительной особенностью YandexART является понимание российского культурного кода — нейросеть знает известные места и города страны, выдающихся личностей разных эпох и знакомых с детства персонажей мультфильмов и сказок. Например, Чебурашку, богатырей и Бабу-Ягу.

Нейросеть уже интегрирована в мобильное приложение «Шедеврум» и помогает иллюстрировать рекламные объявления в «Яндекс Бизнесе». Вскоре YandexART появится в «Яндекс Клавиатуре» и других сервисах компании.

Adobe представила интерактивное платье с анимацией и ряд перспективных ИИ-технологий

На ежегодной конференции Adobe Max компания Adobe представила не только коммерческие продукты, которыми её клиенты смогут воспользоваться в обозримом будущем, но и 11 перспективных решений, которые пока находятся на стадии разработки — все они объединяются её программой Sneak.

 Источник изображения: Adobe

Источник изображения: Adobe

Решение под названием Project Stardust позволяет взаимодействовать с объектами на растровом изображении — они идентифицируются алгоритмом, как если бы находились на отдельных слоях. А это, в свою очередь, позволяет их захватывать и перемещать, не пользуясь традиционным инструментом «Лассо». Фон за удалёнными объектами автоматически дорисовывается в соответствии с окружением.

Концепт под названием Project Primrose выбивается среди прочих решений, потому что это не алгоритм, который когда-нибудь появится в одной из программ Adobe, а вполне осязаемый предмет — интерактивное платье из «гибких текстильных дисплеев», которые позволяют выводить узоры на вкус своей хозяйки. Едва ли это изобретение можно назвать практичным, но в эстетичности ему не откажешь.

Алгоритм Project Poseable характеризуется Adobe как «прорыв в создании моделей на основе ИИ». Пользователь задаёт образец в виде обычного двухмерного изображения, например, фотографии — алгоритм его анализирует и соответствующим образом корректирует позицию 3D-модели. Получается своего рода аналог технологии захвата движения, только образцом служит не живой человек с сенсорами на теле, а его снимок.

Технология Project Dub Dub Dub не связана с изображениями — это переводчик, который поддерживает несколько языков и озвучивает перевод языком говорящего. То есть можно услышать самого себя, только говорящим на другом языке, причём реплики автоматически подстраиваются под исходный темп речи. Получается полноценный дубляж, который, возможно, избавит от необходимости привлекать для этого актёров, если, конечно, перевод будет достаточно точным.

Наконец, ещё одно заслуживающее внимания решение получило название Project See Through. Этот алгоритм позволяет корректировать снимки, которые были сделаны сквозь окно — он достаточно эффективно удаляет полупрозрачные отражения в стекле. Такой инструмент однозначно окажется востребованным в программах Photoshop или Adobe Express, если в Adobe решат сделать его общедоступным.

Adobe показала ИИ-технологию Res-Up для качественного повышения разрешения у видео

Компания Adobe на своём мероприятии Adobe Max продемонстрировала работу технологии Res-Up, которая позволяет значительно улучшить качество анимированных GIF-изображений и видео с низким разрешением. Решение пока не является общедоступным, и опробовать его всем желающим не получится, но его потенциал впечатляет.

 Источник изображений: Adobe

Источник изображений: Adobe

Технология Adobe Res-Up предлагает увеличение изображения за счёт диффузии — одного из методов генеративного искусственного интеллекта; она позволяет повышать резкость и детализацию картинки. В одном из примеров Adobe продемонстрировала работу с фрагментом фильма «Красный дом» (The Red House) 1947 года — его разрешение было увеличено с 480 × 360 до 1280 × 960 пикселей.

Полученные при помощи ИИ кадры стали намного чётче: алгоритм убрал большую часть размытости и даже добавил новые детали, такие как пряди волос и блики. Картинка смотрится немного неестественно, что, впрочем, свойственно многим изображениям и видеороликам, полученным с ИИ, но это заметный шаг вперёд по сравнению технологией Video Super Resolution от Microsoft.

Достоин внимания ещё один пример с небольшим фрагментом видео, на котором изображён слонёнок: алгоритм сделал видео намного более чётким и снова добавил новые детали, в том числе морщины на коже. Только на этот раз картинка смотрится более естественной — подрисованные морщины органично двигаются вместе с животным. Adobe пока не готова сделать технологию Res-Up общедоступной, но не исключено, что она в перспективе будет интегрирована в программы Adobe Premiere Pro или Express.

AMD выпустит в сентябре технологию масштабирования FSR 3, которая сможет рисовать в играх дополнительные кадры

Компания AMD в рамках своего мероприятия Gaming Festival 2023 на выставке Gamescom сообщила, что поддержку технологии масштабирования изображения FidelityFX Super Resolution (FSR) версии 3 первыми получат две игры — Forspoken и Immortals of Aveum. В перспективе список поддерживаемых игр будет расширяться. Важной особенностью технологии станет технология генерации дополнительных кадров, что повысит FPS в играх.

 Источник изображений: AMD

Источник изображений: AMD

В составе новой версии FSR используется технология генерации дополнительных кадров в играх Fluid Motion Frames (FMF), которую можно сравнить с технологией генератора кадров DLSS3 Frame Generation от компании NVIDIA. Последняя значительно повышает FPS в играх, генерируя дополнительные кадры на основе данных о предыдущих, но вместе с этим увеличивает время задержки.

Сокращение времени задержки также будет ключевым направлением для FSR 3, поскольку компания понимает, что геймерам нужны не только высокая частота кадров в играх, но и максимально быстрый отклик на действия игрока. В AMD отметили, что интеграция FSR 3 в игры, где уже присутствует поддержка FSR 2, не будет представлять никаких сложностей.

Первыми играми, в которых будут использованы возможности FSR 3, являются Forspoken и Immortals of Aveum. Первая вышла в январе и судя по обзорам и отзывам игроков не оправдала ожиданий. Вторая в свою очередь была выпущена несколько дней назад. Это первая игра, использующая игровой движок Unreal Engine 5.1.

На сегодняшней презентации AMD показала возможности FSR 3 в игре Forspoken, запущенной в разрешении 4K, при использовании максимальных настроек качества изображения с трассировкой лучей. Для демонстрации был выбран режим FSR 3 «Производительность». Благодаря этому частота кадров игры увеличилась более чем в три раза.

Минимальные требования для FSR 3 подразумевают наличие видеокарты уровня Radeon RX 5000 и новее или же видеокарт NVIDIA GeForce RTX 2000 и новее. Поддержка FSR 3 будет распространяться по лицензии MIT. Технология будет также совместима с консолями. AMD ожидает, что патчи с поддержкой FSR 3 для Forspoken и Immortals of Aveum выйдут во второй половине сентября.


window-new
Soft
Hard
Тренды 🔥