Опрос
|
реклама
Быстрый переход
Художники одержали важную победу в деле об авторских правах против Stability AI и Midjourney
14.08.2024 [17:11],
Павел Котов
Группа художников, которая объединилась в коллективном иске против разработчиков наиболее популярных моделей искусственного интеллекта для генерации изображений, устроила празднование по случаю того, что судья дал ход этому делу и санкционировал раскрытие информации. Ответчиками по делу выступают создатели сервисов Midjourney, Runway, Stability AI и DeviantArt — по версии истцов, разработчики систем на основе модели Stable Diffusion использовали их защищённые авторским правом работы для обучения ИИ. Судья Северного окружного суда Калифорнии Уильям Оррик (William H. Orrick), курирующий Сан-Франциско, где располагаются многие крупнейшие разработчики систем ИИ, пока не вынес окончательного решения по делу, но счёл, что предъявленных ответчикам обвинений достаточно, чтобы дело перешло к стадии раскрытия информации. Это значит, что представляющие истцов юристы могут изучить документы компаний — разработчиков генераторов изображений с ИИ; огласке будут преданы подробности о массивах обучающих данных, механизмах и внутренней работе систем. Модель Stable Diffusion предположительно обучалась на наборе данных LAION-5B из 5 млрд изображений, который был опубликован в 2022 году. Но, как отмечается в деле, эта база содержала только URL-адреса, то есть ссылки на изображения, а также их текстовые описания, то есть компаниям приходилось самостоятельно собирать эти изображения. Основанные на Stable Diffusion модели используют в работе механизм «CLIP-guided diffusion», помогающий им при генерации изображений отталкиваться от пользовательских запросов, которые могут включать имена художников. Метод CLIP (Contrastive Language-Image Pre-training) разработала и ещё в 2021 году опубликовала компания OpenAI — более чем за год до выпуска ChatGPT. Модель OpenAI CLIP способна работать как база данных по фирменному стилю, и если при обучении схожей с ней модели Midjourney использовались имена художников и их работы с сопоставленными с ними описаниями, то этот факт может представлять собой нарушение авторских прав. Стартап Black Forest Labs представил ИИ-генератор изображений FLUX.1 — он отлично справляется с прорисовкой рук человека
05.08.2024 [18:20],
Владимир Фетисов
В конце прошлой недели стартап Black Forest Labs объявил о начале своей деятельности в сфере разработки генеративных нейросетей. Вместе с этим компания, созданная выходцами из Stability AI, представила семейство моделей генерации изображений по текстовому описанию под названием FLUX.1, которые претендуют на звание лучших в своём классе. Запуск FLUX.1 произошёл примерно через семь недель после того, как в середине июня Stability AI выпустила ИИ-генератор Stable Diffusion 3 Medium, который собрал много критики из-за невысокого качества при создании изображений, на которых есть люди. Пользователи активно делились в соцсетях результатами генерации алгоритма с искажёнными конечностями и телами людей. Запуск Stable Diffusion 3 Medium последовал за уходом из Stability AI трёх ключевых сотрудников — Робина Ромбаха (Robin Rombach), Андреаса Блаттманна (Andreas Blattmann) и Доминика Лоренца (Dominik Lorenz). Именно они вместе с Патриком Эссером (Patrick Esser), который участвовал в разработке первой версии Stable Diffusion и с тех пор работал над разными ИИ-алгоритмами, а также другими инженерами, основали компанию Black Forest Lab. На данный момент стартап представил три модели для генерации по текстовому описанию FLUX.1. ИИ-модель FLUX.1 pro представляет собой наиболее производительный генератор изображений, предназначенный для коммерческого использования через соответствующий API. Вместе с этим были выпущены FLUX.1 dev, доступная для некоммерческого использования, а также более лёгкая и быстрая FLUX.1 schnell (в переводе с немецкого — «быстрый» или «стремительный»). Разработчики утверждают, что их ИИ-модели превосходят существующие аналоги, такие как Midjourney и DALL-E, по целому ряду показателей, включая качество создаваемых изображений и точность следования исходному описанию. В целом результаты генерации FLUX.1 сопоставимы с тем, что можно создать с помощью DALL-E 3 от OpenAI по точности следования описанию, и близки по фотореалистичности к Midjourney 6. При этом алгоритм явно более качественно работает по сравнению со Stable Diffusion XL, последним крупным релизом команды этих разработчиков, когда они ещё были частью Stability AI, не считая Stable Diffusion XL Turbo. Модели Black Forest Lab построены на базе гибридной архитектуры, которая объединяет методы трансформации и диффузии, с масштабированием до 12 млрд параметров. Похоже, что такой подход делает нейросеть FLUX.1 способной качественно генерировать руки человека, что было слабым местом многих уже выпущенных на рынок аналогов. При этом разработчики не уточнили, на каких данных обучались модели FLUX.1. Отметим, что Black Forest Lab уже привлекла финансирование в размере $31 млн. Желающим опробовать FLUX.1 в действии можно воспользоваться сервисами Fal.ai или Replicate.com, где придётся платить деньги для работы с алгоритмами. Google начала масштабную зачистку поисковой выдачи от откровенных фейковых изображений
31.07.2024 [17:56],
Сергей Сурабекянц
Google внедрила новые функции онлайн-безопасности, которые упрощают масштабное удаление откровенных дипфейковых изображений из поискового индекса и предотвращают их появление на первых позициях результатов поиска. При удалении поддельного контента по запросам пользователей будут также удалены все возможные дубликаты и отфильтрованы результаты по похожим запросам. «Эти меры защиты уже доказали свою эффективность в борьбе с другими типами изображений, полученных без согласия правообладателей, и теперь мы создали те же возможности и для поддельных откровенных изображений, — заявила менеджер по продуктам Google Эмма Хайэм (Emma Higham). — Эти усилия призваны дать людям дополнительное спокойствие, особенно если они опасаются появления подобного контента в будущем». Позиции сайтов в индексе Google будут скорректированы, чтобы противодействовать поиску явного фейкового контента. Например, на поисковые запросы, которые намеренно запрашивают поддельные изображения реального человека, поисковая система будет выдавать «высококачественный, корректный контент», например, соответствующие новостные статьи. Сайты со значительным количеством фейковых изображений откровенного характера будут понижены в рейтинге поиска Google. Google утверждает, что предыдущие обновления в этом году более чем на 70 процентов снизили появление в поисковой выдаче откровенных изображений по запросам дипфейкового контента. Перед компанией стоит задача научить поисковую систему отличать реальный откровенный контент, например, изображения обнажённого тела, сделанные по обоюдному согласию, от фейков, чтобы сохранить возможность демонстрации законных изображений. Ранее Google уже предпринимала усилия для решения проблемы появления опасного или откровенного контента в интернете. В 2022 году компания расширила перечень персональной или конфиденциальной информации, которую пользователь может удалить из поиска. В августе 2023 года Google начала по умолчанию размывать откровенно сексуальные изображения. В мае этого года компания запретила рекламодателям продвигать услуги по созданию контента откровенно сексуального характера. AMD представила Amuse 2.0 — ПО для ИИ-генерации изображений для Ryzen и Radeon
29.07.2024 [00:20],
Николай Хижняк
AMD представила Amuse 2.0 — программный инструмент для ИИ-генерации изображений. Программа доступна в бета-версии. В перспективе её функциональность будет расширяться. Amuse 2.0 является своего рода аналогом инструмента AI Playground от Intel, использующего мощности видеокарт Intel Arc. Решение от AMD для генерации контента в свою очередь полагается на мощности процессоров Ryzen и видеокарт Radeon. Приложение Amuse 2.0, разработанное с помощью TensorStack, отличается простотой использования, без необходимости загружать множество внешних компонентов, задействовать командные строки или запускать что-либо ещё. Для использования приложения достаточно лишь запустить исполняемый файл. По сравнению с Intel AI Playground, Amuse 2.0 не поддерживает запуск чат-ботов на основе больших языковых моделей. В настоящее время приложение предназначено только для генерации изображений с помощью ИИ. Amuse 2.0 использует модели Stable Diffusion и поддерживает процессоры Ryzen AI 300 (Strix Point), Ryzen 8040 (Hawk Point) и серию видеокарт Radeon RX 7000. Почему компания не добавила поддержку видеокарт Radeon RX 6000 и более ранних моделей, а также процессоров Ryzen 7040 (Phoenix), обладающих практически идентичными характеристиками с Hawk Point, неизвестно. Возможно, это изменится в будущем. Для работы Amuse 2.0 AMD рекомендует использовать 24 Гбайт ОЗУ или больше для систем на базе процессоров Ryzen AI 300 и 32 Гбайт оперативной памяти для систем на базе Ryzen 8040. Для видеокарт Radeon RX 7000 требования к необходимому объёму памяти не указаны. Возможности Amuse 2.0:
Стоит отметить, что инструмент поддерживает XDNA Super Resolution — технологию, позволяющую увеличивать масштаб изображений вдвое. Более подробно об Amuse 2.0 можно узнать по этой ссылке. Microsoft выпустила приложение Designer для создания изображений с помощью ИИ на iOS и Android
17.07.2024 [22:47],
Николай Хижняк
Компания Microsoft сообщила, что её приложение Designer на базе искусственного интеллекта вышло из предварительной версии и теперь доступно всем пользователям операционных систем iOS и Android. Приложение позволяет создавать изображения и дизайны на основе текстовых подсказок. С его помощью можно создавать, например, наклейки, поздравительные открытки, приглашения, коллажи и многое другое. Веб-версия приложения Designer теперь поддерживает более 80 языков мира. Оно также доступно в виде бесплатного мобильного приложения, а также приложения в составе операционной системы Windows. В Designer есть «шаблоны подсказок», призванные помочь пользователям начать творческий процесс. Шаблоны включают стили и описания, которые можно настраивать и делиться с другими. Помимо стикеров, с помощью текстовых подсказок можно создавать смайлы, картинки, обои, монограммы, аватары и многое другое. Кроме того, Designer можно использовать для редактирования стиля изображения с помощью ИИ. Например, в приложение можно загрузить селфи, а затем выбрать один из наборов стилей и добавить на изображение дополнительные детали. Скоро в Designer появится функция «замена фона», которая позволит с помощью текстовых подсказок заменять задний фон на изображениях. Автономное приложение Designer совместимо с Word и PowerPoint через Copilot. Пользователи подписки Copilot Pro могут создавать с помощью Designer изображения прямо в своей рабочей среде. Вскоре компания добавит возможность создавать баннеры для того или иного документа на основе содержимого документов Word. Microsoft также сообщила, что приложение Designer получило более глубокую интеграцию в Microsoft Photos в составе Windows 11. Пользователи смогут использовать ИИ для редактирования фотографий, не выходя из приложения «Фото». У фотографий можно удалять объекты, фон и проводить автоматическую обрезку прямо в приложении. В WhatsApp появился ИИ-генератор персонализированных аватаров, но доступен он пока не всем
04.07.2024 [15:52],
Владимир Фетисов
Пользователи мессенджера WhatsApp в скором времени смогут воспользоваться новой ИИ-функцией, которая позволит генерировать персонализированные аватары. На данном этапе такая возможность стала доступна некоторым пользователям бета-версии WhatsApp 2.24.14.7. В сообщении сказано, что пользователи смогут делать аватары на основе собственных изображений и текстовых описаний. В опубликованном на этой неделе скриншоте есть краткое описание новой функции. В нём говорится, что пользователи могут представить себя «в любой обстановке — от леса до космоса». Опубликованные примеры сгенерированных аватаров выглядят достаточно типично для изображений, созданных ИИ-алгоритмом. Чтобы создать персонализированный аватар, пользователю потребуется «один раз сфотографировать себя». Этот снимок будет задействован для обучения ИИ-алгоритма созданию изображений, похожих на пользователя. После этого пользователю будет достаточно указать детали изображения, которое он хочет получить, в чате Meta✴ AI или в другом чате, задействовав команду «@Meta AI представь меня…». Согласно имеющимся данным, новая функция по умолчанию будет отключена. Для начала генерации персонализированных аватаров потребуется активировать соответствующую опцию в настройках приложения. Эталонные снимки, на основе которых создаются аватары, в любой момент можно удалить. Когда упомянутое нововведение станет общедоступным, пока неизвестно. Meta✴ выпустила ИИ-генератор 3D-моделей по текстовому описанию
03.07.2024 [19:43],
Владимир Фетисов
Исследовательское подразделение компании Meta✴ Platforms представило новый генеративный алгоритм 3D Gen, который позволяет создавать качественные 3D-объекты по текстовому описанию. По словам разработчиков, новая нейросеть превосходит аналоги по качеству создаваемых моделей и по скорости генерации. «Эта система может генерировать 3D-объекты с текстурами высокого разрешения», — говорится в сообщении Meta✴ в соцсети Threads. Там также отмечается, что нейросеть значительно превосходит аналогичные алгоритмы по качеству генерируемых объектов и в 3-10 раз опережает по скорости генерации. Согласно имеющимся данным, Meta✴ 3D Gen может создавать 3D-объекты и текстуры на основе простого текстового описания менее чем за минуту. Функционально новый алгоритм похож на некоторые уже существующие аналоги, такие как Midjourney и Adobe Firefly. Одно из отличий в том, что 3D Gen создаёт модели, которые поддерживают физически корректный рендеринг. Это означает, что создаваемые нейросетью модели могут использоваться в приложениях для моделирования и рендеринга реально существующих объектов. «Meta 3D Gen — это двухступенчатый метод, сочетающий в себе два компонента: один для преобразования текста в 3D, а другой — для преобразования текста в текстуры», — говорится в описании алгоритма. По словам разработчиков, такой подход позволяет добиться «более высокого качества 3D-генерации для создания иммерсивного контента». 3D Gen объединяет две основополагающие языковые модели Meta✴ AssetGen и TextureGen. В Meta✴ заявляют, что, основываясь на отзывах профессиональных 3D-художников, новая технология компании предпочтительнее конкурирующих аналогов, которые также позволяют генерировать 3D-объекты по текстовому описанию. Figma отключила ИИ-помощника дизайнера — он копировал интерфейс приложений Apple
03.07.2024 [11:22],
Павел Котов
Администрация платформы Figma была вынуждена отключить основанный на генеративном искусственном интеллекте инструмент Make Designs — он начал разрабатывать для пользователей проекты, которые выглядели поразительно похожими на приложения из iOS. Генеральный директор Figma Дилан Филд (Dylan Field) подробно рассказал о проблеме на своей странице в соцсети X, возложил на себя вину за то, что торопил своих подчинённых выпустить продукт в общий доступ и выразил уверенность в правильности подхода компании в отношении ИИ. Он также процитировал гендиректора Not Boring Software Энди Аллена (Andy Allen), который наглядно продемонстрировал, как Figma Make Designs практически полностью копирует приложение погоды Apple, и предупредил пользователей платформы, что это чревато юридическими проблемами. «Мы не проводили обучения в рамках функций генеративного ИИ», — заявил ресурсу The Verge технический директор Figma Крис Расмуссен (Kris Rasmussen). Инструмент Make Designs, по его словам, был запущен на готовых моделях ИИ и созданной на заказ системе дизайна; на контенте пользователей или дизайнах готовых приложений обучение также не проводится, добавил Дилан Филд. В основе Make Designs лежат две модели ИИ: OpenAI GPT-4o и Amazon Titan Image Generator G1, рассказал технический директор, из чего можно сделать вывод, что дизайны Apple использовались для обучения ИИ в OpenAI или Amazon. От идеи обучать собственные модели ИИ на контенте пользователей Figma администрация платформы не отказывается, но и торопить события в компании не собираются. На минувшей неделе пользователям представили политику обучения ИИ и дали время до 15 августа решить, согласны ли они предоставлять свои материалы: в тарифных планах Starter и Professional это согласие по умолчанию дано, а в Organization и Enterprise — нет. Make Designs вернётся к пользователям Figma в обозримом будущем. «Мы проведём проверку данной системы дизайна, чтобы убедиться, что она предлагает достаточное разнообразие и отвечает нашим стандартам качества. <..> В этом основная причина проблемы. Но мы примем дополнительные меры предосторожности, прежде чем снова включить [Make Designs], чтобы убедиться, что функция в целом соответствует нашим стандартам качества и ценностям», — пообещал Расмуссен. Он также указал, что Make Designs находится в стадии бета-тестирования. «Бета-версии по определению несовершенны. Но можно сказать с уверенностью, как Дилан написал в своём твите, что мы просто не заметили эту конкретную проблему. А должны были», — заключил технический директор Figma. Samsung представила 200-Мп датчик изображения ISOCELL HP9 для зум-камер, а также 50-Мп сенсоры ISOCELL GNJ и JN5
27.06.2024 [15:22],
Николай Хижняк
Компания Samsung представила три новых датчика изображения, предназначенных для основных, а также вспомогательных камер смартфонов: ISOCELL HP9, ISOCELL GNJ и ISOCELL JN5. Среди новинок особенно выделяется ISOCELL HP9. Это первый на рынке 200-мегапиксельный датчик для мобильных камер с телеобъективами. Сенсор выполнен в формате 1/1.4 дюйма и содержит 200 млн пикселей размером 0,56 мкм каждый. В пресс-релизе Samsung указано, что благодаря запатентованным высокопреломляющим микролинзами из нового материала получилось значительно поднять светосилу HP9, с помощью точного направления света на соответствующие цветовые фильтры. Это обеспечивает повышение на 12 % светочувствительности и контрастности автофокусировки на 10 %, а также позволяет получить более яркое изображение с лучшей цветопередачей и более точной фокусировкой, по сравнению с предыдущими аналогичными решениями Samsung. Использующаяся в датчике ISOCELL HP9 технология Tetra²pixel объединяет 16 пикселей в один виртуальный размером 2,24 мкм. HP9 также поддерживает режимы двукратного или четырёхкратного внутрисенсорного масштабирования и может обеспечивать 12-кратный гибридный зум в сочетании с трёхкратным телеобъективом. ISOCELL GNJ — это датчик формата 1/1,57 дюйма с разрешением 50 Мп, технологией Dual Pixel и размером пикселей 1,0 мкм. Главная особенность датчика заключается в наличии двух фотодиодов в каждом пикселе, что обеспечивает быструю фокусировку. В этом сенсоре используется улучшенные материалы с глубокой изоляцией (DTI), где переход от поликремния к оксиду кремния позволил минимизировать перекрёстные помехи между соседними пикселями. Кроме того, датчик обладает повышенной энергоэффективностью. Производитель отмечает 29-процентное снижение энергопотребления в режиме предварительного просмотра и 34-процентное в режиме съёмки видео в разрешении 4K при 60 кадрах в секунду. ISOCELL JN5 — это ещё один датчик с разрешением 50 Мп, но куда более компактного формата 1/2,76 дюйма, с пикселями размером 0,64 мкм. Он включает в себя технологию двойного вертикального переноса (VTG) для улучшения переноса заряда внутри пикселей и снижения шума в условиях чрезвычайно низкой освещённости. Также Samsung выделяет в JN5 технологию Super Quad Phase Detection (четырёхфазное обнаружение, Super QPD), улучшающую автофокусировку. Размеры датчика позволяют создавать на его основе вспомогательные и фронтальные камеры. В своём пресс-релизе Samsung не сообщила, когда указанные сенсоры появятся в смартфонах. Однако, как передаёт портал GSMArena, во флагманском смартфоне Vivo X100 Ultra используется телефотокамера на базе ISOCELL HP9. Adobe поменяет пользовательское соглашение на фоне скандала с доступом к контенту
11.06.2024 [19:02],
Владимир Фетисов
Ранее Adobe обновила соглашение, регулирующее правила взаимодействия пользователей с программными продуктами компании. Несколько расплывчатых формулировок указывали на то, что теперь Adobe официально может просматривать контент, который пользователи создали с помощью приложений компании и хранят в облаке. Это вызвало негативную реакцию сообщества, на фоне чего Adobe пришлось объясниться и пообещать внести в соглашение более понятные формулировки. «Ваш контент принадлежит вам и никогда не будет использоваться для обучения каких-либо инструментов генеративного искусственного интеллекта», — говорится в совместном заявлении директора по продуктам Adobe Скотта Бельски (Scott Belsky) и вице-президента по правовым вопросам Даны Рао (Dana Rao). Пользователи разных приложений компании, таких как Photoshop, Premiere Pro и Lightroom, были возмущены расплывчатыми формулировками. Люди посчитали внесённые в пользовательское соглашение изменения желанием Adobe использовать созданный пользователями контент для обучения генеративных нейросетей. Другими словами, создатели контента подумали, что Adobe намерена использовать ИИ для кражи их работ с целью последующей перепродажи. На этом фоне Adobe активно пытается убедить сообщество в том, что пользовательскому контенту ничего не угрожает, а внесённые в соглашение изменения ошибочно оказались недостаточно точными. «В мире, где клиенты беспокоятся о том, как используются их данные и как обучаются генеративные модели искусственного интеллекта, на компаниях, хранящих данные и контент своих клиентов, лежит обязанность заявить о своей политике не только публично, но и в своём пользовательском соглашении», — говорится в сообщении Бельски. Компания пообещала пересмотреть пользовательское соглашение, чтобы сделать его более понятным за счёт «более простого языка и примеров». В Adobe надеются, что такой подход поможет пользователям лучше понимать, о чём именно говорится в тех или иных пунктах соглашения. Компания уже отредактировала первоначальный текст изменений 6 июня, но это не повлияло на негативную реакцию сообщества. Компания утверждает, что клиенты могут защитить свой контент не только от нейросетей, им также доступен вариант отказа от участия в программе улучшения продуктов компании. Intel представила AI Playground — бесплатный ИИ-генератор изображений, работающий локально
08.06.2024 [16:18],
Владимир Фетисов
На этой неделе состоялась ежегодная выставка Computex 2024, в рамках которой было представлено немало аппаратных и программных новинок. Одной из них стал генератор изображений AI Playground от Intel. Его основной является генеративная нейросеть, а главная особенность заключается в способности работать локально на пользовательском компьютере без подключения к облачным вычислительным мощностям. Приложение AI Playground для устройств с Windows требует наличия производительного процессора Intel Core Ultra, в составе которого есть встроенный ИИ-сопроцессор (NPU) для ускорения выполнения задач искусственного интеллекта. Также требуется наличие встроенной графики Intel Arc или дискретной видеокарты Intel с не менее чем 8 Гбайт видеопамяти. Ещё одна особенность приложения, которое станет доступно для скачивания позднее этим летом, в том, что использовать её можно бесплатно. «Мы не рассматриваем AI Playground как замену многим замечательным проектам и приложениям на основе ИИ, но мы рассматриваем AI Playground как лёгкий способ начать работу с ИИ», — говорится в сообщении Intel. AI Playground устанавливается на компьютер как стандартное приложение Windows. Пользовательский интерфейс выглядит достаточно простым. Для взаимодействия с разными функциями, такими как генерация или редактирование изображения, предлагается переключаться между вкладками в верхней части рабочего пространства. Для создания картинки достаточно ввести текстовое описание и запустить процесс генерации. Поддерживается возможность изменения качества и разрешения изображения, есть дополнительные опции, которые могут оказаться полезными при редактировании. Основой приложения стала большая языковая модель Answer. Хотя возможности AI Playground на данном этапе не слишком впечатляют, недостатки может компенсировать способность приложения работать локально. Это означает, что у разработчиков продукта не будет доступа к созданному пользователями контенту и текстовым подсказкам, которые они задействовали в процессе генерации. Кроме того, приложение можно использовать бесплатно, что также будет привлекательно для пользователей, которые только начинают знакомство с ИИ-генераторами изображений. Microsoft представила универсальной апскейлер Auto SR — он работает на уровне ОС, но пока только с NPU
07.06.2024 [13:58],
Николай Хижняк
Microsoft официально представила Automatic Super Resolution (Auto SR или ASR) — технологию масштабирования изображения на уровне операционной системы, призванную работать независимо от интеграции в игры. В то же время компания опубликовала список игр, в которых технология Auto SR заработает автоматически, а также те игры, где потребуется её ручное включение. Automatic Super Resolution в большей степени похожа на апскейлеры Nvidia Image Scaling (NIS) и AMD Radeon Super Resolution (RSR), за исключением того, что она не привязана к какому-то определённому производителю видеокарт и работает на уровне ОС. Уровень сложности интеграции Auto SR (разработчикам игр это делать не нужно) аналогичен этим двум технологиям. Функция масштабирования изображения на уровне операционной системы или драйвера является отличной альтернативой интеграции фирменных технологий масштабирования. Кроме того, в отличие от фирменных технологий апскелинга, Auto SR работает с масштабированием целых кадров изображения, включая пользовательский интерфейс. Microsoft упростила процесс внедрения разных технологий масштабирования в игры, выпустив для этого универсальный API DirectSR. Однако он требует поддержки со стороны разработчиков игр. Они должны подготовить свои игровые движки для предоставления тому или иному апскейлеру необходимых переменных (векторы движения, глубина цвета и т. д.), в противном случае DirectSR работать не будет. Auto SR в свою очередь может оказаться хорошей альтернативой для игр, которые никогда не получат поддержку DirectSR. В частности, речь идёт о старых и классических играх. Ключевая задача Auto SR — повысить игровую производительность. Однако финальное качество масштабируемого изображения будет, конечно, ниже, чем у фирменных технологий апскейлинга. Однако Auto SR не требует интеграции на уровне того же драйвера. Кроме того, в отличие от Nvidia Image Scaling (NIS) и AMD Radeon Super Resolution (RSR), в которых применяются методы пространственного масштабирования, технология Auto SR использует ИИ-алгоритмы для компенсации потери качества. Microsoft объясняет, что Auto SR использует специальную модель искусственного интеллекта, обученную на игровом контенте. Для работы ей не нужны ядра GPU и CPU. Вместо них технология полагается на аппаратный ИИ-движок Neural Processing Unit (NPU), который разгружает задачи по масштабированию с видеокарты и центрального процессора. Без NPU Auto SR работать не будет. Auto SR предназначена для уже выпущенных игр, с частью которых она будет применяться автоматически (с их списком можно ознакомиться ниже). В свою очередь DirectSR предназначен для новых игр, в которые необходимо интегрировать указанный API. Таким образом, хотя оба решения и направлены на обеспечение масштабирования и повышения производительности, они предлагают разные уровни качества и не предназначены для конкуренции друг с другом. Auto SR будет работать автоматически со следующими играми: BeamNG.drive, Borderlands 3, Control (DX11), Dark Souls III, God of War, Kingdom Come: Deliverance, Resident Evil 2, Resident Evil 3, Sekiro: Shadows Die Twice, Sniper Ghost Warrior Contracts 2 и The Witcher 3. В настоящий момент Auto SR поддерживается только компьютерами Copilot Plus PC. Иными словами, она будет работать только на системах с процессорами Qualcomm Snapdragon X. Вероятно, позже поддержка технологии появится на ноутбуках с процессорами AMD Ryzen AI 300 и Intel Core Ultra 200V (Lunar Lake). Microsoft таже хочет в будущем добавить для Auto SR поддержку HDR и систем с несколькими мониторами. Microsoft выпустила DirectSR — инструмент, который упростит интеграцию FSR, XeSS и DLSS в игры и облегчит жизнь геймерам
31.05.2024 [11:56],
Николай Хижняк
Microsoft сообщила о доступности предварительной версии Agility Software Development Kit 1.714.0 для разработчиков, в который включена поддержка API DirectSR. Последний призван упростить интеграцию различных технологий масштабирования в игры. DirectSR представляет собой расширение DirectX 12, разработанное Microsoft вместе с AMD, Intel и Nvidia. Оно позволяет добавлять поддержку AMD FSR, Intel XeSS и Nvidia DLSS через единый механизм, значительно сокращая время и объём работы, которые затрачивались для интеграции каждой технологии по отдельности. Раньше каждую технологию масштабирования приходилось реализовывать вручную с помощью отдельных SDK (за исключением игровых движков со специальными плагинами для масштабирования, которые есть, например, в Unreal Engine 5). С помощью DirectSR все три средства масштабирования можно реализовать одним махом. DirectSR охватывает ключевые функции и особенности, присущие всем технологиям временного масштабирования. В большинстве случаев речь здесь идёт о векторах движения, буферах глубины и цвета, метках реакции и экспозиции. Поскольку DirectSR технически является альтернативным методом интеграции технологий масштабирования, объединяющим DLSS, XeSS и FSR, новый API от Microsoft должен поддерживаться на уровне графического драйвера для аппаратных решений масштабирования. Это означает, что актуальные версии графических драйверов, например, с аппаратной поддержкой Nvidia DLSS и XMX-совместимой версии Intel XeSS, пока не поддерживают DirectSR, и пользователям придётся перейти на версию драйверов, в которых будет реализована совместимость с новым API. Microsoft заявляет, что DirectSR в перспективе получит встроенную поддержку вариантов масштабирования, не зависящих от используемого графического процессора. В выпущенной предварительной версии DirectSR компания добавила встроенную поддержку только для AMD FSR 2.2. Однако следует ожидать, что Microsoft добавит встроенную поддержку Intel DP4a (необходимой для программной реализации XeSS, не зависящей от используемого GPU), в будущем обновлении, возможно, в полной версии DirectSR. DirectSR пока недоступен ни в одной игре, но разработчики уже могут использовать этот API. Он доступен в предварительной версии Agility SDK 1.714.0. Апскейлер Automatic Super Resolution в составе Windows сначала будет работать только с Qualcomm Snapdragon X Elite
21.05.2024 [20:10],
Николай Хижняк
Компания Microsoft ведёт разработку технологии масштабирования изображения Automatic Super Resolution (Auto SR) на уровне операционной системы Windows. Функцию можно будет использовать не только для игр, но и для приложений. Для этого в ОС будут присутствовать соответствующие настройки. Как выяснилось, изначально функция Auto SR будет доступна только для компьютеров, подпадающих под категорию Copilot Plus PC. Copilot Plus PC — новый бренд, которым будут обозначаться ноутбуки на Windows от разных производителей, оснащённые аппаратным обеспечением для работы искусственного интеллекта и поддерживающие функции ИИ во всей операционной системе. Вчера под этим брендом были представлены новые ноутбуки Surface от Microsoft, а также решения от Dell, Lenovo, Samsung, HP, Acer и Asus. Всех их объединяет одна вещь — в их основе используются Arm-процессоры Qualcomm Snapdragon X Elite. Изначально ПК именно с такими процессорами получат поддержку Auto SR. Другими словами, X86-совместимые чипы и даже 10-ядерные Arm-процессоры Snapdragon X Plus поддержку данной функции не получат. По крайней мере, не сразу. Также Auto SR будет работать только с определённым набором «отобранных игр». В описании Auto SR компания Microsoft не упоминает никакие другие процессоры, кроме Qualcomm Snapdragon X Elite. Однако в этом году состоится выпуск чипов AMD Strix Point и Intel Lunar Lake, которые должны также стать частью бренда Microsoft Copilot Plus PC. Хотелось бы надеяться, что Auto SR не будет ограничена только этими процессорами и системами. У Windows сильное сообщество моддеров, поэтому в какой-то момент функция наверняка будет разблокирована для всех платформ и всех игр, если Microsoft сама не расширит её поддержку. А пока можно использовать встроенные в игры технологии масштабирования на уровне драйвера, например, Radeon Super Resolution, или воспользоваться сторонними инструментами, вроде Lossless Scaling. Google так и не решила проблемы с расовой инклюзивностью у генератора изображений Gemini
18.05.2024 [11:33],
Павел Котов
В феврале Google приостановила работу основанного на искусственном интеллекте генератора изображений Gemini, который допускал оскорбляющие общественность исторические неточности. К примеру, расовое разнообразие солдат по запросу «римский легион» — явный анахронизм — и стереотипно чёрные мужчины по запросу «зулусские воины». Кажется, ничего не изменилось до сих пор. Гендиректору Google Сундару Пичаи (Sundar Pichai) пришлось принести извинения за сбой в работе генератора изображений Gemini, а глава ответственного за проект профильного подразделения Google DeepMind Демис Хассабис (Demis Hassabis) пообещал, что ошибка будет исправлена в «кратчайшие сроки» — за несколько недель. Сейчас уже середина мая, а ошибка до сих пор не исправлена. На этой неделе Google провела ежегодную конференцию I/O, на которой рассказала о множестве новых функций Gemini: модель ИИ сможет использоваться для создания собственных чат-ботов, планировки маршрутов, она будет интегрирована в Google Calendar, Keep и YouTube Music. Но генерация изображений до сих пор отключена в приложении Gemini и веб-интерфейсе, подтвердил ресурсу TechCrunch представитель Google. Причин задержки он не пояснил. По одной из версий, при обучении ИИ используются наборы данных, в которых превалируют изображения белых людей, тогда как представители других рас и этнических групп составляют исключения, что формирует стереотипы. В попытке исправить этот перекос Google могла прибегнуть к кардинальной мере — жёсткому кодированию, при котором данные встраиваются непосредственно в исходный код. Исправить созданный таким образом алгоритм очень непросто. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |