Теги → gpu
Быстрый переход

Basemark GPU 1.0 позволяет сравнить производительность ПК и смартфона

Basemark представила свой очередной тестовый пакет, получивший тривиальное имя Basemark GPU 1.0. Этот бенчмарк доступен для установки бесплатно и уже сейчас позволяет оценить производительность разных систем в ряде открытых графических API.

В первой версии поддерживаются OpenGL 4.5, OpenGL ES 3.1 и Vulkan 1.0 под операционными системами Windows, Linux и Android. В будущих сборках в ближайшие месяцы обещано добавление Microsoft DirectX и Apple Metal (в последнем случае, очевидно, и платформы iOS). Заявлена также совместимость со встраиваемыми и автомобильными ОС вроде QNX и Integrity.

Другими словами, разработчики замахнулись на максимальный охват и возможность сравнительной оценки графической производительности самых разных систем: от встраиваемых решений, смартфонов и интернет-телевизоров до мощных настольных видеокарт. Продукт использует движок Rocksolid от Basemark, который написан на C++ и позволяет запускать идентичную нагрузку на разных устройствах и технологиях, обеспечивая, таким образом, продвинутое профилирование графики.

Высококачественный режим тестирования Basemark GPU рассчитан на настольные системы и использует текстуры высокого разрешения 4096 × 4096, продвинутые эффекты, около 10 тысяч вызовов отрисовки и 2 млн полигонов на кадр, выводит картинку в разрешении 3840 × 2160 и требует 4 Гбайт видеопамяти. Разработчики говорят, что это соответствует стандарту современных игр высокого класса.

Режим среднего качества требует 1 Гбайт видеопамяти, нацелен на уровень современных мобильных игр высокого класса, исполняется в разрешении 1920 × 1080, использует текстуры 2048 × 2048, около 2 тысяч вызовов отрисовки, 0,7 млн полигонов на кадр и ограниченные эффекты.

Как сообщается, тестовый пакет Basemark GPU разработан в тесном сотрудничестве с ключевыми полупроводниковыми компаниями вроде Imagination Technologies, Intel, NVIDIA, Qualcomm и Renesas. Участие ведущих производителей графических и центральных процессоров призвано обеспечить надёжные и объективные результаты тестирования.

Помимо базовой бесплатной версии есть и корпоративная, не имеющая привязки к интернет-подключению и обязательной публикации результатов и предоставляющая детализированные отчёты, выбор тестов, функции автоматизации, экспорта данных и прочее.

Huawei рассказала, когда и какие именно Kirin-смартфоны получат поддержку GPU Turbo

Релиз смартфона Huawei Honor Play сопровождался вниманием прессы не столько по причине интереса к самому мобильному гаджету, сколько из-за технологии GPU Turbo. Революционное, как убеждал китайский производитель, решение оказалось на деле не аппаратным, как утверждали слухи, а программным изменением. За счёт низкоуровневого взаимодействия с аппаратной частью, в роли которой выступает фирменная SoC Kirin, GPU Turbo способна обеспечивать прирост быстродействия при обработке графики до 60 %.

В стремлении выжать из видеоускорителя по максимуму разработчики не оставили в стороне и такой важный показатель, как энергоэффективность системы. Благодаря GPU Turbo мобильное устройство хоть и станет быстрее, однако при работе с приложениями, делающими упор на графике, будет наблюдаться снижение энергопотребления подсистемой вплоть до 30 %. Кроме того, наличие GPU Turbo автоматически открывает доступ к HDR-контенту и визуальным эффектам, которые даже изначально не были предусмотрены авторами ПО. 

В рамках выставки CES Asia 2018 руководство Huawei поделилось с общественностью «дорожной картой», указывающей, когда клиенты компании — владельцы смартфонов с чипами HiSilicon Kirin — смогут оценить преимущества от использования GPU Turbo. Ещё на презентации Honor Play было отмечено, что поддержкой GPU Turbo обзаведутся не только новые смартфоны Huawei/Honor, но и те модели, которые уже находятся в продаже. Теперь же известен точный перечень этих гаджетов, а также сроки выпуска апдейта, отвечающего за активацию GPU Turbo. Список устройств с указанием ориентировочной даты выхода обновления выглядит следующим образом:

  • июнь — Huawei Mate 10, Honor V10;
  • июль — серия Huawei P20, модель Mate RS Porsche Design, Nova 2s, Honor 10, MediaPad M5;
  • август — Huawei Nova 3e, Enjoy 8 Plus, Enjoy 7S, Maimang 6, Honor 9 Lite, Honor Play 7X;
  • сентябрь — серия Huawei Mate 9;
  • октябрь — серия Huawei P10, модель Honor 9, Honor V9.

На ноябрь 2018 года Huawei запланировала реализацию GPU Turbo в ещё нескольких гаджетах, однако каких именно, пока не уточняется.  

Глава NVIDIA заверил, что анонс новых игровых ускорителей будет нескоро

NVIDIA во время Computex 2018 представила впечатляющую аппаратную платформу для интеллектуальной робототехники Jetson Xavier, однако никаких новостей относительно следующего поколения игровых видеокарт озвучено не было. Между тем прошло более двух лет со времени запуска современных GeForce на базе архитектуры Pascal, так что логично ждать скорого анонса чего-то нового.

К сожалению, исполнительный директор NVIDIA Дженсен Хуанг (Jensen Huang) поспешил разочаровать публику. Общаясь с журналистами в Тайбэе, на вопрос о следующем семействе игровых видеокарт он ответил, что анонс состоится ещё очень нескоро. Этот вопрос особенно уместен, учитывая тот факт, что в последнее время видеокарты не радовали соотношением цены и производительности из-за дефицита, вызванного криптовалютным бумом. Ситуация несколько выправилась, но за технологии двухлетней давности всё равно придётся отдать немало денег при покупке, скажем, GeForce GTX 1080.

NVIDIA выпустила несколько графических процессоров на базе архитектуры следующего поколения Volta — в первую очередь, речь идёт о Titan V за $3000. Однако этот ускоритель предназначен для ИИ и машинного обучения, а владельцы ПК давно ждут, когда же новые технологии появятся и в более доступных игровых решениях. Согласно слухам, следующая серия GeForce будет построена на архитектуре Turing, которая получит ряд новшеств из Volta.

Господин Хуанг не конкретизировал, насколько долго придётся ждать упомянутое им «очень нескоро», но после этого добавил, что люди могут без опасений закупать лучшие современные видеокарты GeForce — всё ещё 1080 и 1080 Ti — особенно сейчас, когда цены несколько устаканились. Думается, запуска следующих ускорителей в этом году точно можно не ждать. Кстати, AMD тоже не собирается выпускать новые 7-нм игровые видеокарты до 2019 года. В целом такая неопределённость вряд ли порадует тех, кто собирается собрать новую мощную игровую систему, особенно учитывая огромный скачок в производительности, который принесла предыдущая смена поколений.

NVIDIA впервые рассказала о продажах GPU для майнинга и прогнозирует обвал спроса

Компания NVIDIA впервые рассказала, как много доходов она смогла извлечь от продаж своих графических ускорителей для рынка добычи криптовалют. Спрос на GPU со стороны криптовалютных старателей в первом квартале был сильнее, чем ожидалось, и принёс компании доход в размере 289 миллионов долларов. В частности, аналитик Кристофер Роллан (Christopher Rolland) из Susquehanna накануне отчёта предполагал, что продажи ускорителей NVIDIA для этого рынка составят около 200 миллионов долларов.

Patrick T. Fallon | Bloomberg | Getty Images

Patrick T. Fallon | Bloomberg | Getty Images

Компания также отметила на отчётной конференции, что спрос ускорителей для криптодобытчиков существенно сократится уже в текущем отчётном квартале. Финансовый директор NVIDIA Колетт Кресс (Colette Kress) прогнозирует, что падение доходов, обусловленных спросом в этом секторе, составит 65 % и принесёт компании лишь $100 млн за квартал.

«Криптодобытчики купили много наших графических процессоров в этом квартале, и это привело к росту цен, — подчеркнул исполнительный директор NVIDIA Дженсен Хуанг (Jensen Huang). — Я думаю, многие игроки в результате не смогли купить новую GeForce». Госпожа Кресс тоже коснулась этого вопроса: «Несмотря на то, что в начале квартала ощущался дефицит видеокарт, сейчас ситуация выправляется. Игроки, которых отпугнули цены в прошлом квартале, теперь получили доступ к новым чипам по разумной цене».

Криптовалютный бум стимулировал рост доходов как NVIDIA, так и конкурирующей AMD, но этот сектор весьма неустойчив и сильно зависит от изменчивой стоимости валют. Аналитик Кевин Кэссиди (Kevin Cassidy) из Stifel отметил, что некоторая зависимость NVIDIA от криптовалютного рынка беспокоит ряд инвесторов. Котировки акций NVIDIA вслед за объявлением финансовых результатов, несмотря на рекордные показатели деятельности, снизились на 3,8 %.

AMD в драйвере Radeon 18.4.1 тихо добавила тестовую поддержку PlayReady 3.0 для Polaris

Мы уже писали о планах AMD по интеграции в этом году в GPU Polaris и Vega технологии DRM-защиты Microsoft PlayReady 3.0, которая, в частности, требуется для просмотра потоковых 4K- и HDR-материалов службы Netflix. Оказывается, в вышедшем неделей ранее драйвере Radeon Software 18.4.1 Adrenalin Edition компания добавила недокументированную возможность — бета-поддержку PlayReady 3.0 для ускорителей с архитектурой Polaris.

Сначала это заметили пользователи, которые смогли воспроизводить соответствующие материалы Netflix 4K на своих компьютерах с видеокартами Radeon Polaris, после чего AMD официально подтвердила наличие этой функциональности. Компания отметила, что в ближайшем будущем будет выпущен WHQL-сертифицированный драйвер, обеспечивающий полноценную поддержку PlayReady 3.0.

Внедрение PlayReady 3.0 для ускорителей Polaris соответствует ранее озвученным планам AMD. Впрочем, изначально компания обещала реализовать это в начале второго квартала. Вдобавок AMD сообщает, что поддержка PlayReady 3.0 для дискретной графики Vega и новых APU на основе Raven Ridge всё ещё находится в разработке и появится позже.

Напомним, что дискретная или интегрированная графика с поддержкой PlayReady 3.0 — необходимое, но далеко не достаточное условие для воспроизведения материалов Netflix в 4K и HDR на ПК. Остальные требования включают:

  • Windows 10 Fall Creators Update (для HDR);
  • Windows 10 HEVC Media Extension или подобный пакет;
  • последние не конкретизированные компанией обновления Windows 10;
  • браузер Microsoft Edge или приложения Netflix для Windows 10;
  • минимальная скорость интернет-соединения 25 Мбит/с;
  • 60-Гц 4K-дисплей с поддержкой HDCP 2.2;
  • сертифицированный кабель HDCP 2.2 с цифровым интерфейсом 4K;
  • совместимый с HDCP 2.2 и 4K цифровой порт на видеовыходе материнской платы или видеокарте;
  • оплаченный тариф Netflix, предусматривающий 4K и HDR;
  • установка высокого или автоматического качества потоковой передачи в настройках воспроизведения учётной записи Netflix.

Стоит обратить внимание, что Netflix обновила требования, указав 60-Гц дисплей. Существуют дополнительные условия каждого производителя (Intel, AMD и NVIDIA), особенно если пользователи также хотят получать поток в режиме HDR. Для Intel поддерживаются только iGPU Kaby Lake или выше. Для NVIDIA — только GeForce GTX 1050 или выше с объёмом видеопамяти не менее 3 Гбайт и драйверами 387.96 или выше. Как отмечает NVIDIA, потоковая передача 4K на SLI/LDA не поддерживается, а для вывода на несколько мониторов требуется, чтобы все активные дисплеи были совместимыми с HDCP 2.2; последнее, вероятно, справедливо и для конфигураций с GPU AMD.

AMD Radeon Software Adrenalin Edition 18.4.1 также приносит предварительную поддержку вышедшего недавно крупного обновления Windows 10 April 2018 Update (версия 1803) и несколько исправлений ошибок. Скачать его можно либо через панель Radeon Settings, либо с официального сайта.

NVIDIA работает над трассировкой лучей для Vulkan

Одной из главных тем на мартовском мероприятии Game Developers Conference 2018 стала трассировка лучей в реальном времени. Microsoft представила стандарт DirectX Raytracing (DXR). NVIDIA на его базе анонсировала собственную реализацию — оптимизированную под ускорители с архитектурой Volta технологию GameWorks RTX. Похоже, «зелёная» компания не собирается ограничиваться трассировкой лучей в рамках DirectX 12.

2018 год для игровой индустрии положит начало внедрению трассировки лучей в реальном времени: многие крупные компании и разработчики трудятся над решением этой проблемы. Очередным шагом NVIDIA в этой области стала работа над расширением для API Vulkan, которое, по аналогии с RTX для DXR, позволит использовать в играх трассировку лучей.

NVIDIA работает над переносом своей технологии RTX в Vulkan через расширение VK_NV_raytracing, которое хорошо совместимо с открытым графическим API. Компания предложила свой метод группе Khronos и стремится к стандартизации технологии трассировки лучей в реальном времени в рамках Vulkan. Другими словами, в перспективе такой метод сможет работать как на ускорителях GeForce, так и на Radeon и даже Intel Graphics (если будут достаточно мощные решения). NVIDIA подчёркивает, что структура близка к Microsoft DXR, что упростит жизнь разработчикам.

Разработчики, желающие ознакомиться с подходом NVIDIA к реализации трассировки лучей в рамках открытого графического API, могут открыть соответствующую официальную презентацию (формат PDF) или видеозапись сессии, в которой компания рассказывает об RTX для Vulkan. Стоит помнить, что речь идёт о предварительной версии технологии.

Те, кто пропустил техническое видео, в котором директор по развитию продуктов NVIDIA Фрэнк Делиз (Frank DeLise) рассказывает для широкой аудитории о преимуществах и принципах, лежащих в основе RTX, могут ознакомиться с нашим мартовским материалом. Напомним: AMD ранее также представила аналогичную технологию Radeon Rays 2.0 для API Vulkan.

Графические процессоры AMD — основа 53 % игровых систем

В соответствии с недавним отчётом аналитической компании Jon Peddie Research, доминирующее положение AMD на рынке графических ядер для игровых приставок помогло «красным» занять 53 % рынка GPU для x86-совместимых игровых систем. Таким образом, Advanced Micro Devices успешно ведёт игру на два фронта, тогда как NVIDIA в основном сосредоточена на игровых решениях для настольных ПК и ноутбуков.

ПК-геймеры и владельцы консолей довольно консервативны в своём выборе, что во многом объясняется высокими затратами для перехода из одной экосистемы в другую и просто силой привычки. Тем не менее, если не произойдёт ничего сверхъестественного, игровые приставки в период 2018–2020 гг. сохранят за собой около трети рынка x86-систем с игровыми графическими процессорами. В 2012 г. соотношение составляло приблизительно 3:1 в пользу ПК.

Сборка игрового компьютера в среднем обходится значительно дороже покупки PlayStation или Xbox, но, во-первых, игры для ПК можно купить дешевле, а во-вторых, игровую x86-систему можно использовать и для других целей — работы, учёбы, творчества, разнообразных опытов (разгон, моддинг и др.) и эксплуатации в качестве домашнего сервера.

На фоне постепенного сокращения поставок персональных компьютеров различного назначения стабильный прирост количества игровых ПК не может не радовать. Это означает, что видеоиграми увлекается всё больше пользователей, и требования к графической составляющей постоянно растут.

В последние годы за счёт крупных заказов со стороны производителей консолей и повышенного спроса на криптовалютные фермы AMD перехватила инициативу на рынке GPU. Четыре года подряд доля графических ядер компании превосходит общий показатель NVIDIA и Intel. В зачёт последней, похоже, идут системы со встроенными GPU Iris, которые позволяют играть в современные игры в режиме «слайдшоу». Приятным исключением являются центральные процессоры Kaby Lake-G с графикой AMD Vega, но объём их поставок пока невелик.

Согласно JPR, в 53 % случаев для игр используются графические процессоры AMD. При этом компьютеров и приставок с «красными» GPU меньше половины. Данное расхождение объясняется тем, что почти все консоли фактически используются для запуска игр, тогда как владельцы компьютеров с графическими ядрами, рассчитанными на игровую нагрузку, нередко вовсе не играют в течение дня.

Определённая зависимость AMD от производителей игровых приставок может стать проблемой для компании в будущем, но, с другой стороны, она показала себя как надёжный партнёр для Microsoft и Sony. К тому же Advanced Micro Devices активно работает над 7-нм графическими процессорами для ПК, не говоря уже о новых поколениях APU.

Intel может вернуться на рынок дискретной графики в 2020 году

В ноябре AMD сообщила о том, что глава её графического подразделения, Radeon Technologies Group, Раджа Кодури (Raja Koduri) принял решение покинуть компанию. Чуть позже стало известно, что это была перебежка в стан конкурента: в Intel он возглавил новосозданную группу Core and Visual Computing, которая будет заниматься разработкой дискретных графических процессоров для игровых ПК, а также высокопараллельных ускорителей для суперкомпьютеров и различных перспективных приложений.

Таким образом, Intel решила в третий раз после двух прошлых неудач попытаться выйти на рынок видеокарт. Конечно, на разработку таких амбициозных решений нужны годы — в настоящее же время благодаря вкладу Кодури можно надеяться на улучшение и оптимизации существующей интегрированной графики, а также появление новых продуктов вроде многокристальных процессоров Core серии G, в которых задача графических вычислений возложена на отдельный чип AMD Radeon RX Vega M, дополненный стеком памяти HBM2 и подключённый к CPU через EMIB.

Тем не менее, пока кипит работа над собственной дискретной графикой, основными GPU компании Intel будут по-прежнему оставаться интегрированные ускорители поколения 9,5, используемые в чипах Kaby-Lake Refresh и Coffee-Lake. Пока о своих планах по захвату рынка видеокарт Intel предпочитает молчать, но уже стали появляться первые слухи.

В январе журналист и автор многих публикаций в The Motley Fool, касающихся IT-рынка и полупроводниковых новинок, Ашраф Исса (Ashraf Eassa) утверждал, что первыми дискретными GPU, созданными под началом господина Кодури, станут решения 12-го поколения под кодовым именем Arctic Sound. Их наследниками выступят якобы GPU Jupiter Sound. В обоих случаях это будут не полноценные видеокарты, но всё же и не интегрированная графика. Речь идёт об отдельных кристаллах, подключаемых к стеку скоростной памяти и CPU посредством интерфейса EMIB. Другими словами, они призваны заменить графику AMD Radeon в мобильных процессорах вроде современных решений Core серии G.

Intel 740 для шины AGP — первая внешняя видеокарта компании, 1998 год

Intel 740 для шины AGP — первая внешняя видеокарта компании, 1998 год

На этой неделе Ашраф Исса выложил серию дополнительных твитов, в которых продолжил рассказ об Arctic Sound. По его словам, Intel приступит к массовому производству этих графических решений лишь в первой половине 2020 года. Также он добавил, что Intel надеется с помощью Jupiter Sound обойти NVIDIA по показателям производительности на 1 ватт потребляемой мощности в секторе решений до 60 Вт. Возможно, это будет уже полноценная внешняя видеокарта?

Интересно, что, согласно информации того же журналиста, изначально проект Arctic Sound был предназначен для использования в серверах, ориентированных на потоковое видеовещание. Однако после того, как Раджа Кодури влился в дружный коллектив Intel, он убедил руководство создать также игровую версию ускорителя и теперь желает триумфально выйти на рынок.

Ускорители Intel Xeon Phi, так и не превратившиеся в игровые видеокарты (самый мощный 72-ядерный Phi 7290 вышел в 2016 году)

Ускорители Intel Xeon Phi так и не превратились в игровые видеокарты (самый мощный 72-ядерный Phi 7290 вышел в 2016 году)

Наконец, Ашраф Исса утверждает, что дискретная графика Intel Arctic Sound может получить поддержку многокристальной компоновки: в зависимости от конфигурации и требуемой производительности на одной подложке может размещаться один, два или четыре таких чипа. Кстати, журналист отмечает, что следующая версия интерфейса Intel EMIB носит кодовое имя Fevoros — он позволит объединять кристаллы меньшего размера, а также размещать чипы один на другом для экономии занимаемой площади.

Помимо сведений о работе Intel в области дискретной графики информатор заявил, что 10-нм процессоры Tiger Lake (запланированы на конец 2019 года) получит серьёзные оптимизации в области энергопотребления, так что 35-Вт мобильные кристаллы, например, смогут потреблять во время простоя лишь 9 мВт. И якобы руководство Apple было в хорошем смысле удивлено этими возможностями Tiger Lake. Эти процессоры будут использоваться в будущих Mac, но вот после них купертинская компания собирается начать переход на собственные кристаллы с архитектурой ARM.

Новые GeForce получат GDDR6, старт производства памяти — через 3 месяца

Во время мероприятия GTC 2018 журналистам GamersNexus удалось выяснить, что память стандарта GDDR6 от SK Hynix поступит в массовое производство через 3 месяца и будет использоваться в нескольких грядущих продуктах NVIDIA. Некоторые представляют собой компоненты автопилота для автомобилей, но журналисты также утверждают, что GDDR6 будет использоваться в большинстве, если не во всех новых игровых видеокартах NVIDIA.

Учитывая временную шкалу массового производства GDDR6 от SK Hynix в июне–июле, можно ожидать, что графические ускорители GeForce следующего поколения станут доступны после этой даты. В конце концов, память ещё нужно установить на платы. Другими словами, если верить этим сведениям, то ждать новых игровых видеокарт NVIDIA не стоит минимум 3 месяца.

Любопытно, что GDDR6, как сообщается, будет на 20 % дороже по стоимости производства, чем GDDR5 на момент запуска. Возросшие издержки, разумеется, отразятся на конечной стоимости продуктов. Впрочем, с налаживанием массового производства и переоснащением линий GDDR5 цена должна несколько снизиться.

Помимо нового типа памяти ускорители должны получить и архитектуру Volta, поддерживающую среди прочего эффективные технологии трассировки лучей в реальном времени. Косвенным свидетельством, что новые GeForce появятся только летом, говорит и тот факт, что полноценная поддержка технологии GameWorks RTX будет добавлена в движок Unreal Engine 4.20 в июле.

Также сообщается, что чипы GDDR6 от Hynix будут поставляться в BGA со 180 контактами против 170 у GDDR5, что обеспечит дополнительный рост пропускной способности. Скорость чипов GDDR6 от Hynix ожидается в 16 Гбит/с, причём они будут выпускаться в вариантах ёмкостью 8 Гбит или 16 Гбит (GDDR5 доступны только в вариантах до 8 Гбит).

Видео: NVIDIA рассказала о трассировке лучей GameWorks RTX

Одной из главных тем на Game Developers Conference в этом году стала трассировка лучей в реальном времени. Microsoft представила стандарт DirectX Raytracing (DXR). NVIDIA на его базе анонсировала собственную реализацию — оптимизированную под ускорители с архитектурой Volta технологию GameWorks RTX. AMD продолжила продвигать открытые стандарты и представила Radeon Rays 2.0 для API Vulkan от Khronos Group.

Впрочем, без сомнений, самые впечатляющие демонстрации из показанных на данный момент были созданы с применением NVIDIA RTX: это и проект PICA PICA от команды EA SEED, и юмористическая зарисовка по мотивам VIII эпизода «Звёздных войн» на движке Unreal Engine, и демонстрация студии Remedy на базе движка Northlight, и запись реальной игровой сцены из грядущей Metro Exodus. Теперь на канале NVIDIA появился ролик, в котором директор по развитию продуктов NVIDIA Фрэнк Делиз (Frank DeLise) рассказывает об RTX.

Он отметил, что начинал свою карьеру в киноиндустрии, и лишь потом перешёл в игровую сферу. По его словам, в кино активно используется трассировка лучей для достижения реалистичной симуляции освещения и отражений — в играх это прежде было недостижимо. Дело в том, что этот метод крайне ресурсоёмкий — поэтому игры до сих пор полагаются на различные ухищрения и эффекты, известные под общим именем растеризации.

Тени на основе трассировки лучей RTX

Тени на основе трассировки лучей RTX

Но только трассировка лучей позволяет имитировать по-настоящему реалистичную физику света, попадающего на различные поверхности и, в зависимости от их структуры и цвета, поглощаемого полностью или частично отражаемого под различными углами. Полноценная трассировка лучей предусматривает просчитывание огромного количества траекторий пучков света и отражений. Подход же NVIDIA заключается в кратном уменьшении количества лучей и последующей интерполяции результата с помощью различных фильтров шумоподавления и размытия в рамках обычного конвейера растеризации — в результате разработчики могут добиться и реалистичного освещения, и исполнения задачи в реальном времени.

Чтобы объяснить более наглядно, о чём говорит NVIDIA, инженеры компании создали подборку технических демонстраций, которые от простых примеров к сложным показывают преимущества и принципы работы технологии RTX по сравнению с самыми передовыми на сегодняшний день методами и эффектами на основе растеризации.

NVIDIA и раньше задавалась вопросами ускорения трассировки лучей в реальном времени, но прежде ограничивалась простыми сценами или низкой частотой кадров — например, проводила демонстрацию в 2012 году, во время анонса GeForce GTX 690 на базе архитектуры Kepler. Теперь, по словам компании, RTX и мощь графических процессоров на базе Volta делают трассировку лучей в реальном времени вполне достижимой в очень детализированных и масштабных игровых сценах с приемлемой частотой кадров.

Отражения на основе трассировки лучей RTX

Отражения на основе трассировки лучей RTX

Будущая версия GameWorks SDK, которая получит поддержку архитектуры GPU Volta и последующих поколений, позволит использовать в играх тени, глянцевые отражения и затенение фонового освещения (Ambient Occlusion) на основе трассировки лучей в реальном времени. Все заинтересованные в этом наборе инструментов могут оформить заявку на специальной странице.

Главный технолог Epic Games Ким Либрери (Kim Libreri), касаясь будущего популярного игрового движка Unreal Engine, отметил, что появление NVIDIA RTX открывает возможности для того, чтобы сделать обыденностью трассировку лучей в реальном времени. «Передавая такую мощную технологию в руки сообщества разработчиков игр при поддержке нового API DirectX Raytracing, NVIDIA остаётся движущей силой следующего поколения игровой и кинематографической графики», — добавил он.

Модель затенения Ambient Occlusion на основе трассировки лучей RTX

Обычным же пользователям остаётся надеяться, что уже не за горами тот час, когда благодаря новому поколению графических ускорителей, передовым технологиям вроде Microsoft DXR, NVIDIA RTX или AMD Radeon Rays 2.0, а также усилиям разработчиков, — игры действительно сделают качественный рывок вперёд с точки зрения визуального реализма.

Майнинг на видеокартах обречён: ждём ASIC для добычи Ethereum

В ближайшее время основными инструментами для добычи одной из самых востребованных криптовалют — Ethereum — станут специализированные чипы (ASIC), высокая эффективность которых заставит владельцев «ферм» избавляться от видеокарт GeForce и Radeon, а также криптовалютных ускорителей на основе графических ядер NVIDIA и AMD. Такой вывод напрашивается по ознакомлении с материалом ресурса CNBC, построенного вокруг письма клиентам аналитика Susquehanna Кристофера Роланда (Christopher Roland).

На прошлой неделе специалисты Susquehanna совершили поездку в Азию, чтобы глубже изучить перспективы появления ASIC для Ethereum уже в ближайшем будущем. Как удалось выяснить группе аналитиков в ходе командировки, соответствующее решение за авторством Bitmain — производителя 70–80 % ASIC для добычи Bitcoin — уже разработано. Поставки первых партий микросхем заказчикам запланированы на второй квартал. Вслед за Bitmain, по словам Кристофера Роланда, свои специализированные чипы для майнинга Ethereum выпустят как минимум три других разработчика.

Львиная доля ASIC для добычи Bitcoin выпускается китайской компанией Bitmain

Львиная доля ASIC для добычи Bitcoin выпускается китайской компанией Bitmain

В Susquehanna пока не готовы назвать точные цифры, отражающие превосходство ASIC Bitmain над NVIDIA GeForce и AMD Radeon, но, похоже, что покупка видеокарт для добычи Ethereum вскоре потеряет всякий смысл. В то же время полного отказа от GPU в деле майнинга не предвидится ввиду существования криптовалют, успешно добываемых на графических адаптерах в домашних условиях.

Возможный внешний вид ASIC-системы для майнинга Ethereum

Возможный внешний вид ASIC-системы Bitmain для майнинга Ethereum

В любом случае, американские аналитики уверены в значительном снижении объёмов продаж карт Radeon и GeForce добытчикам криптовалют. По оценке Susquehanna, реализация GPU для вычисления виртуальных монет Ethereum сегодня приносит AMD примерно 20 % выручки, а NVIDIA — 10 %. Соответственно, после возникновения грозной конкуренции графическим адаптерам со стороны ASIC больше всего упадёт спрос на Radeon, и всё это на фоне значительного отставания AMD от NVIDIA в сегменте игровых ускорителей класса high-end.

По мнению г-на Роланда, курс акций AMD в обозримом будущем снизится до $7,50 за единицу, достигнув минимума с ноября 2016 г., в то время как акции NVIDIA просядут до $200. Запас прочности «зелёных» в целом выше за счёт геймерских предпочтений.

Курс акций AMD на 26 марта (источник: Google Finance)

График курса акций AMD за последний месяц (источник: Google Finance)

Курс акций NVIDIA на 26 марта (источник: Google Finance)

Курс акций NVIDIA за 26 февраля — 26 марта (источник: Google Finance)

AMD добавит трассировку лучей в реальном времени в GPU-визуализатор ProRender

В 2016 году AMD в рамках инициативы GPUOpen сделала открытым свой мощный основанный на физике движок для рендеринга. Radeon ProRender (ранее демонстрировавшийся как FireRender) предназначен для высокопроизводительных приложений и улучшенной фотореалистичной визуализации.

В ходе GDC 2018, на которой Microsoft и NVIDIA представили функцию трассировки лучей DirectX Raytracing (DXR) для своего графического API DirectX 12, AMD сделала ответный шаг и выпустила многообещающий ролик в рамках предварительного анонса. В нём компания сообщила, что её профессиональный визуализатор Radeon ProRender получит новый ускоренный режим, позволяющий на современных GPU осуществлять отрисовку в режиме реального времени, совмещающую методы трассировки лучей с традиционной для игр растеризацией.

Звучит весьма схоже на то, о чём говорили NVIDIA, Futuremark и Remedy, рассказывая о своих реализациях трассировки лучей в реальном времени на основе стандарта DXR. Впрочем, AMD утверждает, что её метод основан на Vulkan, а не на DirectX 12. Так или иначе, но возможность в реальном времени работать (пусть и в черновом режиме) с физически достоверным освещением моделей с помощью Radeon ProRender при скорости, близкой к обычным методам растеризации, может значительно ускорить многие рабочие процессы и упростить жизнь профессионалам.

Напомним, движок визуализации Radeon ProRender за счёт GPU-ускорения уже позволял значительно повысить скорость визуализации в таких популярных пакетах для рендеринга, как 3ds Max, Maya, Blender, SolidWorks, Rhino и Maxon Cinema 4D. Доступ к режиму трассировки лучей в реальном времени в Radeon ProRender компания AMD обещает предоставить своим партнёрам в ближайшее время. Остальные интересующиеся могут подписаться на рассылку новостей для разработчиков AMD Developer News.

NVIDIA представит трассировку лучей в реальном времени

Как сообщает ресурс VideoCardz, сегодня NVIDIA планирует представить публике технологию RTX. Это кинематографический рендеринг в реальном времени для разработчиков игр. Вместе с RTX NVIDIA анонсирует трассировку лучей в рамках пакета Gameworks, которая позволит разработчикам игр в режиме реального времени создавать более реалистичные эффекты теней (Area Shadows), отражений (Glossy Reflections) и освещения (Ambient Occlusion). Этот инструмент уже доступен в раннем доступе.

Технология трассировки лучей в реальном времени давно будоражит умы игроделов, но, несмотря на огромный прогресс в возможностях и производительности видеокарт, всё никак не доберётся до массового рынка. В теории она, по аналогии с обычной трассировкой лучей, применяемой в CG-рендеринге, позволит создавать максимально близкую к кинематографической картинку в играх.

Возможно, на этот раз NVIDIA удастся добиться большего. Как сообщается, зелёная компания активно сотрудничает с Microsoft в рамках создания особого API для RTX — если это так, то можно вполне рассчитывать и на поддержку технологии со стороны других производителей графических ускорителей в лице AMD и Intel.

Более того, журналисты утверждают, что API на базе RTX будет якобы поддерживаться такими популярными игровыми движками, как Unreal Engine, Unity и Frostbite. Чтобы дополнительно заинтриговать, VideoCardz говорит об участии в разработке RTX таких компаний, как EA Games, Remedy и 4A Games. Впрочем, в качестве доказательства приведён лишь один внутренний слайд NVIDIA. Так или иначе, до времени X ждать осталось совсем недолго.

NVIDIA подозревается в использовании монопольных преимуществ

В Сети начали появляться материалы, в которых новая партнёрская маркетинговая программа NVIDIA GPP (GeForce Partner Program) называется антиконкурентной тактикой против AMD и Intel. Принципы, прописанные NVIDIA в программе, могут довольно сильно влиять на выбор потребителей на рынке компьютеров. Инициатором обвинения стала AMD, но затем и сами журналисты исследовали проблему.

Многие задаются вопросом, что же такое GPP? В начале марта директор по партнёрскому маркетингу NVIDIA Джон Типл (John Teeple) так её описал:

«Желая наилучшим образом обслуживать игроков, мы представляем нашу партнёрскую программу GeForce. Графический процессор и программное обеспечение игрового ПК делают основной вклад в окружение игроков. И вместе с нашими видеокартами и системными партнёрами мы занимаемся созданием самой лучшей игровой платформы для ПК — в этом суть обязательства GeForce.

GPP предназначена для обеспечения полной прозрачности в информировании игроков о платформе GPU и программных продуктах, которые им продают, чтобы люди могли уверенно выбирать решения, способные обеспечить выполнение обязательства NVIDIA GeForce.

Эта прозрачность возможна только в том случае, если марки NVIDIA и партнёрские бренды согласованы. Поэтому новая программа подразумевает, что мы будем продвигать бренды партнёров GPP через Интернет, в социальных сетях, на мероприятиях и так далее. А партнёры GPP получат ранний доступ к нашим новейшим новациям и будут тесно сотрудничать с нашей командой инженеров, чтобы предоставлять игрокам новейшие технологии. Партнёры быстро записываются в GPP. Они понимают выгоду, которую сулит принцип прозрачности и согласованности марок и коммуникаций.

Программа не является эксклюзивной. Партнёры по-прежнему имеют возможность продавать и продвигать продукцию любых других компаний. Партнёры выбирают подписку GPP, и они же могут в любой момент прервать участие ней. Нет никаких обязательств по внесению каких-либо денежных выплат или скидок на продукты за участие в программе. GPP гарантирует, что наши инженерные и маркетинговые усилия поддерживают те бренды, которые потребители связывают с GeForce».

Как можно видеть, с первого взгляда GPP звучит неплохо, но после анализа документации и бесед с OEM-производителями и AIB, первое положительное впечатление улетучивается. Журналисты HardOCP провели большое расследование и поделились своими мыслями после общения с рядом производителей.

Несмотря на заявления о прозрачности, все семь опрошенных компаний, которые являются участниками GPP, либо вовсе отказались обсуждать программу, либо не захотели общаться под запись. Те, кто решился говорить с журналистами, сделали это анонимно, опасаясь потерять работу или испытать негативную реакцию со стороны NVIDIA. В целом все их мысли сводились к следующему:

  • они считают, что в GPP есть условия, которые, вероятно, являются незаконными;
  • GPP, вероятно, сильно повлияет на выбор потребителей;
  • программа мешает ведению бизнеса с компаниями AMD и Intel.

Главная претензия к GPP сводится к ключевому требованию NVIDIA к участникам программы: партнёры обязуются, чтобы их игровой бренд был связан исключительно с GeForce — это, как сообщается, прямо обозначено в документах. Что это значит на деле? У ASUS, например, есть марка Republic of Gamers (ROG). Если ASUS захочет стать партнёром NVIDIA и пожелает использовать GPU NVIDIA в своих видеокартах, компьютерах и ноутбуках под маркой ROG, она больше не сможет продавать графические процессоры других компаний (прежде всего, AMD) под тем же брендом.

NVIDIA, конечно, отмечает, что участие в партнёрской программе — дело добровольное, но компания, не желающая быть частью GPP, потеряет некоторые заметные преимущества. Речь идёт об интенсивном техническом взаимодействии с NVIDIA, в том числе о раннем доступе к новым разработкам; статусе партнёра по запуску продуктов; выгодных предложениях по комплектации играми; программах скидок; продвижении в социальных сетях и PR-поддержке; маркетинговых отчётах; маркетинговых фондах развития (MDF).

Последнее может быть наиболее сильным преимуществом GPP: в рамках MDF партнёр может получить частичную или полную компенсацию затрат на маркетинг и развитие бизнеса. Другими словами, GPP имеет много общего с прошлыми монополистическими бизнес-практиками Intel (направленными против AMD), когда компания, пользуясь своим преимущественным положением, продвигала свою эксклюзивность через MDF-фонды. Результатами для Intel стали многомиллиардные штрафы. Более того, как сообщили журналистам, компании чувствуют, что без участия в GPP они обслуживаются по остаточному принципу и NVIDIA сдерживает поставки им графических процессоров из своих запасов. Эта практика якобы не проговаривается официально, но NVIDIA на неё намекает.

Почему компания, контролирующая более 70 % рынка видеокарт и доминирующая также в вопросе производительности своих решений, может идти на такой шаг? В последние годы NVIDIA нажила множество недругов. Основных в этом списке можно назвать легко: AMD, Apple и Intel. Возможно, GPP является в некоторой степени результатом этой «вражды» — NVIDIA пытается получить больше контроля над рынком, так как видит активность конкурентов по разработке опасных для неё продуктов (в качестве примера можно привести партнёрство AMD и Intel, которое закрыто для NVIDIA).

Ресурс HardOCP ещё 22 февраля направил ряд вопросов и опасений относительно GPP в NVIDIA, но ответа или комментариев так и не получил. Также NVIDIA не предоставила полный список компаний, вовлечённых в GeForce Partner Program. Вполне возможно, история получит продолжение в виде исков со стороны Intel и AMD в адрес NVIDIA или же интереса регулирующих органов США, Европы и Азии относительно соответствия GPP антимонопольному законодательству.

ARM представила новые ускорители Mali G52 и G31

ARM объявила о выпуске нового семейства мультимедийных продуктов Mali, состоящего из графических процессоров G52 и G31, блока вывода изображения D51 и видеопроцессора V52, ориентированных на средний и начальный сегменты рынка. Сегодня самый сильный рост мобильного рынка происходит в Китае. Поэтому акцент на менее дорогие решения неслучаен.

Прежде всего, следует сказать о новом графическом ускорителе Mali-G52, который выступает наследником представленного в октябре 2016 года G51. Последний был весьма странным решением: производители предпочитали использовать вместо него G71 и G72 в конфигурациях с небольшим количеством ядер, так что потребительских однокристальных систем с G51 мы так и не увидели. ARM заявляет, что сектор ТВ-решений тоже активно формирует спрос на графику среднего уровня, но эти специализированные чипы публику обычно не особенно волнуют.

Так или иначе, но G52 обещает существенный прирост в 30 % по соотношению производительности на единицу площади конечного кристалла. Эффективность повышена не так сильно — всего на 15 % по сравнению с G51.

Одно из основных изменений, которые позволило добиться такого улучшения, является удвоение линий ALU в конвейере исполнения (EU), потому что оно увеличивает общую площадь ядра лишь примерно в 1,22 раза. На сегодняшний день ALU для архитектуры Bifrost (G71, G72, G51) включает в себя FMA и блок ADD/SF. Конвейер исполнения состоял из четырёх таких линий, а в G52 компания впервые удвоила их количество. В будущем такие же изменения можно ожидать и в GPU более высокого класса.

Чтобы предоставить клиентам больше выбора в создании конфигураций, ориентированных на вычисления или скорость заполнения, ARM позволяет использовать G52 с базовыми настройками, содержащими два или три EU. ARM также обещает прирост скорости машинного обучение в 3,6 раза за счёт того, что новые ALU могут обрабатывать 8-бит операции скалярного произведения (8-bit Dot Product).

Теперь стоит перейти к G31. До последнего времени нужды чипов начального уровня покрывал ускоритель Mali-400, который является самым успешным GPU компании ARM, и, вероятно, самым успешным графическим ускорителем вообще, так как ему скоро стукнет 10 лет, а он по-прежнему появляется в новых продуктах. Но сегодня операционные системы и новые вычислительные задачи делают поддержку OpenGL ES 3.0 и Vulkan обязательным требованием, чего старый-добрый Mali-400 не умеет.

Mali-G31 и призван, наконец, заменить Mali-400 в самых дешёвых чипах для смартфонов. G31 основан на G51, но использует только два блока исполнения шейдеров и поддерживает конфигурации лишь с одним или двумя ядрами против 1—4 у G51. В одноядерной конфигурации G31 обещает 20-процентную экономию площади кристалла по сравнению с G51MP2 и на 12 % более высокую производительность в задачах отрисовки пользовательского интерфейса (вероятно, речь идёт об эффективности скорости заполнения). ARM отмечает, что Mali-G31 — самый компактный GPU с поддержкой OpenGL ES 3.2 и Vulkan.

Блок обработки видео Mali-V52 является наследником V61, представленного также в конце 2016 года вместе с G51. V52 старается перенести возможности V61 на решения среднего класса. Он позволяет кодировать и декодировать аппаратно видеоролики 4K с частотой 60 кадров/с (против 120 кадров/с у V61). При этом ARM внесла ряд улучшений, так что в результате при площади на 38 % меньше, одноядерный вариант Mali-V52 поддерживает декодирование видео HEVC, H.264 и VP9 в разрешении 4K при 30 кадрах/с или 1080p при 120 кадрах/с (для сравнения: одноядерный вариант Mali-V61 обеспечивает воспроизведение лишь 1080p при 60 кадрах/с).

ARM также говорит, что для кодирования в формате HEVC новая архитектура за счёт улучшенных эвристических алгоритмов при управлении размерами блоков кодека позволяет достигать на 20 % более высокого качества при прежнем битрейте. Среди других упомянутых особенностей Mali-V52 есть возможность одновременного декодирования 16 видеороликов в HD-разрешении и передаче их блоку вывода изображений одним кадром. В целом за счёт появления такого мощного, и относительно нетребовательного к площади, видеорешения можно вполне ожидать появления улучшенной поддержки 10-бит HDR 4K-видео в большем количестве смартфонов среднего и начального уровня.

Наконец, последний представленный продукт — блок вывода изображений Mali-D51 является наследником DP650 и упрощением Mali-D71. Решение вдвое эффективнее с точки зрения площади кристалла и поддерживает до 8 слоёв композиции, как и D71.

Уникальность блоков вывода изображений ARM в том, что они позволяют осуществлять ряд задач визуализации пользовательского интерфейса (компоновки, линейного вращения, высококачественного масштабирования, повышения или уменьшения контрастности и прочее), снижая нагрузку с графического процессора и увеличивая энергоэффективность.