Теги → nvidia
Быстрый переход

Видеокарта GIGABYTE GeForce RTX 2060 OC предложит 1920 ядер CUDA

В начале следующего года компания NVIDIA должна представить новую видеокарту на графическом процессоре Turing — GeForce RTX 2060. Партнёры «зелёной» компании уже готовят свои собственные версии данного графического ускорителя, и ресурс VideoCardz раздобыл изображения одной из новинок — GIGABYTE GeForce RTX 2060 OC.

Более того, выяснилась конфигурация графического процессора новой видеокарты. Сообщается, что GeForce RTX 2060 будет построена на графическом процессоре Turing TU106 в версии с 1920 ядрами CUDA. Этот же GPU, но в полной версии с 2304 ядрами CUDA является основой видеокарты GeForce RTX 2070.

А вот тактовые частоты графического процессора новинки пока что неизвестный. На представленном ниже скриншоте указана частота в 1,2 ГГц, что является довольно низким показателем, и у финальной версии видеокарты он должен быть ощутимо выше. Кстати, также этот скриншот подтверждает конфигурацию GPU: 30 вычислительных по 64 ядра CUDA на блок дают в сумме 1920 ядер.

NVIDIA GeForce RTX 2060 будет оснащена 6 Гбайт памяти GDDR6. Представленная на изображениях модель в исполнении GIGABYTE оснащена одним 8-контактным разъёмом дополнительного питания. Эталонная же версия, скорее всего, получит лишь одиночный 6-контактный разъём.

Выход видеокарт GeForce RTX 2060 ожидается в самом начале наступающего 2019 года. Также отметим, что примерно в то же время GeForce RTX 2060 может дебютировать и в ноутбуках.

Трассировка лучей в реальном времени скоро появится в ноутбуках

Ранее уже сообщалось, что семейство мобильных ускорителей NVIDIA GeForce RTX будет представлено на выставке CES 2019, где крупные производители оборудования смогут продемонстрировать свои грядущие ноутбуки и моноблоки с новыми видеокартами. Согласно последним утечкам, представлено будет минимум три обычных GPU и три в формате Max-Q для тонких ноутбуков:

  1. NVIDIA GeForce RTX 2080 Ti Mobility;
  2. NVIDIA GeForce RTX 2080 Mobility;
  3. NVIDIA GeForce RTX 2080 Max-Q;
  4. NVIDIA GeForce RTX 2070 Max-Q;
  5. NVIDIA GeForce RTX 2060 Max-Q;
  6. NVIDIA GeForce RTX 2060 Mobility.

Прежде всего, мобильный ускоритель GeForce RTX 2060 на базе Turing появился в базе данных 3DMark. Предполагается, что настольный ускоритель GeForce RTX 2060 будет использовать урезанный чип TU106, поэтому, вероятно, мобильный вариант будет основан на том же кристалле. Видеокарта, судя по записи, отличается базовой тактовой частотой 960 МГц и 6 Гбайт видеопамяти GDDR6, работающей через 192-битный интерфейс на частоте 1750 МГц (то есть используются чипы 14 Гбит/с).

Интересно, что вариант GeForce RTX 2060 для ноутбуков Max-Q указан с немного другими характеристиками. Почему-то используется чуть более высокие тактовые частоты ядра в 975 МГц, но сниженная частота памяти до 1500 МГц (то есть используются чипы 12 Гбит/с). Сообщается, что мобильный ускоритель будет набирать около 19 000 очков, то есть окажется немного медленнее, чем современная мобильная карта GeForce GTX 1070.

Далее благодаря результатам Geekbench стали известны предположительные характеристики ускорителя GeForce RTX 2070 Max-Q: это решение должно получить 2304 ядра CUDA, работающих на частоте 1300 МГц, и 8 Гбайт памяти GDDR6 (вероятно, используются также чипы 12 Гбит/с). Графика замечена в ноутбуке Lenovo с процессором Intel Core i7-8750H (6 ядер, 12 потоков), то есть предназначена для высокопроизводительных систем. Обычный вариант GeForce RTX 2070, если таковой существует, вероятно использует более быструю память 14 Гбит/с.

В случае с GeForce RTX 2080 просочились варианты для обычных ноутбуков и систем Max-Q. Обе модификации оснащены 2944 ядрами CUDA и 8 Гбайт памяти GDDR6. Обычный вариант имеет тактовую частоту 1590 МГц, а вариант Max-Q — 1230 МГц. Это довольно существенная разница в тактовых частотах по сравнению с различиями между вариантами RTX 2060.

Карты будут иметь аналогичную конфигурацию памяти: вариант Max-Q — с чипами 12 Гбит/с, а для обычных ноутбуков — 14 Гбит/с. Также следует отметить, что стандартный вариант RTX 2080 работал на ноутбуке HP с 8-ядерным 16-поточным процессором Intel (Core i9 девятого поколения с базовой частотой 2,1 ГГц и 4,4 ГГц в режиме Boost).

Наконец, есть информация об ускорителе GeForce RTX 2080 Ti, который используется в ноутбуке ASUS Zephyrus M GM501GS. Эта серия ноутбуков может предложить едва ли не самые впечатляющие характеристики в тонком формате из присутствующих на рынке. Мобильная графика GeForce RTX 2080 Ti располагает 4352 ядрами CUDA, работающими на частоте 1540 МГц. Карта также оснащается 11 Гбайт памяти GDDR6 (видимо, с чипами 14 Гбит/с). Интересно, что решение очень близко по характеристикам к настольному варианту, потребляющему до 280 Вт, так что NVIDIA потребуется, видимо, ещё поработать над частотами. Но в любом случае, это будет очень дорогое решение.

Zotac назвала ошибкой информацию о GeForce GTX 1070 с памятью GDDR5X

Недавно Zotac добавила очередной ускоритель GeForce GTX 1070 в своё семейство продуктов и, казалось, сообщила о том, что NVIDIA начала оснащать некоторые ускорители 1070 более быстрой памятью GDDR5X, как это было прежде сделано в случае с GeForce GTX 1060. Но, как оказалось, не всё так однозначно.

Когда компания разместила новую модель (ZT-P10700Q-10P) на своём сайте, на её странице большими жирными буквами в названии значилось «GDDR5X», как и на соответствующей странице технических характеристик. Zotac затем быстро удалила страницу, но кеш Google информацию сохранил. Естественно, это вызвало предположение, что Zotac случайно сообщила нечто, о чём NVIDIA пока говорить не готова.

Однако с тех пор запись об ускорителе снова появилась на сайте, но на этот раз уже с обычной видеопамятью стандарта GDDR5, а не GDDR5X. Журналисты PC Gamer связались с производителем, чтобы прояснить ситуацию, и Zotac подтвердила, что речь шла просто об ошибке. «Видеокарта будет поддерживать только обычную память GDDR, — отметил представитель компании.

Потенциальное преимущество использования памяти GDDR5X — возможность получить существенно более широкую полосу пропускания. Собирается ли NVIDIA вслед за моделями GTX 1060 предложить такое обновление и для GeForce GTX 1070 — не ясно, но пока такой сценарий представляется маловероятным.

Серия мобильных ускорителей NVIDIA GeForce RTX ожидается уже на CES 2019

Как сообщается, первые мобильные ускорители серии NVIDIA GeForce RTX будут представлены уже на выставке CES 2019, которая откроется 6 января. Образцы якобы уже начали печататься и скоро поступят журналистам и тестировщикам. Интересно, что ускорители будут поставляться с предварительными драйверами, отличающимися относительно слабой производительностью. Новые же драйверы с полноценными оптимизациями выйдут только после снятия эмбарго, так что любые ранние утечки о производительности будут малоценны.

В настоящее время слухи сообщают, что NVIDIA на сцене во время CES покажет мобильные ускорители GeForce RTX 2070 и GeForce RTX 2070 Max-Q. При этом дата снятия эмбарго якобы сейчас назначена на 26 января — таким образом, оценить производительность ускорителей в полной мере можно будет лишь в конце следующего месяца.

Интересно, что флагманский мобильный ускоритель GeForce RTX 2080 Max-Q не ожидается в январе, а должен дебютировать позже. Ранее в Сеть просочился идентификатор этой карты (Turing TU104M: 1eab). Остальные будущие мобильные ускорители серии GeForce 20 (2060, 2050 Ti и 2050), как ожидается, будут использовать маркировку GTX, а не RTX.

Другим интересным фактом относительно новой мобильной графики NVIDIA является стремление NVIDIA ввести стандарты толщины конечных устройств для каждой будущей видеокарты. Сообщается, что компания оказывает производителям помощь в проектировании максимально тонких ноутбуков. Учитывая тот факт, что новые ускорители производятся с соблюдением оптимизированных и улучшенных 16-нм норм FinFET (официальное название — 12 NFF), можно ожидать существенного роста энергоэффективности по сравнению с видеокартами серии GeForce GTX 10.

Новая статья: Обзор видеокарты GIGABYTE AORUS GeForce RTX 2080 Ti XTREME

Данные берутся из публикации Обзор видеокарты GIGABYTE AORUS GeForce RTX 2080 Ti XTREME

GIGABYTE готовит видеокарту GeForce RTX 2080 Ti Aorus Turbo

Компания GIGABYTE готовит видеокарту под названием GeForce RTX 2080 Ti Aorus Turbo, которая станет второй GeForce RTX 2080 Ti с системой охлаждения с тангенциальным вентилятором в ассортименте GIGABYTE.

Ранее компания GIGABYTE уже представила видеокарту GeForce RTX 2080 Ti Turbo с «турбиной». Обычно видеокарты с системами охлаждения с тангенциальными вентиляторами являются одними из наиболее доступных моделей в ассортименте AIB-партнёров. Поэтому решение GIGABYTE выпустить подобную модель в серии Aorus, которая ориентирована на более продвинутые системы, выглядит довольно неожиданно.

Графический ускоритель GeForce RTX 2080 Ti Aorus Turbo получил кожух с другим дизайном, нежели был у обычной версии Turbo. Скорее всего, внутреннее устройство системы охлаждения не изменилось и также включает алюминиевый радиатор, установленный поверх медной испарительной камеры. Печатная плата, кажется, также не претерпела изменений, что может говорить о наличии подсистемы питания с 8+3 фазами. Для дополнительного питания имеется пара 8-контактных разъёмов.

К сожалению, тактовые частоты GeForce RTX 2080 Ti Aorus Turbo пока что не уточняются. Обычно видеокарты с «турбинами» не получают заводского разгона. Однако, возможно, чтобы выделить новинку на фоне стандартной версии Turbo, компания GIGABYTE всё же немного повысит частоты графического процессора у GeForce RTX 2080 Ti Aorus Turbo. Стоимость и дата выхода новинки также пока что не раскрываются.

NVIDIA представила обновлённую GeForce GTX 1070 с памятью GDDR5X

Похоже, NVIDIA закупила массу нераспроданных чипов памяти GDDR5X и теперь обновляет свои огромные запасы нереализованных ускорителей GP104, чтобы сделать продукты более привлекательными для потребителей в связи с появлением 20-й серии RTX, способной предложить поддержку трассировки лучей в реальном времени.

Вначале публика получила основанные на GP104 видеокарты GeForce GTX 1060 с 6 Гбайт памяти GDDR5X, а теперь речь идёт о значительно более быстрой GeForce GTX 1070, которая теперь тоже может комплектоваться скоростной памятью (остальные характеристики остались прежними). ZOTAC вошла в число первых партнёров, готовых к выпуску карт NVIDIA, и представила ускоритель GeForce GTX 1070 AMP Extreme Core Edition GDDR5X (модель ZT-P10700Q-10P).

Как и в случае GeForce GTX 1060 6 Гбайт GDDR5X, память в видеокарте от ZOTAC работает почти на стандартной эффективной частоте 8,2 ГГц, несмотря на использование чипов памяти GDDR5X, вполне способных обеспечивать скорость в 10 Гбит/с. Она имеет 8 Гбайт видеопамяти и оснащается полноценной 256-битной полосой пропускания.

Сам чип GPU получил заметный заводской разгон до частоты 1607 МГц (в режиме Boost — до 1805 МГц). Изначально версия AMP Extreme с GDDR5X не должна особо отличаться от обычной версии с памятью GDDR5, но любители разгона должны получить весьма существенный запас по повышению частоты памяти.

Razer представила производительный компактный ноутбук Blade Stealth 13 (2019)

Компания Razer представила обновлённый ноутбук Blade Stealth 13 (2019). Новинка получила более компактный корпус, а также более современную аппаратную «начинку», которая должна обеспечить значительный прирост производительности по сравнению с предыдущей версией.

Ноутбук Blade Stealth 13 (2019) оснащён 13,3-дюймовым дисплеем с разрешением Full HD или 4K, в зависимости от версии, причём последний вариант также поддерживает сенсорный ввод. В обоих случаях дисплей обеспечивает покрытие цветового пространства sRGB на 100 %. Также производитель отмечает, что каждый дисплей проходит ручную калибровку.

Для того, чтобы ноутбук получился максимально компактным, экран обрамляют тонкие рамки. Ширина боковых рамок составляет всего 4,9 мм. Габариты Blade Stealth 13 (2019) составляют 304,6 × 210 × 14,8 мм, а весит он от 1,28 до 1,38 кг, в зависимости от версии. Корпус ноутбука выполнен из алюминия.

Новинка построена на четырёхъядерном процессоре Intel Core i7-8565U поколения Whiskey Lake, который поддерживает работу на восемь потоков и обладает частотами 1,8–4,6 ГГц. За обработку графики отвечает дискретная видеокарта NVIDIA GeForce MX150 в версии с 4 Гбайт памяти GDDR5. Заметим, что самая доступная, базовая версия нового Blade Stealth 13 обходится лишь встроенной графикой Intel UHD 620.

Объём оперативной памяти LPDDR3-2133 может быть равен 8 или 16 Гбайт. В обоих случаях память распаяна на материнской плате и работает в двухканальном режиме. Для хранения данных в Blade Stealth 13 (2019) предусмотрен твердотельный накопитель формата M.2 объёмом 256 Гбайт с интерфейсом SATA или PCIe, или объёмом 512 Гбайт c интерфейсом PCIe.

За автономную работу Blade Stealth 13 (2019) отвечает батарея ёмкостью 53,1 Вт·Ч, которая, по словам производителя, способна обеспечить до 13 часов использования ноутбука вдали от розетки. Также заметим, что новинка получила два порта USB 3.1 Type-A, один USB 3.1 Type-C через который ноутбук также и заряжается, и один Thunderbolt 3 (USB Type-C) с возможностью подключения внешних видеокарт.

Ноутбук Razer Blade Stealth 13 (2019) сегодня начал продаваться в США и Канаде, а в ближайшем будущем появится на рынках других стран. Стоимость базовой модификации составляет $1399. Средняя модель с дискретной графикой и большим объёмом ОЗУ оценена в $1599. За старшую версию с 4К-экраном и более ёмким SSD придётся отдать $1899.

NVIDIA открыла исходный код физического движка PhysX

Компания NVIDIA анонсировала новую версию набора средств разработки PhysX SDK 4.0, которая станет доступна с 20 декабря. Но что важнее, вместе с анонсом новой версии NVIDIA решила открыть исходный код своего физического движка, и с этого момента PhysX SDK 3.4 доступен бесплатно всем желающим на GitHub по простой лицензии BSD.

В NVIDIA считают, что данный шаг позволит куда большему числу разработчиков применять физический движок PhysX в своих проектах. По словам NVIDIA, физически правильное моделирование процессов является важной частью не только игр, но и различных научных разработок, в том числе связанных с робототехникой, системами автономных автомобилей и прочих. А движок PhysX как раз и позволяет производить различные симуляции любого масштаба, которые максимально приближены к условиям реального мира.

Использовать открытый PhysX SDK смогут разработчики для различных платформ, в том числе Apple macOS и iOS, Google Android, Microsoft Windows и различных дистрибутивов Linux. А вот разработчики игр для консолей Sony PlayStation 4, Microsoft Xbox One и Nintendo Switch смогут использовать PhysX по-прежнему лишь по лицензии.

По словам NVIDIA, платформа PhysX SDK в версии 4.0 была модернизирована таким образом, что обновлённый движок сможет обеспечить в играх качество симуляции, ранее присущее только при симуляции в профессиональных задачах. Отмечается улучшение при симуляции различных сочленений, которые стали более плавными и стабильными, а также ряд других улучшений и доработок.

NVIDIA создала игровую демонстрацию с графикой, генерируемой ИИ

Быстрое развитие технологий искусственного интеллекта дало впечатляющие результаты в области генерации видео и изображений. Последний пример — исследование компании NVIDIA, показывающее, как созданные с помощью ИИ визуальные эффекты можно комбинировать с традиционным конвейером растеризации. В результате получается гибридная графическая система, которую можно было бы использовать в играх, фильмах и виртуальной реальности.

«Это новый способ воспроизведения видеоконтента с использованием глубинного обучения, — отметил вице-президент NVIDIA по прикладному машинному обучению Брайан Катандзаро (Bryan Catanzaro) в беседе с журналистами The Verge. — Разумеется, NVIDIA активно думает о генерации графики, и мы исследуем вопрос, как ИИ может совершить революцию в этой области».

Результаты работы NVIDIA не смотрятся пока фотореалистичными и демонстрируют типичные артефакты, характерные для многих изображений, создаваемых искусственным интеллектом. Да и сама технология не является чем-то принципиально новым и в чём-то похожа на алгоритм превращения заваленных снегом улиц в летние, разработанный в NVIDIA для более эффективного обучения автопилота.

Реальное видео (слева) и сгенерированная алгоритмом NVIDIA картинка

Реальное видео (слева) и сгенерированная алгоритмом NVIDIA картинка

В исследовательской работе инженеры компании объясняют, что они основывались на ряде существующих методов, включая популярную систему с открытым исходным кодом под названием pix2pix. Используется метод генеративно-состязательной сети (GAN), который активно применяется для формирования визуальных данных. Он построен на комбинации из двух нейронных сетей, одна из которых генерирует образцы, а другая отклоняет неточные по её мнению. В результате ИИ самообучается созданию всё более качественных результатов с течением времени. Этот подход применяется довольно широко в индустрии создания изображений самого разного рода: от поддельных лиц знаменитостей до картины, которая недавно была продана на аукционе за $432 000.

Но NVIDIA представила ряд новшеств, и один из результатов проделанной работы — создание первой игровой демонстрации с генерируемой при помощи ИИ графикой. Речь идёт о простом симуляторе вождения, где игроки перемещаются по нескольким городским районам, генерируемым ИИ, но не могут покинуть свой автомобиль или иным образом взаимодействовать с миром. Демонстрация работает на одном графическом процессоре — заметное достижение для такой перспективной работы. Впрочем, стоит признать, что речь идёт о Titan V за $3000, который обычно используется для продвинутой симуляции, а не для игр.

Технология NVIDIA генерирует графику в несколько шагов. Вначале исследователи должны собрать данные для обучения: в данном случае это были материалы, используемые при разработке автопилота. Затем видео сегментируется: каждый кадр разбивается на категории вроде неба, автомобилей, деревьев, дороги, зданий и так далее. Затем GAN обучается на основе этих данных для последующей генерации новых объектов.

После этого исследователи создали базовую топологию виртуальной среды, используя традиционный игровой движок. В данном случае речь шла об Unreal Engine 4, который применяется в массе проектов вроде Fortnite, PUBG, Gears of War 4 и других. Используя эту среду в качестве основы, алгоритмы машинного обучения генерируют графику для каждой категории предметов в реальном времени, вставляя их поверх моделей игрового движка.

«Структура мира создаётся традиционным методом, — отметил господин Катандзаро, — единственное, что генерирует ИИ, — это графика». Он также сказал, что сама демонстрация является весьма простой и была собрана воедино лишь одним инженером, добавив: «Она призвана выступить в качестве доказательство концепции, а не быть полноценной интересной игрой».

Чтобы создать эту систему, инженеры NVIDIA должны были решить ряд задач, самой главной из которых было сохранить постоянство создаваемых алгоритмом объектов. Проблема в том, что алгоритм глубинного обучения генерируют графику с высокой частотой кадров, так что первоначальные результаты работы алгоритма были неудобоваримы из-за изменений цветов и текстур в каждом кадре. Пришлось создать систему кратковременной памяти для сравнения каждого нового кадра с предыдущим. Она также призвана предсказывать направление движения и затем создавать кадры, согласованные с существующими. Все эти вычисления весьма требовательны к ресурсам, потому игровая демонстрация выводит лишь 25 кадров/с.

Сравнение сгенерированных с помощью ИИ изображений. Вверху слева — карта сегментации; вверху справа — алгоритм pix2pix HD; внизу слева — COVST; внизу справа — демонстрация NVIDIA vid2vid

Сравнение сгенерированных с помощью ИИ изображений. Вверху слева — карта сегментации; вверху справа — алгоритм pix2pix HD; внизу слева — COVST; внизу справа — демонстрация NVIDIA vid2vid

Технология, разумеется, находится на очень ранней стадии, но в отдалённой перспективе легко представить будущее, где реализм в играх достигается в том числе с помощью подобных алгоритмов, использующих фотореалистичную генерацию на основе объектов реального мира. NVIDIA отмечает, что трассировка лучей, например, десятилетиями использовалась в различных областях 3D-графики пока, наконец, не добралась до игр. Технология может также использоваться при создании окружений для тренировки роботов, автопилота и в других областях. В перспективе метод также может найти и злонамеренное применение — например, для создания подделок.

Производительность Battlefield V в режиме трассировки лучей вырастет

Завтра, 4 декабря, ожидается выход обновления для Battlefield V, а также драйвера GeForce Game Ready, который решит одну из главных проблем военного шутера и новейшей графики NVIDIA RTX. Речь идёт о низкой производительности в режиме трассировки лучей.

Улучшение производительности произойдёт одновременно с выходом Battlefield V: Tides of War Chapter 1: Overture — новой одиночной кампании под названием The Last Tiger. Также в обновлении ожидается:

  • «Военная история» экипажа танка «Тигр» (The Last Tiger), члены которого поняли, что не согласны с идеологией своей родины;
  • новая карта для мультиплеера «Танковый шквал» (Panzerstorm);
  • возможности для тренировки бойцов;
  • новые награды и возможность кастомизации техники.

Кроме вышеперечисленного, Chapter 1: Overture получит оптимизацию трассировки лучей DXR, что позволит повысить производительность до 50 %. Для пользователей это означает честные 60 кадров/с в игре. По крайней мере, так обещает NVIDIA.

Заявлено, что владельцы GeForce RTX 2080 Ti смогут играть с кадровой частотой более 60 кадров/с при разрешении 2560 x 1440 с DXR Raytraced Reflections на настройках Ultra. Для карт GeForce RTX 2080 обещаны более 60 кадров/с со средними настройками DXR. А вот владельцам GeForce RTX 2070 придётся снизить разрешение до 1920 x 1080 точек.

В компании также заявили, что это только начало, и в будущем NVIDIA будет улучшать показатели игры на видеокартах с поддержкой DXR.

NVIDIA представила Titan RTX: самая мощная потребительская видеокарта оценена в 222 000 рублей

Буквально на днях выяснилось, что компания NVIDIA готовит новую видеокарту серии Titan, на этот раз на базе графического процессора Turing. А уже сегодня она была представлена официально. Новинка получила название Titan RTX, что было вполне ожидаемо.

Производитель называет Titan RTX самой производительной настольной видеокартой и позиционирует её в качестве решения для исследований в области ИИ, разработки систем глубокого обучения и создания разного рода контента, в том числе для работы с видео в разрешении до 8K. Конечно, помимо профессиональных задач, новинка найдёт применение и в игровых системах самого высокого класса.

С точки зрения технических характеристик видеокарта Titan RTX полностью копирует видеокарту Quadro RTX 6000, однако отличается от неё программными особенностями. Например, Quadro RTX 6000 лучше подходит для работы с 3D-графикой именно за счёт «заточенных» под это драйверов. А Titan RTX в свою очередь является более универсальным и доступным решением.

Новинка построена на полной версии графического процессора Turing TU102. Для задач, связанных с искусственным интеллектом, этот GPU предлагает 576 тензорных ядер. Также новинка обладает 4608 ядрами CUDA и 72 RT-ядрами для обработки трассировки лучей в режиме реального времени. Работает GPU с частотой 1350/1770 МГц.

Видеокарта оснащена 24 Гбайт видеопамяти GDDR6 с частотой 1750 МГц и пропускной способностью 14 000 МГц на контакт. Память подключена к графическому процессору через шину шириной 384 бита, что в результате даёт общую пропускную способность подсистемы памяти в 672 Гбайт/с.

Что касается производительности, то в задачах, связанных с ИИ, тензорные ядра способны обеспечить 130 Тфлопс. В свою очередь, в операциях с числами с плавающей запятой одинарной точности (FP32) видеокарта обеспечивает 16,3 Тфлопс. А вот в операциях двойной точности (FP64) новинка может обеспечить лишь 0,51 Тфлопс. Для таких задач у NVIDIA имеется Titan V на базе Volta, который способен дать 6,9 Тфлопс. Наконец, новый Titan RTX способен обрабатывать до 11 млрд лучей в секунду при трассировке лучей в реальном времени.

Видеокарта Titan RTX оснащена коннектором NVLink с пропускной способностью до 100 Гбайт/с и поддерживает связки из двух ускорителей. Производитель заявляет для новинки уровень TDP в 280 Вт. За отвод тепла здесь отвечает такая же система охлаждения, что и в GeForce RTX 2080 Ti Founders Edition. Только кожух охладителя получил золотистую краску вместо серебристой.

Графический ускоритель NVIDIA Titan RTX поступит в продажу уже в этом месяце. Его рекомендованная стоимость составит $2499. На российском рынке ускоритель ожидается в январе 2019 года. Розничная цена в онлайн-магазине NVIDIA составит 221 990 рублей.

NVIDIA начинает продвижение 12-Гбайт монстра TITAN RTX

Многие авторитетные блоги почти одновременно показали новый ускоритель NVIDIA TITAN класса RTX, что может означать о начале маркетинговой кампании и снятии эмбарго на распространение этих сведений. Подобный ход компания уже использовала ранее, разослав ещё не выпущенные профессиональные карты Quadro владельцам популярных YouTube-каналов.

Подробности о новом короле графики довольно ограничены: в течение месяца прозвучали лишь идентификатор устройства и объём памяти. Карта может быть основана на полноценном графическом процессоре Turing TU102 с 4608 ядрами CUDA и 576 тензорными ядрами и оснащена 12 Гбайт памяти GDDR6, в отличие от RTX 2080 Ti, использующей 11 Гбайт памяти.

С точки зрения внешнего исполнения ускоритель сохранит дизайн и систему охлаждения от RTX 2080 Ti Founders Edition, на что указывают последние публикации. Отличия касаются лишь цветовой схемы в сочетании белого и золотого по аналогии с TITAN V. Также логотип TITAN горит синим, а не зелёным светом. Видеокарта имеет два 8-контактных разъёма дополнительного питания.

TITAN RTX рассчитан не только на игры, но и на создание контента, искусственный интеллект и машинное обучение. Относительно цены можно предполагать прежний уровень в $3000 — по крайней мере, это меньше $10 000, которые NVIDIA просит за специализированный ускоритель Quadro RTX 8000 c 48 Гбайт GDDR6.

Новая статья: Обзор видеокарты ASUS ROG Strix GeForce RTX 2070 OC: младший GPU, старшая модель

Данные берутся из публикации Обзор видеокарты ASUS ROG Strix GeForce RTX 2070 OC: младший GPU, старшая модель

MMORGP JX Online 3 обеспечит сильный прирост производительности благодаря DLSS

На проходящем в Китае мероприятии GTC 2018 компания NVIDIA сообщила, что новшества видеокарт GeForce RTX будет поддерживать не только Justice, но и другой китайский MMOPG-проект — JX Online 3. Эта игра, посвящённая боевым искусствам, с 2016 года завоевала довольно обширную базу игроков на родине.

Теперь JX Online 3, как сообщается, станет первой игрой в Поднебесной, которая добавит поддержку DLSS (Deep Learning Super Sampling). Этот тип полноэкранного сглаживания на основе машинного обучения, как сообщает NVIDIA, способен в указанной MMORPG повысить производительность GeForce RTX до 80 %, что было продемонстрировано собравшейся публике.

Кроме того, благодаря новой технологии будет обеспечено и более высокое качество конечной картинки по сравнению с существующим методом полноэкранного сглаживания SMAA, а временная равномерность границ при движении камеры возрастёт. Другими словами, результатом станет более чёткая картинка с меньшим количеством артефактов и значительная прибавка в скорости.

Обновление для JX Online 3, которое принесёт поддержку DLSS, выйдет в самом начале следующего года. NVIDIA обещает, что всё больше игр будут получать как DLSS, так и трассировку лучей в реальном времени на видеокартах GeForce RTX.

window-new
Soft
Hard
Тренды 🔥