Главные новости

NVIDIA представила GeForce RTX: характеристики, производительность и цены

Чуть меньше недели назад компания NVIDIA представила новую архитектуру графических процессоров Turing и первые видеокарты, которые будут её использовать — профессиональные решения Quadro RTX. Теперь же графические процессоры Turing прописались и в потребительских видеокартах — компания NVIDIA официально представила графические ускорители GeForce RTX 2070, GeForce RTX 2080 и GeForce RTX 2080 Ti.

Ключевой особенностью графических процессоров Turing является поддержка аппаратного ускорения трассировки лучей (RayTracing), что должно добавить фотореализма картинке в играх. Для работы с трассировкой лучей в GPU Turing были добавлены новые специальные ядра NVIDIA RT, которые обеспечивают многократный прирост в скорости расчёта движения лучей.

Младшая из представленных видеокарт, GeForce RTX 2070, базируется на графическом процессоре с 2304 ядрами CUDA, который обладает базовой частотой 1410 МГц, а его Boost-частота равна 1620 МГц в эталонной версии и 1710 МГц в версии Founders Edition. Да, NVIDIA решила выпустить несколько референсных версий своих видеокарт, и Founders Edition будет отличаться некоторым разгоном. Графический процессор у GeForce RTX 2070 дополняют 8 Гбайт памяти GDDR6, которые подключены по 256-битной шине. Чипы памяти обладают пропускной способностью в 14 Гбит/с на один контакт, что в результате обеспечивает общую пропускную способность в 448 Гбайт/с.

В основе GeForce RTX 2080 лежит графический процессор NVIDIA TU104, который обладает 2944 ядрами CUDA. Базовая частота GPU составляет 1515 МГц, а Boost-частота равна 1710 и 1800 МГц. Эта видеокарта также получила 8 Гбайт видеопамяти GDDR6, которые подключены по 256-битной шине. Пропускная способность использованных здесь чипов памяти также составляет 14 Гбит/с на один контакт, а соответственно и общая пропускная способность составляет те же 448 Гбайт/с.

Наконец, старшая видеокарта GeForce RTX 2080 Ti построена на графическом процессоре NVIDIA TU102, который предлагает пользователям 4352 ядра CUDA. У эталонной версии этой новинки графический процессор обладает базовой частотой 1350 МГц, а Boost-частота составляет 1545 / 1635 МГц. Объём видеопамяти GDDR6 составляет 11 Гбайт, и к графическому процессору она подключена через 352-битную шину. Пропускная способность на один контакт здесь такая же, как и у GeForce RTX 2080, но за счёт более широкой шины общая пропускная способность памяти достигает 616 Гбайт/с.

Ещё одним интересным нововведением, касающимся эталонных видеокарт, является система охлаждения. Вместо охладителя с вентилятором радиального типа, использовавшегося уже в не одном поколении видеокарт NVIDIA, новые видеокарты GeForce RTX производитель оснастил более крупной системой охлаждения с парой обычных осевых вентиляторов. По всей видимости, смена системы охлаждения обусловлена возросшим уровнем TDP.

Эталонная GeForce RTX 2070 обладает TDP в 175 Вт, эталонная GeForce RTX 2080 — 215 Вт, и GeForce RTX 2080 Ti — 250 Вт. Слегка разогнанные версии Founders Edition этих видеокарт обладают на 10 Вт большим TDP. 

Также NVIDIA решила сменить не только систему охлаждения, но и свою технологию SLI на более современную NVLink. Новый интерфейс также предназначен для объединения видеокарт в пары, и им снабжены лишь старшие модели — GeForce RTX 2080 и RTX 2080 Ti. Он обеспечивает более высокую скорость обмена данными между видеокартами, а потому, как минимум в теории, пользы от неё должно быть больше, чем от SLI.

Ещё одним новым интерфейсом стал VirtualLink, выполненный в форме разъёма USB Type-C. Новый стандарт VirtualLink позволяет передавать видео, данные и питание к шлемам виртуальной реальности через один кабель. Это позволяет не только избавиться от лишних проводов, но и минимизировать задержки. Правда, VR-гарнитур с поддержкой VirtualLink пока что нет, но Oculus, Valve и Microsoft объявили о планах по выпуску устройств с поддержкой нового стандарта.

Что касается производительности, то NVIDIA не стала вдаваться в подробности, ограничившись лишь общими фразами. По словам компании, новые видеокарты приносят огромный прирост производительности, особенно в задачах, связанных с трассировкой лучей. Заявляется, что GeForce RTX 2080 Ti в некоторых задачах превосходит Titan X (поколения Pascal) до шести раз.

При этом старшая карта в семействе, GeForce RTX 2080 Ti, превосходит по производительности ординарную GeForce RTX 2080 на 30 %, которая в свою очередь мощнее GeForce RTX 2070 на 33 %. Однако нужно понимать, что данные показатели относятся к быстродействию при отрисовке RTX-графики.

Стоимость младшей модели GeForce RTX 2070 в исполнении Founders Edition составит $599, средняя GeForce RTX 2080 Founders Edition оценена в $799, а старшая GeForce RTX 2080 Ti Founders Edition обойдётся в немалые $1199. Видеокарты в эталонные версиях будут стоит $499, $699 и $999. Видеокарты GeForce RTX 2080 и RTX 2080 Ti в версиях Founders Edition уже доступны для предварительного заказа, а их поставки и продажи начнутся 20 сентября. 

Так же, как и торговые точки по всему миру, российский магазин NVIDIA начал принимать предзаказы на новые ускорители. Официальные рублёвые цены оказались следующими:

Источник:

Сравнение мобильных версий Fortnite: Android, iOS и Switch

С появлением Fortnite Battle Royale на Android невероятно успешная игра от Epic Games стала доступна практически на всех современных игровых системах. И журналисты ресурса Eurogamer решили провести всестороннее сравнение мобильных версий для iOS, Switch и Android. Пример гибридной консоли Nintendo показывает, как низкоуровневые графические API и игровая направленность устройства позволяют довольно старому чипу напрямую конкурировать с самыми современными смартфонами высокого класса и даже порой их превосходить.

Для тестирования Android-версии использовался один из самых мощных смартфонов на рынке —Samsung Galaxy S9+, а для iOS-варианта — флагманский iPhone X. PR-отдел Epic Games заранее предупредил журналистов, что сравнение графики не будет особенно интересным, так как версии Fortnite для iOS и Android обеспечивают окружение идентичного качества. По большому счету, это действительно так: разница минимальна.

Стоит, впрочем, сделать два замечания. Во-первых, из-за различий в соотношении сторон экрана, смартфон Samsung фактически обеспечивает более высокое родное разрешение — 1480x720 против 1461x675 на флагмане Apple. Во-вторых, в очень редких случаях iPhone X, кажется, выводит более детализированную картинку на дальней дистанции, хотя в большинстве случаев этот параметр одинаков. В общем, работа Epic в отношении Android столь же впечатляет, как и на iOS, но есть ещё одно существенное отличие, заслуживающее внимания — выбор настроек качества.

Это обычная ситуация в мобильных играх. Имея на руках ограниченное количество устройств Apple, разработчики могут оптимизировать свои продукты и набор визуальных функций под каждое отдельное устройство. Но хотя Android-версия Fortnite в настоящее время является эксклюзивом для телефонов Samsung, в конечном итоге она будет доступна для использования на широком спектре аппаратов, что потребовало добавления четырёх установок качества для пользователей на выбор: «низкое», «среднее», «высокое» и «эпическое», а также выбор частоты: 30 или 20 кадров/с. Galaxy S9+ комфортно работает на «эпическом» уровне со скоростью 30 кадров в секунду, в то время как Galaxy S7, например, по умолчанию включает низкие настройки и частоту 20 кадров/с.

Сравнение раскрывает, что настройка «высокое» упрощает детализацию окружения и некоторую растительность; «среднее» снижает разрешение до 675p на S9+ и удаляет всю листву и динамические тени; наконец, «низкое» в целом повторяет «среднее», но дополнительно уменьшает разрешение до 450p. Скорее всего, iOS-версия приносит аналогичные упрощения визуальных эффектов при использовании более старых iPhone и iPad, хотя iPhone 6S способен предоставить частоту в 30 кадров/с.

Поскольку iOS и Android обеспечивают очень близкие результаты, наиболее интересно сравнение с мобильной версией Switch. С технологической точки зрения у последней есть целый ряд недостатков в сравнении с передовым чипом Snapdragon 845 в Galaxy S9+ или A11 Bionic в iPhone X, который ещё мощнее. Tegra X1 в Switch является решением трёхлетней давности, причём его максимальная частота ограничена 384 МГц для GPU при работе от аккумулятора. Имея всего три ядра ARM Cortex A57 с тактовой частотой 1 ГГц, он по всем параметрам уступает современным мобильным чипам. Но каким-то образом справляется и обеспечивает некоторые возможности, которых нет на смартфонах.

Fortnite на Switch неплоха, что лишний раз напоминает о преимуществах разработки для фиксированного оборудования. Epic Games может портировать игру, зная, что каждая консоль будет идентична, так что можно использовать графический API NVN — интерфейс, подобный низкоуровневому режиму DX12 и позволяющий разработчикам напрямую обращаться к GPU. Вдобавок на игровой системе, в отличие от ПК или смартфона, разработчики могут смело рассчитывать почти на все системные ресурсы и не конкурировать за них с другими задачами.

Конечным результатом является то, что хотя Fortnite в мобильном режиме Switch немного уступает Galaxy S9+ и iPhone X в нескольких областях, эффективное использование аппаратного обеспечения компенсирует ситуацию. Например, разрешение. В мобильном режиме разрешение Switch составляет 720p, но Epic использует динамический подход. И, в отличие от смартфонов, Switch может задействовать продвинутые функции Unreal Engine 4 вроде временной реконструкции, а динамическое снижение разрешения обеспечивает частоту, близкую к целевым 30 кадрам/с. В некоторых отношениях дистанция прорисовки на Switch ниже, что на небольшом экране почти незаметно.

Есть много общих черт в визуальном качестве всех мобильных версий. Например, визуализация воды одинакова и сильно уступает Xbox One X, которая демонстрирует прекрасную воду и красивые отражения. Однако на Switch перекочевали некоторые функции из полноценных консольных релизов, которых нет на смартфонах. Например, дистанция рендеринга растительности соответствует смартфонам, но на карманной системе Nintendo листва анимирована и освещена ближе к PS4 и Xbox One, в то время как на iOS и Android даже на максимальном уровне качества применяется плоская трава без видимой анимации. Улучшена обработка гребёнки — Switch получила полноэкранное сглаживание (что порой создаёт эффект слегка размытой картинки), тогда как геометрия на флагманах iOS и Android выглядит гораздо грубее.

Кроме того, можно упомянуть динамическое окружение: стены и плоскости, построенные игроками, реализованы очень по-разному. Стандартные консольные версии предлагают более детализированные конструкции, разнообразные текстуры и геометрию по сравнению с гораздо более простыми версиями на смартфонах. В этой области Switch также получила преимущества более качественных ресурсов. Возможно, причина в выделенных 3,5 Гбайт ОЗУ на гибридной консоли Nintendo.

Но, пожалуй, самым большим достоинством Switch являются физические средства управления. Смартфоны используют сенсорный экран для управления, который, конечно, выполняет свою задачу, но не слишком точен. Epic ввела некоторые хитрости после запуска на iOS — например, есть опция автоматического огня, которая срабатывает, как только враг попал в прицел, что очень полезно. Кроме того, хотя Fortnite поддерживает возможность кроссплатформенной игры, Epic по умолчанию разделяет аудитории консолей и смартфонов для обеспечения баланса.

Fortnite на iOS и Android открывает игру огромной аудитории, так как смартфоны есть почти у всех, в отличие от игровых консолей. На этих устройствах не так удобно играть из-за отсутствия физических контроллеров, но зато они полностью портативны. Стремление Epic выпустить игру на всех игровых устройствах с минимально возможными компромиссами достойно внимания. В какой-то момент у разработчиков наверняка возникал соблазн последовать по пути PUBG, мобильная версия которой заметно упрощена для эффективной работы на смартфонах.

Вместо этого авторы приняли более сложное решение: взять оригинальную игру и оптимизировать, добившись 60 кадров/с на стационарных консолях, затем заняться выпуском версии для iOS, Switch и, наконец, Android, обеспечив полную совместимость всех систем друг с другом. Причём добиться исполнения с частотой, максимально близкой к 30 кадрам/с. Одна из самых популярных игр в мире — не просто социальное явление, но и выдающееся техническое достижение.

Источник:

NVIDIA GeForce RTX 2080 Ti предложит 4352 ядра CUDA

Спекуляции относительно характеристик видеокарт NVIDIA GeForce нового поколения, пожалуй, не прекратятся вплоть до понедельника. Именно тогда они наконец должны быть представлены официально. А пока что наши западные коллеги из VideoCardz предлагают своё виденье характеристик двух готовящихся новинок — GeForce RTX 2080 и GeForce RTX 2080 Ti. Утверждается, что это точные и окончательные характеристики. Так ли это, мы узнаем уже совсем скоро.

Наиболее интригующе выглядят характеристики видеокарты GeForce RTX 2080 Ti. Во-первых, потому, что их попросту не должно быть, ведь обычно флагманы с индексом «Ti» выходят несколько позже, чем обычная модель. Но, судя по всему, в этот раз NVIDIA решила отойти от устоявшейся традиции. Указывают на это и многочисленные официальные изображения видеокарт GeForce RTX 2080 Ti, просочившиеся в Сеть. 

Как бы то ни было, согласно данным источника, GeForce RTX 2080 Ti будет построена на графическом процессоре с 4352 ядрами CUDA. То есть, здесь будет использоваться слегка урезанная версия графического процессора, применяемого в недавно представленных профессиональных видеокартах Quadro RTX 6000 и RTX 8000, у которого в общем имеется 4608 ядер CUDA.

Что касается подсистемы памяти видеокарты GeForce RTX 2080 Ti, то здесь стоит ожидать 11 Гбайт памяти GDDR6 с пропускной способностью в 14 Гбит/с на контакт, и с 352-битной шиной. За счёт этого общая пропускная способность памяти видеокарты составит 616 Гбайт/с. Для сравнения, у нынешней GeForce GTX 1080 Ti пропускная способность памяти составляет 484 Гбайт/с, а графический процессор обладает 3840 ядрами CUDA.

Что касается  видеокарты GeForce RTX 2080, то по последним данным она базируется на графическом процессоре TU104 поколения Turing с 2944 ядрами CUDA. Изначально же предполагалось, что эта новинка предложит 3072 ядра, как и профессиональная видеокарта Quadro RTX 5000. Но, если информация правдива, NVIDIA здесь также решила немного урезать GPU. Впрочем, прирост в числе ядер CUDA по сравнению с GeForce GTX 1080 всё равно составляет 15 %.

Отмечается, GeForce RTX 2080 действительно получит только 8 Гбайт памяти GDDR6, которая будет подключена через 256-битную шину. В результате, при той же пропускной способности памяти в 14 Гбит/с на один контакт, вся подсистема памяти сможет обеспечить 448 Гбайт/с пропускной способности. Для сравнения, у GeForce GTX 1080, обладающей 8 Гбайт памяти GDDR5X, также с 256-битной шиной, пропускная способность составляет 352 Гбайт/с. Так что прирост по скорости памяти получается значительным.

К сожалению, рабочие частоты, ровно, как и уровень TDP новых видеокарт источник называть пока что отказался, сославшись на неуверенность в том, справедливы ли его данные для эталонных видеокарт, или же для нереференсных.

Источник:

Квартальный отчёт NVIDIA: криптовалютная лихорадка закончилась

Продолжавшаяся 9 месяцев криптовалютная лихорадка окончилась — об этом красноречиво сообщает отчёт NVIDIA за второй финансовый квартал. По словам NVIDIA, продажи графических чипов для цифровых старателей криптовалют вроде Ethereum свернулись быстрее, чем ожидалось. Как и после публикации финансовых результатов прошлого квартала, в этот раз инвесторы снова проигнорировали рост выручки NVIDIA на своих основных рынках и принялись продавать акции, которые упали на 5 %.

«Показатели наших основных платформ превзошли ожидания, даже в условиях, когда спрос со стороны рынка криптовалют по большому счёту исчез, — заявил в четверг на отчётной пресс-конференции основатель и исполнительный директор NVIDIA Дженсен Хуанг (Jensen Huang). — Мы прогнозируем полное отсутствие спроса со стороны криптовалютного рынка в будущем».

Майнинг криптовалют в течение многих месяцев формировал повышенный спрос на графические ускорители. GPU отлично справляются с высокопараллельными и относительно простыми вычислениями, что как раз подходит для Ethereum и других криптовалют. В результате в течение долгого времени наблюдался дефицит игровых видеокарт и, соответственно, очень высокие цены на них.

Три месяца назад NVIDIA заявила, что она получила $289 млн от продаж ускорителей для сектора криптовалют, но тогда же предупредила, что спрос быстро снижается и может упасть на целых две трети. Как оказалось, на практике даже тот прогноз был очень оптимистичным. NVIDIA предполагала, что продажи GPU для майнеров во втором финансовом квартале достигнут уровня около $100 млн. Вместо этого общая сумма доходов в этом секторе, согласно отчёту, составила лишь $18 млн. И даже эти небольшие доходы, по мнению NVIDIA, вероятнее всего, полностью исчезнут в ближайшем будущем. Поэтому инвесторы и выражают озабоченность столь стремительным крахом бизнеса, который оценивался в миллиарды долларов.

Основная деятельность компании, по словам Дженсена Хуанга, продолжает демонстрировать «потрясающие» результаты с точки зрения роста доходов по сравнению с показателями 2017 года. Польза от криптовалютного рынка, которая стала ощущаться три квартала назад, была необычной и приводила к искажённым сравнениям результатов деятельности.

Несмотря на то, что доходы, связанные с криптовалютами, значительно отстали от прогнозов компании, общие продажи выросли до рекордного уровня в $3,12 млрд за трёхмесячный период, закончившийся 29 июля (это на 40 % выше прошлогодних показателей). Аналитики в среднем прогнозировали доходы в $3,11 млрд. Во втором финансовом квартале NVIDIA получила прибыль в размере $1,1 млрд или $1,76 на акцию против $583 млн или 92 цента за тот же период прошлого года. По итогам квартала доходы NVIDIA более чем удвоилась с 2016 года. В этом году акции NVIDIA выросли на 33 %. Это второй по величине американский биржевой показатель 2018 года после соперника в лице AMD.

Господин Хуанг меняет бизнес своей компании, чтобы воспользоваться тенденциями, которые наметились на IT-рынке. Он убедил владельцев центров обработки данных, что модифицированные графические чипы — лучшее решение для рынка искусственного интеллекта, активно растущего за счёт повсеместного внедрения методов распознавания речи и изображений.

Ранее на этой неделе NVIDIA представила свою следующую архитектуру GPU, которая, по словам Дженсена Хуанга, поможет компании дополнительно нарастить присутствие в таких требовательных к вычислениям отраслях, как спецэффекты для фильмов или дизайна автомобилей. Архитектура Turing также выйдет на игровой рынок и в сектор центров обработки данных.

В то время как поставки для ЦОД сейчас составляют пятую часть выручки и всё чаще становятся локомотивом общего роста, компания по-прежнему получает бо́льшую часть своей прибыли от видеокарт GeForce. Рост на этом рынке зависит от способности NVIDIA убедить игроков, что им нужен последний графический ускоритель, чтобы сделать игры более реалистичными. Перспектива выхода в этом году новых видеокарт заставляет многих из них откладывать обновление.

Аналитики попросили руководство NVIDIA объяснить, почему выросли складские запасы. NVIDIA завершила квартал с $1,09 млрд нераспроданных продуктов против $797 млн три месяца назад. Господин Хуанг объяснил, что это обусловлено наращиванием объёмов запасов относительно недорогих чипов, которые производятся сейчас и будут продаваться на рынке ПК в традиционный сезон повышенного спроса «Возвращение в школу». По-видимому, речь идёт о подготовке запуска новых ускорителей GeForce на базе Turing.

В любом случае, продажи решений для игрового рынка в прошедшем отчётном квартале возросли до $1,8 млрд, на 52 % по сравнению с тем же периодом прошлого года. Показатель превысил средние ожидания аналитиков. NVIDIA также похвалилась, что в настоящее время на рынке присутствуют уже свыше 25 игровых ноутбуков с поддержкой технологии Max-Q GeForce, позволяющей создавать высококлассные тонкие и лёгкие продукты. В отчётный период стали поставляться на рынок и первые игровые мониторы с поддержкой NVIDIA G-Sync HDR (яркость до 1000 Кд/м2, HDR и синхронизация кадров).

Доходы от поставок решений для центров обработки данных увеличились, в свою очередь, на 83 % и составили $760 млн, что также превзошло средние ожидания аналитиков. NVIDIA отметила, что 5 из 7 самых быстрых суперкомпьютеров в мире оснащаются её GPU, а вообще из списка 500 самых мощных таких систем 56 % используют мощности ускорителей компании.

NVIDIA прогнозирует, что её доходы в третьем квартале отчётного года составят $3,25 млрд плюс-минус 2 %. При этом, как сообщает Bloomberg, средние оценки аналитиков относительно финансовых перспектив компании оказываются чуть выше — $3,35 млрд.

Источники:

ARM хочет подвинуть Intel в ноутбуках: новый план до 2020 года

В этом году компания ARM с партнёрами приступила к новой попытке потеснить из клиентских ПК (прежде всего — из ноутбуков) процессоры на x86-совместимых архитектурах. Подкрепляя это намерение, компания обнародовала перспективный план до 2020 года, в котором показала, на какие аппаратные решения будет опираться новое наступление на позиции Intel.

В не таком уж далёком прошлом уже существовала инициатива по выпуску смартбуков — мобильных вычислительных платформ на процессорах с поддержкой системы команд ARM. Но она так ничем и не закончилась. Самым громким провалом на этом пути стал выход и последующий уход в небытие устройств Microsoft под управлением Windows RT. Грохот от падения в виде разгромных отчётов Microsoft об убытках должен был настроить разработчиков процессоров для ПК на консервативный лад. Но, не тут-то было! Жажда денег толкает адептов архитектуры ARM снова начать засматриваться как на серверный, так и на клиентский рынок процессоров.

ARM, AnandTech

ARM, AnandTech

Попытка вернуть «смартбуки» на новом витке развития архитектур ARM и операционной системы Windows (уже без значительных переделок и во многом за счёт эмуляции) уже начала воплощаться в виде платформ на процессорах Qualcomm Snapdragon 835. Но по-настоящему новым решением для Windows-ноутбуков обещает стать анонсированная в мае этого года архитектура (ядра) ARM Cortex-A76 и последующие модификации ядер. Например, свою версию процессора на ARM Cortex-A76 готовит компания Qualcomm в виде платформы Snapdragon 1000. Ближе к концу этого года или в начале 2019 года появятся клиентские системы на 10-нм и 7-нм процессорах с ядрами ARM Cortex-A76. Это фактически реализованный проект. На этой базе ARM обещает сделать рывок и рассчитывает до 2020 года заметно потеснить процессоры Intel в клиентских системах.

ARM, AnandTech

ARM, AnandTech

Как подсказывает сайт AnandTech, в 2019 году на смену ядрам ARM Cortex-A76 придут ядра под кодовым именем Deimos, а в 2020 году — ядра Hercules. Архитектурные решения Deimos будут выпускаться с использованием 7-нм техпроцесса, а Hercules будут как 7-нм, так и 5-нм. Согласно ожиданиям ARM, новые решения позволят платформам ARM обеспечить до 2020 года среднегодовой рост по приросту производительности на уровне 15 %. Тем самым, поскольку Intel «забуксовала» на 10-нм техпроцессе, в ARM ожидают значительного превосходства над «аналогичными» мобильными процессорами из лагеря синих. Это определённо может качнуть чашу весов в пользу ноутбуков на процессорах с ядрами ARM.

ARM, AnandTech

ARM, AnandTech

Согласно внутренним тестам ARM, ядра Cortex-A76 на частоте до 3 ГГц в однопоточной нагрузке в тесте SPECint2006 Speed под Linux оказываются близки по производительности к процессорам Intel Core i5-7300U на частоте 3,5 Ггц. При этом ядра Cortex-A76 характеризуются тепловым пакетом 5 Вт, а процессоры Intel — 15 Вт. Для ноутбуков подобное расхождение обещает стать решающим в пользу выбора той или иной платформы. Правда, имеет место некоторая подтасовка, поскольку для Intel Core i5-7300U показано штатное TDP, а не потребление под конкретной нагрузкой. В то же время можно не сомневаться, что процессоры на ядрах ARM Cortex-A76 действительно будут потреблять меньше процессоров Intel сходной производительности.

ARM, AnandTech

ARM, AnandTech

По мнению ARM, на новом витке компьютеризации «телефонных» платформ надёжным основанием для перелома ситуации в свою пользу станут сотовые сети пятого поколения. Высокоинтегрированные SoC с ядрами ARM предложат мобильным пользователям лучшую производительность и, что главное, заметное увеличение энергоэффективности. Осталось дождаться выхода заявленных новинок и понять, насколько тексты рекламных буклетов отличаются о реального положения дел.

Источник:

GeForce RTX 2080/2080 Ti: какими будут первые карты Turing

Компания NVIDIA завершает подготовку к релизу дебютной видеокарты семейства Turing — GeForce RTX 2080. Новинка, как считают в Санта-Кларе, обладает достаточной производительностью для эффективного внедрения технологии трассировки лучей в режиме реального времени, а также должна успешно справляться с игровыми и иными приложениями, в которых используются менее ресурсоёмкие технологии формирования изображения. Наряду с GeForce RTX 2080 калифорнийцы работают и над GeForce RTX 2080 Ti. Кроме того, отчётливо видна перспектива выхода «TITAN Turing» на базе решений семейства Quadro RTX.

Дженсен Хуанг демонстрирует профессиональный ускоритель Quadro RTX 8000

Дженсен Хуанг демонстрирует профессиональный ускоритель Quadro RTX 8000

Учитывая незначительный характер изменений в 16-нм техпроцессе TSMC, который в процессе «взросления» стал 12-нанометровым, NVIDIA пришлось основательно поработать над графическими процессорами Turing, чтобы они были не просто немного улучшенными Pascal, а чем-то более привлекательным. Судя по увеличению площади ядра в Quadro RTX 8000 (предварительно GT102) относительно Quadro P6000 (GP102GL) в 1,6 раза, «начинка» Turing внушительнее, но это не обязательно распространяется на модели GeForce.

По данным различных источников, видеокарта GeForce RTX 2080 включает в себя от 2944 до 3072 потоковых процессоров Turing, 256-битную шину памяти и микросхемы буферной памяти GDDR6 общим объёмом 8 Гбайт. Эффективная частота чипов VRAM составляет 14 ГГц, соответственно, общая пропускная способность подсистемы памяти — 448 Гбайт/с. Энергопотребление ускорителя ожидается на уровне 210 Вт. Частота ядра (предварительно GT104) в номинальном режиме работы будет близкой к отметке 2 ГГц, а разгон позволит прибавить порядка 500 МГц. В отсутствие драйвера испытать GeForce RTX 2080 в деле пока не представляется возможным, пусть это и самый близкий к прилавкам продукт. Его официального анонса стоит ждать в промежутке между 20 и 30 августа.

GeForce Pascal

GeForce Pascal

«TITAN Turing» появится гораздо позже GeForce RTX 2080 — когда семейство карт GeForce пополнится младшими решениями с примерными обозначениями RTX 2070 и RTX 2060. Преемник TITAN V (Volta GV100) будет выделяться на фоне RTX 2080 более широкой 384-битной шиной памяти и полуторным объёмом VRAM (12 Гбайт). В свою очередь, видеокарта GeForce RTX 2080 Ti на базе урезанного ядра NVIDIA GT102 будет оперировать 11 Гбайт памяти GDDR6 и 352-битной шиной. Количество потоковых процессоров в составе нового крупного (754 мм²) графического ядра будет находиться в диапазоне 4000–5000 шт. В частности, TechPowerUp пишет о 4352 шейдерных блоках у GeForce RTX 2080 Ti. Прогноз энергопотребления — 250 Вт.

Структура GPU карты Quadro RTX 8000

Структура GPU карты Quadro RTX 8000

Модель с суффиксом Ti дебютирует позже «TITAN Turing», поскольку NVIDIA наверняка будет стремиться хорошенько заработать на продажах старшего решения, прежде чем предлагать ему более доступную альтернативу.

Источники:

Официально: Intel выпустит дискретную графику в 2020 году

О том, что компания Intel активно занимается разработкой дискретного графического процессора, известно уже довольно давно. И теперь производитель официально это подтвердил, опубликовав первый промо-ролик, посвящённый своему будущему дискретному графическому ускорителю.

Особых подробностей о готовящейся новинке Intel не сообщила, но при этом показала примерные очертания будущей видеокарты и подтвердила, что ждать её стоит примерно через два года. Также не исключено, что в скором времени производитель поделится более конкретными подробностями.

В опубликованном в корпоративном твиттер-аккаунте ролике под эпическую музыку говорится:

«Ежедневно зажигаются квинтильоны пикселей по всему миру благодаря встроенной графике Intel. Ограничения в размерах, энергопотреблении и цене не помешали нам творить историю. Мы создали первый графический процессор, полностью поддерживающий DirectX 12. Наша компьютерная графика первой получила поддержку воспроизведения видео Netflix в разрешении 4K. Мы обеспечили возможность играть на очень компактных компьютерах. Ежедневно работая с миллионами разработчиков, мы гарантируем, что ни один пиксель не пропадёт. И в 2020 мы дадим нашей графике свободу. И это только начало».

Напомним, что в конце 2017 года компания Intel наняла на работу Раджу Кодури (Raja Koduri), который до этого возглавлял графическое подразделение компании AMD, также известное как Radeon Technology Group (RTG). Было объявлено, что он займётся разработкой встроенных и дискретных графических решений для «синего гиганта». У Intel не было собственного дискретного GPU, если не считать решения конца прошлого века, поэтому компании и был необходим кто-то, кто сможет создать современную архитектуру дискретного графического процессора. И Раджа Кодури отлично подошёл на эту роль.

Похоже, что Кодури сам приложил руку к данному промо-ролику, поскольку в нём говорится о включении пикселей, а подобные слова звучали и перед анонсом графических архитектур AMD Polaris и Vega. На новом месте Раджа продолжает следовать своим первоначальным идеям и целям, которые он не смог реализовать в команде «красных». Заметим, что в Intel он обладает куда большей свободой действий, чем в RTG.

На кадрах из видео видно, что некая видеокарта под слот PCI Express x16 имеет высоту в два слота расширения и, судя по всему, оснащена системой охлаждения с вентилятором радиального типа, в простонародье — «турбиной».

Ожидается, что дискретные графические процессоры Intel будут построены на архитектуре Arctic Sound, являющейся для Intel графической архитектурой 12 поколения. Позже могут появиться и графические процессоры Jupiter Sound, относящиеся к 13 поколению. Заметим, что на данный момент Intel предлагает графику 9 и 9.5 поколений в процессорах Kaby Lake и Coffee Lake соответственно. Следующее, десятое поколение графики должно появиться в процессорах Cannon Lake.

Напомним, что к 2020 году Intel должна наконец представить и долгожданные процессоры Ice Lake, которые будут производиться по 10-нм техпроцессу. Поэтому, графические процессоры тоже вполне могут быть выполнены по 10-нм нормам, если, конечно, компании к тому времени наконец удастся наладить производство.

Источники:

Обнаружены ещё три уязвимости процессоров Intel

Стало известно об ещё трёх уязвимостях процессоров Intel, которые могут использоваться вредоносным ПО и виртуальными машинами для похищения секретной информации из компьютерной памяти. Речь, в частности, может идти о паролях, личных и финансовых записях и ключах шифрования. Они могут быть извлечены из других приложений и даже защищённых хранилищ SGX и памяти в режиме SMM (System Management Mode). Уязвимы ПК, настольные системы и серверы.

REUTERS/Mike Blake

REUTERS/Mike Blake

Эти уязвимости, связанные с механизмом спекулятивных вычислений, были обнаружены исследователями ещё в январе, и тогда же Intel была проинформирована. В официальном блоге ведущий производитель процессоров для ПК и серверов сообщил, что в сочетании с обновлениями, выпущенными ранее в этом году, новые представленные сегодня заплатки смогут защитить пользователей от очередных уязвимостей. «Нам неизвестны случаи использования любого из этих методов в реальной обстановке для кражи данных, но это ещё раз напоминает о необходимости всем придерживаться основных правил безопасности», — отметила Intel.

Компания назвала этот набор уязвимостей L1TF (L1 Terminal Fault) и отметила, что два варианта атак можно закрыть с помощью уже доступных сейчас обновлений. А третий, который затрагивает лишь часть пользователей, — например, определённые центры обработки данных, — может потребовать дополнительных мер защиты.

Всего упомянуто три варианта атак: CVE-2018-3615 (извлечение данных из памяти анклавов Intel SGX), CVE-2018-3620 (извлечение данных из SMM и областей памяти ядра ОС) и CVE-2018-3646 (утечка данных из виртуальных машин). Уязвимости используют то обстоятельство, что при доступе к памяти по виртуальному адресу, приводящему к исключению (terminal page fault) из-за отсутствия флага Present в таблице страниц памяти (PTE), процессоры Intel спекулятивно рассчитывают физический адрес и загружают данные, если они имеются в L1-кеше. Спекулятивные расчёты производятся до проверки наличия данных в физической памяти и их доступности для чтения. Потом, в случае отсутствия флага Present в PTE операция отбрасывается, но информация оседает в кеше и её можно извлечь по сторонним каналам. Опасность L1TF состоит в том, что можно определить данные по любому физическому адресу (например, атаковать основную ОС из гостевой системы).

Исследователи, выявившие уязвимость, назвали её Foreshadow. «Когда вы смотрите на то, что с помощью Spectre и Meltdown взломать невозможно, то среди немногих областей остаются анклавы Intel Software Guard Extensions (SGX), — сказал Wired участник открытия Foreshadow Даниэль Генкин (Daniel Genkin). — SGX оставался неподвластен Spectre, поэтому наша работа в этом направлении была следующим логическим шагом».

AMD тоже прокомментировала ситуацию, сообщив на странице безопасности, посвящённой Specre-подобным уязвимостям: «Как и в случае с Meltdown, мы полагаем, что наши процессоры из-за архитектуры аппаратной защиты страниц памяти не подвержены новым вариантам атаки спекулятивного исполнения, называемым Foreshadow или Foreshadow-NG. Мы советуем клиентам, работающим с процессорами EPYC в своих центрах обработки данных, в том числе в виртуализированных средах, не устанавливать заплатки программного обеспечения для Foreshadow на свои платформы AMD». Совет этот не будет лишним, ведь подобные обновления безопасности могут снижать производительность систем.

Со времени публикации первоначальной информации о трёх видах уязвимостей CPU, связанных со спекулятивными вычислениями (под общим именем Meltdown и Spectre), был раскрыт целый ряд новых аналогичных вариантов атак — например, CVE-2018-3639, BranchScope, SgxSpectre, MeltdownPrime и SpectrePrime, Spectre 1.1 и 1.2 или SpectreRSB. Исследователи не исключают обнаружения новых видов подобных уязвимостей.

После первоначального обнародования сведений о Spectre и Meltdown Intel расширила свою программу стимулирования выявления уязвимостей и ошибок, открыв её для большего количества исследователей в области безопасности и предложив более крупные денежные вознаграждения.

Источники:

Bitcoin по $6000: рынок криптовалют переживает новое падение

Вчерашний день вполне может запомниться игрокам рынка криптовалют как «чёрный четверг»: впервые с июня курс Bitcoin опустился ниже отметки в 6000 долларов США, а общая капитализация рынка снизилась за 24 часа на $21 млрд. Впрочем, больше всего пострадали не владельцы Bitcoin, а те, кто предпочитает добывать и играть на курсе других виртуальных монет.

Минимальный курс Bitcoin был зафиксирован на отметке $5907, максимальный — $6268. К концу дня за BTC давали шесть тысяч долларов с небольшим. Ethereum и Bitcoincash обосновались в районе $260 и $480 соответственно. До конца текущей недели Bitcoin вполне может просесть ниже $5875 — антирекорда в нынешнем году, зафиксированного 18 июня. С другой стороны, в любой момент курс может устремиться ввысь, как во втором полугодии 2017-го. На это весьма рассчитывают те, кто ранее вложил деньги в BTC на волне ажиотажа.

Bitcoin неоднократно переживал взлёты и падения

Bitcoin неоднократно переживал взлёты и падения

Держатели виртуальных монет стараются минимизировать потери, переходя в доллар или Bitcoin, а также продавая криптовалютные фермы. Как следствие — спрос на новые видеокарты падает, причём всё это происходит, во-первых, на фоне сезонного снижения интереса геймеров к новым ускорителям и, во-вторых, ожидания выхода нового семейства карт GeForce. Желающие обновить свои ПК покупкой нового графического адаптера могут либо сделать это сейчас, либо ждать появления в продаже GeForce Turing и надеяться, что к тому времени Bitcoin и другие криптовалюты не воспрянут духом.

Минимальная цена GeForce GTX 1080 на newegg.com снизилась до $449,99 (без налога с продаж)

Минимальная цена GeForce GTX 1080 на newegg.com снизилась до $449,99 (без налога с продаж)

Российский рынок видеокарт менее предсказуем из-за колебаний курса рубля, что демонстрируют актуальные данные агрегатора цен Яндекс.Маркет.

Видеокарта Мин. цена 14 августа, руб. Мин. цена 13 июля, руб.
GeForce GTX 1080 Ti 48 750 50 266
GeForce GTX 1080 35 780 32 960
GeForce GTX 1070 Ti 31 470 30 158
GeForce GTX 1070 28 303 27 759
GeForce GTX 1060 6GB 20 000 17 270
GeForce GTX 1060 3GB 14 770 13 895
GeForce GTX 1050 Ti 11 242 10 856
GeForce GTX 1050 3GB н/д
GeForce GTX 1050 2GB 9000 8577
Radeon RX Vega 64 45 493 45 195
Radeon RX Vega 56 37 893 34 890
Radeon RX 580 8GB 19 180 18 300
Radeon RX 570 4GB 16 710 15 669
Radeon RX 560 4GB 9943 9168

Источники:

Что принесёт на рынок новая архитектура NVIDIA Turing?

Во время презентации NVIDIA на мероприятии SIGGRAPH 2018 исполнительный директор компании Дженсен Хуанг (Jensen Huang) официально представил долгожданную архитектуру GPU Turing, о которой ходило так много слухов. Следующее поколение графических процессоров будет включать в себя ряд новых функций и появится уже в этом году. Хотя в центре внимания пока были решения Quadro RTX для рынка профессиональной визуализации (ProViz), новые GPU будут применяться в других грядущих продуктах NVIDIA. Итак, что же приносит на рынок Turing?

Гибридный рендеринг и нейронные сети: ядра RT и Tensor

Знаковой функцией, по крайней мере, для рынка ProViz, является так называемый гибридный рендеринг, сочетающий в себе методы трассировки лучей и традиционное растрирование. Результатом должна стать возможность добиваться в реальном времени качества графики, близкого к полноценной трассировке лучей.

Новый анонс, по сути, является продолжением мартовского заявления на Game Developers Conference, когда Microsoft рассказала о стандарте DirectX Raytracing (DXR), а NVIDIA о собственной реализации этой технологии — GameWorks RTX. Тогда партнёры NVIDIA показали впечатляющие демонстрации с применением RTX: это и проект PICA PICA от команды EA SEED, и юмористическая зарисовка по мотивам VIII эпизода «Звёздных войн» на движке Unreal Engine, и демонстрация студии Remedy на базе движка Northlight, и запись реальной игровой сцены из грядущей Metro Exodus. Также на канале NVIDIA появился специальный ролик, в котором директор по развитию продуктов Фрэнк Делиз (Frank DeLise) рассказал о принципе работы RTX. Все они демонстрировались на ускорителях Titan V (архитектура Volta).

Большим изменением в Turing является ещё большая по сравнению с Volta аппаратная ориентированность на трассировку лучей. Архитектура впервые получила новые RT-ядра для трассировки лучей. Эти процессорные блоки ускоряют проверку пересечения лучей и треугольников и манипуляции с иерархиями ограничивающих объёмов (Bounding Volume Hierarchies, BHV) — последние является очень популярной структурой данных для хранения объектов при трассировке лучей. RT-ядра ускоряют расчёты движения света и звука в 3D-среде до 10 миллиардов лучей в секунду (Quadro RXT 8000 и 6000), что в 25 раз превосходит показатели старого «неускоренного» поколения Pascal.

Архитектура Turing также включает тензорные ядра, представленные впервые в архитектуре Volta, и развивают их. Эти блоки с производительностью до 500 трлн тензорных операций в секунду являются важным аспектом нескольких инициатив NVIDIA. Наряду с ускорением трассировки лучей, они также позволяют уменьшать количество лучей, требуемых в сцене, с помощью шумоподавления на основе ИИ, и очищать изображение. Конечно, это не единственное предназначение тензорных ядер — NVIDIA предлагает использовать эти блоки в набирающих популярность вычислениях в области ИИ, машинного обучения и нейронных сетей.

Новшеством Turing является поддержка более широкого диапазона точности, что позволяет кратно ускорить некоторые рабочие нагрузки, не предъявляющие высоких требований к точности. Так, помимо режима половинной точности вычислений с плавающей запятой FP16, компания реализовала поддержку целочисленных инструкций INT8 и даже INT4. Это соответственно в 2 и 4 раза быстрее, чем FP16. И, хотя точность нейронной сети уменьшается, при использовании INT4 можно многократно ускорить вычисления, что в некоторых случаях крайне полезно, особенно в процессах логических умозаключений ИИ.

Возвращаясь к гибридному рендерингу в целом, интересно отметить, что, несмотря на ускорение отдельных задач в 20 и более раз, обещания NVIDIA по приросту конечной производительности не столь радикальны. Компания заявляет, что новые карты могут моделировать физический мир в 6 раз быстрее, чем с помощью GPU предыдущего поколения Pascal (впрочем, какие именно чипы сравниваются — не ясно). Время покажет, насколько реалистична эта оценка, но очевидно даже с ядрами RT трассировка лучей в целом по-прежнему остаётся довольно ресурсоёмкой задачей, с трудом подходящей для игр.

Между тем, чтобы лучше использовать тензорные ядра не только в задачах трассировки лучей и специального ПО для глубинного обучения, компания представит новые инструменты для разработчиков — NVIDIA NGX, которые позволят интегрировать нейронные сети в задачи обработки изображений и видео (шумоподавление, масштабирование и ретайминг). В том числе появится новый метод полноэкранного сглаживания на основе машинного обучения Deep Learning Anti-Aliasing (DLAA).

Новый потоковый мультипроцессор

Наряду с блоками RT и тензорными ядрами, архитектура Turing приносит новый потоковый мультипроцессор (SM), который по аналогии с Volta добавляет целочисленный исполнительный блок параллельно к каналу данных с плавающей точкой, и новую унифицированную архитектуру кеша с удвоенной по сравнению с предыдущим поколением полосой пропускания. Преимуществом является ускорение создания адресов и производительность в задачах совмещённого умножения-сложения с однократным округлением (Fused Multiply Add, FMA), хотя наверняка новый инструмент будет использоваться во многих задачах.

В сочетании с новыми графическими технологиями, такими, как Variable Rate Shading, потоковый мультипроцессор Turing достигает высочайшей производительности на ядро. Подобные методы ускорения вычислений весьма важны в условиях, когда так называемый Закон Мура теряет силу и новые технологические процессы осваиваются всё тяжелее.

Поддержка GDDR6

Поскольку память, используемая видеокартами, разрабатывается сторонними компаниями, здесь нет больших секретов. JEDEC и три его крупных участника в лице Samsung, SK Hynix и Micron позиционируют стандарт GDDR6 в качестве преемника GDDR5 и GDDR5X, и NVIDIA подтвердила, что чипы Turing будут его поддерживать. В зависимости от производителя, GDDR6 первого поколения, как правило, позволяет развивать до 16 Гбит/с на единицу полосы пропускания, что вдвое больше, чем у GDDR5 и на 40 %, чем у GDDR5X в картах NVIDIA (ускорители Quadro будут использовать модули Samsung на 14 Гбит/с).

По сравнению с GDDR5X новый стандарт не является слишком большим шагом вперёд, но всё же должен стать основным типом памяти для индустрии GPU за исключением решений самого высокого класса, использующих HBM2. Принципиальные изменения GDDR6 включают более низкие рабочие напряжения (1,35 В), и внутренне память теперь разделена на два канала в каждом чипе. Для стандартного 32-битного чипа это означает пару 16-битных каналов памяти — на 256-битной карте таких каналов в общей сложности будет 16. Хотя это увеличивает количество каналов, такое новшество не помешает графическим ускорителям, которые являются высокопараллельными устройствами.

NVLink, VirtualLink и поддержка 8K HEVC

NVIDIA также вкратце подтвердила некоторые функции ввода-вывода, которые будут поддерживаться в архитектуре Turing. NVLink будет присутствовать, по крайней мере, в некоторых продуктах, — в частности, NVIDIA использует её для всех трёх своих новых карт Quadro RTX. Эти продукты предлагают двойные соединения с общей пропускной способностью до 100 Гбайт/с. Присутствие NVLink не означает, что интерфейс будет использоваться в потребительских ускорителях для SLI-конфигураций.

Между тем, для игроков и пользователей ProViz реализованы и новшества на фронте виртуальной реальности — а именно поддержка VirtualLink. Альтернативный режим USB Type-C был анонсирован в прошлом месяце: он поддерживает передачу энергии на уровне 15+ Вт, данных 10 Гбит/с по стандарту USB 3.1 и 4 полосы видеоизображения DisplayPort HBR3 по одному кабелю. Другими словами, это DisplayPort 1.4 с дополнительной передачей данных и питания, что позволяет видеокарте напрямую управлять VR-гарнитурой. Стандарт поддерживается NVIDIA, AMD, Oculus, Valve и Microsoft, а продукты Quadro станут первыми с поддержкой VirtualLink.

Наконец, хотя NVIDIA только кратко коснулась темы, она всё же сообщила, что в Turing был обновлён блок обработки NVENC. Последняя версия NVENC, в частности, приносит поддержку кодирования HEKC 8K на лету. При этом NVIDIA также улучшила качество своего блока кодирования, что позволило достичь того же уровня, что раньше, со снижением битрейта на 25 %.

В общем, осталось дождаться анонса потребительских продуктов GeForce. Согласно последним слухам, флагманские решения этого семейства будут использовать марку RTX вместо привычной GTX, что указывает на поддержку трассировки лучей. Также ускорители могут получить довольно нестандартные объёмы видеопамяти. Так ли это — уже вскоре должно стать ясно, ведь анонс ожидается в текущем месяце.

Источники: