Теги → gpu
Быстрый переход

Квартальный отчёт NVIDIA: криптовалютная лихорадка закончилась

Продолжавшаяся 9 месяцев криптовалютная лихорадка окончилась — об этом красноречиво сообщает отчёт NVIDIA за второй финансовый квартал. По словам NVIDIA, продажи графических чипов для цифровых старателей криптовалют вроде Ethereum свернулись быстрее, чем ожидалось. Как и после публикации финансовых результатов прошлого квартала, в этот раз инвесторы снова проигнорировали рост выручки NVIDIA на своих основных рынках и принялись продавать акции, которые упали на 5 %.

«Показатели наших основных платформ превзошли ожидания, даже в условиях, когда спрос со стороны рынка криптовалют по большому счёту исчез, — заявил в четверг на отчётной пресс-конференции основатель и исполнительный директор NVIDIA Дженсен Хуанг (Jensen Huang). — Мы прогнозируем полное отсутствие спроса со стороны криптовалютного рынка в будущем».

Майнинг криптовалют в течение многих месяцев формировал повышенный спрос на графические ускорители. GPU отлично справляются с высокопараллельными и относительно простыми вычислениями, что как раз подходит для Ethereum и других криптовалют. В результате в течение долгого времени наблюдался дефицит игровых видеокарт и, соответственно, очень высокие цены на них.

Три месяца назад NVIDIA заявила, что она получила $289 млн от продаж ускорителей для сектора криптовалют, но тогда же предупредила, что спрос быстро снижается и может упасть на целых две трети. Как оказалось, на практике даже тот прогноз был очень оптимистичным. NVIDIA предполагала, что продажи GPU для майнеров во втором финансовом квартале достигнут уровня около $100 млн. Вместо этого общая сумма доходов в этом секторе, согласно отчёту, составила лишь $18 млн. И даже эти небольшие доходы, по мнению NVIDIA, вероятнее всего, полностью исчезнут в ближайшем будущем. Поэтому инвесторы и выражают озабоченность столь стремительным крахом бизнеса, который оценивался в миллиарды долларов.

Основная деятельность компании, по словам Дженсена Хуанга, продолжает демонстрировать «потрясающие» результаты с точки зрения роста доходов по сравнению с показателями 2017 года. Польза от криптовалютного рынка, которая стала ощущаться три квартала назад, была необычной и приводила к искажённым сравнениям результатов деятельности.

Несмотря на то, что доходы, связанные с криптовалютами, значительно отстали от прогнозов компании, общие продажи выросли до рекордного уровня в $3,12 млрд за трёхмесячный период, закончившийся 29 июля (это на 40 % выше прошлогодних показателей). Аналитики в среднем прогнозировали доходы в $3,11 млрд. Во втором финансовом квартале NVIDIA получила прибыль в размере $1,1 млрд или $1,76 на акцию против $583 млн или 92 цента за тот же период прошлого года. По итогам квартала доходы NVIDIA более чем удвоилась с 2016 года. В этом году акции NVIDIA выросли на 33 %. Это второй по величине американский биржевой показатель 2018 года после соперника в лице AMD.

Господин Хуанг меняет бизнес своей компании, чтобы воспользоваться тенденциями, которые наметились на IT-рынке. Он убедил владельцев центров обработки данных, что модифицированные графические чипы — лучшее решение для рынка искусственного интеллекта, активно растущего за счёт повсеместного внедрения методов распознавания речи и изображений.

Ранее на этой неделе NVIDIA представила свою следующую архитектуру GPU, которая, по словам Дженсена Хуанга, поможет компании дополнительно нарастить присутствие в таких требовательных к вычислениям отраслях, как спецэффекты для фильмов или дизайна автомобилей. Архитектура Turing также выйдет на игровой рынок и в сектор центров обработки данных.

В то время как поставки для ЦОД сейчас составляют пятую часть выручки и всё чаще становятся локомотивом общего роста, компания по-прежнему получает бо́льшую часть своей прибыли от видеокарт GeForce. Рост на этом рынке зависит от способности NVIDIA убедить игроков, что им нужен последний графический ускоритель, чтобы сделать игры более реалистичными. Перспектива выхода в этом году новых видеокарт заставляет многих из них откладывать обновление.

Аналитики попросили руководство NVIDIA объяснить, почему выросли складские запасы. NVIDIA завершила квартал с $1,09 млрд нераспроданных продуктов против $797 млн три месяца назад. Господин Хуанг объяснил, что это обусловлено наращиванием объёмов запасов относительно недорогих чипов, которые производятся сейчас и будут продаваться на рынке ПК в традиционный сезон повышенного спроса «Возвращение в школу». По-видимому, речь идёт о подготовке запуска новых ускорителей GeForce на базе Turing.

В любом случае, продажи решений для игрового рынка в прошедшем отчётном квартале возросли до $1,8 млрд, на 52 % по сравнению с тем же периодом прошлого года. Показатель превысил средние ожидания аналитиков. NVIDIA также похвалилась, что в настоящее время на рынке присутствуют уже свыше 25 игровых ноутбуков с поддержкой технологии Max-Q GeForce, позволяющей создавать высококлассные тонкие и лёгкие продукты. В отчётный период стали поставляться на рынок и первые игровые мониторы с поддержкой NVIDIA G-Sync HDR (яркость до 1000 Кд/м2, HDR и синхронизация кадров).

Доходы от поставок решений для центров обработки данных увеличились, в свою очередь, на 83 % и составили $760 млн, что также превзошло средние ожидания аналитиков. NVIDIA отметила, что 5 из 7 самых быстрых суперкомпьютеров в мире оснащаются её GPU, а вообще из списка 500 самых мощных таких систем 56 % используют мощности ускорителей компании.

NVIDIA прогнозирует, что её доходы в третьем квартале отчётного года составят $3,25 млрд плюс-минус 2 %. При этом, как сообщает Bloomberg, средние оценки аналитиков относительно финансовых перспектив компании оказываются чуть выше — $3,35 млрд.

Официально: Intel выпустит дискретную графику в 2020 году

О том, что компания Intel активно занимается разработкой дискретного графического процессора, известно уже довольно давно. И теперь производитель официально это подтвердил, опубликовав первый промо-ролик, посвящённый своему будущему дискретному графическому ускорителю.

Особых подробностей о готовящейся новинке Intel не сообщила, но при этом показала примерные очертания будущей видеокарты и подтвердила, что ждать её стоит примерно через два года. Также не исключено, что в скором времени производитель поделится более конкретными подробностями.

В опубликованном в корпоративном твиттер-аккаунте ролике под эпическую музыку говорится:

«Ежедневно зажигаются квинтильоны пикселей по всему миру благодаря встроенной графике Intel. Ограничения в размерах, энергопотреблении и цене не помешали нам творить историю. Мы создали первый графический процессор, полностью поддерживающий DirectX 12. Наша компьютерная графика первой получила поддержку воспроизведения видео Netflix в разрешении 4K. Мы обеспечили возможность играть на очень компактных компьютерах. Ежедневно работая с миллионами разработчиков, мы гарантируем, что ни один пиксель не пропадёт. И в 2020 мы дадим нашей графике свободу. И это только начало».

Напомним, что в конце 2017 года компания Intel наняла на работу Раджу Кодури (Raja Koduri), который до этого возглавлял графическое подразделение компании AMD, также известное как Radeon Technology Group (RTG). Было объявлено, что он займётся разработкой встроенных и дискретных графических решений для «синего гиганта». У Intel не было собственного дискретного GPU, если не считать решения конца прошлого века, поэтому компании и был необходим кто-то, кто сможет создать современную архитектуру дискретного графического процессора. И Раджа Кодури отлично подошёл на эту роль.

Похоже, что Кодури сам приложил руку к данному промо-ролику, поскольку в нём говорится о включении пикселей, а подобные слова звучали и перед анонсом графических архитектур AMD Polaris и Vega. На новом месте Раджа продолжает следовать своим первоначальным идеям и целям, которые он не смог реализовать в команде «красных». Заметим, что в Intel он обладает куда большей свободой действий, чем в RTG.

На кадрах из видео видно, что некая видеокарта под слот PCI Express x16 имеет высоту в два слота расширения и, судя по всему, оснащена системой охлаждения с вентилятором радиального типа, в простонародье — «турбиной».

Ожидается, что дискретные графические процессоры Intel будут построены на архитектуре Arctic Sound, являющейся для Intel графической архитектурой 12 поколения. Позже могут появиться и графические процессоры Jupiter Sound, относящиеся к 13 поколению. Заметим, что на данный момент Intel предлагает графику 9 и 9.5 поколений в процессорах Kaby Lake и Coffee Lake соответственно. Следующее, десятое поколение графики должно появиться в процессорах Cannon Lake.

Напомним, что к 2020 году Intel должна наконец представить и долгожданные процессоры Ice Lake, которые будут производиться по 10-нм техпроцессу. Поэтому, графические процессоры тоже вполне могут быть выполнены по 10-нм нормам, если, конечно, компании к тому времени наконец удастся наладить производство.

Что принесёт на рынок новая архитектура NVIDIA Turing?

Во время презентации NVIDIA на мероприятии SIGGRAPH 2018 исполнительный директор компании Дженсен Хуанг (Jensen Huang) официально представил долгожданную архитектуру GPU Turing, о которой ходило так много слухов. Следующее поколение графических процессоров будет включать в себя ряд новых функций и появится уже в этом году. Хотя в центре внимания пока были решения Quadro RTX для рынка профессиональной визуализации (ProViz), новые GPU будут применяться в других грядущих продуктах NVIDIA. Итак, что же приносит на рынок Turing?

Гибридный рендеринг и нейронные сети: ядра RT и Tensor

Знаковой функцией, по крайней мере, для рынка ProViz, является так называемый гибридный рендеринг, сочетающий в себе методы трассировки лучей и традиционное растрирование. Результатом должна стать возможность добиваться в реальном времени качества графики, близкого к полноценной трассировке лучей.

Новый анонс, по сути, является продолжением мартовского заявления на Game Developers Conference, когда Microsoft рассказала о стандарте DirectX Raytracing (DXR), а NVIDIA о собственной реализации этой технологии — GameWorks RTX. Тогда партнёры NVIDIA показали впечатляющие демонстрации с применением RTX: это и проект PICA PICA от команды EA SEED, и юмористическая зарисовка по мотивам VIII эпизода «Звёздных войн» на движке Unreal Engine, и демонстрация студии Remedy на базе движка Northlight, и запись реальной игровой сцены из грядущей Metro Exodus. Также на канале NVIDIA появился специальный ролик, в котором директор по развитию продуктов Фрэнк Делиз (Frank DeLise) рассказал о принципе работы RTX. Все они демонстрировались на ускорителях Titan V (архитектура Volta).

Большим изменением в Turing является ещё большая по сравнению с Volta аппаратная ориентированность на трассировку лучей. Архитектура впервые получила новые RT-ядра для трассировки лучей. Эти процессорные блоки ускоряют проверку пересечения лучей и треугольников и манипуляции с иерархиями ограничивающих объёмов (Bounding Volume Hierarchies, BHV) — последние является очень популярной структурой данных для хранения объектов при трассировке лучей. RT-ядра ускоряют расчёты движения света и звука в 3D-среде до 10 миллиардов лучей в секунду (Quadro RXT 8000 и 6000), что в 25 раз превосходит показатели старого «неускоренного» поколения Pascal.

Архитектура Turing также включает тензорные ядра, представленные впервые в архитектуре Volta, и развивают их. Эти блоки с производительностью до 500 трлн тензорных операций в секунду являются важным аспектом нескольких инициатив NVIDIA. Наряду с ускорением трассировки лучей, они также позволяют уменьшать количество лучей, требуемых в сцене, с помощью шумоподавления на основе ИИ, и очищать изображение. Конечно, это не единственное предназначение тензорных ядер — NVIDIA предлагает использовать эти блоки в набирающих популярность вычислениях в области ИИ, машинного обучения и нейронных сетей.

Новшеством Turing является поддержка более широкого диапазона точности, что позволяет кратно ускорить некоторые рабочие нагрузки, не предъявляющие высоких требований к точности. Так, помимо режима половинной точности вычислений с плавающей запятой FP16, компания реализовала поддержку целочисленных инструкций INT8 и даже INT4. Это соответственно в 2 и 4 раза быстрее, чем FP16. И, хотя точность нейронной сети уменьшается, при использовании INT4 можно многократно ускорить вычисления, что в некоторых случаях крайне полезно, особенно в процессах логических умозаключений ИИ.

Возвращаясь к гибридному рендерингу в целом, интересно отметить, что, несмотря на ускорение отдельных задач в 20 и более раз, обещания NVIDIA по приросту конечной производительности не столь радикальны. Компания заявляет, что новые карты могут моделировать физический мир в 6 раз быстрее, чем с помощью GPU предыдущего поколения Pascal (впрочем, какие именно чипы сравниваются — не ясно). Время покажет, насколько реалистична эта оценка, но очевидно даже с ядрами RT трассировка лучей в целом по-прежнему остаётся довольно ресурсоёмкой задачей, с трудом подходящей для игр.

Между тем, чтобы лучше использовать тензорные ядра не только в задачах трассировки лучей и специального ПО для глубинного обучения, компания представит новые инструменты для разработчиков — NVIDIA NGX, которые позволят интегрировать нейронные сети в задачи обработки изображений и видео (шумоподавление, масштабирование и ретайминг). В том числе появится новый метод полноэкранного сглаживания на основе машинного обучения Deep Learning Anti-Aliasing (DLAA).

Новый потоковый мультипроцессор

Наряду с блоками RT и тензорными ядрами, архитектура Turing приносит новый потоковый мультипроцессор (SM), который по аналогии с Volta добавляет целочисленный исполнительный блок параллельно к каналу данных с плавающей точкой, и новую унифицированную архитектуру кеша с удвоенной по сравнению с предыдущим поколением полосой пропускания. Преимуществом является ускорение создания адресов и производительность в задачах совмещённого умножения-сложения с однократным округлением (Fused Multiply Add, FMA), хотя наверняка новый инструмент будет использоваться во многих задачах.

В сочетании с новыми графическими технологиями, такими, как Variable Rate Shading, потоковый мультипроцессор Turing достигает высочайшей производительности на ядро. Подобные методы ускорения вычислений весьма важны в условиях, когда так называемый Закон Мура теряет силу и новые технологические процессы осваиваются всё тяжелее.

Поддержка GDDR6

Поскольку память, используемая видеокартами, разрабатывается сторонними компаниями, здесь нет больших секретов. JEDEC и три его крупных участника в лице Samsung, SK Hynix и Micron позиционируют стандарт GDDR6 в качестве преемника GDDR5 и GDDR5X, и NVIDIA подтвердила, что чипы Turing будут его поддерживать. В зависимости от производителя, GDDR6 первого поколения, как правило, позволяет развивать до 16 Гбит/с на единицу полосы пропускания, что вдвое больше, чем у GDDR5 и на 40 %, чем у GDDR5X в картах NVIDIA (ускорители Quadro будут использовать модули Samsung на 14 Гбит/с).

По сравнению с GDDR5X новый стандарт не является слишком большим шагом вперёд, но всё же должен стать основным типом памяти для индустрии GPU за исключением решений самого высокого класса, использующих HBM2. Принципиальные изменения GDDR6 включают более низкие рабочие напряжения (1,35 В), и внутренне память теперь разделена на два канала в каждом чипе. Для стандартного 32-битного чипа это означает пару 16-битных каналов памяти — на 256-битной карте таких каналов в общей сложности будет 16. Хотя это увеличивает количество каналов, такое новшество не помешает графическим ускорителям, которые являются высокопараллельными устройствами.

NVLink, VirtualLink и поддержка 8K HEVC

NVIDIA также вкратце подтвердила некоторые функции ввода-вывода, которые будут поддерживаться в архитектуре Turing. NVLink будет присутствовать, по крайней мере, в некоторых продуктах, — в частности, NVIDIA использует её для всех трёх своих новых карт Quadro RTX. Эти продукты предлагают двойные соединения с общей пропускной способностью до 100 Гбайт/с. Присутствие NVLink не означает, что интерфейс будет использоваться в потребительских ускорителях для SLI-конфигураций.

Между тем, для игроков и пользователей ProViz реализованы и новшества на фронте виртуальной реальности — а именно поддержка VirtualLink. Альтернативный режим USB Type-C был анонсирован в прошлом месяце: он поддерживает передачу энергии на уровне 15+ Вт, данных 10 Гбит/с по стандарту USB 3.1 и 4 полосы видеоизображения DisplayPort HBR3 по одному кабелю. Другими словами, это DisplayPort 1.4 с дополнительной передачей данных и питания, что позволяет видеокарте напрямую управлять VR-гарнитурой. Стандарт поддерживается NVIDIA, AMD, Oculus, Valve и Microsoft, а продукты Quadro станут первыми с поддержкой VirtualLink.

Наконец, хотя NVIDIA только кратко коснулась темы, она всё же сообщила, что в Turing был обновлён блок обработки NVENC. Последняя версия NVENC, в частности, приносит поддержку кодирования HEKC 8K на лету. При этом NVIDIA также улучшила качество своего блока кодирования, что позволило достичь того же уровня, что раньше, со снижением битрейта на 25 %.

В общем, осталось дождаться анонса потребительских продуктов GeForce. Согласно последним слухам, флагманские решения этого семейства будут использовать марку RTX вместо привычной GTX, что указывает на поддержку трассировки лучей. Также ускорители могут получить довольно нестандартные объёмы видеопамяти. Так ли это — уже вскоре должно стать ясно, ведь анонс ожидается в текущем месяце.

Слухи: производительность, цены и имена будущего семейства NVIDIA GeForce

NVIDIA хранит молчание относительно своих грядущих 12-нм видеокарт — даже слухи просачиваются довольно скупые, несмотря на ожидаемый скорый запуск. Например, мы по-прежнему не знаем имена новых ускорителей. Впрочем, если верить источникам YouTube-канала AdoredTV, компания может отказаться от своей знаковой маркировки GTX в названиях флагманских ускорителей.

Недавно NVIDIA зарегистрировала несколько новых торговых марок, которые включали Quadro RTX, GeForce RTX и ряд имён, связанных с виртуальной реальностью и технологией Virtual Link, которая, как ожидается, будет частью будущего семейства видеокарт. Согласно данным AdoredTV, серия грядущих ускорителей NVIDIA будет называться GeForce RTX вместо GeForce GTX, чтобы подчеркнуть поддержку технологий расчёта трассировки лучей в реальном времени DirectX Raytracing (DXR) или в интерпретации NVIDIA — GameWorks RTX.

Какие же видеокарты ожидаются на рынке? Сообщаются следующие имена и их примерный уровень производительности и цены:

  • NVIDIA Titan RTX — $3000, на 50 % быстрее, чем GeForce GTX 1080 Ti;
  • NVIDIA GeForce RTX 2080 8 Гбайт GDDR6 — $500–$700, на 50 % быстрее, чем GeForce GTX 1080;
  • NVIDIA GeForce RTX 2070 7 Гбайт GDDR6 – $300–$500, на 40 % быстрее, чем GeForce GTX 1070;
  • NVIDIA GeForce GTX 2060 5 Гбайт GDDR6 – $200–$300, на 27 % быстрее, чем GeForce GTX 1060;
  • NVIDIA GeForce GTX 2050 4 Гбайт GDDR5 – $100–$200, на 50 % быстрее, чем GeForce GTX 1050 Ti.

Итак, начнём с флагманской карты NVIDIA Titan RTX. Этот ускоритель под маркой Titan относится к классу полупотребительских решений, о чём красноречиво говорит её цена в $3000, что совпадает со стоимостью современного ускорителя Titan V. Общий объём памяти не указан, но можно ожидать около 24–32 Гбайт HBM2 и чип GV102. Эта карта явно будет близка к Titan V CEO Edition, но с несколькими оптимизациями с точки зрения частоты и конфигурации ядра. Производительность, согласно слухам, будет на 15 % выше по сравнению с Titan V и на 50 % выше, чем у GTX 1080 Ti.

Самой мощной потребительской видеокартой нового семейства будет GeForce RTX 2080, — да, новые слухи указывают, что NVIDIA будет использовать номенклатуру 20XX, а не 11XX, о которой чаще говорили раньше. Так или иначе, но новая видеокарта будет основана на архитектуре Turing и соответственно чипе TU104. Она получит 8 Гбайт видеопамяти GDDR6 и цену около $500–$700.

На момент выхода GeForce GTX 1080 тоже оценивалась в $700 (Founders Edition), так что такой уровень стоимости вполне ожидаем. Производительность этой карты, как сообщается, будет на 8 % выше, чем у GTX 1080 Ti и на 50 % — чем у GTX 1080. Анонсы Titan RTX, как и GeForce RTX 2080, должны произойти уже в августе, возможно, на SIGGRAPH или Gamescom 2018.

Следующий представитель семейства — GeForce RTX 2070. Эта карта якобы получит чип TU106 и 7 Гбайт видеопамяти GDDR6. Такой объём указывает на 224-битную шину памяти. Это довольно странно, учитывая, что GTX 1070 имела 8 Гбайт GDDR5. Цена ожидается примерно в $300–$500, а производительность заявлена на 17 % выше, чем у GTX 1080 и на 40 % — чем у GTX 1070. Анонс может состояться в сентябре 2018 года.

В серии будут, как минимум, ещё два более простых ускорителя в лице GeForce GTX 2060 и GTX 2050. Эти карты не будут использовать в названии RTX — видимо, из-за того, что их производительности окажется недостаточно для приемлемого качества работы функции трассировки лучей, в отличие от более мощных решений. Они поступят на рынок якобы лишь в ноябре и будут иметь ценники $100–$200 за 2050 и $200–$300 за GTX 2060.

GTX 2060 на базе чипа TU116 получит лишь 5 Гбайт GDDR6, что снова на 1 Гбайт меньше, чем у GTX 1060 (впрочем, на рынке есть варианты 1060 с 5 Гбайт и даже с 3 Гбайт памяти). Вдобавок, её производительность ожидается лишь на 27 % выше, чем у GTX 1060 — не очень хорошие новости для тех, кто рассчитывал на более существенной прирост в наиболее популярном сегменте.

А вот GeForce GTX 2050 на базе чипа TU117, напротив, выглядит довольно интересно. Как сообщается, карта будет оснащаться 4 Гбайт видеопамяти старого образца GDDR5, зато производительность окажется на 50 % выше, чем у GTX 1050 Ti. Если это правда, то при цене до $200 ускоритель вполне имеет шансы стать хитом на массовом рынке.

Впрочем, стоит помнить, что пока не состоялся официальный анонс, ко всем этим сведениям лучше относиться с известной долей недоверия.

Предположительные тесты NVIDIA GTX 1170 показывают превосходство над 1080 Ti

В Сеть (а точнее на один из польских форумов) попали, как утверждается, результаты тестирования в 3DMark FireStrike видеокарты GeForce GTX 1170 компании NVIDIA, основанной на архитектуре Turing. И если им верить, то от нового семейства можно ждать принципиального роста производительности. Ускоритель же GTX 1170 вполне сможет заткнуть за пояс нынешний флагман GTX 1080 Ti.

Судя по опубликованному изображению, новая видеокарта набрала 29 752 графических очков в тесте 3DMark FireStrike, оставив позади GeForce GTX 1080 Ti и AMD Radeon RX Vega 64. Судя по цифрам, карта будет примерно на 65 % быстрее, чем предшественник в лице GeForce GTX 1070 и на внушительные 38 % мощнее GTX 1080. Разумеется, если речь не идёт о подделке (а в данной утечке многое вызывает сомнение). Возможно, в тесте также участвовал разогнанный экземпляр, на что намекает частота GPU в 2500 МГц — слишком большой прирост для 12-нм FinFET -техпроцесса.

GeForce GTX 1170, как ожидается, получит 256-битный интерфейс памяти и будет оснащаться 16 Гбайт видеопамяти стандарта GDDR6, работающих на частоте 2,5 ГГц (на данный момент примеров видеокарт с такой быстрой памятью попросту нет). Всё это выливается в пропускную способность на уровне 384 Гбайт/с.

Также чип GT104, как ожидается, будет включать 2688 потоковых процессоров (против 1920 у GTX 1070), 168 текстурных блоков и 64 блока растеризации. Базовая частота чипа составит около 1500 МГц, а в режиме Turbo ускоритель сможет наращивать её до 1800 МГц. Уровень энергопотребления ожидается в пределах 140–160 Вт, а стоимость составит $500. Если характеристики верны, то ускоритель вполне может предложить производительность класса GTX 1080 Ti. Посмотрим — судя по слухам, ждать нового поколения видеокарт NVIDIA осталось недолго.

AMD выпустит 12-нм версию GPU Polaris в этом году

За последние шесть месяцев потребительский рынок видеокарт столкнулся с тремя основными вопросами: когда GPU станут снова доступными, когда NVIDIA представит следующую за Pascal архитектуру и когда AMD запустит новые ускорители, чтобы лучше противостоять NVIDIA? Рынок уже получил нормальные цены на GPU. Запуск новых видеокарт NVIDIA может произойти этой осенью (впрочем, сама компания советует не ждать обновления GeForce), а вот со стороны AMD мало что известно. Единственное, о чём компания заявила публично — это планы по выпуску в конце года 7-нм ускорителей Vega 20 для рынка машинного обучения.

Но участник форума Chiphell под псевдонимом WJM47196, который ранее уже не раз сообщал верную информацию, рассказал кое-что о планах AMD на текущий год. Во-первых, речь идёт о запуске в последней четверти 2018 года нового семейства Polaris 30, которое будет производиться на тех же улучшенных 12-нм нормах, что и процессоры AMD Ryzen 2000 с архитектурой Zen+. Эти новые видеокарты, как сообщается, смогут предложить повышенную на 15 % производительность по сравнению с текущим поколением.

Похоже, никаких особых архитектурных новшеств ждать не следует: речь пойдёт о банальном повышении частоты за счёт оптимизированного техпроцесса (Polaris были одними из первых 14-нм чипов GlobalFoundries). Если данные о 15-процентном приросте верны, то, пусть AMD и усилит свои позиции по сравнению с текущим поколением видеокарт NVIDIA, с новыми GeForce конкурировать без снижения цены будет сложно.

Кристалл AMD Polaris

Также сообщается, что в первой половине (или даже в первой четверти) 2019 года AMD собирается выпустить 7-нм ускоритель Navi 10 начального уровня. Настоящего наследника Vega для сегмента игровых видеокарт высокого класса, который получит и 7-нм архитектуру Navi, и память HBM2, придётся ждать гораздо дольше — до второй половины 2019 года.

Возможно, этот бюджетный ускоритель Navi 10 является настольной вариацией GPU, разрабатываемого, согласно слухам, компаниями AMD и Sony для PlayStation 5. Такой 7-нм ускоритель с обновлённой памятью GDDR6 может помочь AMD удержать важных клиентов вроде Apple, которым нужны энергоэффективные и быстрые GPU для моноблоков и ноутбуков.

В то же время оптимизированное 12-нм семейство Polaris 30 даст AMD возможность предложить чуть более мощные ускорители вместе с расширенным потенциалом снижения цены для противостояния NVIDIA на рынке настольных видеокарт. А уже спустя заметное время, после обкатки 7-нм норм, AMD получит возможность представить по-настоящему новое семейство Navi высокого класса.

Впрочем, стоит помнить, что всё это — лишь слухи и предположения на их основе. Только время покажет, являются ли они верными.

Huawei обновила график добавления поддержки GPU Turbo в смартфоны

В начале июня Huawei анонсировала смартфон Honor Play, который привлёк внимание технологией GPU Turbo. Как утверждают разработчики, средства GPU Turbo повышают производительность графической подсистемы чипсета на 60 % и снижают энергопотребление на 30 %. Ввиду того, что решение является не аппаратным, а программным, Honor Play будет не единственным устройством компании, в котором будет реализована эта технология. Причём речь идёт не только о будущих новинках, но и о тех смартфонах, которые уже были выпущены.

В середине месяца производитель обнародовал список моделей, которые получат поддержку GPU Turbo с очередным обновлением, и примерные сроки, когда это произойдёт. Однако, как оказалось, опубликованный тогда график был не окончательным, и на днях стала доступна его новая редакция. Обновлённое и уточнённое расписание было представлено в ходе мероприятия в Шэньчжэне, Китай.

Поскольку фотография слайда, предоставленная источниками, невысокого качества, приводим этот список в виде таблицы.

Модель

Регион

Месяц

Huawei

Huawei P20, P20 Pro

Европа, Россия, Азиатско-тихоокеанский регион, Средний Восток, Африка

Август 2018

Huawei Mate 10, Mate Pro, Mate RS

Европа, Россия, Азиатско-тихоокеанский регион, Средний Восток, Африка

Август 2018

Huawei P20 Lite

Европа, Азиатско-тихоокеанский регион, Средний Восток, Африка

Сентябрь 2018

Huawei P Smart

По всему миру

Сентябрь 2018

Huawei Nova 2i, Mate 10 Lite

По всему миру

Сентябрь 2018

Huawei Y9 2018

По всему миру

Сентябрь 2018

Huawei Mate 9

По всему миру

Ноябрь 2018

Huawei Mate 9 Pro

По всему миру

Ноябрь 2018

Huawei P10 Plus

По всему миру

Ноябрь 2018

Huawei P10

По всему миру

Ноябрь 2018

Honor

Honor 10

Европа, Россия, Азиатско-тихоокеанский регион, Индия, Средний Восток

Август 2018

Honor 9 Lite

Европа, Россия, Азиатско-тихоокеанский регион, Индия, Средний Восток

Сентябрь 2018

Honor V10

Европа, Россия, Азиатско-тихоокеанский регион, Индия, Средний Восток

Сентябрь 2018

Honor 7X

По всему миру

Сентябрь 2018

Honor 8 Pro

По всему миру

Ноябрь 2018

Honor 9

По всему миру

Ноябрь 2018

Basemark GPU 1.0 позволяет сравнить производительность ПК и смартфона

Basemark представила свой очередной тестовый пакет, получивший тривиальное имя Basemark GPU 1.0. Этот бенчмарк доступен для установки бесплатно и уже сейчас позволяет оценить производительность разных систем в ряде открытых графических API.

В первой версии поддерживаются OpenGL 4.5, OpenGL ES 3.1 и Vulkan 1.0 под операционными системами Windows, Linux и Android. В будущих сборках в ближайшие месяцы обещано добавление Microsoft DirectX и Apple Metal (в последнем случае, очевидно, и платформы iOS). Заявлена также совместимость со встраиваемыми и автомобильными ОС вроде QNX и Integrity.

Другими словами, разработчики замахнулись на максимальный охват и возможность сравнительной оценки графической производительности самых разных систем: от встраиваемых решений, смартфонов и интернет-телевизоров до мощных настольных видеокарт. Продукт использует движок Rocksolid от Basemark, который написан на C++ и позволяет запускать идентичную нагрузку на разных устройствах и технологиях, обеспечивая, таким образом, продвинутое профилирование графики.

Высококачественный режим тестирования Basemark GPU рассчитан на настольные системы и использует текстуры высокого разрешения 4096 × 4096, продвинутые эффекты, около 10 тысяч вызовов отрисовки и 2 млн полигонов на кадр, выводит картинку в разрешении 3840 × 2160 и требует 4 Гбайт видеопамяти. Разработчики говорят, что это соответствует стандарту современных игр высокого класса.

Режим среднего качества требует 1 Гбайт видеопамяти, нацелен на уровень современных мобильных игр высокого класса, исполняется в разрешении 1920 × 1080, использует текстуры 2048 × 2048, около 2 тысяч вызовов отрисовки, 0,7 млн полигонов на кадр и ограниченные эффекты.

Как сообщается, тестовый пакет Basemark GPU разработан в тесном сотрудничестве с ключевыми полупроводниковыми компаниями вроде Imagination Technologies, Intel, NVIDIA, Qualcomm и Renesas. Участие ведущих производителей графических и центральных процессоров призвано обеспечить надёжные и объективные результаты тестирования.

Помимо базовой бесплатной версии есть и корпоративная, не имеющая привязки к интернет-подключению и обязательной публикации результатов и предоставляющая детализированные отчёты, выбор тестов, функции автоматизации, экспорта данных и прочее.

Huawei рассказала, когда и какие именно Kirin-смартфоны получат поддержку GPU Turbo

Релиз смартфона Huawei Honor Play сопровождался вниманием прессы не столько по причине интереса к самому мобильному гаджету, сколько из-за технологии GPU Turbo. Революционное, как убеждал китайский производитель, решение оказалось на деле не аппаратным, как утверждали слухи, а программным изменением. За счёт низкоуровневого взаимодействия с аппаратной частью, в роли которой выступает фирменная SoC Kirin, GPU Turbo способна обеспечивать прирост быстродействия при обработке графики до 60 %.

В стремлении выжать из видеоускорителя по максимуму разработчики не оставили в стороне и такой важный показатель, как энергоэффективность системы. Благодаря GPU Turbo мобильное устройство хоть и станет быстрее, однако при работе с приложениями, делающими упор на графике, будет наблюдаться снижение энергопотребления подсистемой вплоть до 30 %. Кроме того, наличие GPU Turbo автоматически открывает доступ к HDR-контенту и визуальным эффектам, которые даже изначально не были предусмотрены авторами ПО. 

В рамках выставки CES Asia 2018 руководство Huawei поделилось с общественностью «дорожной картой», указывающей, когда клиенты компании — владельцы смартфонов с чипами HiSilicon Kirin — смогут оценить преимущества от использования GPU Turbo. Ещё на презентации Honor Play было отмечено, что поддержкой GPU Turbo обзаведутся не только новые смартфоны Huawei/Honor, но и те модели, которые уже находятся в продаже. Теперь же известен точный перечень этих гаджетов, а также сроки выпуска апдейта, отвечающего за активацию GPU Turbo. Список устройств с указанием ориентировочной даты выхода обновления выглядит следующим образом:

  • июнь — Huawei Mate 10, Honor V10;
  • июль — серия Huawei P20, модель Mate RS Porsche Design, Nova 2s, Honor 10, MediaPad M5;
  • август — Huawei Nova 3e, Enjoy 8 Plus, Enjoy 7S, Maimang 6, Honor 9 Lite, Honor Play 7X;
  • сентябрь — серия Huawei Mate 9;
  • октябрь — серия Huawei P10, модель Honor 9, Honor V9.

На ноябрь 2018 года Huawei запланировала реализацию GPU Turbo в ещё нескольких гаджетах, однако каких именно, пока не уточняется.  

Глава NVIDIA заверил, что анонс новых игровых ускорителей будет нескоро

NVIDIA во время Computex 2018 представила впечатляющую аппаратную платформу для интеллектуальной робототехники Jetson Xavier, однако никаких новостей относительно следующего поколения игровых видеокарт озвучено не было. Между тем прошло более двух лет со времени запуска современных GeForce на базе архитектуры Pascal, так что логично ждать скорого анонса чего-то нового.

К сожалению, исполнительный директор NVIDIA Дженсен Хуанг (Jensen Huang) поспешил разочаровать публику. Общаясь с журналистами в Тайбэе, на вопрос о следующем семействе игровых видеокарт он ответил, что анонс состоится ещё очень нескоро. Этот вопрос особенно уместен, учитывая тот факт, что в последнее время видеокарты не радовали соотношением цены и производительности из-за дефицита, вызванного криптовалютным бумом. Ситуация несколько выправилась, но за технологии двухлетней давности всё равно придётся отдать немало денег при покупке, скажем, GeForce GTX 1080.

NVIDIA выпустила несколько графических процессоров на базе архитектуры следующего поколения Volta — в первую очередь, речь идёт о Titan V за $3000. Однако этот ускоритель предназначен для ИИ и машинного обучения, а владельцы ПК давно ждут, когда же новые технологии появятся и в более доступных игровых решениях. Согласно слухам, следующая серия GeForce будет построена на архитектуре Turing, которая получит ряд новшеств из Volta.

Господин Хуанг не конкретизировал, насколько долго придётся ждать упомянутое им «очень нескоро», но после этого добавил, что люди могут без опасений закупать лучшие современные видеокарты GeForce — всё ещё 1080 и 1080 Ti — особенно сейчас, когда цены несколько устаканились. Думается, запуска следующих ускорителей в этом году точно можно не ждать. Кстати, AMD тоже не собирается выпускать новые 7-нм игровые видеокарты до 2019 года. В целом такая неопределённость вряд ли порадует тех, кто собирается собрать новую мощную игровую систему, особенно учитывая огромный скачок в производительности, который принесла предыдущая смена поколений.

NVIDIA впервые рассказала о продажах GPU для майнинга и прогнозирует обвал спроса

Компания NVIDIA впервые рассказала, как много доходов она смогла извлечь от продаж своих графических ускорителей для рынка добычи криптовалют. Спрос на GPU со стороны криптовалютных старателей в первом квартале был сильнее, чем ожидалось, и принёс компании доход в размере 289 миллионов долларов. В частности, аналитик Кристофер Роллан (Christopher Rolland) из Susquehanna накануне отчёта предполагал, что продажи ускорителей NVIDIA для этого рынка составят около 200 миллионов долларов.

Patrick T. Fallon | Bloomberg | Getty Images

Patrick T. Fallon | Bloomberg | Getty Images

Компания также отметила на отчётной конференции, что спрос ускорителей для криптодобытчиков существенно сократится уже в текущем отчётном квартале. Финансовый директор NVIDIA Колетт Кресс (Colette Kress) прогнозирует, что падение доходов, обусловленных спросом в этом секторе, составит 65 % и принесёт компании лишь $100 млн за квартал.

«Криптодобытчики купили много наших графических процессоров в этом квартале, и это привело к росту цен, — подчеркнул исполнительный директор NVIDIA Дженсен Хуанг (Jensen Huang). — Я думаю, многие игроки в результате не смогли купить новую GeForce». Госпожа Кресс тоже коснулась этого вопроса: «Несмотря на то, что в начале квартала ощущался дефицит видеокарт, сейчас ситуация выправляется. Игроки, которых отпугнули цены в прошлом квартале, теперь получили доступ к новым чипам по разумной цене».

Криптовалютный бум стимулировал рост доходов как NVIDIA, так и конкурирующей AMD, но этот сектор весьма неустойчив и сильно зависит от изменчивой стоимости валют. Аналитик Кевин Кэссиди (Kevin Cassidy) из Stifel отметил, что некоторая зависимость NVIDIA от криптовалютного рынка беспокоит ряд инвесторов. Котировки акций NVIDIA вслед за объявлением финансовых результатов, несмотря на рекордные показатели деятельности, снизились на 3,8 %.

AMD в драйвере Radeon 18.4.1 тихо добавила тестовую поддержку PlayReady 3.0 для Polaris

Мы уже писали о планах AMD по интеграции в этом году в GPU Polaris и Vega технологии DRM-защиты Microsoft PlayReady 3.0, которая, в частности, требуется для просмотра потоковых 4K- и HDR-материалов службы Netflix. Оказывается, в вышедшем неделей ранее драйвере Radeon Software 18.4.1 Adrenalin Edition компания добавила недокументированную возможность — бета-поддержку PlayReady 3.0 для ускорителей с архитектурой Polaris.

Сначала это заметили пользователи, которые смогли воспроизводить соответствующие материалы Netflix 4K на своих компьютерах с видеокартами Radeon Polaris, после чего AMD официально подтвердила наличие этой функциональности. Компания отметила, что в ближайшем будущем будет выпущен WHQL-сертифицированный драйвер, обеспечивающий полноценную поддержку PlayReady 3.0.

Внедрение PlayReady 3.0 для ускорителей Polaris соответствует ранее озвученным планам AMD. Впрочем, изначально компания обещала реализовать это в начале второго квартала. Вдобавок AMD сообщает, что поддержка PlayReady 3.0 для дискретной графики Vega и новых APU на основе Raven Ridge всё ещё находится в разработке и появится позже.

Напомним, что дискретная или интегрированная графика с поддержкой PlayReady 3.0 — необходимое, но далеко не достаточное условие для воспроизведения материалов Netflix в 4K и HDR на ПК. Остальные требования включают:

  • Windows 10 Fall Creators Update (для HDR);
  • Windows 10 HEVC Media Extension или подобный пакет;
  • последние не конкретизированные компанией обновления Windows 10;
  • браузер Microsoft Edge или приложения Netflix для Windows 10;
  • минимальная скорость интернет-соединения 25 Мбит/с;
  • 60-Гц 4K-дисплей с поддержкой HDCP 2.2;
  • сертифицированный кабель HDCP 2.2 с цифровым интерфейсом 4K;
  • совместимый с HDCP 2.2 и 4K цифровой порт на видеовыходе материнской платы или видеокарте;
  • оплаченный тариф Netflix, предусматривающий 4K и HDR;
  • установка высокого или автоматического качества потоковой передачи в настройках воспроизведения учётной записи Netflix.

Стоит обратить внимание, что Netflix обновила требования, указав 60-Гц дисплей. Существуют дополнительные условия каждого производителя (Intel, AMD и NVIDIA), особенно если пользователи также хотят получать поток в режиме HDR. Для Intel поддерживаются только iGPU Kaby Lake или выше. Для NVIDIA — только GeForce GTX 1050 или выше с объёмом видеопамяти не менее 3 Гбайт и драйверами 387.96 или выше. Как отмечает NVIDIA, потоковая передача 4K на SLI/LDA не поддерживается, а для вывода на несколько мониторов требуется, чтобы все активные дисплеи были совместимыми с HDCP 2.2; последнее, вероятно, справедливо и для конфигураций с GPU AMD.

AMD Radeon Software Adrenalin Edition 18.4.1 также приносит предварительную поддержку вышедшего недавно крупного обновления Windows 10 April 2018 Update (версия 1803) и несколько исправлений ошибок. Скачать его можно либо через панель Radeon Settings, либо с официального сайта.

NVIDIA работает над трассировкой лучей для Vulkan

Одной из главных тем на мартовском мероприятии Game Developers Conference 2018 стала трассировка лучей в реальном времени. Microsoft представила стандарт DirectX Raytracing (DXR). NVIDIA на его базе анонсировала собственную реализацию — оптимизированную под ускорители с архитектурой Volta технологию GameWorks RTX. Похоже, «зелёная» компания не собирается ограничиваться трассировкой лучей в рамках DirectX 12.

2018 год для игровой индустрии положит начало внедрению трассировки лучей в реальном времени: многие крупные компании и разработчики трудятся над решением этой проблемы. Очередным шагом NVIDIA в этой области стала работа над расширением для API Vulkan, которое, по аналогии с RTX для DXR, позволит использовать в играх трассировку лучей.

NVIDIA работает над переносом своей технологии RTX в Vulkan через расширение VK_NV_raytracing, которое хорошо совместимо с открытым графическим API. Компания предложила свой метод группе Khronos и стремится к стандартизации технологии трассировки лучей в реальном времени в рамках Vulkan. Другими словами, в перспективе такой метод сможет работать как на ускорителях GeForce, так и на Radeon и даже Intel Graphics (если будут достаточно мощные решения). NVIDIA подчёркивает, что структура близка к Microsoft DXR, что упростит жизнь разработчикам.

Разработчики, желающие ознакомиться с подходом NVIDIA к реализации трассировки лучей в рамках открытого графического API, могут открыть соответствующую официальную презентацию (формат PDF) или видеозапись сессии, в которой компания рассказывает об RTX для Vulkan. Стоит помнить, что речь идёт о предварительной версии технологии.

Те, кто пропустил техническое видео, в котором директор по развитию продуктов NVIDIA Фрэнк Делиз (Frank DeLise) рассказывает для широкой аудитории о преимуществах и принципах, лежащих в основе RTX, могут ознакомиться с нашим мартовским материалом. Напомним: AMD ранее также представила аналогичную технологию Radeon Rays 2.0 для API Vulkan.

Графические процессоры AMD — основа 53 % игровых систем

В соответствии с недавним отчётом аналитической компании Jon Peddie Research, доминирующее положение AMD на рынке графических ядер для игровых приставок помогло «красным» занять 53 % рынка GPU для x86-совместимых игровых систем. Таким образом, Advanced Micro Devices успешно ведёт игру на два фронта, тогда как NVIDIA в основном сосредоточена на игровых решениях для настольных ПК и ноутбуков.

ПК-геймеры и владельцы консолей довольно консервативны в своём выборе, что во многом объясняется высокими затратами для перехода из одной экосистемы в другую и просто силой привычки. Тем не менее, если не произойдёт ничего сверхъестественного, игровые приставки в период 2018–2020 гг. сохранят за собой около трети рынка x86-систем с игровыми графическими процессорами. В 2012 г. соотношение составляло приблизительно 3:1 в пользу ПК.

Сборка игрового компьютера в среднем обходится значительно дороже покупки PlayStation или Xbox, но, во-первых, игры для ПК можно купить дешевле, а во-вторых, игровую x86-систему можно использовать и для других целей — работы, учёбы, творчества, разнообразных опытов (разгон, моддинг и др.) и эксплуатации в качестве домашнего сервера.

На фоне постепенного сокращения поставок персональных компьютеров различного назначения стабильный прирост количества игровых ПК не может не радовать. Это означает, что видеоиграми увлекается всё больше пользователей, и требования к графической составляющей постоянно растут.

В последние годы за счёт крупных заказов со стороны производителей консолей и повышенного спроса на криптовалютные фермы AMD перехватила инициативу на рынке GPU. Четыре года подряд доля графических ядер компании превосходит общий показатель NVIDIA и Intel. В зачёт последней, похоже, идут системы со встроенными GPU Iris, которые позволяют играть в современные игры в режиме «слайдшоу». Приятным исключением являются центральные процессоры Kaby Lake-G с графикой AMD Vega, но объём их поставок пока невелик.

Согласно JPR, в 53 % случаев для игр используются графические процессоры AMD. При этом компьютеров и приставок с «красными» GPU меньше половины. Данное расхождение объясняется тем, что почти все консоли фактически используются для запуска игр, тогда как владельцы компьютеров с графическими ядрами, рассчитанными на игровую нагрузку, нередко вовсе не играют в течение дня.

Определённая зависимость AMD от производителей игровых приставок может стать проблемой для компании в будущем, но, с другой стороны, она показала себя как надёжный партнёр для Microsoft и Sony. К тому же Advanced Micro Devices активно работает над 7-нм графическими процессорами для ПК, не говоря уже о новых поколениях APU.

Intel может вернуться на рынок дискретной графики в 2020 году

В ноябре AMD сообщила о том, что глава её графического подразделения, Radeon Technologies Group, Раджа Кодури (Raja Koduri) принял решение покинуть компанию. Чуть позже стало известно, что это была перебежка в стан конкурента: в Intel он возглавил новосозданную группу Core and Visual Computing, которая будет заниматься разработкой дискретных графических процессоров для игровых ПК, а также высокопараллельных ускорителей для суперкомпьютеров и различных перспективных приложений.

Таким образом, Intel решила в третий раз после двух прошлых неудач попытаться выйти на рынок видеокарт. Конечно, на разработку таких амбициозных решений нужны годы — в настоящее же время благодаря вкладу Кодури можно надеяться на улучшение и оптимизации существующей интегрированной графики, а также появление новых продуктов вроде многокристальных процессоров Core серии G, в которых задача графических вычислений возложена на отдельный чип AMD Radeon RX Vega M, дополненный стеком памяти HBM2 и подключённый к CPU через EMIB.

Тем не менее, пока кипит работа над собственной дискретной графикой, основными GPU компании Intel будут по-прежнему оставаться интегрированные ускорители поколения 9,5, используемые в чипах Kaby-Lake Refresh и Coffee-Lake. Пока о своих планах по захвату рынка видеокарт Intel предпочитает молчать, но уже стали появляться первые слухи.

В январе журналист и автор многих публикаций в The Motley Fool, касающихся IT-рынка и полупроводниковых новинок, Ашраф Исса (Ashraf Eassa) утверждал, что первыми дискретными GPU, созданными под началом господина Кодури, станут решения 12-го поколения под кодовым именем Arctic Sound. Их наследниками выступят якобы GPU Jupiter Sound. В обоих случаях это будут не полноценные видеокарты, но всё же и не интегрированная графика. Речь идёт об отдельных кристаллах, подключаемых к стеку скоростной памяти и CPU посредством интерфейса EMIB. Другими словами, они призваны заменить графику AMD Radeon в мобильных процессорах вроде современных решений Core серии G.

Intel 740 для шины AGP — первая внешняя видеокарта компании, 1998 год

Intel 740 для шины AGP — первая внешняя видеокарта компании, 1998 год

На этой неделе Ашраф Исса выложил серию дополнительных твитов, в которых продолжил рассказ об Arctic Sound. По его словам, Intel приступит к массовому производству этих графических решений лишь в первой половине 2020 года. Также он добавил, что Intel надеется с помощью Jupiter Sound обойти NVIDIA по показателям производительности на 1 ватт потребляемой мощности в секторе решений до 60 Вт. Возможно, это будет уже полноценная внешняя видеокарта?

Интересно, что, согласно информации того же журналиста, изначально проект Arctic Sound был предназначен для использования в серверах, ориентированных на потоковое видеовещание. Однако после того, как Раджа Кодури влился в дружный коллектив Intel, он убедил руководство создать также игровую версию ускорителя и теперь желает триумфально выйти на рынок.

Ускорители Intel Xeon Phi, так и не превратившиеся в игровые видеокарты (самый мощный 72-ядерный Phi 7290 вышел в 2016 году)

Ускорители Intel Xeon Phi так и не превратились в игровые видеокарты (самый мощный 72-ядерный Phi 7290 вышел в 2016 году)

Наконец, Ашраф Исса утверждает, что дискретная графика Intel Arctic Sound может получить поддержку многокристальной компоновки: в зависимости от конфигурации и требуемой производительности на одной подложке может размещаться один, два или четыре таких чипа. Кстати, журналист отмечает, что следующая версия интерфейса Intel EMIB носит кодовое имя Fevoros — он позволит объединять кристаллы меньшего размера, а также размещать чипы один на другом для экономии занимаемой площади.

Помимо сведений о работе Intel в области дискретной графики информатор заявил, что 10-нм процессоры Tiger Lake (запланированы на конец 2019 года) получит серьёзные оптимизации в области энергопотребления, так что 35-Вт мобильные кристаллы, например, смогут потреблять во время простоя лишь 9 мВт. И якобы руководство Apple было в хорошем смысле удивлено этими возможностями Tiger Lake. Эти процессоры будут использоваться в будущих Mac, но вот после них купертинская компания собирается начать переход на собственные кристаллы с архитектурой ARM.