Сегодня 09 сентября 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → gpu
Быстрый переход

Nvidia укрепила лидерство на рынке GPU, Intel потеряла позиции, а AMD — немного отыграла

Согласно последнему квартальному отчёту исследовательской компании Jon Peddie Research (JPR), касающемуся поставок графических процессоров (GPU), во II квартале 2024 года мировой рынок показал рост на 1,8 %. Nvidia укрепила позиции, увеличив свою долю на 2 %. Несмотря на глобальные экономические трудности, рынок графических процессоров остаётся устойчивым и даже демонстрирует потенциал для дальнейшего роста, что подтверждается прогнозами аналитиков на ближайшие годы.

 Источник изображения: LauraTara / Pixabay

Источник изображения: LauraTara / Pixabay

Так, во II квартале 2024 года было отгружено около 70 млн GPU, что говорит о заметном оживлении рынка. Особенно впечатляет рост поставок процессоров для настольных компьютеров (ПК) — +11 % в годовом исчислении. Прогнозируется, что в период с 2024 по 2026 годы совокупный среднегодовой темп прироста составит 4,2 %, а к концу 2026 года общее количество используемых GPU может достичь внушительных 3,3 млрд единиц.

Важным моментом остаётся прогнозируемое JPR сохранение значительной доли дискретных графических карт в ПК. По их оценкам, в течение следующих пяти лет около 23 % ПК будут оснащены дискретными видеокартами. Годовой рост поставок GPU, охватывающий все платформы и типы процессоров, оказался на уровне 16 %. При этом наблюдается разная динамика в различных сегментах рынка: так, поставки GPU для ПК увеличились на 21 %, тогда как для ноутбуков — всего на 13 %.

 Распределение долей рынка GPU для ПК: AMD, Intel и Nvidia во II квартале 2024 года (источник: JPR, TweakTown)

Распределение долей рынка GPU для ПК: AMD, Intel и Nvidia во II квартале 2024 года (источник: JPR, TweakTown)

Доктор Джон Педди (Jon Peddie), президент JPR, в своём комментарии отметил: «Скачок поставок во II квартале стал для нас приятным сюрпризом. Рынок уже несколько лет испытывает колебания, стремясь обрести ритмичность и стабильность. Учитывая все текущие потрясения — от торговых войн до пандемии и политических кризисов — ожидать так называемую нормальность в ближайшем будущем маловероятно».

Распределение долей рынка GPU между основными игроками также претерпело некоторые изменения. За три месяца AMD удалось незначительно увеличить свою долю на 0,2 %. На этом фоне Nvidia укрепила свои позиции, добавив 2 %, тогда как доля Intel уменьшилась на 2,1 %. Важно отметить, что эти данные учитывают как дискретные, так и интегрированные GPU, что и объясняет стабильные позиции Intel на рынке в целом.

 Доля процессоров для ПК и ноутбуков: динамика изменений с II квартала 2023 года по II квартал 2024 год (источник: JPR, TweakTown)

Доля процессоров для ПК и ноутбуков: динамика изменений с II квартала 2023 года по II квартал 2024 год (источник: JPR, TweakTown)

JPR также представила ряд интересных статистических данных, характеризующих текущее состояние отрасли:

  • Общий коэффициент использования GPU (включая как интегрированные, так и дискретные графические процессоры в ПК, ноутбуках и рабочих станциях) достиг 120 %, что на 6,7 % выше показателя предыдущего квартала.
  • Рынок чипов для ПК снизился на 4,6 % по сравнению с предыдущим кварталом, однако вырос на 10,7 % в годовом исчислении.

Эти данные подчёркивают сложную и неоднозначную динамику рынка, где квартальные колебания переплетаются с общей тенденцией к росту. Краткосрочные экономические трудности могут объяснить снижение поставок в квартальном измерении, однако годовой рост показывает более долгосрочную положительную тенденцию в индустрии GPU.

Nvidia отметила 25-летие первого GPU в мире — видеокарты GeForce 256

Четверть века назад, 31 августа 1999 года, компания Nvidia представила GeForce 256 — дискретную видеокарту, которая позиционировалась как «первый в мире GPU». Этот графический ускоритель кардинально изменил ландшафт компьютерных игр и графики, заложив основу для современных технологий, используемых в играх, ИИ и не только.

 GeForce 256. Источник изображения: VisionTek/Wikipedia

GeForce 256. Источник изображения: VisionTek/Wikipedia

Революционное влияние GeForce 256 было обусловлено интеграцией функций преобразования и освещения (T&L) непосредственно в GPU. Ранее эти вычисления выполнялись центральным процессором или требовали специализированного оборудования. Переместив T&L на GPU, Nvidia снизила затраты и повысила производительность по сравнению с традиционными 3D-ускорителями. Эта оптимизация позволила Nvidia превзойти конкурентов и стать тем, кем она является сейчас.

GeForce 256 имел память SDR, но позже был обновлён до DDR, поддерживал DirectX 7.0 и был преемником серии RIVA TNT2. Это был однокристальный чип, способный обрабатывать 10 миллионов полигонов в секунду, имел 23 миллиона транзисторов, что сегодня несоизмеримо мало по сравнению с GPU AD102 в GeForce RTX 4090, текущем флагманском GPU Nvidia. За 25 лет количество транзисторов в GPU увеличилось в 3300 раз, а объём памяти в 768 000 раз. При этом флагманская видеокарта теперь требует в девять раз больше энергии и стоит примерно в четыре раза дороже.

«На момент выхода GeForce 256 Nvidia конкурировала с 35 другими компаниями», — рассказывал соучредитель компании Крис Малаховски (Chris Malachowsky) в 2008 году. В то время как некоторые конкуренты были поглощены Nvidia, другие не смогли угнаться за прогрессом, и только AMD выдержала это давление. Однако сегодня рынок GPU расширился и уже такие компании, как Intel, AMD, Qualcomm и Nvidia соревнуются в разработке самых передовых архитектур для различных применений практически на равных. Но Nvidia со своими флагманскими решениями явно вырывается вперёд, причём не только в играх с GeForce RTX 4090, но и в вычислениях с H100 и другими GPU.

GPU значительно эволюционировали со времён GeForce 256, теперь они оснащены мощными решениями для кодирования видео, выделенными блоками трассировки лучей и тензорными ядрами. Они играют решающую роль в играх, профессиональной визуализации, рендеринге, облачном стриминге, вычислениях, криптовалюте и быстрорастущей области генеративного ИИ. Эта тенденция, вероятно, сохранится, и в будущем будут добавлены более специализированные аппаратные блоки ускорения.

ASUS представила на Gamescom блоки питания для ПК на основе нитрида галлия

ASUS представила на Gamescom блоки питания ROG THOR III 1600W и ROG Strix 1000W. Главной особенностью новинок стало использование транзисторов на основе нитрида галлия (GaN), что позволило значительно улучшить их характеристики и дизайн.

 Источник изображения: overclock3d.net/ASUS

Источник изображения: overclock3d.net/ASUS

Как подчёркивает ресурс Overclock3d, переход на GaN-транзисторы не являются процессом простой замены одного компонента на другой. Новые транзисторы ASUS обеспечивают более высокий уровень эффективности и позволяют упростить внутреннюю компоновку блоков питания, что дало возможность оптимизировать систему охлаждения блоков, обеспечив к тому же более тихую работу.

 Источник изображения: overclock3d.net/ASUS

Источник изображения: overclock3d.net/ASUS

По заявлению ASUS, эффективность транзисторов увеличилась на 30 %. Кроме того, оба новых блока питания ROG THOR III и Strix Platinum сертифицированы по стандартам ATX 3.1 и PCIe 5.1. Устройства также усовершенствованы за счёт добавления нового 2-контактного разъёма, который представляет собой датчик напряжения, позволяющий обоим ROG тщательно контролировать подачу питания для обеспечения оптимальной производительности и стабильности работы графического процессора.

 Источник изображения: overclock3d.net/ASUS

Источник изображения: overclock3d.net/ASUS

Серия ROG THOR III имеет сертификат эффективности 80+ Titanium, в то время как новая серия ROG Strix — 80+ Platinum. Оба рейтинга относятся к высокопроизводительному классу, однако серия THOR выводит эффективность на ещё более высокий уровень, обеспечивая КПД до 96 %. Блок питания ROG THOR III также получил сертификат эффективности Cybenetics и рейтинг шума Lamda A+.

Ещё ROG Thor оснащён магнитным OLED-дисплеем, который можно разместить в любом удобном месте, например прикрепить к блоку питания или к любой другой поверхности для лучшей видимости.

Imagination отказалась от нейропроцессоров в пользу совершенствования GPU под нужды ИИ

Британский разработчик чипов Imagination Technologies на фоне получения $100 млн инвестиций меняет свою стратегию в сфере искусственного интеллекта, отказываясь от использования отдельных нейропроцессоров (NPU) и внедряя ИИ-функции в графические процессоры (GPU).

 Источник изображения: imaginationtech.com

Источник изображения: imaginationtech.com

По данным Tom's Hardware со ссылкой на источник, это стратегическое решение было принято в течение последних 18 месяцев из-за сложностей с собственным разработанным ранее программным стеком, который не успевал за быстро меняющимися потребностями клиентов в области искусственного интеллекта. Создание ИИ-функциональности, способной раскрыть все возможности нейропроцессора от Imagination Technologiesоказалось было затруднено.

Компания переключила внимание на GPU, которые по своей природе многопоточны и хорошо подходят для задач, требующих эффективной параллельной обработки данных. Imagination Technologies считает, что GPU можно усовершенствовать дополнительными вычислительными возможностями для ИИ, что сделает их подходящими для периферийных приложений, особенно в устройствах с уже существующими GPU, таких как смартфоны.

Напомним, что Imagination Technologies, работающая на рынке около 40 лет, приобрела известность благодаря графическим процессорам PowerVR Kyro для ПК и IP-ядрам GPU PowerVR, используемым Apple, Intel и другими компаниями. Теперь же в рамках новой стратегии компания сотрудничает с UXL Foundation над разработкой SYCL — открытой платформой, конкурирующей с программно-аппаратной архитектурой параллельных вычислений CUDA от Nvidia. Такой подход отвечает потребностям клиентов, которые уже используют GPU для обработки графики и задач искусственного интеллекта.

 Источник изображения: imaginationtech.com

Источник изображения: imaginationtech.com

Получение инвестиций в размере $100 млн от Fortress Investment Group, вероятно, связано с новой стратегией Imagination Technologies. Компания уверена, что GPU на данный момент являются лучшим решением для удовлетворения потребностей клиентов в области ИИ, прекратив разработку отдельных нейронных ускорителей. Тем не менее, Imagination не исключает возможности возвращения к разработке специализированных нейропроцессоров в будущем, если развитие программного обеспечения для ИИ изменит ситуацию.

Израильское подразделение Arm взялось за создание игрового GPU

Недавно стало известно, что материнская корпорация SoftBank вынашивает идею создания собственного чипа для ускорения систем искусственного интеллекта, поэтому свежая публикация на страницах Globes ничуть не удивляет своим содержанием. Источник сообщает, что группа специалистов Arm в Израиле занята разработкой GPU для сегмента видеоигр.

 Источник изображения: Arm

Источник изображения: Arm

В местном исследовательском центре Arm, как поясняет Globes, над созданием игрового графического процессора трудятся около сотни специалистов по программному и аппаратному обеспечению. Тем не менее, изначальная ориентация продукта на сегмент игрового железа не означает, что в дальнейшем эти разработки не могут быть применены в сфере ускорения вычислений для систем искусственного интеллекта.

Израильские специалисты Arm уже имеют опыт оптимизации дизайна графических ядер для сторонних заказчиков, поэтому его можно было бы применить при создании собственного GPU. У инженеров Arm в Израиле также есть опыт создания ускорителей вычислений для NeuReality, поэтому он может быть применён для аналогичных собственных разработок. Ускорители Arm могут составить конкуренцию решениям Nvidia и продаваться в существенных количествах крупным провайдерам облачных услуг, которые заинтересованы в снижении зависимости от доминирующего поставщика, который способен навязывать им любые цены.

Samsung удалось сертифицировать свою 8-слойную память HBM3E под требования Nvidia

Новейшая память HBM3E компании Samsung Electronics длительное время не могла попасть в цепочки поставок Nvidia, поскольку не проходила сертификационные тесты, и теперь осведомлённые источники сообщает, что 8-слойные микросхемы Samsung этого типа наконец-то прошли сертификацию крупнейшего разработчика чипов для систем искусственного интеллекта.

 Источник изображения: Samsung Electronics

Об этом сообщило агентство Reuters со ссылкой на три независимых источника. Формально, данный этап открывает перед продукцией Samsung этого типа путь к долгожданному сотрудничеству с Nvidia, поскольку до сих пор из трёх существующих производителей HBM3E только Samsung не могла похвастать наличием необходимых сертификатов. Лидирующим поставщиком HBM3E для нужд Nvidia, как известно, является SK hynix, которая контролирует около половины рынка микросхем этого типа.

Samsung при этом только предстоит пройти сертификацию Nvidia для микросхем HBM3E с 12 ярусами, поэтому южнокорейский гигант всё равно остаётся в положении догоняющего по сравнению со своими конкурентами. В случае с 8-ярусными стеками HBM3E компания Samsung ещё только должна подписать контракт с Nvidia, чтобы приступить к их поставкам этому клиенту в четвёртом квартале текущего года. Считается, что ради соответствия требованиям Nvidia компании Samsung пришлось внести серьёзные изменения в конструкцию и технологию изготовления микросхем памяти типа HBM3E.

Недавно сообщалось, что менее современная память HBM3 марки Samsung была сертифицирована Nvidia для использования в составе ускорителей вычислений, ориентированных на китайский рынок. По оценкам TrendForce, микросхемы поколения HBM3E по итогам текущего года станут доминирующим типом HBM, основной объём их поставок придётся на второе полугодие. Непосредственно Samsung рассчитывает довести долю HBM3E до 60 % поставок в структуре чипов семейства HBM к концу этого года.

Nvidia готовит новую мобильную GeForce RTX 3050 на чипе Ada Lovelace с 64-битной шиной и 4 Гбайт памяти

Компания Nvidia подтвердила разработку новой версии видеокарты GeForce RTX 3050 для ноутбуков. Ключевой особенностью новинки станет использование графического процессора AD106, основанного на архитектуре Ada Lovelace, используемой в более мощной RTX 4070.

 Источник изображения: Nvidia

Источник изображения: Nvidia

По информации издания Notebookcheck, видеокарта, получившая название GeForce RTX 3050 A, будет оснащена 4 Гбайт видеопамяти GDDR6 с 64-битной шиной, а её TDP составит от 35 до 50 Вт. Количество ядер CUDA составит 1792.

Эксперты отмечают, что подобный шаг Nvidia напоминает ситуацию 2021 года, когда компания неожиданно представила GeForce RTX 2050 на базе GPU GA107 (Ampere), несмотря на то, что эта модель относилась к линейке Turing. Та карта нашла применение во многих бюджетных ноутбуках, хотя её производительность оставляла желать лучшего. Теперь Nvidia, похоже, планирует провернуть подобный трюк с GeForce RTX 3050, которая изначально базировалась на чипе Ampere, оснастив её графическим процессором Ada Lovelace.

Информация о новой модификации RTX 3050 была обнаружена в базе данных PCI-ID, а также в последних драйверах Nvidia. Хотя полные технические характеристики пока не раскрыты, очевидно, что производительность новинки будет ниже, чем у мобильной версии GeForce RTX 4070, также использующей GPU AD106.

Стоит отметить, что это уже третий вариант GeForce RTX 3050 после версий с 6 Гбайт и 4 Гбайт памяти на базе GPU GA107. Причины выбора AD106 вместо более подходящего для данного класса видеокарт AD107 пока неизвестны. Не исключено, что новая GeForce RTX 3050 A может быть представлена на выставке CES вместе с моделями серии RTX 5000 на базе архитектуры Blackwell. Однако также существует вероятность, что данная модификация является экспериментальной и может не выйти на рынок.

Ожидается, что появление версии GeForce RTX 3050 A позволит Nvidia расширить предложение в сегменте бюджетных игровых ноутбуков, предоставив производителям дополнительные возможности для создания конкурентоспособных моделей.

Colorful представила оперативную память iGame Jiachen Zhilong DDR5 в стиле китайского года дракона

Компания Colorful представила серию модулей оперативной памяти iGame Jiachen Zhilong DDR5, созданную в едином стиле с ранее выпущенными материнскими платами ограниченной серии Dragon Year («Год Дракона»). Эта высокопроизводительная память адресована пользователям, которые ценят не только производительность, но и эстетику.

 Источник изображения: Colorful

Источник изображения: Colorful

Первый комплект памяти в новой линейке имеет объём 48 Гбайт (2 × 24 Гбайт) и работает на частоте 6800 МГц с таймингами CL34. Ключевой особенностью модулей является эффектный теплоотвод с дизайном Dragon Scale (драконья чешуя) и RGB-подсветкой в виде дракона.

Дизайн серии Jiachen Zhilong вдохновлён традиционной китайской цветовой гаммой, включая красный Zheng Li и золотой Jin Xiang. На лицевой стороне модулей можно увидеть узоры в виде облаков Xiang Yun и летящих фениксов Yu Feng, а на обратной стороне расположена эмблема Jiachen Zhilong. Общий вид дополняется золотой окантовкой и многослойными волоконно-оптическими световодами, символизирующими «восхождение шаг за шагом» (rising step by step).

 Источник изображения: Colorful

Источник изображения: Colorful

С технической точки зрения известно, что новая память использует высококачественные чипы от SK hynix и обеспечивает скорость передачи данных до 6800 МТ/с. Поддерживается технология XMP 3.0 для простого разгона в один клик, интеллектуальный контроль температуры PMIC для оптимального теплового режима и ON-Die ECC для автоматического исправления ошибок, гарантирующего целостность данных и стабильность работы.

Хотя в настоящий момент на JD.com доступна только 48-гигабайтная версия, на странице продукта есть намёк на будущий выпуск варианта объёмом 32 Гбайт. Ожидается, что эта версия с меньшей ёмкостью сохранит тайминги CL34, но справляться со своими задачами на 100 % сможет при более высоком рабочем напряжении в 1,4 Вт.

На данный момент комплект доступен на китайской площадке JD.com по цене 1399 юаней (около 16 600 рублей).

AMD становится компанией-разработчиком ПО, меняя приоритеты

Компания AMD объявила о масштабной трансформации своей бизнес-модели, смещая приоритет с разработки аппаратного обеспечения на создание программных решений, API и искусственного интеллекта. Таким образом компания станет больше похожа на Nvidia, которая давно сместила акцент на ПО.

 Источник изображения: AMD

Источник изображения: AMD

На недавней встрече с журналистами в Барселоне руководство AMD, включая исполнительного вице-президента Фила Гвидо (Phil Guido) и главного коммерческого директора Джека Хюня (Jack Huynh), поделилось новым видением будущего компании. Главным сюрпризом стало заявление о кардинальном изменении подхода AMD к разработке технологий, сообщает издание TechPowerUp.

По словам представителей компании, AMD увеличило количество инженеров, работающих над программным обеспечением, и полностью пересматривает свою стратегию. «Старая AMD гналась за скоростью и производительностью. Новая AMD ставит на первое место искусственный интеллект и сначала будет создавать программное обеспечение, а затем процессоры в соответствии с архитектурой этого ПО», — заявили в компании.

Целью этого шага является устранение главной проблемы AMD — недостаточного взаимодействие с экосистемой разработчиков программного обеспечения. Несмотря на конкурентоспособные процессоры и графические карты, компания занимает лишь четверть рынка серверных процессоров и шестую часть рынка игровых графических процессоров.

Например, графические процессоры Radeon обладают возможностями тесселяции, опережающими NVIDIA на два поколения, но эти возможности оставались невостребованными разработчиками, пока Microsoft не стандартизировала их в API DirectX 11, аналогичная ситуация возникла с Mantle, спецификацией низкоуровневого API, разработанной AMD, и DirectX 12. В данном случае фактором успеха Nvidia стал акцент на программное обеспечение и взаимодействие с разработчиками. Существует также несколько подобных примеров, когда передовые ускорители AMD в различных продуктах компании не были должным образом использованы сообществом разработчиков программного обеспечения из-за их приверженности оборудованию в первую очередь.

Теперь AMD планирует сначала общаться с разработчиками программного обеспечения, чтобы понять их потребности, и только потом создавать под них процессоры. Также планируется делиться своими долгосрочными планами с партнёрами, среди которых Microsoft, Adobe и OpenAI, чтобы те могли заранее подготовить свои продукты к использованию новых функций на оборудовании AMD.

Одновременно компания работает над созданием унифицированной архитектуры для своих CPU и GPU, что упростит разработку программного обеспечения. По мнению экспертов, этот шаг может значительно усилить позиции AMD на рынке и сделать её более похожей на таких сильных конкурентов, как Nvidia и Intel, которые уже давно придерживаются подхода «сначала программное обеспечение».

ИИ — это пузырь: чтобы окупить вложения, ИИ-индустрии нужно научиться зарабатывать на порядки больше

Масштабные инвестиции технологических гигантов в инфраструктуру ИИ пока не нашли отображения в росте доходов от этого направления, отметил ресурс Tom's Hardware. Согласно расчётам Дэвида Кана (David Cahn), аналитика Sequoia Capital, компаниям ИИ-индустрии придётся зарабатывать около $600 млрд в год, чтобы компенсировать расходы на свою ИИ-инфраструктуру, включая ЦОД.

 Источник изображения: geralt/Pixabay

Источник изображения: geralt/Pixabay

В прошлом году выручка Nvidia от продажи оборудования для ЦОД составила $47,5 млрд. При этом большую часть оборудования составляли компьютерные ускорители для приложений ИИ и высокопроизводительных вычислений.

Крупнейшие ИТ-компании, такие, как AWS, Google, Meta, Microsoft и многие другие, вложили значительные средства в свою инфраструктуру ИИ в 2023 году для работы таких приложений, как OpenAI ChatGPT. Возникает вопрос: «Смогут ли они вернуть эти инвестиции?». По мнению Дэвида Кана, это может означать, что мы являемся свидетелями роста финансового пузыря.

Подсчёты Кана довольно просты. Для начала он удвоил прогноз текущих доходов Nvidia, чтобы покрыть общие затраты на ЦОД ИИ, половину которых составляют расходы на GPU, остальное — затраты на энергию, здания и резервные генераторы. Затем аналитик снова удваивает сумму, чтобы обеспечить 50 % валовой прибыли для конечных пользователей, таких как стартапы или предприятия, покупающих вычислительные ИИ-ресурсы у таких компаний, как AWS или Microsoft Azure, которые тоже должны быть с прибылью.

Провайдеры облачных услуг, как, например, Microsoft, вкладывают значительные средства в покупку GPU. По данным Nvidia, половина её доходов от ЦОД поступает от крупных провайдеров облачных услуг. При этом только Microsoft принесла Nvidia около 22 % выручки в IV квартале 2024 финансового года.

Между тем, в I квартале 2025 финансового года Nvidia продала GPU для ЦОД на сумму около $19 млрд. С выходом более производительных и более дорогих чипов Nvidia B100/B200 сумма инвестиций будет расти.

Если компания OpenAI, разработавшая ИИ-чат-бот ChatGPT и использующая инфраструктуру Microsoft Azure, добилась существенного увеличения доходов: с $1,6 млрд в конце 2023 года до $3,4 млрд в 2024 году, то другим компаниям в сфере ИИ пока не удаётся достичь даже отметки в $100 млн дохода. Тем не менее инвестиции в оборудование ИИ растут, отметил Tom's Hardware.

Как утверждает Кан, даже оптимистические прогнозы доходов крупных технологических компаний от ИИ не оправдывают ожиданий. Если предположить, что Google, Microsoft, Apple и Meta ежегодно будут зарабатывать на решениях ИИ по $10 млрд, а другие компании, такие как Oracle, ByteDance, Alibaba, Tencent, X и Tesla, смогут генерировать по $5 млрд дохода каждая, остаётся разрыв в $500 млрд.

Как полагает аналитик, рынку ИИ предстоит долгий и трудный путь, поскольку предприятиям и стартапам ещё предстоит изобрести приложения, которые приносят реальные деньги. Кан считает, что отрасли следует умерить ожидания быстрой прибыли от достижений в области ИИ, признавая спекулятивный характер текущих инвестиций и необходимость устойчивых инноваций и создания стоимости. В противном случае пузырь стоимостью в сотни миллиардов долларов может лопнуть и обрушить рынок.

Франция готовит обвинения против Nvidia из-за доминирования на рынке GPU и ИИ-ускорителей

Французский антимонопольный регулятор планирует предъявить обвинения Nvidia — компанию подозревают в антиконкурентной практике ведения бизнеса. Это станет первым случаем правоприменительных действий против крупнейшего производителя компьютерных чипов.

 Источник изображения: Mariia Shalabaieva / Unsplash

Источник изображения: Mariia Shalabaieva / Unsplash

По данным Reuters, ссылающегося на информированные источники, французский надзорный комитет готовится выдвинуть обвинения против компании Nvidia, лидера в производстве графических процессоров и ускорителей вычислений для искусственного интеллекта. Этому предшествовали рейды в сентябре прошлого года, направленные на расследование деятельности Nvidia в секторе поставок графических процессоров.

Расследование является частью более широкого изучения конкуренции в сфере облачных вычислений. При этом особое внимание регуляторов привлёк резкий рост спроса на чипы Nvidia после выпуска ChatGPT, что вызвало озабоченность как в Европе, так и в США.

Французский регулятор в своём недавнем отчёте в целом указал на риски злоупотреблений со стороны поставщиков чипов. Особую обеспокоенность вызывает зависимость отрасли от проприетарного программного обеспечения Nvidia CUDA — многие системы используют только этот софт и замены ему нет. Кроме того, регулятор выразил беспокойство по поводу недавних инвестиций Nvidia в поставщиков облачных услуг, ориентированных на искусственный интеллект, таких как CoreWeave.

В случае, если нарушения французских антимонопольных правил, Nvidia может грозить штраф до 10 % от глобального годового оборота. Однако компания может избежать штрафа, пойдя на уступки.

Параллельно с европейскими расследованиями, Министерство юстиции США также ведёт расследование в отношении Nvidia, разделяя контроль над крупными технологическими компаниями с Федеральной торговой комиссией. Nvidia и французский регулятор пока воздерживаются от комментариев по данному вопросу.

Gigabyte выпустила видеокарту GeForce RTX 4070 Ti SUPER Windforce MAX с необычным расположением разъёма питания

Компания Gigabyte представила новую видеокарту Nvidia GeForce RTX 4070 Ti SUPER Windforce MAX OC. Данная модель является продолжением линейки Windforce, ориентированной на бюджетный сегмент рынка.

 Источник изображения: videocardz.com

Источник изображения: videocardz.com

Новинка базируется на графическом процессоре Nvidia AD103 и оснащена 8448 ядрами CUDA, а также 16 Гбайт высокоскоростной памяти GDDR6X. По сравнению с эталонной моделью, частота графического процессора повышена на 45 МГц и составляет 2655 МГц, что обеспечивает дополнительную производительность в играх и ресурсоёмких приложениях.

Примечательно, что ранее в январе Gigabyte уже выпускала модель GeForce RTX 4070 Ti SUPER Windforce OC, однако новая версия MAX отличается не только дизайном, но и более высокой тактовой частотой.

 Источник изображения: videocardz.com

Источник изображения: videocardz.com

Одной из ключевых особенностей GeForce RTX 4070 Ti SUPER Windforce MAX OC является её габаритный кулер. Длина видеокарты увеличена на 7 сантиметров, а ширина на 1 сантиметр по сравнению с оригинальной моделью Windforce OC. Такое решение позволило использовать массивную систему охлаждения, идентичную по размерам с кулерами топовых моделей GeForce RTX 4090 WF V2 и GeForce RTX 4080 SUPER WF V2.

 Источник изображения: videocardz.com

Источник изображения: videocardz.com

Ещё одним интересным нововведением стало расположение разъёма дополнительного питания. Он спрятан сзади под кулером, что позволяет избежать проблем с изгибом кабеля при боковом расположении разъёма и экономит пространство. Хотя кабель по-прежнему остаётся частично видимым, такой подход упрощает подключение и укладку проводов в корпусе системного блока.

На данный момент Gigabyte не раскрывает информацию о цене новой GeForce RTX 4070 Ti SUPER Windforce MAX OC, поскольку неизвестно, когда видеокарта поступит в продажу.

Qualcomm раскрыла детали о графике Adreno X1 в чипах Snapdragon X и сравнила её с Intel Xe

Менее чем за неделю до старта продаж Windows-ноутбуков на базе новых Arm-процессоров серии Snapdragon X, разработавшая их компания Qualcomm поделилась деталями об архитектуре данных процессоров, в том числе и об их встроенной графике Adreno X1.

 Источник изображений: Quaclomm

Источник изображений: Qualcomm

В названии Adreno X1 цифра «1» указывает на принадлежность к первому поколению компьютерной графики Qualcomm. Таким образом, последующие поколения графики получат названия Adreno X2, Adreno X3 и т.д. В самой максимальной конфигурации, X1-85, цифра «8» указывает на уровень GPU, а «5» — артикул.

Графический процессор Adreno X1 содержит до шести ядер, объединяющих до 1536 шейдерных ALU для операций FP32, способных обрабатывать до 96 текселей за цикл. В пике производительность GPU составляет 4,6 Тфлопс, он может обрабатывать до 72 ГТ/с (гигатекселей в секунду).

Графический процессор Adreno X1 поддерживает все современные API включая DirectX 12.1 с Shader Model 6.7, DirectX 11, Vulkan 1.3 и OpenCL 3.0.

В своей презентации Qualcomm приводит примеры игровой производительности для старшей версии GPU — X1-85 — в составе своего референсного ноутбука. Компания сравнивает результаты с показателями встроенной графики Intel Xe в чипе Core Ultra 7 155H с восемью графическими ядрами, который использовался в ноутбуке Acer Swift Go 14. В четырёх из девяти игровых тестов при разрешении 1080p ускоритель Qualcomm оказывается быстрее.

На другом слайде компания утверждает, что GPU X1-85 обеспечивает до 67 % более высокую производительность по сравнению с конкурирующими решениями при одинаковом уровне энергопотребления, а пиковой производительности конкурента ускоритель Qualcomm достигает при энергопотреблении на 62 % ниже.

Qualcomm также представила Adreno Control Panel — фирменное приложение для настройки графики, игровых оптимизаций, а также обновлений драйверов. Компания обещает ежемесячно выпускать для него свежие обновления. По функциональности и задачам это приложение похоже на то, что предлагают другие производители видеокарт.

Официальные продажи ноутбуков с процессорами Qualcomm Snapdragon X начнутся с 18 июня. Однако некоторые производители уже предлагают оформить предзаказы на эти новинки.

Первый тест встроенной графики AMD Radeon 890M на RDNA 3.5 — на 39 % быстрее предшественника

Компания AMD почти не раскрыла подробностей о свежей графической архитектуре RDNA 3.5, на которой построена встроенная графика мобильных процессоров Ryzen AI 300. Известно, что обновлённый iGPU предлагает больше графических ядер по сравнению с графикой предыдущего поколения. Теперь первые результаты тестов RDNA 3.5 были обнаружены в базе данных бенчмарка Geekbench.

 Источник изображения: VideoCardz

Источник изображений VideoCardz

Протестирована была встроенная графика Radeon 890M в процессоре Ryzen AI 9 HX 170. Как ранее стало известно, AMD в последний момент поменяла название новой серии мобильных процессоров на Ryzen AI 300. Этот факт подтвердился на выставке Computex 2024, на которой отметились ноутбуки, оснащённые процессорами Ryzen AI 9 HX 170 (ныне Ryzen AI 9 HX 370) и Ryzen AI 9 165 (ныне Ryzen AI 9 365).

Ryzen AI 9 HX 370 — это 12-ядерный и 24-поточный процессор, в котором используются производительные ядра Zen 5 и малые энергоэффективные ядра Zen 5c. Ядра Zen 5 работают с частотой до 5,1 ГГц. Для ядер Zen 5c компания AMD пока не заявляла тактовую частоту. Также в составе процессора присутствует встроенная графика с 16 исполнительными блоками RDNA 3.5, которая работает с частотой до 2,9 ГГц.

Запись в базе данных Geekbench не сообщает, с каким TDP работал чип во время тестирования. Однако известно, что процессор использовался в составе ноутбука ASUS ProArt A16, не оснащённого дискретной видеокартой. Напомним, что показатель энергопотребления у процессоров Ryzen AI 300 динамический и может варьироваться от 15 до 45 Вт.

В результатах теста Geekbench чипа Ryzen AI 9 HX 170 (Ryzen AI 9 HX 370) видно, что он работал не на максимальной частоте 5,1 ГГц — его скорость составила только 4,25 ГГц. Возможно, это связано с пониженным TDP или тест неправильно считал показатели.

В тесте OpenCL встроенная графика Radeon 890M показала результат в 41 995 баллов. Это на 39 % больше показателя встроенной графики Radeon 780M предыдущего поколения на архитектуре RDNA 3.

Nvidia захватила 88 % рынка видеокарт для настольных ПК — остальное за AMD, а доля Intel исчезающе мала

По данным исследовательской компании Jon Peddie Research (JPR), в первом квартале 2024 года продажи дискретных видеокарт для настольных ПК снизились по сравнению с предыдущим кварталом, но выросли по сравнению с аналогичным периодом 2023 года. При этом Nvidia смогла нарастить свою долю на рынке до 88 %, в то время как доля AMD упала до 12 %. Дискретная графика Intel по-прежнему занимает совсем незначительную долю рынка.

 Источник изображения: ASRock

Источник изображения: ASRock

Как сообщает издание Tom's Hardware, в абсолютных цифрах для Nvidia, AMD и Intel в первом квартале 2024 года было продано 8,7 млн дискретных GPU для настольных ПК. Это на 9 % меньше 9,5 млн GPU, проданных в предыдущем квартале, однако на 39,2 % больше, чем за тот же период 2023 года.

Nvidia отгрузила 7,66 млн дискретных графических процессоров, что немного выше показателя предыдущего квартала в 7,6 млн. В годовом выражении рост составил 46 % — для сравнения, в первом квартале 2023 года компания продала 5,26 млн дискретных GPU для настольных ПК.

У AMD ситуация иная. Компания поставила всего 1,04 млн дискретных графических процессоров для настольных ПК по сравнению с 1,81 миллиона в предыдущем квартале, что означает падение на 41 %. В то же время это на 39 % больше 750 тыс. в том же квартале год назад.

Поставки Intel, по данным JPR, в первом квартале 2024 остаются незначительными. Компания вышла на рынок видеокарт со своими моделями Arc A770 и A750 в третьей четверти 2022 года, но пока не может конкурировать с лидерами.

Как показывает недавний отчет JPR, рынок GPU сильно пострадал от рецессии 2008 года и не успел полностью восстановиться до начала глобального интереса к криптовалютам, пандемии COVID-19 и украинских событий. В 2023 году наблюдался рост на протяжении четырёх кварталов, поэтому спад в первом квартале 2024 года не вызывает паники — это естественные сезонные колебания.

Тем не менее, поставщики прогнозируют рост продаж видеокарт во втором квартале 2024 года, в основном за счет систем для задач искусственного интеллекта. Отмечается также, что спрос на GPU со стороны ИИ-технологий может негативно сказаться на игровом сегменте. Таким образом, во втором квартале ожидается стагнация продаж игровых видеокарт и дальнейший рост для ИИ и облачных вычислений.


window-new
Soft
Hard
Тренды 🔥
Китайские чиновники выразили недовольство новыми ограничениями на поставку оборудования ASML для выпуска чипов 2 ч.
Стартап Xockets обвинил NVIDIA и Microsoft в нарушении патентов на DPU и требует запретить выпуск ИИ-систем на базе Blackwell 7 ч.
Производитель смартфонов Essential закроется по второму разу — теперь в лице OSOM 16 ч.
Мировой рынок устройств информационной безопасности сократился в штуках 17 ч.
Илон Маск контролирует две трети работающих в космосе спутников 18 ч.
Стартап обвинил Nvidia и Microsoft в сговоре и преднамеренном нарушении его патентов на DPU 18 ч.
Стартап xAI Илона Маска намерен зарабатывать на автопилоте Tesla 24 ч.
Broadcom столкнулась с самым большим падением акций с 2020 года, но намерена отыграться благодаря ИИ-решениям 08-09 00:00
Dell и Palantir добавили в фондовый индекс S&P 500 — их акции взлетели на 7 % 07-09 18:50
«Джеймс Уэбб» рассмотрел космический вопросительный знак — пару галактик в процессе слияния 07-09 16:17