Nvidia теперь на 90 % зависит от азиатских поставщиков — в прошлом году было 65 %
Читать в полной версииПо подсчётам Bloomberg, на долю азиатских поставщиков сейчас приходится около 90 % производственных затрат Nvidia по сравнению с 65 % годом ранее. Эта цифра включает сложившуюся цепочку поставок компонентов Nvidia для центров обработки данных: производство чипов TSMC, память HBM от SK hynix и Samsung, а также сборку серверов на заводах Foxconn и Quanta. Однако теперь Nvidia выпускает совершенно новые категории продуктов для ИИ, которые поставляются теми же компаниями.
Источник изображения: Nvidia
Платформа для робототехники Jetson Thor от Nvidia, выпущенная в августе прошлого года, основана на графической архитектуре Blackwell и производится по 3-нм техпроцессу TSMC. Флагманская модель T5000 обеспечивает производительность 2070 Тфлопс в режиме FP4 и оснащена 128 Гбайт памяти LPDDR5X, а более дешёвая модель T4000, представленная на выставке CES 2026, обеспечивает производительность 1200 Тфлопс в режиме FP4 и оснащена 64 Гбайт памяти. Она стоит $1999 за единицу. В обеих моделях используются процессорные ядра Arm Neoverse-V3AE и память LPDDR5X производства Samsung или SK hynix. Эти системы конкурируют за доступ к производству кремниевых пластин по 3-нм техпроцессу TSMC с графическими процессорами Blackwell для центров обработки данных. Производственные партнёры Nvidia, в том числе Boston Dynamics и Amazon Robotics, активно используют эту платформу, а компания LG подтвердила, что «изучает возможность стратегического сотрудничества с Nvidia в области физического искусственного интеллекта», в том числе в сфере робототехники, сообщает Bloomberg.
Автомобильная система на кристалле Drive AGX Thor от Nvidia — ещё одна линейка продуктов на базе Blackwell, конкурирующая за те же 3-нм производственные мощности. Ни один из этих продуктов для физического искусственного интеллекта не требует усовершенствованной упаковки CoWoS от TSMC, которая по-прежнему является основным узким местом в производстве графических процессоров для центров обработки данных. Однако для их выпуска требуются 3-нм пластины и память LPDDR5X азиатского производства, доступ к которым уже ограничен.
Та же динамика на рынке памяти, которая способствует появлению новых продуктов Nvidia для физического искусственного интеллекта, одновременно приводит к отказу от старых технологий. В конце апреля стало известно, что Nvidia ускорила вывод из эксплуатации модулей Jetson TX2 и Xavier, поскольку поставки LPDDR4 стали слишком ограниченными для поддержания производства.
Компания Samsung отказалась от производства LPDDR4, а спрос на память, обусловленный развитием искусственного интеллекта, переориентировал производство на более прибыльные продукты. Это вынуждает клиентов Jetson использовать модули Orin или Thor, в которых используется память LPDDR5X от тех же азиатских поставщиков, чьи мощности уже перегружены из-за спроса на HBM и DRAM для центров обработки данных.
По словам главы североамериканского подразделения TSMC, специализирующегося на корпусировании чипов, производство усовершенствованных корпусов CoWoS для графических процессоров для центров обработки данных в TSMC растёт в среднем на 80 % в год. При этом чипы, изготовленные на заводе TSMC в Аризоне, по-прежнему отправляются на Тайвань для корпусирования.
В прошлом году Nvidia инвестировала $500 млрд в производство серверов в США совместно с компаниями Foxconn и Wistron, а также с Amkor и SPIL, которые строят в Аризоне заводы по производству усовершенствованных корпусов. Но эти предприятия ещё не вышли на производственную мощность, а линейки продуктов для искусственного интеллекта расширяют ассортимент компонентов, поставляемых из Азии, быстрее, чем их могут поглотить местные производители.