|
Опрос
|
реклама
Быстрый переход
The Verge: ИИ-величие Nvidia построено на долгах — пузырь рискует лопнуть в любой момент
23.12.2025 [18:08],
Павел Котов
Сложившаяся к настоящему моменту отрасль искусственного интеллекта зависит от двух факторов: ИИ-ускорителей Nvidia и заёмных средств. Nvidia сама выступает инвестором для покупателей своей продукции, обеспечивая себе высокие продажи — они берут кредиты под залог её ускорителей. Но стоит одному звену выпасть из общей цепочки — и вся схема с большим числом участников может рухнуть, а эхо крушения прокатится по мировому финансовому рынку, предупреждает The Verge.
Источник изображения: Mariia Shalabaieva / unsplash.com Nvidia вкладывает огромные средства в сферу ИИ — только в этом году она инвестировала более чем в 70 компаний отрасли. Среди потраченных «зелёными» миллиардов выделяется важная категория — «неооблачные» решения, такие как CoreWeave. Это обременённая долгами компания, чьи акции торгуются на бирже, и существует она, основываясь на предположении, что технологическая отрасль и дальше будет возводить центры обработки данных. Для своих ЦОД CoreWeave и подобные ей компании берут кредиты на покупку ускорителей Nvidia, используя эти самые ускорители в качестве залога — в процессе сама Nvidia превращает каждый $1 инвестиций в $5 продаж. Такая схема выгодна прежде всего самой Nvidia, но едва ли всем остальным участникам рынка. Важной проблемой является тот факт, что ИИ-ускорители со временем обесцениваются, и при этом важно понимать, успевают ли они терять свою стоимость настолько быстро, что эти кредиты оказываются абсурдными. Nvidia кровно заинтересована поддерживать существование этой отрасли как можно дольше по той же причине — в качестве залога выступает оборудование её производства. Верно и обратное: если что-то пойдёт не так с бизнесом Nvidia, это отзовётся проблемами для всей отрасли ИИ. И чем быстрее поднимают голову конкуренты Nvidia, тем быстрее приближается этот неприятный момент. Для кредиторов существует несколько способов попытаться снизить риски, например заложить их в процентную ставку. К примеру, в 2023 году CoreWeave получила первый кредит под ускорители, и в III квартале этого года ставка по нему — а она плавающая — составила 14 %. Ещё один способ — запросить высокий процент залога по отношению к кредиту; это отношение выражает коэффициент LTV (Loan-to-Value). Так, если человек покупает в кредит дом за $500 тыс., то ему приходится платить первоначальный взнос: если он составляет 20 %, на кредит остаётся $400 тыс., а LTV получается 80 %. Коэффициент LTV по кредитам под ускорители сильно варьируется в зависимости от срока кредитования, доверия к руководству компаний и других факторов контракта. У некоторых компаний он составляет всего 50 %, у других может достигать 110 %. Кредиты под залог ускорителей пользуются высоким спросом; в большинстве случаев подразумеваются чипы Nvidia, и это укрепляет позиции компании на рынке. Если компания хочет купить ускорители, она может получить под них финансирование по более низкой стоимости при залоге под сами ускорители, отличающиеся высокой ликвидностью. Целесообразность таких кредитов остаётся сомнительной, поскольку нет ясности, как быстро ускорители обесцениваются, — предполагается, что происходит это очень быстро. Компания может сдавать ресурсы в аренду Microsoft, но, возможно, ей придётся делать это во второй и третий раз, чтобы окупить инвестиции. При этом нет ясности, насколько крупным будет вторичный или третичный рынок старых чипов.
Источник изображения: здесь и ниже Nvidia Определить, сколько стоят ускорители и как долго они прослужат, непросто. В документах CoreWeave говорится, что сумма, которую компания может занять, зависит от стоимости чипов, и по мере снижения цены на них будут сокращаться и размеры кредитов. Но стоимость фиксирована, и если ускорители будут дешеветь быстрее, чем прогнозировалось, придётся брать новые кредиты. Крупные облачные операторы масштаба Google, Meta✴✴✴, Microsoft, Oracle и Amazon могут списать часть долгов без значительных потерь, поскольку у них есть другие направления бизнеса. У неооблаков такой возможности нет. Возможно, в условиях снижения спроса на услуги им придётся увеличивать величину залога. Если одна небольшая компания объявит дефолт, рынок от этого не рухнет: большинство клиентов смогут продолжить работу со своими программами; банки же тем временем изымут серверы и продадут их за бесценок. Но это будет двойным ударом по Nvidia: на рынок хлынут дешёвые устаревшие ускорители, а число клиентов у «зелёных» сократится. А вот если обанкротятся сразу несколько компаний, проблемы могут оказаться серьёзными. Ещё одна проблема рынка ИИ, существующего за счёт кредитов, — деформация оценок рисков из-за конкуренции. Если рассматривать кредит как абстрактный финансовый продукт, на рынке формируется конкуренция за выдачу займов. Если на начальном этапе неооблачная компания получала кредит под 15 %, и величина ставки была просчитана с учётом рисков, то со временем эта ставка снижается, поскольку среди кредиторов возникает конкуренция и оценка рисков отходит на второй план — начинают выдаваться кредиты под 13 %, под 12,5 % и ниже, причём уже без фактического учёта рисков для кредиторов. Отрасль ИИ требует колоссальных расходов: по оценкам аналитиков, к концу 2028 года только на ЦОД будет потрачено $3 трлн. Первый кредит на $2,3 млрд, полученный CoreWeave, выдали частные кредитные компании Magnetar, Blackstone, Coatue, BlackRock и PIMCO. Затем она взяла ещё один кредит на $7,5 млрд, а третий — на сумму $2,6 млрд — ей предоставили уже такие гиганты, как Goldman Sachs, JPMorgan Chase и Wells Fargo. ![]() Доля задолженности под ускорители относительно невелика по сравнению с объёмами облигаций техногигантов, однако проблемы в этом сегменте могут отразиться на кредитовании крупных игроков — сейчас технологический сектор набрал больше долгов, чем во времена пузыря доткомов в конце девяностых. Сегмент частного кредитования более рискованный, чем банковский: процентные ставки выше, а сроки погашения дольше. Во времена финансовых трудностей компании могут получать кредиты обоих типов, то есть частный долг косвенно влияет на банки. Если компания берёт кредиты обоих типов, у неё выше риски дефолта; и именно этим связующим звеном между частными кредиторами и банками становятся компании из отрасли ИИ. У CoreWeave, помимо кредитов под ускорители, есть возобновляемая кредитная линия напрямую у JPMorgan Chase в размере $2,5 млрд. Банки и сами часто предоставляют кредиты частным кредиторам. Во время бума доткомов в девяностые эйфория инвесторов была связана с акциями, и больше всех пострадали те, кто вкладывал средства в перспективные компании, которые впоследствии обанкротились. В случае с отраслью ИИ последствия могут быть более тяжёлыми. В первой половине текущего года около половины роста ВВП США обеспечили инвестиции в бизнес, связанный с ИИ; есть мнение, что без ИИ американская экономика уже ушла бы в рецессию — и именно ИИ в таком случае становится угрозой при ухудшении ситуации с расходами. Уязвимость сектора ИИ объясняется взаимосвязанностью всех его участников, и центральное место в экосистеме занимает Nvidia. Суть спора об амортизации ускорителей заключается в том, стоит ли эксплуатировать их после достижения трёхлетнего и более преклонного возраста. С новыми чипами оператор ЦОД может обслужить больше клиентов, но они и потребляют больше энергии. К 2028 году новым ЦОД, по оценкам, потребуются дополнительные 44 ГВт мощности, но к этому времени в эксплуатацию будут введены только 25 ГВт новых мощностей — возможно, этот фактор продлит жизнь старым ускорителям. Пока рынок существует в прежнем виде, проблем не наблюдается, но при возникновении риска для всей отрасли сложности сразу возникают и у кредиторов. В 2022 году майнерам предоставляли кредиты под залог оборудования, и кредиторы оказались заложниками этого самого оборудования, которое внезапно обесценилось на 85 % из-за обвала биткоина. К январю 2023 года вторичный рынок майнингового оборудования оказался настолько насыщен, что кредиторам пришлось добывать криптовалюту самостоятельно. ![]() Подобное может произойти и с кредитами, обеспеченными ускорителями. Однако ситуация несколько иная. У майнеров был долг «всего» в $4 млрд, кредиты выдавали частные компании, тогда как долги в сфере ИИ связаны с обычными банками. Когда майнинг биткоинов потерпел крах, у Nvidia образовались запасы продукции на сумму более $1 млрд, поскольку компания нарастила производство для удовлетворения спроса, и в результате задержался выход новых графических процессоров. Чистая прибыль Nvidia в финансовом году, завершившемся 29 января 2023 года, упала на 55 % по сравнению с предыдущим годом. Однако в конце ноября 2022 года OpenAI представила ChatGPT, положив начало гонке в области ИИ, и год спустя чистая прибыль Nvidia подскочила в семь раз. Бизнес компании изменился. С начала пандемии 2020 года наблюдается развитие сегмента ЦОД, и Nvidia участвует в этом процессе, переводя их преимущественно с центральных на графические процессоры. ИИ-ускорители взаимозаменяемы: если оператор неооблака прекращает работу, его предприятие можно перепрофилировать, поэтому техногиганты менее обеспокоены избыточным строительством ЦОД, чем их конкуренты. И если будет построено слишком много вычислительных мощностей для ИИ, крупные игроки могут просто приостановить расходы на них на несколько лет и использовать объекты для других целей, например для запуска рекламы. Но у Nvidia есть веский стимул поддерживать неооблачных партнёров на плаву. Она является инвестором в нескольких игроков, и если те продолжают работать, компания продолжает получать прибыль — в крайнем случае она может вмешаться и спасти несколько компаний и даже всю отрасль, как это произошло при IPO CoreWeave. В этом смысле вопрос амортизации не имеет решающего значения: если компании вроде CoreWeave приходится нести огромные убытки или обслуживать кредиты дополнительным капиталом, Nvidia может ей помочь. Однако она окажется бессильной, если усилится давление со стороны конкурентов. Выручка Nvidia сильно концентрирована. В ходе последнего финансового отчёта компания призналась, что только на двух клиентов за первые девять месяцев 2026 финансового года пришлось соответственно 21 % и 13 % выручки. Укрепляя клиентскую базу за счёт неооблаков, Nvidia получает рычаги влияния на крупных покупателей. Однако эти крупные покупатели начали производить собственные чипы. Если графические процессоры Nvidia могут использоваться в разных областях, то TPU от Google предназначены исключительно для ИИ. Прорывную модель Gemini 3 компания обучила только на TPU. Эти чипы, имея узкое назначение, потребляют меньше энергии при выполнении аналогичных операций, и это становится сигналом для других участников рынка. Поэтому столь важны сделки Google с Anthropic, Salesforce, Midjourney и Safe Superintelligence, а также слухи о соглашении с Meta✴✴✴. Любой, кто покупает или даже просто угрожает перейти на TPU, получает возможность договориться с Nvidia о скидке. По оценкам, OpenAI сократила общую стоимость владения ускорителями Nvidia на 30 %, даже не начав переход на TPU. В случае CoreWeave всё не так просто — у неё есть контракты, гарантирующие определённый доход, поскольку такие клиенты, как Microsoft и Nvidia, однозначно кредитоспособны, и кредиторов это устраивает. Nvidia заключает с CoreWeave договор об аренде чипов собственного производства, и это воспринимается как мера поддержки, поскольку в финансовых отчётах компания не раскрывает подробных сведений об этих соглашениях — аналитики характеризуют их как «страховочные». Если включить заложенные в бюджет Nvidia расходы на облачные услуги в размере $26 млрд, маржа компании снижается с 72 % до 68 %, а прибыль на акцию — с $6,28 до $5,98. ![]() Таким образом, Nvidia, возможно, уже начинает спасать неооблачные компании, хотя их интересы нередко расходятся: если «зелёные» начинают выпускать новые ускорители ежегодно, старые обесцениваются быстрее, а вместе с этим падает и кредитоспособность неооблаков. С другой стороны, эти компании полезны не только самой Nvidia — они снижают капитальные затраты для таких гигантов, как Microsoft и Google, которые пользуются их услугами, оплачивая электроэнергию и аренду с небольшой наценкой. Ирония в том, что неооблака должны постоянно модернизироваться, чтобы оставаться актуальными, и продолжать закупать продукцию у Nvidia, но это не может длиться вечно, указывают аналитики. Тем временем собственные ускорители есть не только у Google. Они есть у Amazon, которая уже пытается договориться с OpenAI, у Microsoft, у Meta✴✴✴, и даже сама OpenAI начала работу в этом направлении. За рядом этих проектов стоит Broadcom. Собственное оборудование в Китае разрабатывают Huawei, ByteDance и Alibaba. Активно набирает обороты AMD, которая к 2027 году намерена увеличить производительность своих ускорителей до уровня продукции Nvidia. Все эти игроки готовы обновлять свои решения ежегодно, что крайне невыгодно неооблакам. С ростом конкуренции у Nvidia остаётся всё меньше ресурсов для поддержки этой экосистемы. Крах может произойти в результате банкротства всего одного небольшого игрока, указывают аналитики. Все участники цепочки слишком взаимосвязаны. Даже если обанкротится мелкая компания и кто-то выше по иерархии будет вынужден признать убытки — даже гигант масштаба Microsoft, у которого на балансе внезапно появится нежелательный долг, скажем, в $20 млрд. Масштаб ущерба для отрасли будут определять размер и количество обанкротившихся игроков. Многие небольшие неооблачные платформы могут исчезнуть хоть завтра незаметно для всех, но их массовое исчезновение может вызвать подозрения. Если же обанкротятся более крупные компании, это способно посеять страх в отрасли — даже без серьёзных системных проблем инвесторы могут уйти. Допускаются и другие сценарии. Рынок может сместиться в сторону услуг инференса, то есть запуска, а не обучения моделей ИИ. Или крупные технологические компании решат, что им больше не нужны новые вычислительные ресурсы. Или произойдёт очередная технологическая революция, и размеры перспективных моделей сократятся. Или наиболее востребованную продукцию начнут производить не Nvidia, а её конкуренты. Или достаточно качественными станут открытые ИИ-модели, а игроки вроде OpenAI отойдут на второй план. Но при любом исходе рынок окажется наводнённым целыми ЦОД. На финансовом рынке это отзовётся проблемами частных кредиторов, управляющих средствами университетов, пенсионных фондов, семейных офисов, хедж-фондов и целевых фондов, а также проблемами банков, успевших глубоко погрузиться в отрасль ИИ. Неприятность в том, что некоторые аспекты этой ситуации перекликаются с кризисом 2008 года. Вопрос лишь в том, когда всё рухнет и что произойдёт после этого. Nvidia экстренно выпустила Hotfix-драйвер GeForce для исправления проблем с SDR и цветами
23.12.2025 [15:50],
Николай Хижняк
Компания Nvidia выпустила заплату GeForce Hotfix Display Driver 591.67 на базе драйвера Game Ready Driver 591.59. Обновление призвано решить три конкретные проблемы, связанные с выводом изображения, а также работой панели управления Nvidia.
Источник изображения: VideoCardz Nvidia объясняет, что пользователи могут заметить небольшие полосы на градиентах при работе в цветовом режиме SDR, где плавные переходы, такие как небо, тени или затухание пользовательского интерфейса, могут отображать видимые ступеньки вместо чистого смешивания. Обновление 591.67 призвано это исправить. Заплатка также призвана решить проблему с неправильной работой настройки «Цветовая интенсивность» в панели управления Nvidia, которая может приводить к непоследовательным изменениям насыщенности цвета на рабочем столе и в приложениях, даже если эта настройка включена. Также обновление восстанавливает возможность отменить выбор «Показывать значок панели уведомлений» на панели управления Nvidia, чтобы значок не оставался в системном трее после попытки его отключения. Напомним, что заплатки не являются полноценным WHQL-релизом драйвера, а фактически представляют бета-версии, которые следует устанавливать только тем, кто столкнулся с конкретными проблемами. Если описанные выше проблемы не мешают, обновление можно смело пропустить и дождаться полноценной WHQL-версии программного обеспечения. Однако на данный момент неизвестно, когда ожидается очередное полноценное обновление драйвера GeForce. Вполне возможно, что указанная заплатка является последним обновлением драйвера Nvidia в текущем году. Санкционная GeForce RTX 5090 массово просачивается в Китай — её раскупают даже с наценкой в 150 %
23.12.2025 [11:38],
Алексей Разин
Флагманские модели игровых видеокарт Nvidia исторически использовались не по прямому назначению, поскольку в своё время интерес к ним проявляли майнеры криптовалют, а позже китайские разработчики систем ИИ пытались компенсировать с их помощью отсутствие доступа к профессиональным ускорителям. По данным некоторых источников, GeForce RTX 5090 в этом контексте пользуется высоким спросом в Китае.
Источник изображения: Nvidia Ресурс ComputerBase.de напоминает, что в своём исходном виде c 32 Гбайт памяти типа GDDR7 видеокарта GeForce RTX 5090 запрещена к поставкам в Китай. Специально для местного рынка была разработана GeForce RTX 5090D, обладающая только 24 Гбайт памяти GDDR7. Даже эта видеокарта поставлялась в Китай в течение ограниченного периода, поскольку потом США ввели дополнительные ограничения на пропускную способность памяти, и Nvidia соответствующим образом модифицировала GeForce RTX 5090D. Лишь в середине года наметилось потепление в отношении США к технологическим санкциям против Китая, и компания получила право поставлять туда исходный вариант GeForce RTX 5090D, который всё равно оснащался лишь 24 Гбайт памяти. Такого объёма памяти могло не хватать тем китайским разработчикам, которые рассчитывали на вычислительные ресурсы GeForce RTX 5090, а потому поставки одноимённых видеокарт в их «западном исполнении» в Китай продолжаются по серым каналам в значительных количествах. По крайней мере, немецкий ресурс ComputerBase.de приводит снимки из соответствующей ветки Reddit, на которых запечатлены множественные коробки с GeForce RTX 5090. Это уже не первый случай такой контрабанды, ранее на китайском направлении были замечены соответствующие видеокарты производства MSI, а теперь речь идёт об изделиях PNY и Zotac. Китайские заказчики готовы платить по 5000 евро за видеокарту, что на фоне рекомендованной цены около 2000 евро в сочетании с высоким спросом создаёт не совсем приятную частным потребителям конъюнктуру рынка. Китайская ByteDance намерена закупить пробную партию из 20 000 ускорителей Nvidia H200
23.12.2025 [08:22],
Алексей Разин
Накануне агентство Reuters сообщило, что до середины февраля в Китай успеют поступить до 80 000 чипов Nvidia H200 в составе одноимённых ускорителей вычислений. В состав этой партии могут войти до 20 000 чипов H200 для нужд ByteDance — китайского разработчика популярного приложения TikTok, который намерен увеличить свои капитальные затраты в следующем году до $23 млрд.
Источник изображения: Nvidia На закупку компонентов для вычислительной инфраструктуры ИИ может уйти до половины этой суммы, по словам источников Financial Times. По предварительным данным, капитальные затраты ByteDance в следующем году вырастут минимум на 7 %, и если H200 оправдает возложенные на него надежды, то сумма может вырасти ещё сильнее. В текущем году на развитие ИИ-инфраструктуры ByteDance должна была потратить около $12 млрд. Ситуация с закупками H200 китайскими разработчиками неоднозначна. С одной стороны, недавно власти США разрешили поставлять эти ускорители в Китай. С другой стороны, китайские власти готовы препятствовать их проникновению на местный рынок, поскольку заинтересованы в импортозамещении данных компонентов. ByteDance является частной компанией и не все директивы китайских властей на неё распространяются, но если запрет на ввоз H200 будет установлен на уровне таможенных органов КНР, вряд ли компания продолжит их закупать. Приобретая партию из 20 000 ускорителей H200, владелец TikTok также рискует потратить до $400 млн, поскольку каждый экземпляр оценивается примерно в $20 000. К тому же, способность ByteDance нарастить закупки H200 будет напрямую зависеть от доступности соответствующих количеств ускорителей в каналах поставок. Отдельной статьёй расходов в бюджете ByteDnace станет аренда вычислительных мощностей за пределами КНР. К капитальным затратам она не относится и считается операционными расходами. Статистика показывает, что чат-бот Doubao компании ByteDance обошёл по популярности DeepSeek на китайском рынке, если учитывать количество скачиваний приложения и ежемесячное количество активных пользователей. Считается, что ИИ-сервисы ByteDance используются в Китае чаще конкурирующих решений. Свою инвестиционную стратегию ByteDance также может выстраивать более агрессивно, поскольку не является публичной компанией. Несмотря на сопротивление Пекина, Nvidia намерена начать поставки чипов H200 в Китай к середине февраля
22.12.2025 [19:34],
Сергей Сурабекянц
Осведомлённые источники сообщают, что Nvidia уведомила китайских клиентов о намерении начать поставки своих вторых по мощности чипов для искусственного интеллекта в Китай до новогодних праздников по китайскому лунному календарю, то есть в середине февраля. Компания планирует выполнить первоначальные заказы из имеющихся запасов. Будет поставлено от 5000 до 10 000 серверов, что эквивалентно 40 000–80 000 чипов H200 для искусственного интеллекта.
Источник изображений: Nvidia Nvidia также сообщила китайским клиентам о планах наращивания мощностей для производства этих чипов, при этом заказы на эти мощности начнут приниматься во втором квартале 2026 года. Для китайских технологических гигантов, таких как Alibaba Group и ByteDance, которые выразили заинтересованность в покупке чипов H200, потенциальные поставки обеспечат доступ к процессорам, примерно в шесть раз более мощным, чем H20, которые Nvidia разработала специально для Китая. Независимо от озвученных планов Nvidia поставки пока под вопросом, поскольку Пекин ещё не одобрил ни одной закупки H200 и сроки могут измениться в зависимости от решений правительства. Китайские чиновники провели экстренные совещания в начале декабря для обсуждения этого вопроса и пока взвешивают возможность разрешения поставок. Согласно одному из предложений, каждая покупка H200 должна сопровождаться приобретением определённого количества ускорителей ИИ китайского производства. Китай активно развивает собственную индустрию чипов для искусственного интеллекта. Но пока ускорители ИИ от китайских компаний не могут сравниться по производительности с H200, что вызывает у правительства Китая опасения, что разрешение импорта может замедлить внутренний прогресс. Планируемые поставки, если они состоятся, станут первыми поставками ИИ-ускорителей H200 в Китай после того, как администрация США разрешила такие продажи с выплатой 25 % прибыли в американский бюджет. Этот шаг представляет собой серьёзный сдвиг в политике США по сравнению с предыдущей администрацией, которая полностью запретила продажу передовых чипов для ИИ в Китай, ссылаясь на соображения национальной безопасности. Серьёзность намерений правительства США подтверждает начавшаяся на прошлой неделе межведомственная проверка заявок на лицензирование экспорта чипов H200 в Китай. ![]() H200, входящий в линейку Hopper предыдущего поколения от Nvidia, по-прежнему широко используется в ИИ, несмотря на то, что ему на смену пришли ИИ-ускорители поколения Blackwell. Ранее Nvidia сосредоточила усилия на выпуске ускорителей Blackwell и запуске будущей линейки Rubin, что привело к дефициту поставок H200. Китайская Tencent получила доступ к 15 000 санкционных ИИ-чипов Nvidia Blackwell через Японию
22.12.2025 [08:12],
Алексей Разин
Не секрет, что нуждающиеся в доступе к передовым ускорителям вычислений западного производства китайские компании прибегают к аренде зарубежных облачных мощностей, чтобы избежать полного влияния американских санкций. Один из японских владельцев ЦОД на контрактах с китайской Tencent по этой схеме смог получить контракты на более чем $1,2 млрд.
Источник изображения: Nvidia Как поясняет Financial Times, китайский гигант взаимодействует с японской Datasection через посредника, стараясь не слишком афишировать подобное сотрудничество, но эта схеме позволяет Tencent использовать основную часть из 15 000 ускорителей Nvidia с архитектурой Blackwell, которые установлены в ЦОД первой из компаний на территории Японии. В таком варианте доступа к вычислительным мощностям со стороны китайского разработчика нет ничего противозаконного, поскольку при Трампе власти США начали закрывать на такие проявления деятельности китайских компаний глаза. Тем не менее, лишнее внимание способно вызвать изменения в обстановке, которые для Tencent нежелательны. Характерно, что контракт с Tencent превратил Datasection в одного из крупнейших провайдеров на рынке «neocloud» в Азии, которые зарабатывают на аренде имеющихся у них вычислительных мощностей. Изначально Datasection работала в сфере маркетинговых услуг и строила ЦОД недалеко от Осаки для собственных нужд, но сдача их в аренду китайским клиентам оказалась более выгодным бизнесом. По словам главы Datasection Норихико Исихары (Norihiko Ishihara), ещё полгода назад для поддержания ИИ-модели было достаточно 5000 ускорителей Nvidia B200, а сейчас эта цифра как минимум удвоилась. Это предъявляет к участникам бизнеса особые требования. По оценкам аналитиков Bernstein Research, флагманские чипы Huawei и Alibaba обеспечивают около трети уровня производительности Nvidia B200, поэтому спрос на них в Китае сохраняется. Даже не самые современные H200, поставки которых США недавно разрешили в КНР, оказываются почти на четверть быстрее китайских лидеров. При этом первые примерно в четыре раза уступают передовым Nvidia B300, поставки которых в Китай запрещены. Как отмечается, японская Datasection свою сделку с Tencent через посредника заключила уже после того, как в мае Дональд Трамп (Donald Trump) отменил запрет на аренду зарубежных вычислительных мощностей китайскими компаниями. На первом этапе Datasection собирается на протяжении трёх лет сдавать в аренду 15 000 ускорителей Nvidia для нужд Tencent. В дальнейшем профильные мощности вырастут до более чем 100 000 ускорителей. Официально представители Datasection отрицают своё сотрудничество с китайской Tencent. Партия из 5000 ускорителей Nvidia B200 обошлась японской компании примерно в $272 млн по состоянию на июль этого года. За свой трёхлетний контракт с клиентом она при этом должна выручить $406 млн. Второй контракт на три года подразумевает получение $800 млн, которые будут направлены на строительство второго ЦОД, расположенного в Сиднее. Австралийская площадка разместит десятки тысяч передовых ускорителей Nvidia B300. Первая партия из 10 000 таких ускорителей будет стоить Datasection примерно $521 млн. По неофициальным данным, мощности австралийского ЦОД также будут использоваться преимущественно Tencent в ближайшие годы. Китайская компания утверждает, что использование зарубежных ЦОД никак не нарушает законы вовлечённых в процесс стран. Для провайдера в данном случае важно отбить затраты на закупку ускорителей. Как правило, срок амортизации рассчитан на пять лет, тогда как контракты заключаются на три года, но клиенты могут продлить их ещё на два года. Datasection оставляет за собой право разорвать соглашение с китайскими клиентами, если того потребуют изменения в законодательстве. По словам руководства компании, использование ускорителей Nvidia китайскими клиентами согласовано как с самим поставщиком, так с Министерством торговли США. Datasection намерена развивать ЦОД и на территории Европы, при этом потепления отношений между США и КНР компания не очень боится, поскольку в случае отказа китайских клиентов от аренды ЦОД она быстро найдёт новых, ведь спрос на инфраструктуру ИИ сейчас очень высок. В самом неблагоприятном случае, по словам провайдера, деятельность придётся остановить всего лишь на неделю. Память HBM4 от Samsung получила высшие оценки в тестах Nvidia
21.12.2025 [21:57],
Николай Хижняк
В ходе испытаний высокоскоростной памяти HBM4, которая будет использоваться в следующем поколении ускорителей искусственного интеллекта Nvidia серии Vera Rubin, запуск которых запланирован на следующий год, компания Samsung Electronics получила наивысшие оценки. Об этом пишет корейская пресса.
Источник изображений: Samsung Сообщается, что на прошлой неделе представители Nvidia посетили Samsung Electronics для оценки хода тестирования памяти HBM4 в корпусе System in a Package (SiP). В ходе встречи было отмечено, что Samsung Electronics достигла лучших в отрасли результатов по скорости работы и энергоэффективности. В результате Samsung Electronics получила убедительный сигнал о прохождении квалификации Nvidia для HBM4 и о поставках в первой половине следующего года. Объём поставок HBM4, запрошенный Nvidia на следующий год, как отмечается, значительно превышает внутренние оценки Samsung, что, как ожидается, существенно повысит загрузку производственных линий компании. Учитывая темпы расширения и производственные мощности линии Samsung P4 в Пхёнтеке, ожидается, что компания официально подпишет контракты на поставку памяти HBM4 в первом квартале следующего года. А полномасштабные поставки, как ожидается, начнутся во втором квартале. Samsung Electronics заявила, что не может официально подтвердить информацию, касающуюся оценок Nvidia. Один из инсайдеров отрасли в комментарии Maeil Business Newspaper отметил: «В отличие от HBM3E, Samsung Electronics лидирует в разработке HBM4, и это общее мнение в команде разработчиков компании». Другой южнокорейский гигант по производству памяти, SK hynix, завершил подготовку к массовому производству чипов памяти HBM4 в конце сентября, опередив Samsung Electronics примерно на три месяца. Примечательно, что SK hynix уже начала поставлять платные образцы Nvidia, тем самым фактически подтвердив начало производство этой памяти. Отмечается, что Samsung тем не менее может быстро сократить это отставание. Поскольку полномасштабное серийное производство памяти HBM4 ожидается во втором квартале следующего года, Samsung Electronics, получившая высокие оценки в области SiP, может увеличить объёмы поставок. Технология «система в корпусе» (SiP) подразумевает интеграцию нескольких полупроводниковых чипов в один корпус. Для HBM4 это означает, что такие компоненты, как графический процессор (GPU), память, межсоединительная плата и микросхема питания, находятся в составе одного корпуса чипа. Тестирование SiP считается заключительным этапом проверки того, находятся ли скорость, тепловыделение и показатели питания в пределах контролируемых уровней. Проверка также представляет собой последний шаг для подтверждения готовности к серийному производству. Nvidia выпустила ИИ-модель NitroGen — она может играть более чем в 1000 видеоигр
21.12.2025 [07:59],
Владимир Фетисов
Исследователи из Nvidia, Стэнфорда, Калифорнийского технологического института и ряда других учреждений представили ИИ-модель NitroGen, которая способна взаимодействовать с виртуальными мирами различных видеоигр. Глава Nvidia по ИИ Джим Фан (Jim Fan) охарактеризовал нейросеть, как «базовую модель с открытым исходным кодом, обученную играть в более чем 1000 игр». Это исследование также имеет большое значение для других сфер, таких как построение симуляций и робототехника.
Источник изображений: tomshardware.com Можно сказать, что данное исследование является попыткой создать что-то похожее на «GPT для действий». В целом же работа стала прорывом в области больших языковых моделей, в которых для обучения применяется проверенная технология масштабного обучения за пределами сфер языка и компьютерного зрения. В описании научной статьи к этому исследованию также сказано, что «создание универсальных агентов, способных работать в неизвестных средах, долгое время считалось Святым Граалем исследований в сфере ИИ». Любопытно, что в основе NitroGen лежит архитектура GROOT N1.5, изначально созданная для робототехники. Её использование в мире видеоигр демонстрирует потенциал для извлечения пользы в робототехнике, дав преимущества роботам, работающим в непредсказуемых условиях. Исследователям удалось адаптировать NitroGen для игр с кардинально различающейся механикой и физикой. Для обучения ИИ-модели задействовали более 40 тыс. часов доступных в открытом доступе записей игрового процесса, которыми делились разные стримеры. Особенно полезными оказались ролики, авторы которых поверх трансляции накладывали изображение контроллера и в режиме онлайн демонстрировали нажимаемые в процессе игры кнопки. После завершения обучения NitroGen исследователи провели серию тестов, которые показали, что алгоритм хорошо справляется с играми разных жанров, включая RPG, платформеры, гонки, королевские битвы и др. Хотя результаты исследования обнадёживают, Фан заявил, что учёным ещё предстоит проделать огромную работу. Нынешняя версия NitroGen намеренно ориентирована на быстрое управление или «инстинкт геймера», как называет это Фан. На данный момент все связанные с NitroGen исследования находятся в открытом доступе. Таким образом учёные дают возможность всем заинтересованным энтузиастам видеоигр, робототехники и больших языковых моделей поэкспериментировать, проявляя в полной мере свои навыки. Samsung почти не будет отставать от SK hynix по срокам поставок HBM4 для Nvidia
21.12.2025 [07:55],
Алексей Разин
Бум искусственного интеллекта сказочно обогащает Nvidia и её основателя, но партнёры компании тоже неплохо зарабатывают на поставках необходимых для построения вычислительной инфраструктуры компонентов. В сегменте HBM3E лидером стала SK hynix, но Samsung надеется наверстать упущенное при выпуске HBM4 и практически не отстаёт от конкурента на этапе подготовки к массовым поставкам этого типа памяти.
Источник изображения: SK hynix Как отмечает Business Korea, сейчас Samsung Electronics и SK hynix уже предоставили образцы HBM4 для проведения сертификации на стороне Nvidia, которая будет применять память такого типа в составе своих ускорителей с архитектурой Rubin. До конца первого квартала 2026 года стороны должны определиться с ценами и объёмами поставок HBM4, как ожидают отраслевые источники. Формально, Samsung и SK hynix уже снабжают клиентов образцами HBM4, получая за них деньги. Этот этап ещё нельзя назвать массовыми поставками, но он предшествует завершению сертификации и заключению контрактов на отгрузку серийной продукции, так что дело осталось за малым. По некоторым данным, Nvidia уже проверила образцы HBM4 в исполнении SK hynix на своих ускорителях поколения Rubin. Как только выпуск последних будет налажен в серийных объёмах, SK hynix сможет начать поставки своей памяти типа HBM4. Предварительные переговоры о цене и объёмах поставок HBM4 компания SK hynix с Nvidia уже тоже провела. Технические моменты также были согласованы, и слухи о необходимости переработки дизайна HBM4 по требованию Nvidia не соответствуют действительности, как утверждает Business Korea. Ещё на квартальной отчётной конференции представители SK hynix заявили, что компания будет готова начать поставки HBM4 в четвёртом квартале текущего года. Переговоры с Samsung о поставках HBM4 для нужд Nvidia в следующем году также достигли завершающей стадии, по данным источника. Скорее всего, Samsung станет вторым по величине после SK hynix поставщиком HBM4 для Nvidia. Чипы HBM4 производства Samsung также тестируются Nvidia в составе ускорителей Rubin. К преимуществам Samsung можно отнести более продвинутые литографические нормы, которая она может использовать при производстве HBM4. Micron и ранее занимала третье место на рынке HBM, и в случае с HBM4 мало что изменится, поскольку над разработкой этого типа памяти компании пришлось потрудиться дольше, чем планировалось. Вопреки заявлениям руководства, первые образцы HBM4 в исполнении Micron по уровню быстродействия уступали продукции конкурентов. Если SK hynix полагается при производстве базовых кристаллов с логикой для HBM4 на возможности TSMC, а Samsung располагает собственными мощностями с хорошим по меркам сегмента технологическим потенциалом, то Micron предпочла выпускать базовые кристаллы HBM4 собственными силами, а потому не обладает существенным запасом для повышения быстродействия изготавливаемых чипов. Власти США одобрили покупку кусочка Intel компанией Nvidia
20.12.2025 [11:55],
Павел Котов
Федеральная торговая комиссия (FTC) США официально одобрила партнёрский проект, в рамках которого Nvidia инвестирует в Intel $5 млрд, выкупив у неё пакет акций по фиксированной цене $23,28 за акцию. Две компании также намерены выпускать совместную продукцию для потребительских ПК и серверов.
Источник изображения: nvidia.com О совместном проекте производители объявили в сентябре: Nvidia обязалась инвестировать в Intel $5 млрд, оказав тем самым поддержку американскому производителю процессоров, который на данном этапе испытывает затруднения. Речь идёт о пакете в 5 % акций компании. Они также разрабатывают совместную продукцию на «несколько поколений» — это будут потребительские процессоры с x86-ядрами Intel и графическими чиплетами на архитектуре Nvidia. Кроме того, Nvidia поручит Intel разработку процессоров для серверных систем, ориентированных на корпоративных клиентов и гиперскейлеров. Совместный проект двух крупных производителей чипов вызвал ответную реакцию со стороны других участников рынка. AMD, в частности, упомянула его в письме в Комиссию по ценным бумагам и биржам (SEC) США: «Это партнёрство способно привести к усилению конкуренции и ценовому соперничеству с нашей продукцией, что может существенно повлиять на наш бизнес, финансовое положение и рентабельность». Планы Intel и Nvidia могут также повлиять на заказы последней у TSMC. Однако, как минимум на первых порах, этого не произойдёт — даже чиплеты для совместных с Intel процессоров Nvidia будет заказывать у тайваньского подрядчика. Nvidia запустила продажи видеокарт RTX Pro 5000 Blackwell с 72 Гбайт памяти
19.12.2025 [16:23],
Николай Хижняк
Компания Nvidia подтвердила поступление в продажу профессиональной видеокарты RTX Pro 5000 Blackwell в версии с 72 Гбайт памяти, сообщив об этом в своём блоге. Информация о доступности продукта также размещена на сайтах партнёров, включая Ingram Micro, Leadtek, Unisplendour и xFusion, а более широкая доступность через глобальных системных интеграторов ожидается в начале следующего года.
Источник изображений: Nvidia Технические характеристики карты, предоставленные самой Nvidia, указывают на то, что карта отличается от ранее выпущенного варианта с 48 Гбайт памяти только увеличенным объёмом видеопамяти. В описании продукта отмечается использование графического процессора с 14 080 ядрами CUDA (как у 48-гигабайтной версии), а также одинаковое общее энергопотребление на уровне 300 Вт. ![]() Не совсем понятным моментом остаётся ширина интерфейса памяти. В технической документации Nvidia RTX Pro 5000 по-прежнему указан 512-битный интерфейс памяти, а также заявлена пропускная способность памяти 1344 Гбайт/с. Этот показатель точно соответствует скорости чипов памяти 28 Гбит/с на контакт с учётом поддержки 384-битной шины памяти, что также подтверждается данными сторонних источников. Если же в карте действительно используется 512-битная шина, то та же пропускная способность в 1344 Гбайт/с подразумевает применение чипов памяти со скоростью 21 Гбит/с на контакт. Nvidia до сих пор не озвучила цену на RTX Pro 5000 с 72 Гбайт памяти. В сообщении в блоге и материалах о продукте подтверждается его доступность, однако в них не указаны ни рекомендованная розничная цена, ни цены партнёров. Версия с 48 Гбайт памяти предлагается по цене от $4250 до $4600, в то время как модели RTX Pro 6000 стоят более $8300. Экспортные лицензии на поставку Nvidia H200 в Китай переданы для рассмотрения в ключевые американские ведомства
19.12.2025 [06:59],
Алексей Разин
Ускорители Nvidia H200 хоть и относятся к более старому поколению Hopper, остаются самыми производительными решениями этой марки из тех, кто когда-либо были разрешены к поставкам в КНР. Агентство Reuters уточняет, что после заявлений Трампа о разрешении начать поставки H200 в Китай к рассмотрению первых экспортных лицензий приступили ключевые американские ведомства.
Источник изображения: Nvidia По данным источника, процедура согласования поставок Nvidia H200 в Китай подразумевает, что Министерство торговли США передаёт полученные ею заявки на согласование в Госдеп, Министерство энергетики и Министерство обороны. Процесс рассмотрения заявок этими ведомствами может занять до 30 дней и обещает оказаться очень тщательным, учитывая специфику вопроса. В случае, если эти заявки будут согласованы указанными ведомствами, Министерство торговли США выдаст экспортные лицензии заявителям, что позволит им наладить поставки ускорителей Nvidia H200 строго определённому кругу китайских клиентов. Перспективы наращивания таких поставок неоднозначны. С одной стороны, некоторые источники убеждены, что спрос со стороны китайских клиентов Nvidia окажется достаточно высоким, и ей даже придётся наращивать объёмы производства H200 для его полного удовлетворения. С другой стороны, некоторые эксперты полагают, что китайская сторона будет препятствовать поступлению H200 на территорию страны, тем самым сохраняя условия для импортозамещения. США хотят ему воспрепятствовать, поддерживая зависимость от пусть и не самых передовых, но достаточно производительных на фоне китайских аналогов ускорителей. В этом заключается логика разрешения поставок H200 в Китай, хотя усилия главы Nvidia по его принятию американским президентом и позволяют говорить о наличии банальной материальной заинтересованности поставщика. Nvidia выпустила драйвер GeForce 591.59 с игровыми оптимизациями и исправлениями ряда старых проблем
18.12.2025 [21:43],
Николай Хижняк
Nvidia выпустила свежий пакет графического драйвера GeForce Game Ready 591.59 WHQL. Компания заявляет, что новое программное обеспечение оптимизирует производительность в играх с поддержкой технологии Reflex и DLSS 4, однако не указывает, в каких именно. Новый драйвер также исправляет ряд ошибок, обнаруженных в предыдущих релизах.
Источник изображения: 3DNews Список исправленных проблем:
Известные проблемы: невозможно отменить выбор «Показывать значок панели уведомлений» на панели управления Nvidia. Скачать драйвер GeForce Game Ready 591.59 WHQL можно через Nvidia App или с официального сайта Nvidia. Google объединилась с Meta✴, чтобы ударить по доминированию Nvidia в сфере ПО для ИИ
18.12.2025 [20:49],
Сергей Сурабекянц
Google работает над улучшением производительности своих ИИ-чипов при работе с PyTorch. Этот проект с открытым исходным кодом является одним из наиболее широко используемых инструментов для разработчиков моделей ИИ. Для ускорения разработки Google сотрудничает с Meta✴✴, создателем и администратором PyTorch. Партнёрство подразумевает доступ Meta✴✴ к большему количеству ИИ-ускорителей. Этот шаг может пошатнуть многолетнее доминирование Nvidia на рынке ИИ-вычислений.
Источник изображения: unsplash.com Эта инициатива является частью агрессивного плана Google по превращению своих тензорных процессоров (Tensor Processing Unit, TPU) в жизнеспособную альтернативу лидирующим на рынке графическим процессорам Nvidia. Продажи TPU стали важнейшим двигателем роста доходов Google от облачных сервисов. Однако для стимулирования внедрения ИИ-ускорителей Google одного оборудования недостаточно. Новая инициатива компании, известная как TorchTPU, направлена на устранение ключевого барьера, замедляющего внедрение чипов TPU, путём обеспечения их полной совместимости и удобства для разработчиков PyTorch. Google также рассматривает возможность открытия некоторых частей исходного кода своего ПО для ускорения его внедрения. По сравнению с предыдущими попытками поддержки PyTorch на TPU, Google уделяет больше организационного внимания, ресурсов и стратегического значения TorchTPU, поскольку компании, которые хотят использовать эти чипы, рассматривают именно программный стек как узкое место технологии. PyTorch, проект с открытым исходным кодом, активно поддерживаемый Meta✴✴, является одним из наиболее широко используемых инструментов для разработчиков, создающих модели ИИ. В Кремниевой долине очень немногие разработчики пишут каждую строку кода, которую будут фактически выполнять чипы от Nvidia, AMD или Google. Разработчики полагаются на такие инструменты, как PyTorch, представляющий собой набор предварительно написанных библиотек кода и фреймворков. Доминирование Nvidia обеспечивается не только её ускорителями ИИ, но и программной экосистемой CUDA, которая глубоко интегрирована в PyTorch и стала методом по умолчанию для обучения и запуска крупных моделей ИИ. Инженеры Nvidia приложили максимум усилий, чтобы программное обеспечение, разработанное с помощью PyTorch, работало максимально быстро и эффективно на чипах компании. Бо́льшая часть программного обеспечения Google для ИИ построена на основе платформы Jax, что отталкивает клиентов, применяющих для разработки PyTorch. Поэтому сейчас для Google стало особенно важным обеспечить максимальную поддержку PyTorch на своих ускорителях ИИ. В случае успеха TorchTPU может значительно снизить затраты на переход для компаний, желающих найти альтернативу графическим процессорам Nvidia. Чтобы ускорить разработку, Google тесно сотрудничает с Meta✴✴, создателем и администратором PyTorch. Это партнёрство может предоставить Meta✴✴ доступ к большему количеству ИИ-чипов Google. Meta✴✴ прямо заинтересована в разработке TorchTPU — это позволит компании снизить затраты на вывод данных и диверсифицировать инфраструктуру ИИ, отказавшись от использования графических процессоров Nvidia. В качестве первого шага Meta✴✴ предложила использовать управляемые Google сервисы, в рамках которых клиенты, такие как Meta✴✴, получили бы доступ к ИИ-ускорителям Google, а Google обеспечивала их операционную поддержку. В этом году Google уже начала продавать TPU напрямую в центры обработки данных своих клиентов. Компания нуждается в такой инфраструктуре как для запуска собственных продуктов ИИ, включая чат-бот Gemini и поиск на основе ИИ, так и для предоставления доступа клиентам Google Cloud.
Источник изображения: Google «Мы наблюдаем огромный, ускоряющийся спрос как на нашу инфраструктуру TPU, так и на инфраструктуру GPU, — заявил представитель Google. — Наша цель — обеспечить разработчикам гибкость и масштабируемость, необходимые независимо от выбранного ими оборудования». Nvidia выпустила ИИ-модель Nemotron 3 Nano 30B с открытыми весами и большущим контекстным окном
15.12.2025 [22:55],
Владимир Мироненко
Компания Nvidia сообщила подробности о новом семействе моделей Nemotron 3 с открытыми весами, разработанном, в том числе, для создания специализированного агентного ИИ нового поколения.
Источник изображения: Nvidia Первый представитель семейства — модель Nemotron 3 Nano 30B с открытыми весами, общим количеством параметров в 30 млрд и 3 млрд активных параметров. Модель основана на гибридной архитектуре Mamba-Transformer, сочетающей «смесь экспертов» (MoE), обучение с подкреплением (RL) в интерактивных средах и собственное контекстное окно в 1 млн токенов, обеспечивающее высокопроизводительное и долгосрочное рассуждение для многоагентных приложений. Как сообщает VideoCardz со ссылкой на публикацию на Hugging Face, маршрутизатор активирует 6 из 128 экспертов за один проход. Nvidia сообщила, что для запуска модели может использоваться система DGX Spark, а также ускорители H100 и B200. В числе новшеств Nemotron 3, напрямую отвечающих потребностям агентных систем, указаны:
Семейство MoE Nemotron 3 включает три модели:
Nemotron 3 Nano с готовыми к использованию руководствами доступна уже сейчас. Nemotron 3Super и Ultra выйдут немного позже. |
|
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |