Сегодня 31 января 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → rubin
Быстрый переход

Samsung начнёт выпускать память типа HBM4 для Nvidia в следующем месяце

В первой половине этого месяца появлялась информация о том, что начало массового выпуска памяти типа HBM4 откладывается до конца первого квартала по причинам, связанным с компанией Nvidia. Эту неделю агентство Reuters начало с сообщения о готовности Samsung начать производство HBM4 в следующем месяце.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Получать эти чипы предсказуемо будет Nvidia, поскольку они требуются для производства ускорителей вычислений семейства Rubin. В случае с предыдущими поколениями ускорителей Nvidia приоритетным поставщиком HBM оставалась SK hynix, но Samsung уже давно идёт к цели по превращению в серьёзного поставщика HBM4, желая наверстать упущенное и как минимум догнать конкурента. Каким будет объём первых партий HBM4 в исполнении Samsung, не уточняется.

Южнокорейское издание Korea Economic Daily сегодня сообщило, что память HBM4 в исполнении Samsung прошла квалификационные тесты Nvidia и AMD, а потому формально этот производитель имеет возможность начать её поставки первому из клиентов в следующем месяце. Первые образцы HBM4 были отправлены Samsung для тестирования в лабораториях Nvidia ещё в сентябре прошлого года. SK hynix в октябре сообщила, что завершила переговоры о поставках HBM на 2026 год с основными клиентами. Ради удовлетворения спроса на память данного семейства SK hynix со следующего месяца начнёт поставки кремниевых пластин для производства памяти на новое предприятие M15X в Южной Корее. Samsung и SK hynix отчитаются о результатах прошлого квартала в этот четверг, наверняка на мероприятиях по этому поводу что-то будет сказано в отношении сроков поставок HBM4. Глава Nvidia в начале этого месяца подтвердил, что производство чипов для ускорителей Vera Rubin уже началось. Соответственно, медлить с выпуском HBM4 для этой платформы особой нужды нет.

Поставки первых систем на ускорителях Nvidia Rubin стартуют в конце лета

В этом месяце глава и основатель Nvidia Дженсен Хуанг (Jensen Huang) продемонстрировал ускорители вычислений поколения Rubin, заявив о начале их массового производства. Между тем, серверная продукция обычно длительное время добирается до конечных пользователей, а потому и поставки систем на семейства Vera Rubin партнёры Nvidia собираются начать лишь к концу этого лета.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Об этом сообщает Commercial Times со ссылкой на комментарии вице-президента тайваньского производителя серверного оборудования Quanta Computer Майка Янга (Mike Yang), которые тот сделал на прошлой неделе на праздничном корпоративном мероприятии. Гиганты облачных вычислений начнут получать соответствующие системы на базе ускорителей Nvidia Rubin в августе текущего года. На тот момент отгрузки не будут массовыми, а потому Quanta Computer и не рассчитывает на получение существенной выручки от поставок первых систем на базе Vera Rubin.

Основная часть клиентов компании, по словам её представителя, уже эксплуатирует системы поколения Grace Blackwell (GB200 и GB300), что при условии родства архитектур с Vera Rubin позволит им достаточно быстро и безболезненно обновить в случае необходимости аппаратную базу. В официальных документах Nvidia осенью прошлого года сроки производства Vera Rubin упоминались достаточно размыто — под его начало отводился весь 2026 год.

Китайские разработчики признают, что для прогресса в сфере ИИ им нужен доступ к новейшим ускорителям Nvidia Rubin

Соперничество между США и КНР в сфере искусственного интеллекта перешло в открытую форму, прогресс каждой из сторон можно оценивать по разным критериям, но представители китайской отрасли признают, что обогнать США в ближайшие годы им не удастся. Тем более, что китайские разработчики даже не пытаются скрывать свою заинтересованность в доступе к американским ускорителям нового поколения.

 Источник изображения: Nvidia

Источник изображения: Nvidia

В прошлом месяце Дональд Трамп (Donald Trump) дал принципиальное согласие на организацию поставок в Китай ускорителей Nvidia H200, которые являются самыми производительными из доступных китайским разработчикам по официальным каналам. Пока китайские чиновники думают, на каких условиях разрешить импорт H200 в страну, представители местной ИИ-отрасли не скрывают своей заинтересованности в получении доступа к новейшим ускорителям типа Nvidia Rubin, которые остаются под американскими санкциями. Кстати, работа китайских компаний в режиме аренды вычислительных мощностей на базе Rubin за пределами страны формально сейчас не запрещена, поэтому хотя бы отчасти свои потребности китайские разработчики смогут покрыть. Впрочем, наличие такой лазейки для обхода санкций некоторые американские законодатели пытаются устранить.

Хотя глава Nvidia Дженсен Хуанг (Jensen Huang) и заявил, что спрос на H200 в Китае довольно высок, опрошенные The Wall Street Journal представители отрасли признались, что эти ускорители с архитектурой Hopper, отстающие от Rubin на два поколения, не пригодны для эффективного обучения передовых ИИ-моделей. Отчасти подобная оценка подкрепляется и настойчивыми слухами о том, что DeepSeek свои передовые модели обучала тайно на ускорителях Nvidia поколения Blackwell, и даже задержала выход новой версии своей языковой модели, поняв, что на отечественной компонентной базе достичь необходимых показателей не сможет. В будущем глава Nvidia готов наладить поставки в Китай ускорителей не только поколения Blackwell, но и более современного Rubin, но для этого они должны прилично устареть по меркам американского рынка. Интерес китайских разработчиков к ускорителям Blackwell уже начали изучать и китайские чиновники.

Китайские разработчики также подчёркивают, что доступных им вычислительных ресурсов в условиях бурного развития ИИ хватает преимущественно для поддержания работоспособности существующих ИИ-моделей, а для активной разработки новых их уже недостаточно. Все ресурсы фактически уходят на удовлетворение текущего спроса, а на исследования их уже не остаётся. По оценкам аналитиков UBS, в прошлом году китайские интернет-гиганты потратили на развитие своей вычислительной инфраструктуры только $57 млрд, что в десять раз меньше, чем у американских соперников.

Исследователи Epoch AI считают, что новейшие языковые модели Alibaba и DeepSeek от американских аналогов отстают от силы на четыре месяца, хотя ещё недавно отставание измерялось как минимум семью месяцами. Руководитель DeepMind на днях заявил, что для китайских конкурентов главной проблемой является отсутствие прорывных исследований, которые позволили бы обеспечить превосходство над ИИ западной разработки. Нехватка вычислительных мощностей, стало быть, является лишь одним из препятствий на пути к получению преимущества над американскими разработчиками.

Обнаружен самый «вёрткий» астероид Солнечной системы — он совершает оборот менее чем за две минуты

В своей массе астероиды — это куча щебня, сбившегося вместе под действием гравитации. Это наглядно показал таран зондом-камикадзе NASA DART астероида Диморф — после удара тот выбросил массу пыли и мелких камней. Это также означает, что астероидам не свойственно быстрое вращение вокруг своей оси — центробежная сила разорвёт их на мелкие части. Тем ценнее найти астероид со сверхвысокой скоростью вращения, что стало возможным с появлением нового телескопа.

 Источник изображения: Vera C. Rubin Observatory

Источник изображения: Vera C. Rubin Observatory

Открытие сделала Обсерватория имени Веры С. Рубин (Vera C. Rubin Observatory). Огромная 3,2-гигапиксельной камера LSST обсерватории размером 3 × 1,65 метра способна делать снимки больших участков неба каждые 40 секунд. С апреля по июнь 2025 года обсерватория проходила стадию настройки оборудования, что не помешало сделать множество интересных открытий даже до начала научной работы. Одним из таких открытий стало обнаружение самого быстро вращающегося астероида Солнечной системы в категории свыше 500 метров, который при своих размерах в 710 метров совершал полный оборот вокруг своей оси за 1,88 минуты.

Всего в процессе настройки оборудования Обсерватория «Рубин» открыла 1900 новых астероидов, 16 из которых могли похвастаться сверхбыстрым вращением, а 3 — ультрабыстрым, один из которых стал рекордсменом — это объект 2025 MN45. Три самых «вёртких» астероида совершали полный оборот менее чем за 5 минут, а 16 сверхбыстрых совершали обороты от 13 минут до 2,2 часа.

Отметка 2,2 часа на каждый оборот считается границей, ниже которой не монолитные астероиды разрываются центробежной силой. Тем самым все быстро вращающиеся астероиды состоят из плотной и даже монолитной породы. Большинство из впервые открытых астероидов расположены в Главном поясе астероидов между Марсом и Юпитером. После начала научной работы Обсерватории «Рубин» будут открыты сотни тысяч таких объектов. Ожидается, что работа обсерватории начнётся в ближайшие месяцы.

Дженсен Хуанг обвалил акции производителей систем охлаждения, просто рассказав об умеренных аппетитах Rubin

На мероприятии CES 2026 глава и основатель Nvidia Дженсен Хуанг (Jensen Huang) не только продемонстрировал образцы ускорителей поколения Rubin и подтвердил, что их выпуск уже налажен, но и сделал важное заявление относительно уровня тепловыделения этих решений. По его словам, для серверов на базе Rubin мощное жидкостное охлаждение не потребуется.

 Источник изображения: Nvidia

Что характерно, речь шла именно о так называемых «чиллерах» — устройствах, охлаждающих жидкость до околонулевых температур, которые исторически применялись в аквариумах и сфере экстремального разгона компьютерных компонентов. По сути, охлаждающая жидкость, пропускаемая через традиционные водоблоки, в таких системах дополнительно проходит через холодильные установки с фреоном. Это позволяет поддерживать низкие температуры в районе эксплуатируемых чипов на протяжении длительного времени.

Вот что буквально сказал Дженсен Хуанг про требования к охлаждению серверных систем на базе Rubin: «Центры обработки данных не потребуют использования водяных чиллеров». Как поясняет Reuters, такие заявления главы Nvidia вызвали падение котировок акций многих производителей систем охлаждения для серверного оборудования. Например, акции Johnson Control International потеряли в цене 7,5 %, а ценные бумаги Trane Technologies подешевели на 5,3 %. Акции обоих эмитентов оказались на уровне многомесячных минимумов и демонстрировали сильнейшую отрицательную динамику в составе индекса S&P 500. В структуре продаж этих компаний заказы для серверного сегмента формируют до 10 % или чуть более всей выручки.

Аналитики Barclays считают, что некоторые производители систем охлаждения при сложившейся конъюнктуре рынка выиграют от концентрации партнёров Nvidia на традиционных видах охлаждения серверных решений. Например, nVent Electric чиллеры не выпускает, но предлагает достаточно широкий ассортимент традиционных систем жидкостного охлаждения. Аналогичные выгодные позиции занимает на рынке Vertiv Holdings. Акции первой из компаний выросли в цене на 0,5 %, тогда как акции второй просели в цене на 2,1 %.

Ускорители Blackwell и Rubin появятся в Китае в своё время, как уверен глава Nvidia

Возможность поставлять ускорители вычислений H200 с архитектурой Hopper в Китай появилась у Nvidia под конец прошлого года благодаря личным усилиям основателя компании Дженсена Хуанга (Jensen Huang), и на CES 2026 он выразил уверенность, что в определённый момент до Китая доберутся и более совершенные ускорители с архитектурой Blackwell и Rubin.

 Источник изображения: Nvidia

Источник изображения: Nvidia

«H200 сейчас конкурентоспособен на рынке. Он не будет конкурентоспособен вечно»,пояснил на CES 2026 генеральный директор компании Дженсен Хуанг, говоря о позиционировании актуальных решений Nvidia в Китае. Для поддержания конкурентоспособности своей продукции в КНР, компания будет вынуждена со временем вывести на местный рынок решения с архитектурой Blackwell и Rubin, как он добавил. При этом правила США в отношении экспортного контроля должны будут эволюционировать, если Вашингтон желает поддерживать конкурентоспособность американских технологий на мировом рынке, как считает Хуанг.

Он также пояснил, что количество китайских стартапов, возникших в соответствующей сфере, а также их успешный выход на биржу, сами по себе говорят о темпах развития и промышленном потенциале Китая. По мнению Хуанга, китайский рынок технологий и дальше будет активно развиваться, поэтому для сохранения конкурентных позиций на нём Nvidia должна будет совершенствовать собственные технологии, предлагаемые местным клиентам. Новые продукты Nvidia в Китае продолжат «своевременно появляться», как резюмировал он.

В ожидании экспортных лицензий от властей США, которые позволят Nvidia наладить поставки ускорителей H200 в Китай, компания нарастила объёмы выпуска соответствующей продукции. Спрос со стороны китайских клиентов очень высок, как заверил глава Nvidia. Компания надеется, что вскоре сможет получить необходимые разрешения в США и наладить поставки H200 в Китай. По словам Хуанга, рассчитывать на публичное признание китайских властей в готовности разрешить поставки H200 на местный рынок не приходится. Маркером в этой сфере будут служить начавшиеся закупки со стороны китайских клиентов компании. Они не обязательно будут сопровождаться громкими публичными заявлениями.

Дженсен Хуанг показал ускорители Rubin на CES 2026 — их массовое производство уже запущено

Вполне предсказуемо, что основатель и генеральный директор Nvidia Дженсен Хуанг (Jensen Huang) трибуну CES 2026 использовал не только для рассказа о новейших продуктах и технологиях компании, но и для убеждения инвесторов в том, что ИИ-пузырь далёк от схлопывания. Одним из аргументов стала демонстрация образцов ускорителей с архитектурой Rubin.

 Источник изображения: Nikkei Asian Review

Источник изображения: Nikkei Asian Review

Они выйдут на рынок в этом году, во второй его половине, но глава Nvidia подчеркнул, что их производство уже идёт полным ходом. Архитектура Rubin является преемником весьма успешной Blackwell, и Nvidia не скрывает, что связывает с ней особые надежды. Отвечая на вопросы аудитории на CES 2026, основатель компании пояснил: «Мы попытаемся наращивать поставки изо всех сил. Во втором полугодии мы будет продавать много, поставлять много (ускорителей Rubin)». По сравнению с Blackwell, ускорители Rubin обеспечат рост производительности в инференсе в пять раз, а также в три с половиной раза в обучении языковых моделей. В обеих сферах удельная стоимость генерируемого токена сократится в десять раз по сравнению с Blackwell, поэтому разработчикам будет выгодно переходить на Rubin даже в том случае, если новые ускорители окажутся заметно дороже старых.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Непосредственно графические процессоры поколения Rubin станут первыми продуктами Nvidia с памятью типа HBM4, которая обеспечит скорость передачи информации до 22 терабайт в секунду. Одними из первых клиентов Nvidia, получивших ускорители Rubin во втором полугодии, станут облачные провайдеры CoreWeave и Microsoft Azure. Образцы ускорителей Rubin уже вовсю тестируются клиентами Nvidia.

В одной серверной стойке могут объединяться до 72 графических процессоров Rubin и 36 центральных процессоров Vera. В одном вычислительном кластере могут объединяться до 1000 чипов Rubin, эффективность обмена данными между ними будет во многом определяться новыми сетевыми интерфейсами, которые были представлены параллельно. При работе в инференсе с форматом данных NVFP4, который Nvidia будет продвигать, ускорители Rubin обеспечивают быстродействие на уровне 50 петафлопс. Кратное повышение производительности и эффективности вычислений по сравнению с Blackwell было достигнуто при всего лишь 1,6-кратном увеличении количества транзисторов на чипе.

Игровые видеокарты теперь приносят всего 7,5 % выручки Nvidia — ИИ-чипы разогнали доходы до $57 млрд

Отчётность Nvidia за минувший фискальный квартал смогла порадовать тех инвесторов, которые ждали косвенных подтверждений сохранения высокого спроса компоненты для инфраструктуры ИИ. По итогам прошлого квартала выручка компании составила рекордные $57 млрд, увеличившись в годовом сравнении на 62 %, а последовательно сразу на 22 % или $10 млрд.

 Источник изображений: Nvidia

Источник изображений: Nvidia

Как отметила на мероприятии финансовый директор Nvidia Колетт Кресс (Colette Kress), компания рассчитывает выручить от реализации ускорителей семейств Blackwell и Rubin в размере $500 млрд за период с начала текущего года до конца 2026 календарного года. Спрос на компоненты для инфраструктуры ИИ продолжает превышать собственные ожидания Nvidia, по словам Колетт Кресс. Уже эксплуатируемые в составе облачных систем ускорители поколений Ampere, Hopper и Blackwell полностью загружены вычислениями.

В серверном сегменте выручка Nvidia в прошлом квартале выросла на 66 % в годовом сравнении до рекордных $51,2 млрд. Направление сетевых решений увеличило выручку сразу на 162 % до $8,2 млрд, что позволяет профильному бизнесу считаться крупнейшим в мире. В структуре ускорителей Blackwell произошло важное изменение: более современные GB300 начали доминировать над GB200 и формировать до двух третей всей выручки в семействе. Даже в условиях весьма серьёзных геополитических противоречий между Китаем и США компании удалось выручить за квартал на китайском рынке $50 млн от реализации ускорителей H20, хотя в конце прошлого квартала Nvidia не хотела публиковать подобную статистику в целом. Так или иначе, руководство компании утверждает, что продажи H20 не оказали существенного влияния на итоги квартала.

Игровой сегмент показал рост выручки на 30 % в годовом сравнении до $4,3 млрд (всего 7,5 % от всей выручки), но последовательно она снизилась на 1 %. Такая коррекция, по словам финансового директора Nvidia, обусловлена выходом складских запасов на более близкий к норме уровень в ожидании сезона предпраздничных распродаж. В годовом сравнении игровая выручка выросла преимущественно за счёт высокой популярности семейства Blackwell.

В сфере профессиональных решений для визуализации семейство Blackwell также показало себя с лучшей стороны, способствуя росту выручки на 56 % год к году до $760 млн, но в этом контексте упоминается и положительное влияние DGX Spark. Выручка Nvidia в автомобильном сегменте ограничилась $592 млн, но она выросла на 32 % в годовом сравнении и на 1 % последовательно. Наконец, сегмент OEM-решений и прочих источников дохода позволил Nvidia увеличить выручку на 79 % до $174 млн в годовом сравнении, хотя последовательный рост тоже ограничился 1 %.

В общей сложности, вычислительные и сетевые решения увеличили квартальную выручку Nvidia на 64 % до $50,9 млрд, тогда как на долю графических решений как таковых осталось только $6,1 млрд выручки. Тем не менее, и она в годовом сравнении увеличилась на 51 %. Руководство компании считает, что ежегодно в мире будет тратиться от $3 до $4 трлн на создание инфраструктуры для ИИ.

В части сроков анонса новых ускорителей с архитектурой Rubin финансовый директор Nvidia повторила, что они выйдут во второй половине 2026 года. Платформа Vera Rubin, сформированная из 7 чипов, способна обеспечить кратное увеличение быстродействия по сравнению с Blackwell.

В текущем квартале Nvidia рассчитывает выручить около $65 млрд, это подразумевает последовательный рост выручки на 14 %, во многом обусловленный высоким спросом на компоненты с архитектурой Blackwell. Если в прошлом квартале норма выручки компании составила 73,4 %, то в текущем она расположится в районе 74,8 %. В следующем году расходы компании вырастут, но Nvidia постарается поддерживать норму прибыли на уровне 74–76 %, по словам Кресс. На получение значимой выручки в Китае компания в текущем квартале тоже не рассчитывает.

Nvidia построит в США семь эксафлопсных суперкомпьютеров — два на Vera Rubin для Лос-Аламосской лаборатории

На конференции GTC 2025 компания Nvidia объявила о том, что построит в США семь эксафлопсных суперкомпьютеров в США. Две системы будут построены совместно с Oracle и будут использовать более 100 000 чипов Blackwell с производительностью до 2200 Эфлопс. Ещё две системы будут созданы совместно с HPE на перспективной платформе Vera Rubin для Лос-Аламосской национальной лаборатории.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Эти системы будут использоваться для обеспечения национальной безопасности и проведения научных исследований с применением ИИ-моделирования и высокопроизводительных вычислений. Что интересно, заявление Nvidia последовало за вчерашним объявлением AMD о победе в тендерах на поставку пары суперкомпьютеров для Министерства энергетики США.

Лос-Аламосская национальная лаборатория заключила контракт с HPE на создание суперкомпьютеров Mission и Vision на базе платформы Vera Rubin от Nvidia, которая включает центральные процессоры Vera и графические процессоры Rubin нового поколения. Масштабирование машин будет осуществляться с помощью технологии NVLink Gen6, а горизонтальное — посредством сетевого интерфейса Nvidia QuantumX 800 Infiniband.

Суперкомпьютер Mission, разработанный для Национального управления по ядерной безопасности, планируется ввести в эксплуатацию в 2027 году. Компьютер Vision будет опираться на достижения предыдущего суперкомпьютера Venado и использоваться для открытых научных исследований, включая исследования в области искусственного интеллекта.

«Mission — пятая передовая технологическая система в рамках программы Лос-Аламоса по развитию искусственного интеллекта для научной безопасности. Ожидается, что она будет введена в эксплуатацию в 2027 году и предназначена для запуска секретных приложений. Система Vision основана на достижениях суперкомпьютера Venado из LANL и предназначена для несекретных исследований в области искусственного интеллекта и открытой науки. Системы Mission и Vision представляют собой значительные инвестиции в национальную безопасность США и развитие открытых научных возможностей», — заявил Дион Харрис (Dion Harris), руководитель отдела маркетинга продуктов центров обработки данных Nvidia.

Nvidia не раскрыла ожидаемую производительность Mission и Vision. Однако Vision примет эстафету у Venado — 19-го по скорости суперкомпьютера в мире с производительностью Rmax FP64 98,51 Пфлопс. Поэтому вполне логично ожидать, что Vision обеспечит как минимум вдвое большую вычислительную мощность для научных задач.

«Мы предоставим более подробную информацию о конкретных конфигурациях [суперкомпьютеров] позже. Самое замечательное в этой [платформе], учитывая, как эти системы будут использоваться как в открытой науке, так и в исследованиях в области национальной безопасности, заключается в том, что, по нашему мнению, она позволит использовать как возможности ИИ, так и традиционные возможности моделирования для научных исследований», — добавил Харрис.

Хуанг показал Vera Rubin Superchip — CPU, два огромных GPU и 100 Пфлопс на одной плате для ИИ нового поколения

На конференции GTC 2025 глава компании Nvidia Дженсен Хуанг (Jensen Huang) продемонстрировал графический процессор следующего поколения — Rubin. Точнее, он показал со сцены прототип ускорителя Vera Rubin Superchip, который объединяет на одной плате совершенно новый центральный процессор Vera и пару огромных графических чипов Rubin. Такое сочетание обещает новый уровень производительности для ИИ-суперкомпьютеров будущего.

 Источник изображений: Nvidia

Источник изображений: Nvidia

Каждый GPU Rubin состоит из двух больших кристаллов с ядрами CUDA и восьми стеков высокоскоростной памяти HBM4 объёмом 288 Гбайт. Характеристики GPU не уточняются, равно как и пропускная способность памяти. Однако отмечается, что одна система Vera Rubin Superchip обеспечивает производительность в ИИ-операциях (FP4) на уровне 100 Пфлопс (100 квадриллионов операций в секунду).

Что касается центрального процессора Vera, то известно, что он предложит 88 ядер на неназванной версии архитектуры Arm с 176 потоками, а для его связи с графическими процессорами будет задействован интерфейс NVLink-C2C с пропускной способностью 1,8 Тбайт/с. Также на плате расположится оперативная память LPDDR (версия не уточняется, но вполне возможно, что это будет уже LPDDR6), в результате чего общий объём оперативной памяти на один «суперчип» достигнет 2 Тбайт.

На базе новых ускорителей Nvidia предложит самые разные системы, например новые Compute Tray, включая CPX-версию для задач с большим контекстом ИИ-моделей. Также компания рассказала о готовых серверных стойках Vera Rubin NVL144 с производительностью 3,6 Эфлопс (3,6 квинтильона операций в секунду) для запуска уже обученных ИИ-моделей (FP4 inference), а также 1,2 Эфлопс для обучения моделей (FP8 training).

Это примерно в 3,3 раза быстрее актуальных систем GB300 NVL72. Система предложит 13 Тбайт/c общей пропускной способности для памяти HBM4 и в совокупности 75 Тбайт быстрой системной памяти, а общая пропускная способность интерфейсов NVLink и CX9 достигнет 260 Тбайт/с и 28,8 Тбайт/с соответственно.

Nvidia также раскрыла детали о системе NVL576 на базе чипов Rubin Ultra, которые ожидаются во второй половине 2027 года. Эти чипы будут включать четыре крупных GPU-чиплета на одной подложке и 1 Тбайт памяти HBM4e. В итоге система NVL576 обеспечит производительность до 15 Эфлопс FP4 и 5 Эфлопс FP8, предлагая до 365 Тбайт быстрой системной памяти и сетевую пропускную способность до 1,5 Пбайт/с через NVLink.

Nvidia сообщила, что первые тестовые экземпляры Rubin уже поступили в лаборатории компании для испытаний, а старт массового производства запланирован на 2026 год. На смену этой архитектуре придёт совершенно новая архитектура Feynman, запуск которой намечен на 2027–2028 годы. Однако никаких чипов на этой платформе Nvidia пока не показала — вряд ли на данный момент они вообще существуют в физическом воплощении.

Nvidia испугалась ускорителей AMD и просит поставщиков сделать для неё HBM4 побыстрее

В следующем году Nvidia рассчитывает вывести на рынок ускорители вычислений семейства Rubin с поддержкой передовой памяти HBM4, но поскольку на горизонте замаячила конкурентная угроза в виде AMD Instinct MI450, она уже сейчас пытается обеспечить себе преимущество в быстродействии. Nvidia попросила поставщиков HBM4 подтянуть спецификации предназначающихся ей микросхем, увеличив скорость передачи информации до 10 Гбит/с.

 Источник изображения: SK hynix

Источник изображения: SK hynix

Как отмечает TrendForce, пока нет уверенности в том, что производители HBM4 смогут исполнить пожелания Nvidia, но SK hynix наверняка сохранит за собой статус крупнейшего поставщика памяти для ускорителей указанной американской марки в самом начале перехода на HBM4. Нюанс заключается в том, как поясняет источник, что Samsung Electronics изначально рассчитывала выпускать базовый кристалл HBM4 по 4-нм техпроцессу с использованием FinFET, а также предложить скорости передачи информации до 10 Гбит/с. Всё это позволит Samsung предпринять попытку выйти в лидеры по поставкам HBM4 для нужд Nvidia в среднесрочной перспективе.

Скорость экспансии ускорителей Nvidia Rubin, по мнению TrendForce, будет зависеть от доступности памяти HBM4 с необходимыми характеристиками в достаточных количествах. Если чипов HBM4 со скоростью передачи информации 10 Гбит/с окажется мало, Nvidia либо откажется от идеи поднять характеристики памяти Rubin, либо будет более тонко сегментировать свою продукцию и в каждой нише сотрудничать с оптимальным поставщиком памяти. Кроме того, Nvidia может провести сертификацию HBM4 в два этапа, предоставив тем самым «отстающим» поставщикам больше времени на подготовку.

В следующем году, как считают эксперты TrendForce, крупнейшим поставщиком HBM4 для Nvidia останется SK hynix, а вот успех Samsung и Micron в этой сфере будет во многом зависеть от скорости прохождения сертификации и улучшения характеристик продукции.

AMD не признаёт поражения на графическом направлении и обещает нокаутировать Nvidia с помощью Instinct MI450

Отсылка к статистике Jon Peddie Research, которая утверждает об уменьшении доли AMD на рынке дискретных видеокарт до 6 %, предсказуемо нервирует представителей компании. Поэтому они предпочитают рассказывать о перспективных поколениях GPU, которые в будущем позволят AMD не только превзойти по быстродействию ускорители вычислений Nvidia, но и увеличить свою долю рынка графики в целом.

 Источник изображения: AMD

Источник изображения: AMD

О планах компании в этой сфере на технологической конференции Goldman Sachs рассказал исполнительный вице-президент и руководитель серверного подразделения AMD Форрест Норрод (Forrest Norrod). Примерно через год, по его словам, AMD рассчитывает вывести на серверный рынок ускорители вычислений Instinct MI450, которые призваны обеспечить лидерство по быстродействию во всех актуальных видах вычислительных нагрузок, связанных с искусственным интеллектом.

Если ускорители Instinct MI300 неплохо проявили себя главным образом в инференсе — вычислениях, связанных с формированием нейросетевого вывода, то последующие поколения ускорителей будут усиливать позиции AMD в части обучения языковых моделей, причём как в аппаратной части, так и в программной. По словам Норрода, этот процесс достигнет кульминации в момент выхода Instinct MI450: «Мы верим, что достигнем лидерства во всех категориях вычислительных нагрузок, будь то инференс или обучение».

Как отметил представитель компании, AMD при подготовке ускорителей Instinct MI450 рассчитывает добиться такого же эффекта, как при выходе центральных процессоров EPYC третьего поколения, которые в дальнейшем определили лидерство компании на серверном рынке с точки зрения быстродействия. В AMD верят, что семейство Instinct MI450 окажется лучшим решением на рынке в обучении, инференсе, распределённой его версии, а также обучении с подкреплением. Что характерно, сравнивать Instinct MI450 компания намерена с самыми актуальными на тот момент решениями конкурента, которые будут относиться к поколению Nvidia Rubin. Те и другие, по мнению Норрода, должны выйти на рынок примерно в одно и то же время.

Если учесть, что в дальнейшем AMD собирается использовать унифицированную архитектуру UDNA для выпуска GPU как в серверном, так и в игровом сегментах, то «реванш» на первом направлении поможет компании укрепить свои позиции и на втором. На рынке видеокарт, по словам Норрода, AMD рассчитывает занять «значимую долю». Это понятие он определяет, как величину более 20 %. Если учесть, что стартовать придётся с пресловутых 6 % (по версии Jon Peddie Research), то даже преодоление рубежа в 20 % станет для AMD серьёзным достижением. Так или иначе, даже при такой степени успеха компания ограничиваться им не собирается, и продолжит расти далее.

Первые прототипы ускорителей Nvidia Rubin готовы и проходят квалификационные тесты

TSMC начала квалификационное тестирование первых сошедших с конвейера прототипов ИИ-ускорителей поколения Nvidia Rubin. Отраслевые эксперты и облачные операторы следят за развитием событий: платформа задаст вектор развития новой эры высокопроизводительных вычислений. Rubin — не эволюционное развитие отдельных чипов, а масштабный архитектурный сдвиг, который определит механизмы создания и масштабирования новых моделей искусственного интеллекта и центров обработки данных — гиперскейлеров.

 Источник изображения: nvidia.com

Источник изображения: nvidia.com

Nvidia завершила разработку части чипов Rubin, заявил в ходе своего визита на Тайвань глава компании Дженсен Хуанг (Jensen Huang), — несколько проектов переданы производственному подрядчику TSMC на квалификацию и запуск в производство. Nvidia Rubin представляет собой усовершенствование оборудования на уровне платформы. Оно охватывает процессоры, сетевые компоненты и технологии межсоединений; предусматриваются чиплетная компоновка, технологический процесс TSMC N3P и упаковка CoWoS-L.

Линейка Rubin включает центральный процессор, несколько вариантов графической подсистемы, масштабируемый коммутатор NVLink с повышенной пропускной способностью, сетевой чип и стоечный коммутатор, а также кремниевый фотонный процессор для повышения качества стоечных соединений и оптических каналов вне кристалла. Nvidia подготовила глубокие изменения в области ПО, в том числе обновления компиляторов и систем выполнения, направленные на максимальное использование возможностей новой архитектуры. Rubin предусматривает переход на память нового поколения HBM4 с переработанной схемой базового кристалла для поддержки повышенной пропускной способности и повышенных требований к вычислительным ресурсам. Вычислительные кристаллы станут крупнее, чем модели текущего поколения.

Nvidia уже начала тестировать новые чипы — она провела замеры тепловых характеристик, показателей энергопотребления и эффективности межсоединений. Оборудование семейства Rubin появится на рынке примерно в 2026 году, а Rubin Ultra — годом позже; в действительности оба срока будут зависеть от готовности и объёмов производства. Это оборудование особенно актуально сейчас, когда ЦОД-гиперскейлеры непрерывно наращивают вычислительные ресурсы, превращаясь, по сути в «фабрики ИИ-токенов». Новые чипы Nvidia обещают прорыв в области обработки больших объёмов данных с поддержкой миллионов активных компонентов и ИИ-приложений нового поколения.

Nvidia приоткрыла характеристики ИИ-ускорителей Rubin и Rubin Ultra, и впервые упомянула Feynman с загадочной HBM

Более двух с половиной часов длилось выступление основателя и бессменного генерального директора Nvidia Дженсена Хуанга (Jensen Huang) на технологической конференции GTC 2025. О новинках компании её глава рассказал ближе к концу своей презентации, впервые прозвучало имя преемника ускорителей семейства Rubin, который выйдет на рынок в 2028 году.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Новейшие ускорители Nvidia к тому времени перейдут на архитектуру Feynman, очевидным образом названную в честь американского физика Ричарда Фейнмана (Richard Feynman), удостоившегося Нобелевской премии и принявшего участие в создании ядерной бомбы в середине сороковых годов прошлого века. Характеристики и предполагаемый уровень производительности ускорителей поколения Feynman пока не приводятся, но Nvidia упоминает об использовании ими памяти HBM следующего за HBM4E поколения. Любопытно, что из числа центральных процессоров этим ускорителям сопутствуют только чипы с архитектурой Vera, которые дебютируют в 2026 или 2027 году одновременно с ускорителями Rubin.

Собственно, разделение имени и фамилии выдающихся учёных для Nvidia в принятой системе условных обозначений становится нормой. Вслед за Blackwell на рынке должны будут появиться решения, названные в честь американского астронома Веры Рубин (Vera Rubin). Своей фамилией она невольно поделится с ускорителями вычислений, которые будут выходить в 2026 и 2027 годах, а центральные процессоры унаследуют её имя. Таким образом, преемники процессоров Vera наверняка получат обозначение Richard, но в планах Nvidia они пока не упоминаются. Процессоры Vera будут сочетать 88 ядер с Arm-совместимой архитектурой собственной разработки и 176 потоков.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Во время своего выступления Дженсен Хуанг признался, что при обозначении ускорителей B200 семейства Blackwell его компания совершила небольшой просчёт, использовав сочетание NVL72. Поскольку на одной подложке расположены по соседству два кристалла, правильнее было бы называть такую компоновку NVL144. Именно оно станет нормой для схожих представителей семейства Rubin.

Стоечная система Vera Rubin NVL144 дебютирует во второй половине следующего года, она будет обеспечивать в 3,3 раза более высокое быстродействие по сравнению с GB300 NVL72. Каждый GPU будет оснащаться 288 Гбайт памяти типа HBM4. При этом пропускная способность памяти по сравнению с B300 вырастет с 8 до 13 Тбайт/с. Интерфейсы NVLink для обмена данными внутри системы также увеличат свою пропускную способность, примерно в два раза.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Во второй половине 2027 года выйдут ускорители Rubin Ultra и стоечные решения NVL576 на их основе. Быстродействие в вычислениях FP4 вырастет в четыре раза по сравнению с Rubin NVL144 и в четырнадцать раз относительно GB300 NVL72 — до 15 Эфлопс. Чипы Rubin Ultra будут объединять в одной упаковке четыре кристалла. Объём оперативной памяти при переходе от Rubin NVL144 к Rubin Ultra NVL576 вырастет с 75 до 365 Тбайт. Ускорители Rubin Ultra перейдут на использование памяти типа HBM4E, но на каждый чип будет приходиться не более 8 Тбайт/с пропускной способности, зато объём памяти вырастет до 1 Тбайт. Интерфейс NVLink7 в поколении Rubin Ultra будет ускорен в шесть раз до 1,5 Пбайт/с, интерконнект CX9 ускорится в четыре раза до 115,2 Тбайт/с.

Дженсен Хуанг пообещал «большой шаг вперёд» — Nvidia в марте расскажет про будущие ИИ-чипы Rubin и не только

Выступая на квартальной отчётной конференции, глава и основатель Nvidia Дженсен Хуанг (Jensen Huang) признал, что некоторые заминки в выводе ускорителей Blackwell на рынок действительно задержали компанию на пару месяцев, но сейчас все проблемы позади. Он также пригласил желающих узнать больше о новых флагманах Blackwell Ultra и Rubin на мартовскую конференцию GTC 2025.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Формально, подобный рассказ об ближайших новинках в рамках GTC 2025 подразумевался с момента анонса программы предприятия, но он не упоминался явно. Теперь из уст основателя компании получено подтверждение, что в середине марта он действительно расскажет о дальнейших планах Nvidia по выпуску ускорителей вычислений новых поколений.

Основную отсылку к этим намерениям он сделал на квартальной отчётной конференции, упоминая об успехе компании и её партнёров в устранении проблем с выводом на рынок ускорителей поколения Blackwell. «Как вы знаете, первые Blackwell выходили с заминкой, которая стоила нам примерно пары месяцев. Мы, конечно же, полностью восстановились сейчас», — пояснил Хуанг, добавив, что «многие люди помогли нам восстановиться со скоростью света». Сейчас, по словам руководителя компании, производство Blackwell набрало полные обороты.

«Следующим поездом», как образно выразился Хуанг, будет семейство ускорителей Blackwell Ultra, которое обновит сетевые компоненты и микросхемы памяти, а также сами процессоры. Ранее сообщалось, что ускорители Blackwell Ultra будут изначально оснащаться 12-слойной памятью типа HBM3E, и увеличат объём памяти на 50 % относительно стартовой конфигурации Blackwell. Партнёры Nvidia уже вовлечены в процесс подготовки к переходу на Blackwell Ultra, как пояснил глава Nvidia, причём он будет значительно проще по сравнению с Hopper, поскольку тогда менялась почти вся сопутствующая инфраструктура. В случае же с Blackwell Ultra новые ускорители можно будет буквально устанавливать в существующие слоты, как дал понять генеральный директор Nvidia.

После этого компания сосредоточится на подготовке к выходу ускорителей Rubin и процессоров Vera, а также их комбинации. Партнёры Nvidia уже вовлечены в процесс подготовки к их анонсу. «Мы сможем сделать большой шаг вперёд», — пообещал глава компании. Он также добавил, что на GTC 2025 в середине марта расскажет не только о Blackwell Ultra и Vera Rubin, но и «покажет, что будет следующим в очереди». В целом, на этой конференции Nvidia расскажет о многом другом, поэтому ознакомиться с содержанием презентаций будет интересно многим, как резюмировал Дженсен Хуанг.


window-new
Soft
Hard
Тренды 🔥
Запущена соцсеть Moltbook для ИИ-агентов — людям разрешили только наблюдать 42 мин.
Акции игровых компаний просели на новости об игровом ИИ от Google 46 мин.
Новая статья: Arknights: Endfield — если бы Satisfactory была китайской гачей. Рецензия 8 ч.
Хардкорный шутер Road to Vostok о выживании на границе Финляндии и России скоро ворвётся в ранний доступ Steam — дата выхода и новый трейлер 9 ч.
Россияне стали больше сидеть во «ВКонтакте» и смотреть «VK видео» 10 ч.
Разработчики Yakuza Kiwami 3 пообещали исправить графику к релизу — пока ремейк местами выглядит хуже, чем игра 16-летней давности 11 ч.
Microsoft исправила сбои входа и загрузки в свежем обновлении Windows 11 13 ч.
В Китае ликвидировали одну из крупнейших в мире сетей пиратской манги 13 ч.
Режиссёр Даррен Аронофски выпустит сгенерированный ИИ сериал о войне за независимость США 13 ч.
Сразу три источника подтвердили, когда пройдёт следующая презентация Nintendo Direct и какой она будет 13 ч.
Среди 20 крупнейших поставщиков оборудования для выпуска чипов — три компании из Китая 14 мин.
Blue Origin заморозит космический туризм минимум на два года ради концентрации на лунной миссии 2 ч.
Качественные изображения Samsung Galaxy S26 и S26+ слили в Сеть до анонса 6 ч.
Неооблака «засасывают» ИИ-данные как чёрные дыры, меняя поведение Сети 9 ч.
Финны начали варить пиво «на песке» — местная пивоварня установила песочный теплоаккумулятор 10 ч.
Музыкальные издатели потребовали от Anthropic $3 млрд за «вопиющее пиратство» 10 ч.
Китай тоже планирует строительство гигаваттных космических ЦОД 11 ч.
От технологического наследия к построению будущего — Atos перезапустила бренд Bull для HPC, ИИ и квантовых инноваций 11 ч.
США продвигают «атомные кампусы» с ослабленными требованиями к ядерной безопасности, чтобы запитать ИИ ЦОД 12 ч.
Android 16 распространяется быстрее предшественника — свежая ОС заняла 7,5 % Android-устройств по всему миру 12 ч.