Сегодня 23 марта 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → nvidia
Быстрый переход

Nvidia готовит для китайского рынка особую версию ИИ-чипов Groq

В прошлом году Nvidia в рамках сделки на сумму $17 млрд получила доступ к разработкам стартапа Groq, и уже в этом месяце представила специализированные чипы LPU для ускорения работы ИИ в задачах инференса. Как отмечают источники, для Китая компания уже готовит адаптированную версию чипов Groq, с учётом существующих в США экспортных ограничений.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Об этом накануне сообщило агентство Reuters со ссылкой на собственные источники. Одновременно глава Nvidia Дженсен Хуанг (Jensen Huang) заявил, что компания возобновила выпуск чипов H200 собственной разработки, которые собирается продавать на китайском рынке. Nvidia удалось получить необходимые для отгрузки H200 китайским клиентам экспортные лицензии США, а китайские органы власти разрешили их импорт в Поднебесную.

Среди китайских конкурентов Nvidia немало тех, кто предлагает собственные специализированные чипы для инференса, поэтому возможность поставки адаптированных решений семейства Groq важна для американской компании с точки зрения сохранения своих позиций на китайском рынке. Как поясняет Reuters, адаптация чипов Groq для Китая будет заключаться не в снижении быстродействия, а в сохранении возможности работы с другими системами. Поставки чипов Groq начнутся в мае этого года, для Китая их не будут выпускать отдельно от основных партий.

Nvidia наконец выпустила рабочую станцию DGX Station на базе GB300 Grace Blackwell — у неё почти полтерабайта LPDDR5X

Компания Nvidia официально выпустила рабочую станцию DGX Station, представленную в прошлом году на конференции GTC 2025. Система ориентирована на разработчиков программного обеспечения, исследователей, специалистов по обработке данных и всех, кому требуется больше вычислительной мощности для ИИ, чем может обеспечить более компактная модель Nvidia DGX Spark.

 Источник изображения: Nvidia

Источник изображения: Nvidia

В составе DGX Station используется ускоритель Nvidia GB300 Grace Blackwell Ultra, который сочетает 72-ядерный процессор Grace и графический процессор Blackwell Ultra, объединённые интерфейсом NVLink C2C со скоростью 900 Гбайт/с. Система оснащена впечатляющим объёмом встроенной памяти — 784 Гбайт. Процессор работает в паре с 496 Гбайт памяти LPDDR5X со скоростью 396 Гбайт/с, а графический процессор — с 252 Гбайт памяти HBM3e со скоростью 7,1 Тбайт/с. Оба пула памяти объединены, что позволяет процессору и графическому процессору совместно использовать память друг друга для максимальной производительности ИИ.

Nvidia оснастила DGX Station тремя слотами PCIe 5.0 x16: один поддерживает 16 линий, а два других — по восемь линий. Система официально поддерживает установку дискретных видеокарт, которые можно подключать к слотам PCIe для выполнения дополнительных задач, таких как моделирование и трассировка лучей. Поддерживаются следующие GPU: RTX Pro 6000 Workstation Edition, RTX Pro 6000 Blackwell Max-Q Workstation Edition, RTX Pro 4000 Blackwell SFF Edition и RTX Pro 2000 Blackwell. Рабочая станция DGX Station также оснащена четырьмя слотами M.2, аудиоразъёмами и портами USB.

В рабочей станции используется сетевой контроллер Nvidia ConnectX-8 SuperNIC, поддерживающий скорость до 800 Гбит/с через два порта QSFP112. Система предназначена для ускорения проектов в области искусственного интеллекта путём подключения до двух станций DGX для масштабирования производительности и возможностей моделирования. Питание осуществляется через один 24-контактный разъём ATX, один 8-контактный разъём EPS и три разъёма питания 12V-2x6 для GPU, обеспечивающие заявленную мощность системы в 1600 Вт.

Nvidia заявляет, что DGX Station уже доступна для заказа и начнёт поставляться в ближайшие месяцы через компании-партнёры, включая Asus, Dell, Gigabyte, MSI, Supermicro и HP.

Nvidia выпустила однослотовый серверный ускоритель RTX Pro 4500 Blackwell Server Edition для ИИ и других задач

Компани Nvidia представила профессиональную видеокарту RTX Pro 4500 Blackwell Server Edition, предназначенную для центров обработки данных, периферийных устройств и облачных вычислений. Карта ориентирована на выполнение задач искусственного интеллекта, обработку данных, видеозадачи и визуальные вычисления.

 Источник изображений: Nvidia

Источник изображений: Nvidia

Новая серверная версия ускорителя выполнена в форм-факторе карты расширения PCIe толщиной в один слот, как и ранее выпущенная стандартная версия RTX Pro 4500 Blackwell для рабочих станций. Обе карты имеют по 10 496 ядер CUDA и по 32 Гбайт памяти GDDR7. Одними из ключевых отличий между двумя ускорителями являются дизайн и энергопотребление. Серверная версия оснащена однослотовой пассивной системой охлаждения и имеет заявленный показатель энергопотребления 165 Вт. Стандартный вариант RTX Pro 4500 Blackwell толщиной в два слота расширения оснащён кулером с вентилятором тангенциального типа. При этом энергопотребление карты заявлено на уровне 200 Вт.

Серверная версия также поставляется с памятью с более низкой пропускной способностью. Чипы памяти модели RTX Pro 4500 Blackwell Server Edition работают с частотой 3125 МГц, что соответствует 25 Гбит/с эффективной пропускной способности на контакт, по сравнению с 3500 МГц или 28 Гбит/с у стандартной RTX Pro 4500. В результате общая пропускная способность памяти у серверной версии составляет 800 Гбайт/с вместо 896 Гбайт/с у обычной.

Ещё одно отличие заключается в наборе внешних разъёмов. По сравнению со стандартной RTX Pro 4500 Blackwell серверная версия не оснащена внешними видеопортами. Это ожидаемо для устройства, ориентированного на центры обработки данных, где карта будет использоваться в составе стоечных серверов для удалённых рабочих нагрузок, а не в составе рабочих станций для локальных задач.

 Вся актуальная линейка ускорителей Nvidia RTX Pro для серверов и рабочих станций. Источник изображения: VideoCardz

Вся актуальная линейка ускорителей Nvidia RTX Pro для серверов и рабочих станций. Источник изображения: VideoCardz

Nvidia позиционирует RTX Pro 4500 Blackwell Server Edition как более компактную и энергоэффективную альтернативу в профессиональной линейке Blackwell. Она сохраняет ту же конфигурацию графического процессора и тот же объём памяти в 32 Гбайт, что и стандартная RTX Pro 4500 Blackwell, но жертвует видеовыходами и некоторой пропускной способностью памяти в пользу пассивной однослотовой конструкции, лучше подходящей для корпоративных платформ.

SRAM какой-то: Nvidia представила чип Groq 3 LPU для ускорения инференса ИИ-моделей на уровне токенов

На прошедшей в этом году конференции GTC генеральный директор Nvidia Дженсен Хуанг (Jensen Huang) сообщил, что в этом году платформа Vera Rubin получит расширение. Nvidia использует для этого интеллектуальную собственность, приобретённую у Groq. В состав Rubin вошёл новый чип Nvidia Groq 3 LPU. Компания определяет его как ускоритель инференса. Его задача — выдавать токены в большом объёме и с низкой задержкой.

 Источник изображений: Nvidia

Источник изображений: Nvidia

Платформа Rubin уже включает шесть компонентов, из которых Nvidia собирает стоечные системы и затем масштабирует их до ИИ-фабрик. Это GPU Rubin, CPU Vera, коммутаторы внутрисистемного масштабирования NVLink 6, интеллектуальный сетевой адаптер ConnectX-9, процессор обработки данных BlueField-4 и коммутатор межсистемного масштабирования Spectrum-X с совместно интегрированной оптикой. Groq 3 LPU стал новым элементом этой платформы и ещё одним строительным блоком Rubin при масштабном развёртывании.

Groq 3 LPU отличается от большинства ИИ-ускорителей схемой памяти. Обычно такие системы используют HBM в качестве рабочего уровня памяти. Каждый Groq 3 LPU содержит 500 Мбайт SRAM. Для сравнения, каждый GPU Rubin оснащён 288 Гбайт HBM4. По ёмкости разница велика. По пропускной способности соотношение иное: SRAM обеспечивает до 150 Тбайт/с, а HBM4 — около 22 Тбайт/с. Для ИИ-задач, чувствительных к пропускной способности, рост этого показателя даёт преимущество при инференсе. Именно поэтому Nvidia вводит Groq 3 в состав Rubin.

Стойка Groq 3 LPX включает 256 чипов Groq 3 LPU. Такая система располагает 128 Гбайт SRAM. Её суммарная пропускная способность достигает 40 Пбайт/с. Для объединения чипов внутри стойки предусмотрен выделенный интерфейс внутрисистемного масштабирования. Его пропускная способность составляет 640 Тбайт/с на стойку.

Вице-президент Nvidia по гипермасштабируемым решениям Иэн Бак (Ian Buck) назвал Groq LPX сопроцессором для Rubin. По его словам, он повысит производительность декодирования «на каждом слое ИИ-модели на каждом токене». Nvidia связывает это решение со следующим рубежом ИИ — мультиагентными системами. Речь идёт о сценариях, где нужно обеспечивать интерактивную работу при инференсе моделей с триллионами параметров и окнами контекста в миллионы токенов.

Когда ИИ-агенты всё чаще обмениваются данными друг с другом, а не с человеком в окне чат-бота, меняется и порог приемлемого отклика. Скорость, достаточная для человека, оказывается слишком низкой для ИИ-агента. Бак описывает переход от мира, где разумным считался уровень 100 токенов в секунду, к уровню 1 500 токенов в секунду и выше для межагентного обмена.

Добавление Groq 3 LPU должно усилить позиции Rubin в сегменте низколатентного инференса. В тексте в качестве конкурента названа Cerebras. Компания использует процессоры Wafer-Scale Engine (WSE), выполненные на целой кремниевой пластине, где большие объёмы SRAM объединены с вычислениями для низколатентного инференса на продвинутых моделях. OpenAI также привлекала мощности Cerebras для обслуживания части передовых моделей из-за выгодных характеристик задержки этой платформы.

Иэн Бак также допустил, что появление Groq 3 LPU может сократить роль ускорителя инференса Rubin CPX. Он сказал, что сейчас Nvidia сосредоточена на интеграции стойки Groq 3 LPX с Rubin. Дополнительных подробностей он не привёл. При этом оба чипа рассчитаны на сходное усиление инференса, но Groq LPU не требует большого объёма памяти GDDR7, который нужен каждому модулю Rubin CPX.

Nvidia ускорит и обезопасит запуск ИИ-агентов — представлены Agent Toolkit и NemoClaw

Среди прочих крупных анонсов на мероприятии GTC 2026 глава компании Nvidia Дженсен Хуанг (Jensen Huang) анонсировал множество новых моделей искусственного интеллекта, а также инструменты Agent Toolkit и NemoClaw, предназначенные для быстрого запуска ИИ-агентов на оборудовании Nvidia.

 Источник изображений: nvidia.com

Источник изображений: nvidia.com

Nvidia Agent Toolkit — платформа с открытым исходным кодом, предназначенная для разработчиков и располагающая средствами стандартизации и масштабирования при запуске автономных ИИ-агентов в масштабах предприятия. NemoClaw представляет собой программный стек на основе популярного OpenClaw с дополнительными средствами обеспечения конфиденциальности и контроля. Оба инструмента предназначены для ускоренного развёртывания ИИ-агентов и предлагают оптимизацию для оборудования Nvidia — от компактных DGX Spark до мощных серверов Vera Rubin.

Компания отметила, что множество её партнёров уже взяли на себя обязательства вести разработку с использованием средств Agent Toolkit — среди них упомянуты Adobe, Salesforce, SAP, ServiceNow, Siemens, CrowdStrike, Atlassian и Palantir. Agent Toolkit позволяет быстро интегрировать функции ИИ-агентов в бизнес-приложения с общими ресурсами и едиными стандартами — это снижает нагрузку на инженеров и обеспечивает тесную связь с имеющимся вычислительным стеком Nvidia, что помогает оптимизировать производительность.

NemoClaw представляет собой готовый программный пакет, включающий установку OpenClaw, открытых моделей Nvidia Nemotron и среды выполнения OpenShell одной командой. Стандартный вариант OpenClaw получил дополнительные функции конфиденциальности, безопасности и оперативного контроля для ИИ-агентов. В качестве аппаратной платформы могут выступать ПК с видеокартами Nvidia RTX, компьютеры DGX Spark и DGX Station, а также серверы с ускорителями Nvidia. Компания упомянула, что с обновлением ПО появилась поддержка кластеризации до четырёх систем DGX Spark в единой конфигурации (против двух на момент запуска).

Отдельно было сказано о новом партнёрском проекте Nvidia с Adobe — последнюю заинтересовали средства Agent Toolkit, компания также решила интегрировать в свои приложения инструменты CUDA-X и Omniverse, а ИИ-модели нового поколения будут обучаться на ИИ-оборудовании Nvidia. «Зелёные» напомнили о семействе открытых моделей Alpamayo класса Vision-Language-Action (VLA) для систем автопилота. Наконец, было объявлено о создании организации Nemotron Coalition, в которую, помимо самой Nvidia, вошли Black Forest Labs, Cursor, LangChain, Mistral AI, Perplexity, Reflection AI, Sarvam и Thinking Machines Lab. Они решили вести разработку открытых ИИ-моделей совместно, используя единые ресурсы Nvidia DGX Cloud, что позволит им не дублировать усилия на базовых этапах. Специализация будет проводиться с учётом потребностей отраслей, регионов и сценариев использования — результаты работы коалиции лягут в основу перспективного семейства моделей Nemotron 4.

Nvidia показала полный стек Vera Rubin — от GPU до сетей для ИИ-фабрик нового поколения

Являясь одним из лидеров в сфере вычислительной инфраструктуры для систем искусственного интеллекта, Nvidia комплексно подходит к развитию собственных платформ, а потому вместе с ускорителями поколения Vera Rubin предложила ряд сопутствующих аппаратных решений.

 Источник изображений: Nvidia

Источник изображений: Nvidia

Как отмечается в корпоративном пресс-релизе, платформа Vera Rubin открывает новые рубежи в развитии агентского искусственного интеллекта. В массовом производстве сейчас находятся семь новых чипов Nvidia, позволяющих эффективно масштабировать так называемые ИИ-фабрики. В число семи аппаратных новинок Nvidia вошли графические процессоры Rubin, центральные процессоры Vera, коммутаторы NVLink 6, сетевые решения ConnectX-9 SuperNIC, специализированные процессоры BlueField-4 и Ethernet-коммутаторы Spectrum-6, а также созданные с помощью разработок одноимённого поглощённого стартапа процессоры Groq для ускорения инференса при работе с ИИ-агентами. В совокупности они работают, как ИИ-суперкомпьютер, как отмечается в материалах Nvidia для прессы на официальном сайте компании, позволяя ускорять создание профильных технологий на всех этапах жизненного цикла ИИ-систем.

Основатель и глава Nvidia Дженсен Хуанг (Jensen Huang) заявил, что с выходом платформы Vera Rubin наступил переломный момент в развитии агентского ИИ, поскольку данная платформа будет способствовать самому масштабному развёртыванию инфраструктуры в истории. Руководители OpenAI и Anthropic прокомментировали анонс Vera Rubin в предсказуемо хвалебных выражениях, подчёркивая значение этого события для всей ИИ-отрасли. Разработчики ИИ-моделей теперь смогут совершенствовать их и делать это быстрее, чем на аппаратных решениях прошлого поколения.

Структура ЦОД теперь строится на готовых модулях, как считают в Nvidia, которые содержат всё необходимое для эффективного масштабирования вычислительных мощностей с учётом постоянного роста сложности решаемых задач. Клиенты могут сочетать готовые модули ЦОД с учётом специфики своей деятельности. Например, в одной стойке Vera Rubin NVL72 находятся 72 графических процессора Rubin и 36 центральных процессоров Vera, соединённых скоростной шиной NVLink 6 и сетевыми контроллерами ConnectX-9 SuperNIC, а также специализированные процессоры BlueField-4, которые разгружают центральные процессоры от задач работы с сетевым трафиком. По сравнению с решениями поколения Blackwell новые системы Vera Rubin справляются с обучением сложных моделей силами в четыре раза меньшего количества GPU. Пропускная способность в пересчёте на ватт потребляемой энергии в задачах инференса у Vera Rubin до десяти раз выше, а затраты на один токен в десять раз ниже. В кластерах стойки NVL72 масштабируются при помощи Quantum-X800 InfiniBand и Spectrum-X Ethernet.

Центральные процессоры Vera, по словам представителей Nvidia, хорошо себя проявляют в задачах обучения с подкреплением и агентских ИИ-нагрузках. Компания может объединять в одной стойке до 256 таких процессоров, оснащённых системой жидкостного охлаждения. С прочими компонентами кластера они могут сообщаться при помощи сетевых решений Spectrum-X. По сравнению с некими традиционными CPU, на которые ссылается Nvidia, её процессоры Vera могут справляться с ИИ-задачами на 50 % быстрее.

Специализированные чипы Groq 3 LPX обеспечивают эффективную работу с агентскими ИИ-нагрузками при минимальных задержках. В сочетании с другими чипами, входящими в состав платформы Vera Rubin, они обеспечивают увеличение пропускной способности в задачах инференса до 35 раз на один мегаватт потребляемой мощности, а потенциал выручки при использовании моделей с триллионом параметров увеличивается в десять раз. В состав одной стойки входит 256 чипов LPU, 128 Гбайт интегрированной на них памяти SRAM, а пропускная способность достигает 640 Тбайт/с. В сочетании с прочими компонентами платформы Vera Rubin, чипы LPU достигают максимальной эффективности как по быстродействию, так и по энергопотреблению, а также использованию ресурсов памяти. Стойки LPX будут доступны клиентам Nvidia со второй половины текущего года.

Стойка BlueField-4 STX специализируется на унификации адресного пространства GPU между элементами кластера. Обработка хранимой в кеше информации в операциях инференса ускоряется до пяти раз, при этом обеспечивается высокая энергоэффективность по сравнению с системами на классической архитектуре. Достигается общий для кластера контекст, обеспечивающий быстрое взаимодействие с ИИ-агентами и более эффективно масштабируемыми ИИ-сервисами.

Отдельная стойка Spectrum-6 SPX отвечает за скоростной обмен данными по интерфейсу Ethernet. Она может содержать не только коммутаторы Spectrum-X Ethernet, но и коммутаторы Nvidia Quantum-X800 InfiniBand в зависимости от потребностей конкретной конфигурации. В исполнении с кремниевой фотоникой и интеграцией на уровне упаковки чипов эффективность передачи информации возрастает в пять раз, а надёжность по сравнению с традиционными подключаемыми решениями увеличивается в десять раз.

«Не могу поверить, что это не первоапрельская шутка»: нейронный рендеринг в DLSS 5 оказался больше похож на ИИ-фильтр

Анонсированное компанией Nvidia на конференции GTC 2026 интеллектуальное масштабирование DLSS 5 вызвало стойкое отторжение среди геймеров, ценящих художественный замысел своих любимых игр.

 Источник изображений: Nvidia

Источник изображений: Nvidia

По словам Nvidia, DLSS 5 использует модель нейронного рендеринга в реальном времени, которая насыщает игровые кадры фотореалистичным освещением и детализацией материалов.

Несмотря на громкие обещания, дебютная демонстрация DLSS 5 на YouTube-канале Nvidia (см. видео ниже) собрала в четыре раза больше дизлайков, чем лайков — 48 тыс. негативных оценок на 11 тыс. положительных.

Пользователи массово раскритиковали то, как DLSS 5 преображает изображение и, в частности, персонажей. Например, Грейс Эшкрофт из Resident Evil Requiem после инъекции DLSS 5 получила более пухлые губы и более выразительные скулы.

Предполагается, что новый апскейлер Nvidia должен сделать героев более реалистичными, но выглядит, словно их обработал ИИ-фильтр. «Не могу поверить, что это не первоапрельская шутка», — удивляется azul1458.

В комментариях к ролику Nvidia уверяет, что DLSS 5 предоставляет разработчикам полный художественный контроль над эффектами масштабирования, что позволяет им «сохранять уникальную эстетику своей игры».

Релиз DLSS 5 ожидается осенью. Первыми играми с поддержкой технологии станут Resident Evil Requiem, Starfield, The Elder Scrolls IV: Oblivion Remastered, Assassin’s Creed Shadows, Hogwarts Legacy, Delta Force и Naraka: Bladepoint.

Хуанг пообещал, что Nvidia заработает $1 трлн на ИИ-железе до конца 2027 года

Подобные заявления формально больше подходят для квартальной отчётной конференции, но основатель Nvidia Дженсен Хуанг (Jensen Huang) на открытии мероприятия GTC 2026 не удержался от финансовых прогнозов. Он ожидает, что до конца 2027 года компания выручит на продажах «железа» для ИИ не менее $1 трлн.

 Источник изображения: Nvidia

Источник изображения: Nvidia

«Я ожидаю, что до конца 2027 года продажи аппаратного обеспечения для ИИ обеспечат не менее $1 трлн», — заявил генеральный директор компании. Сейчас в мире попросту нет компаний, получающих подобную выручку за год, но прогноз Хуанга относится к периоду с 2025 по 2027 годы включительно, то есть, он охватывает три года сразу. Ближайшие к показателю годовой выручки в $1 трлн компании — это американский гигант розничной торговли Walmart ($681 млрд) и в чём-то родственная ей Amazon, которая одновременно выступает и в роли облачного гиганта ($638 млрд). Даже Apple в прошлом году выручила только $391 млрд, а это один из крупнейших поставщиков аппаратного обеспечения в мире, если считать смартфоны и прочую мобильную электронику.

В прошлом фискальном году Nvidia выручила $215 млрд, но и это было существенным прогрессом по сравнению с предыдущим отчётным периодом, который обеспечил только $130,5 млрд годовой выручки. В текущем фискальном квартале Nvidia рассчитывает выручить $78 млрд. Чтобы достичь объёма выручки в $578 млрд по итогам 2028 фискального года (примерно совпадает с 2027 календарным), Nvidia должна сохранить средний темп увеличения выручки в 164 % за год. Если же ориентироваться на годовую выручку в $1 трлн, то Nvidia при условии сохранения ИИ-бума выйдет на такой показатель примерно к 2030 году, по мнению некоторых аналитиков.

Важно понимать, что высокие темпы роста выручки Nvidia также обеспечиваются и ростом средних цен на её ускорители вычислений. Они становятся производительнее и сложнее в компоновке, а потому дорожают опережающими темпами. Кроме того, высокий спрос также подогревает реальные рыночные цены, хотя в этом случае не вся добавленная стоимость оседает в карманах самой Nvidia. Физически не все партнёры Nvidia способны выпускать столько компонентов, чтобы покрыть её потребности в полной мере. Помимо TSMC, сдержанных темпов увеличения объёмов выпуска продукции придерживаются и производители памяти. По крайней мере, за спросом все они сейчас точно не успевают. Этот фактор также будет определять темпы роста выручки Nvidia.

«Космические вычисления уже здесь»: Nvidia представила модуль Space-1 Vera Rubin для орбитальных ИИ-серверов

Генеральный директор Nvidia Дженсен Хуанг (Jensen Huang) анонсировал на конференции GTC 2026 космический модуль Nvidia Space-1 Vera Rubin Module. По словам Хуанга, модуль обеспечивает до 25 раз большую вычислительную мощность для задач искусственного интеллекта, чем сервер с ускорителями H100.

 Источник изображения: Nvidia

Источник изображения: Nvidia

По словам Nvidia, в настоящее время шесть коммерческих космических компаний используют её платформы в орбитальной и наземной средах: Aetherflux, Axiom Space, Kepler Communications, Planet Labs PBC, Sophia Space и Starcloud. При этом Kepler использует в своей спутниковой группировке платформу Jetson Orin для управления данными с помощью ИИ. «Nvidia Jetson Orin внедряет передовые технологии ИИ непосредственно на наши спутники, позволяя нам интеллектуально управлять данными и маршрутизировать их по всей нашей группировке», — заявила Мина Митри (Mina Mitry), генеральный директор компании, в официальном пресс-релизе Nvidia.

В октябре прошлого года основатель Amazon и Blue Origin Джефф Безос (Jeff Bezos) предсказал, что орбитальные центры обработки данных гигаваттного уровня появятся через 10–20 лет. В качестве основных преимуществ таких платформ он назвал непрерывное солнечное электроснабжение и упрощённую систему охлаждения в космосе. Starcloud, один из шести партнёров Nvidia, уже строит, как он сам описывает, специально разработанные орбитальные центры обработки данных, предназначенные для выполнения задач обучения моделей ИИ и вывода данных на орбите.

«Космические вычисления, последний рубеж, уже здесь», — сказал Дженсен Хуанг, добавив, что «обработка данных с помощью ИИ в космических и наземных системах обеспечивает сбор данных в реальном времени, принятие решений и автономность, превращая орбитальные центры обработки данных в инструменты исследований, а космические аппараты — в системы с автономным управлением».

Глава Nvidia не сказал, когда космический модуль Vera Rubin станет доступен для развёртывания. Компания уже предлагает в качестве космических платформ IGX Thor, Jetson Orin и RTX Pro 6000 Blackwell Server Edition.

Nvidia ударила по Intel и AMD: представлены серверные 88-ядерные CPU Vera, которые сгодятся не только для ИИ

Nvidia на конференции GTC 2026 раскрыла подробности о серверных центральных процессорах Vera, оснащённых 88 вычислительными ядрами. Компания заявляет о резком росте производительности благодаря новым ядрам Olympus. Одновременно была представлена стоечная система Vera CPU Rack с 256 процессорами, которая, по оценке Nvidia, обеспечивает шестикратный рост CPU-производительности и двукратное ускорение задач агентного ИИ.

 Источник изображений: Nvidia

Источник изображений: Nvidia

Процессор Vera получил 88 вычислительных ядер и 176 потоков, тогда как у первого поколения Grace было 72 ядра. Компания Nvidia заявляет о росте количества исполняемых инструкций за такт (IPC) сразу на 50 %, что является необычно крупным скачком для современной процессорной архитектуры, где прирост от поколения к поколению обычно ограничивается однозначными или небольшими двузначными процентами.

Всё дело в том, что если в Grace применялись стандартные ядра Arm Neoverse, то в Vera используются новые ядра Olympus, которые описываются как разработанные Nvidia, что указывает на серьёзные модификации базового дизайна Arm. За основу взята современная архитектура Arm v9.2-A.

Одной из ключевых особенностей стала технология пространственной многопоточности (Spatial Multi-Threading). В отличие от традиционного SMT, где потоки поочерёдно используют ресурсы ядра, здесь ключевые элементы конвейера — исполнительные блоки, кеши и регистровые файлы — физически изолированы между потоками. Благодаря этому оба потока могут фактически выполняться одновременно, что повышает параллелизм инструкций, увеличивает пропускную способность и делает производительность более предсказуемой, поскольку простаивающие исполнительные блоки могут немедленно задействовать инструкции из другого потока. Подобная схема особенно полезна в средах с большим количеством независимых пользователей и виртуальных окружений.

Все 88 ядер объединены в единый вычислительный домен без NUMA-разделения, характерного для современных многоядерных x86-процессоров. Это должно уменьшить задержки доступа к памяти, повысить предсказуемость работы системы и упростить программирование. Для организации взаимодействия между ядрами используется новое поколение фирменной шины Nvidia Scalable Coherency Fabric с сеточной или ячеистой топологией (mesh). Оно основано на когерентной сетевой архитектуре Arm CMN-700, применявшейся в Grace, однако, вероятно, использует более современную реализацию CMN S3 или её модификацию.

Сеточная структура обеспечивает высокую суммарную пропускную способность памяти и позволяет эффективно распределять ресурсы между ядрами. В процессорах Grace общая пропускная способность памяти составляла 546 Гбайт/с, что соответствовало примерно 7,6 Гбайт/с на ядро. В Vera этот показатель вырос более чем вдвое — до 1,2 Тбайт/с, которые обеспечиваются 1,5 Тбайт памяти LPDDR5 в модулях SOCAMM. Ёмкость памяти увеличилась втрое, а средняя пропускная способность на ядро при полной загрузке достигает 13,6 Гбайт/с. При неравномерной нагрузке отдельное ядро может получать до 80 Гбайт/с, что особенно важно для потоков с интенсивным доступом к памяти.

Архитектура также включает десятиканальный блок декодирования инструкций, нейросетевой предсказатель ветвлений, специализированный механизм предварительной выборки для анализа графовых баз данных и буфер инструкций, оптимизированный под PyTorch. Процессор поддерживает технологию Confidential Computing, что позволяет создавать полностью защищённые вычислительные домены CPU и GPU.

Для связи между кристаллами используется интерфейс NVLink-C2C с пропускной способностью до 1,8 Тбайт/с — вдвое больше, чем у Grace, и примерно в семь раз быстрее, чем у PCI Express 6.0. Процессоры также поддерживают двухсокетные конфигурации и современные стандарты для дата-центров, включая PCIe 6.0 и CXL 3.1.

Помимо самих процессоров Nvidia представила стоечную систему Vera CPU Rack. Если ранее процессоры Grace выступали как дополнение к ускорителям вычислений на базе GPU, то теперь Nvidia намерена предложить Vera и как самостоятельный продукт в системах, ориентированных на CPU-вычисления и другие задачи.

В одной такой стойке размещается 256 процессоров Vera с жидкостным охлаждением, а также 74 сетевых процессора BlueField-4 DPU и сетевые адаптеры ConnectX SuperNIC. Общий объём памяти достигает 400 Тбайт LPDDR5, а суммарная пропускная способность памяти — 300 Тбайт/с. В системе насчитывается 45 056 потоков, которые, по словам Nvidia, способны поддерживать до 22 500 изолированных CPU-окружений.

Компания продемонстрировала результаты тестов в широком наборе задач, включая скриптовые нагрузки, компиляцию, анализ данных, графовую аналитику и HPC-вычисления. По сравнению с Grace прирост производительности составляет от 1,8 до 2,2 раза в зависимости от типа нагрузки.

Ожидается, что системы Vera CPU Rack появятся в инфраструктуре Meta✴, а также Nvidia планирует поставлять их и другим гиперскейлерам, включая Oracle, CoreWeave, Nebius и Alibaba. Помимо стоечных систем широкий круг производителей серверного оборудования предложит собственные решения на базе Vera. Среди партнёров Nvidia названы Dell, HPE, Lenovo, Supermicro, Foxconn и другие крупные OEM- и ODM-компании. Процессоры Vera также станут частью систем Nvidia HGX NVL8.

Особое значение новые CPU имеют для платформы Vera Rubin — комплексного решения Nvidia следующего поколения. Она включает сразу несколько типов компонентов: графический процессор Rubin, коммутатор NVLink6 для межсоединений на уровне стойки, сетевой адаптер ConnectX-9 SuperNIC, сетевой процессор BlueField-4 DPU, оптический коммутатор Spectrum-X 102.4T с интегрированными оптическими модулями и ускорители Groq 3 LPU.

Новые чипы Vera ориентированы как на задачи искусственного интеллекта, так и на более универсальные вычислительные нагрузки, хотя основной упор сделан именно на ИИ. Таким образом, с выпуском Vera компания Nvidia усиливает позиции на рынке серверных центральных процессоров, где доминируют Intel и AMD, а также навязывает конкуренцию многочисленным кастомным Arm-чипам.

По словам Nvidia, процессоры Vera уже запущены в массовое производство, а первые поставки партнёрам начнутся во второй половине текущего года.

Nvidia анонсировала DLSS 5 с нейронным рендерингом — ИИ добавит фотореализм в каждую игру уже осенью

Глава компании Nvidia Дженсен Хуанг (Jensen Huang) анонсировал на конференции GTC 2026 технологию DLSS 5. Новая версия апскейлера знаменует переход от функций, ориентированных на повышение производительности, к генерации изображений для повышения визуального качества. Выпуск технологии планируется осенью этого года.

 Источник изображений: Nvidia

Источник изображений: Nvidia

Компания заявляет, что новая версия DLSS использует модель нейронного рендеринга в реальном времени, которая добавляет фотореалистичное освещение и детализацию материалов к игровым кадрам.

По данным Nvidia, DLSS 5 берёт данные о цвете и векторах движения из каждого игрового кадра, а затем применяет модель искусственного интеллекта, которая улучшает освещение и отклик материалов, оставаясь при этом привязанной к исходной 3D-сцене. Компания заявляет, что система работает в реальном времени с разрешением до 4K и разработана для обеспечения детерминированного и согласованного вывода от кадра к кадру, что является ключевым требованием для игр.

DLSS 5 позиционируется как обновление визуального конвейера, а не как ещё один этап генерации кадров. Nvidia заявляет, что модель обучена понимать элементы сцены, такие как кожа, волосы, ткань и условия освещения, а затем использовать эту информацию для улучшения эффектов, таких как подповерхностное рассеивание, блеск ткани и взаимодействие света с волосами. Разработчики также получат элементы управления интенсивностью, цветокоррекцией и маскированием, а интеграция будет продолжаться через существующую структуру Nvidia Streamline, используемую для DLSS и Reflex.

Поддержка DLSS 5 уже согласована с несколькими крупными издателями и студиями, включая Bethesda, Capcom, Ubisoft, NetEase, Tencent и Warner Bros. Games. Первыми играми, которые предложат поддержку DLSS 5, станут: Starfield, Assassin’s Creed Shadows, Hogwarts Legacy, Resident Evil Requiem, Delta Force, Naraka: Bladepoint и The Elder Scrolls IV: Oblivion Remastered.

По данным Digital Foundry, Nvidia использовала две видеокарты RTX 5090 для демонстрации работы технологии. Однако релизная версия DLSS 5 потребует только одну карту RTX.

«Компания Nvidia использовала две видеокарты RTX 5090 для своих демонстраций: одна запускала игру, а другая работала исключительно с технологией DLSS 5. Использование двух GPU сейчас необходимо, поскольку DLSS 5 ещё предстоит пройти долгий путь в плане оптимизации — как с точки зрения производительности, так и с точки зрения объёма использующейся видеопамяти. Однако DLSS 5 разработана для использования на одном графическом процессоре, и именно в таком режиме она будет выпущена позже в этом году. Насколько масштабируемой она окажется, также ещё предстоит выяснить, но, как и в случае с другими технологиями DLSS, Nvidia сообщает, что вычислительные затраты увеличиваются с разрешением», — говорит Digital Foundry.

Nvidia пока не сообщает, какие графические архитектуры получат поддержку DLSS 5.

MSI рассказала, кто виноват в дефиците видеокарт, и предупредила о росте цен на игровое железо на 15–30 %

Компания MSI готовится повысить цены на свою линейку игровой продукции на 15–30 %. Об этом сообщил ресурс Money UDN, ссылающийся на заявления руководства тайваньского производителя компьютерных комплектующих, прозвучавшие на последнем брифинге для инвесторов. В отчёте говорится, что компания ожидает, что более высокие средние цены продаж компенсируют снижение объёмов поставок в этом году.

 Источник изображения: MSI

Источник изображения: MSI

Руководство MSI назвало 2026 год самым сложным годом в истории компании, указав на серьёзный дефицит памяти, рост цен на SSD и дефицит поставок игровых видеокарт Nvidia, который, по оценкам, составит около 20 %. Компания ожидает, что рынок ПК сократится на 10–20 %, что хуже прогнозов некоторых аналитиков, которые ожидают сокращения рынка примерно на 10 %.

«Этот год стал самым сложным для компании с момента её основания. Индустрия ПК сталкивается с серьёзными проблемами, главным образом из-за острой нехватки памяти. Помимо Micron, SK hynix и Samsung, MSI также имеет долгосрочные партнёрские отношения с тайваньскими поставщиками, такими как Nanya Technology (2408). Поставки графических процессоров Nvidia также недостаточны, дефицит оценивается в 20 %. В результате, по оценкам, рынок ПК сократится на 10–20 %, что более серьёзно, чем прогнозируемое исследовательскими компаниями снижение на 10 %», — сообщили в MSI.

Для защиты прибыли MSI планирует сократить производство моделей начального уровня и перенаправить больше ресурсов на выпуск более дорогих продуктов. По данным Money UDN, ранее модели начального уровня составляли около 30 % от общего объёма продаж MSI, а теперь компания хочет больше сосредоточиться на продуктах среднего и высокого ценового сегмента, в частности на моделях RTX 5060 и RTX 5070.

MSI также заявила о корректировке некоторых планов по выпуску материнских плат с поддержкой памяти DDR4 из-за резкого изменения цен на чипы памяти. Согласно отчёту, цена 16 Гбайт памяти во втором квартале прошлого года составляла около $40, а сейчас выросла примерно до $170–180, при этом некоторые предложения достигают $200. Компания также сообщила, что цена 16 Гбайт памяти DDR4 составляет около $110–120, что подталкивает производителя к большей поддержке DDR4.

Компания добавила, что у неё есть запас памяти, достаточный примерно на один-два месяца, и она не планирует гнаться за объёмом продаж в нижнем ценовом сегменте. В то же время, и это очевидно, MSI уделяет больше внимания своему серверному бизнесу, где она нацелена на ежегодный рост выручки на 50–100 % в течение следующих трёх–пяти лет.

Власти США передумали продавать ИИ-чипы только в те страны, которые строят ЦОД в США

На прошлой неделе появилась информация о намерениях властей США предоставить право закупок ускорителей вычислений американского происхождения только тем зарубежным компаниям и странам, которые готовы развивать собственно американскую вычислительную инфраструктуру. На днях стало известно, что инициатива не получила поддержки.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Об этом сообщает Reuters, отмечая, что проект профильного документа был удалён с сайта Управления по вопросам информации и регулирования США в эту пятницу. Он находится на этом ресурсе с 26 февраля, ожидая дальнейшего рассмотрения заинтересованными инстанциями. При помощи новой редакции правил экспортного контроля власти США намеревались заменить принципы, которыми они руководствовались ещё со времён президентства Байдена, поскольку считали, что они требуют упрощения и реформирования. Предполагалось, что желающие получить более 200 000 американских ускорителей за раз страны должны будут либо предоставить гарантии их безопасного для США использования, либо гарантировать инвестиции в американскую вычислительную инфраструктуру. Даже если частная компания собиралась бы приобрести партию размером до 100 000 ускорителей, это потребовало бы предоставления межправительственных гарантий на уровне двух стран.

При Байдене экспортный контроль в данной сфере делил страны на три категории по критерию близости к политическому курсу США, причём самая близкая группа стран была достаточно малочисленной, но могла получать ускорители почти без ограничений. Ещё одна малочисленная группа стран типа Китая и России американские передовые ускорители получать не могла, а все остальные государства могли получать ускорители из США при условии соблюдения определённых ограничений.

Источник из числа бывших чиновников пояснил Reuters, что снятие чернового варианта новых правил экспортного контроля с обсуждения может быть результатом возникших в администрации Трампа противоречий. Министерство торговли США ранее отмечало, что использованный в сделках с Саудовской Аравией и ОАЭ подход к разрешению поставок ускорителей из США в эти страны мог бы лечь в основу новых правил экспортного контроля. Указанные ближневосточные страны в обмен на поставки ускорителей из США согласились вложиться в строительство профильной инфраструктуры и на территории США. Министерство торговли страны не желает возвращаться к прежним принципам контроля, которые были выработаны при Байдене, поскольку считает их обременительными.

Nvidia пообещала ускорить «в миллион раз» трассировку лучей и путей в будущих GPU

Несмотря на растущую конкуренцию со стороны Intel и AMD, линейка видеокарт RTX от Nvidia объективно остаётся лучшим оборудованием для работы технологий трассировки лучей и трассировки путей в играх. Начиная с архитектуры Turing и серии RTX 20, компания добилась значительных успехов (в основном за счёт использования ИИ и нейронного рендеринга) в повышении графической детализации без ущерба для производительности. На конференции GDC 2026 Nvidia заявила, что будущее сулит ещё более впечатляющие достижения.

 Источник изображения: Future / CD Projekt Red, Remedy Entertainment, Microsoft

Источник изображения: Future / CD Projekt Red, Remedy Entertainment, Microsoft

На презентации Nvidia Джон Спитцер (John Spitzer), вице-президент Nvidia по разработке и производительности, представил линейный график, отображающий прогресс роста производительности трассировки лучей и трассировки путей в игровых графических процессорах Nvidia. В левом углу графика находится архитектура Pascal, в рамках которой выпускалась легендарная серия видеокарт GTX 1000, выпущенная десять лет назад. Сравнивая её с сегодняшними графическими процессорами Blackwell (RTX 50), можно заметить, что производительность трассировки путей улучшилась в 10 000 раз.

 Источник изображения здесь и ниже: Nvidia

Источник изображения здесь и ниже: Nvidia

Во многом этот прогресс обусловлен акцентом на аппаратное ускорение нейронной графики, которое обеспечивается выделенными RT- и тензорными ядрами, работающими с алгоритмами машинного обучения внутри графических процессоров Nvidia. Такие функции, как DLSS, полностью зависят от ИИ. Возможность более точного объединения данных кадров — как в задачах масштабирования изображения, так и при генерации кадров — возможна только благодаря ИИ-моделям, обученным на суперкомпьютерах Nvidia.

По словам Спитцера, закон Мура мёртв, поэтому одних только достижений в области аппаратных кремниевых технологий уже недостаточно для создания фотореалистичных изображений — по крайней мере, не на его веку. Nvidia хочет достичь уровня графической детализации, неотличимого от реальной жизни, но для этого потребуется «в сто или тысячу раз большая вычислительная мощность». И именно здесь ИИ становится катализатором.

В будущем достижения в области ИИ позволят игровым графическим процессорам достичь в 1 000 000 раз большей производительности трассировки лучей по сравнению с серией GTX 1000. Более новые, быстрые и эффективные аппаратные блоки, по сути, сделают нейронный рендеринг стандартом в будущем, о чём ранее уже заявлял глава Nvidia Дженсен Хуанг (Jensen Huang). Игры будут «выглядеть как фильм», при этом работая плавно благодаря интерполяции множества кадров в реальном времени с помощью ИИ.

Всё это не является откровением. Прогресс в игровой графике неизбежен. Есть вероятность, что ожидание этих изменений может оказаться недолгим. Графические процессоры Rubin следующего поколения от Nvidia, запуск которых запланирован на период с 2027 по 2028 год, могут приблизить эту реальность с трассировкой лучей, улучшенной в миллион раз. Список игр, поддерживающих трассировку лучей, быстро растёт. В рамках презентации Спитцер отметил, что одной из последних игр с её поддержкой стала Resident Evil Requiem. Поддержку технологии получат также будущие релизы Pragmata, 007 First Light, Control Resonant, Directive 8020 и Tides of Annihilation.

В рамках презентации Спитцер также рассказал о новых технологиях трассировки лучей, таких как ReSTIR (современные алгоритмы пространственно-временной передискретизации) и RTX Mega Geometry. Для их демонстрации Nvidia представила техническое демо игры Witcher IV, сцена из которой содержала более двух триллионов треугольников (полигонов), одновременно отображающих реалистичную растительность и освещение.

Microsoft, Meta✴ и OpenAI объединились с AMD и Nvidia для создания быстрого оптического интерконнекта для ИИ-мегакластеров

Облачные провайдеры Microsoft, Meta✴ и OpenAI объединились с разработчиками оборудования AMD, Broadcom и Nvidia для разработки протокольно-независимой технологии масштабируемого межсоединения для кластеров ИИ. Новое соглашение о сотрудничестве (Multi-Source Agreement, MSA) определит универсальную волоконно-оптическую инфраструктуру для масштабируемых межсоединений на коротких расстояниях для кластеров ИИ.

 Источник изображений: unsplash.com

Источник изображений: unsplash.com

В телекоммуникационной отрасли MSA — это соглашение о выпуске продуктов, совместимых между различными поставщиками, выступающее в качестве де-факто стандартов и создающее конкурентный рынок для совместимых продуктов. Спецификация, разработанная MSA, определяет форм-факторы устройств и их интерфейс управления. К продуктам, соответствующим MSA, относятся: оптические трансиверы, волоконно-оптические кабели и другие сетевые устройства.

MSA в области оптических вычислительных межсоединений (Optical Compute Interconnect, OCI) должно определить открытую спецификацию оптической связи для масштабируемых межсоединений, используемых внутри крупных систем и стоек ИИ, что позволит использовать оптические кабели вместо медных для подключения большего количества ускорителей на высокой скорости и с предсказуемым энергопотреблением. На практике это означает, что консорциум разработает общий физический уровень (Physical Layer, PHY) и унифицированные компоненты для поддержки различных протоколов, таких как UALink для AMD и Broadcom, и NVLink для Nvidia.

Технология связи OCI для оптических каналов малой дальности, используемых в стойках ИИ и масштабируемых кластерах, определит общий PHY на основе сигнализации NRZ и мультиплексирования с разделением по длинам волн (Wavelength-Division Multiplexing, WDM), начиная с четырёх длин волн × 50 Гбит/с (200 Гбит/с в каждом направлении) с возможностью масштабирования до 800 Гбит/с на волокно. Ожидается, что со временем количество длин волн будет увеличено, а скорость передачи сигналов возрастёт до 3,2 Тбит/с на волокно. Технология будет поддерживать подключаемые оптические модули, встроенную оптику и интегрированную оптику (Co-Packaged Optics, CPO) непосредственно с вычислительными микросхемами.

Общий PHY позволит различным процессорам и протоколам межсоединений работать на одной и той же волоконно-оптической инфраструктуре и коммутаторах от разных поставщиков, обеспечивая гибкость для крупных компаний, сохраняя при этом конкурентные преимущества протоколов, используемых разработчиками ускорителей ИИ и графических процессоров. Стандартизированная дорожная карта OCI призвана упростить системную интеграцию, снизить риски разработки и сократить циклы развёртывания для новых поколений оборудования ИИ.

Хотя группу OCI MSA возглавляют AMD, Broadcom и Microsoft, известные сторонники открытых отраслевых стандартов, это явно не традиционный орган по стандартизации, такой как консорциумы Ultra Ethernet или UALink, что должно заметно повлиять на развитие технологии и ускорить её внедрение:

  • Во-первых, OCI MSA ориентирована на гиперскейлеров, что отличает это соглашение от большинства отраслевых консорциумов, которые организуются и возглавляются независимыми поставщиками оборудования (IHV), IP-компаниями и поставщиками сетевого оборудования.
  • Во-вторых, OCI нацелена на очень специфический архитектурный уровень систем ИИ — каналы связи ближнего действия, соединяющие ускорители и коммутаторы в масштабируемой области. В отличие от этого, традиционные группы разработчиков оборудования, как правило, стандартизируют вертикально интегрированный набор технологий.
  • В-третьих, сама структура MSA подразумевает, что работа будет вестись быстрее, чем в типичном отраслевом органе по стандартизации. MSA призваны позволить участникам согласовывать электрические/оптические интерфейсы и быстро создавать совместимые продукты, без длительных процессов достижения консенсуса, характерных для классических организаций, таких как JEDEC или Ultra Ethernet Consortium, которые призваны объединять десятки или сотни компаний и поддерживать всю отрасль.

«Растущая потребность в масштабируемых оптических межсоединениях для поддержки крупных систем ИИ в конце этого десятилетия очевидна, — уверен старший вице-президент по технологиям и инженерии AMD Брайан Амик (Brian Amick). — AMD является одним из основателей и активным сторонником OCI MSA, поскольку она устанавливает открытую спецификацию для отрасли, способствующую развитию надёжной многовендорной экосистемы масштабируемых оптических межсоединений».

«Компания Broadcom гордится тем, что использует свою платформу CPO и отраслевые партнёрства для продвижения спецификации OCI, — заявил вице-президент и генеральный директор подразделения оптических систем Broadcom Нир Маргалит (Near Margalit). — OCI-MSA обеспечивает бесшовную интеграцию с существующими электрическими ASIC на базе SerDes, предоставляя при этом чёткий путь к прямой интеграции ASIC, гарантируя, что экосистема останется гибкой и высокопроизводительной».

«Nvidia является одним из основателей OCI MSA, призванного установить общий оптический стандарт для глобальных инфраструктур ИИ, — отметил старший вице-президент по сетевым технологиям Nvidia Гилад Шайнер (Gilad Shainer). — Оснастив лучшие в своём классе вычислительные мощности передовой оптикой, OCI MSA может обеспечить масштабируемость и производительность, необходимые для следующей эры сверхинтеллекта».


window-new
Soft
Hard
Тренды 🔥