Сегодня 19 марта 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → vera
Быстрый переход

Micron запустила массовое производство памяти HBM4 для Nvidia Vera Rubin

Поскольку на этой неделе Nvidia официально представила свою ИИ-платформу Vera Rubin, компания Micron Technology не нашла причин для дальнейшего сокрытия факта сотрудничества с ней в области поставок памяти типа HBM4. Было объявлено, что этот третий по счёту поставщик приступил к серийному производству микросхем HBM4 в 12-ярусном исполнении.

 Источник изображения: Micron Technology

Источник изображения: Micron Technology

В одном стеке HBM4 при такой компоновке содержится 36 Гбайт памяти, которая способна передавать информацию со скоростью более 1 Гбит/с на контакт, обеспечивая совокупную пропускную способность на уровне 2,8 Тбайт/с. По сравнению с HBM3E той же марки, это соответствует росту пропускной способности в 2,3 раза и улучшению энергетической эффективности более чем на 20 %, как отмечает Tom’s Hardware. Micron Technology также отправила своим клиентам образцы 16-ярусных чипов HBM4 объёмом 48 Гбайт. По сравнению с 12-ярусным стеком, они обеспечивают увеличение удельной ёмкости на 33 %.

Одновременно Micron объявила о начале массового производства твердотельных накопителей семейства 9650, обеспечивающих поддержку новейшего интерфейса PCI Express 6.0. Данные накопители обеспечивают скорость последовательного чтения до 28 Гбайт/с и 5,5 млн операций ввода-вывода в секунду на операциях произвольного чтения. По сравнению с накопителями, оснащаемыми интерфейсом PCI Express 5.0, это обеспечивает вдвое более высокое быстродействие на операциях чтения, энергоэффективность также увеличивается в два раза. Данные накопители оптимизированы для использования в составе стоек BlueField-4 STX, относящихся к платформе Vera Rubin.

Кроме того, Micron представила модули памяти типа SOCAMM2 объёмом 192 Гбайт, также оптимизированные для решений Nvidia семейства Vera Rubin, включая стойки NVL72 и обособленные платформы на основе центральных процессоров Vera. Эти модули памяти будут предлагаться в диапазоне ёмкостей от 48 до 256 Гбайт. Платформа Vera Rubin поддерживает до 2 Тбайт оперативной памяти, а пропускная способность на один процессор достигает 1,2 Тбайт/с при использовании данной памяти. Все три новинки Micron уже производятся серийно и могут поставляться для нужд Nvidia и её партнёров, выпускающих решения семейства Vera Rubin.

Nvidia показала полный стек Vera Rubin — от GPU до сетей для ИИ-фабрик нового поколения

Являясь одним из лидеров в сфере вычислительной инфраструктуры для систем искусственного интеллекта, Nvidia комплексно подходит к развитию собственных платформ, а потому вместе с ускорителями поколения Vera Rubin предложила ряд сопутствующих аппаратных решений.

 Источник изображений: Nvidia

Источник изображений: Nvidia

Как отмечается в корпоративном пресс-релизе, платформа Vera Rubin открывает новые рубежи в развитии агентского искусственного интеллекта. В массовом производстве сейчас находятся семь новых чипов Nvidia, позволяющих эффективно масштабировать так называемые ИИ-фабрики. В число семи аппаратных новинок Nvidia вошли графические процессоры Rubin, центральные процессоры Vera, коммутаторы NVLink 6, сетевые решения ConnectX-9 SuperNIC, специализированные процессоры BlueField-4 и Ethernet-коммутаторы Spectrum-6, а также созданные с помощью разработок одноимённого поглощённого стартапа процессоры Groq для ускорения инференса при работе с ИИ-агентами. В совокупности они работают, как ИИ-суперкомпьютер, как отмечается в материалах Nvidia для прессы на официальном сайте компании, позволяя ускорять создание профильных технологий на всех этапах жизненного цикла ИИ-систем.

Основатель и глава Nvidia Дженсен Хуанг (Jensen Huang) заявил, что с выходом платформы Vera Rubin наступил переломный момент в развитии агентского ИИ, поскольку данная платформа будет способствовать самому масштабному развёртыванию инфраструктуры в истории. Руководители OpenAI и Anthropic прокомментировали анонс Vera Rubin в предсказуемо хвалебных выражениях, подчёркивая значение этого события для всей ИИ-отрасли. Разработчики ИИ-моделей теперь смогут совершенствовать их и делать это быстрее, чем на аппаратных решениях прошлого поколения.

Структура ЦОД теперь строится на готовых модулях, как считают в Nvidia, которые содержат всё необходимое для эффективного масштабирования вычислительных мощностей с учётом постоянного роста сложности решаемых задач. Клиенты могут сочетать готовые модули ЦОД с учётом специфики своей деятельности. Например, в одной стойке Vera Rubin NVL72 находятся 72 графических процессора Rubin и 36 центральных процессоров Vera, соединённых скоростной шиной NVLink 6 и сетевыми контроллерами ConnectX-9 SuperNIC, а также специализированные процессоры BlueField-4, которые разгружают центральные процессоры от задач работы с сетевым трафиком. По сравнению с решениями поколения Blackwell новые системы Vera Rubin справляются с обучением сложных моделей силами в четыре раза меньшего количества GPU. Пропускная способность в пересчёте на ватт потребляемой энергии в задачах инференса у Vera Rubin до десяти раз выше, а затраты на один токен в десять раз ниже. В кластерах стойки NVL72 масштабируются при помощи Quantum-X800 InfiniBand и Spectrum-X Ethernet.

Центральные процессоры Vera, по словам представителей Nvidia, хорошо себя проявляют в задачах обучения с подкреплением и агентских ИИ-нагрузках. Компания может объединять в одной стойке до 256 таких процессоров, оснащённых системой жидкостного охлаждения. С прочими компонентами кластера они могут сообщаться при помощи сетевых решений Spectrum-X. По сравнению с некими традиционными CPU, на которые ссылается Nvidia, её процессоры Vera могут справляться с ИИ-задачами на 50 % быстрее.

Специализированные чипы Groq 3 LPX обеспечивают эффективную работу с агентскими ИИ-нагрузками при минимальных задержках. В сочетании с другими чипами, входящими в состав платформы Vera Rubin, они обеспечивают увеличение пропускной способности в задачах инференса до 35 раз на один мегаватт потребляемой мощности, а потенциал выручки при использовании моделей с триллионом параметров увеличивается в десять раз. В состав одной стойки входит 256 чипов LPU, 128 Гбайт интегрированной на них памяти SRAM, а пропускная способность достигает 640 Тбайт/с. В сочетании с прочими компонентами платформы Vera Rubin, чипы LPU достигают максимальной эффективности как по быстродействию, так и по энергопотреблению, а также использованию ресурсов памяти. Стойки LPX будут доступны клиентам Nvidia со второй половины текущего года.

Стойка BlueField-4 STX специализируется на унификации адресного пространства GPU между элементами кластера. Обработка хранимой в кеше информации в операциях инференса ускоряется до пяти раз, при этом обеспечивается высокая энергоэффективность по сравнению с системами на классической архитектуре. Достигается общий для кластера контекст, обеспечивающий быстрое взаимодействие с ИИ-агентами и более эффективно масштабируемыми ИИ-сервисами.

Отдельная стойка Spectrum-6 SPX отвечает за скоростной обмен данными по интерфейсу Ethernet. Она может содержать не только коммутаторы Spectrum-X Ethernet, но и коммутаторы Nvidia Quantum-X800 InfiniBand в зависимости от потребностей конкретной конфигурации. В исполнении с кремниевой фотоникой и интеграцией на уровне упаковки чипов эффективность передачи информации возрастает в пять раз, а надёжность по сравнению с традиционными подключаемыми решениями увеличивается в десять раз.

«Космические вычисления уже здесь»: Nvidia представила модуль Space-1 Vera Rubin для орбитальных ИИ-серверов

Генеральный директор Nvidia Дженсен Хуанг (Jensen Huang) анонсировал на конференции GTC 2026 космический модуль Nvidia Space-1 Vera Rubin Module. По словам Хуанга, модуль обеспечивает до 25 раз большую вычислительную мощность для задач искусственного интеллекта, чем сервер с ускорителями H100.

 Источник изображения: Nvidia

Источник изображения: Nvidia

По словам Nvidia, в настоящее время шесть коммерческих космических компаний используют её платформы в орбитальной и наземной средах: Aetherflux, Axiom Space, Kepler Communications, Planet Labs PBC, Sophia Space и Starcloud. При этом Kepler использует в своей спутниковой группировке платформу Jetson Orin для управления данными с помощью ИИ. «Nvidia Jetson Orin внедряет передовые технологии ИИ непосредственно на наши спутники, позволяя нам интеллектуально управлять данными и маршрутизировать их по всей нашей группировке», — заявила Мина Митри (Mina Mitry), генеральный директор компании, в официальном пресс-релизе Nvidia.

В октябре прошлого года основатель Amazon и Blue Origin Джефф Безос (Jeff Bezos) предсказал, что орбитальные центры обработки данных гигаваттного уровня появятся через 10–20 лет. В качестве основных преимуществ таких платформ он назвал непрерывное солнечное электроснабжение и упрощённую систему охлаждения в космосе. Starcloud, один из шести партнёров Nvidia, уже строит, как он сам описывает, специально разработанные орбитальные центры обработки данных, предназначенные для выполнения задач обучения моделей ИИ и вывода данных на орбите.

«Космические вычисления, последний рубеж, уже здесь», — сказал Дженсен Хуанг, добавив, что «обработка данных с помощью ИИ в космических и наземных системах обеспечивает сбор данных в реальном времени, принятие решений и автономность, превращая орбитальные центры обработки данных в инструменты исследований, а космические аппараты — в системы с автономным управлением».

Глава Nvidia не сказал, когда космический модуль Vera Rubin станет доступен для развёртывания. Компания уже предлагает в качестве космических платформ IGX Thor, Jetson Orin и RTX Pro 6000 Blackwell Server Edition.

Nvidia ударила по Intel и AMD: представлены серверные 88-ядерные CPU Vera, которые сгодятся не только для ИИ

Nvidia на конференции GTC 2026 раскрыла подробности о серверных центральных процессорах Vera, оснащённых 88 вычислительными ядрами. Компания заявляет о резком росте производительности благодаря новым ядрам Olympus. Одновременно была представлена стоечная система Vera CPU Rack с 256 процессорами, которая, по оценке Nvidia, обеспечивает шестикратный рост CPU-производительности и двукратное ускорение задач агентного ИИ.

 Источник изображений: Nvidia

Источник изображений: Nvidia

Процессор Vera получил 88 вычислительных ядер и 176 потоков, тогда как у первого поколения Grace было 72 ядра. Компания Nvidia заявляет о росте количества исполняемых инструкций за такт (IPC) сразу на 50 %, что является необычно крупным скачком для современной процессорной архитектуры, где прирост от поколения к поколению обычно ограничивается однозначными или небольшими двузначными процентами.

Всё дело в том, что если в Grace применялись стандартные ядра Arm Neoverse, то в Vera используются новые ядра Olympus, которые описываются как разработанные Nvidia, что указывает на серьёзные модификации базового дизайна Arm. За основу взята современная архитектура Arm v9.2-A.

Одной из ключевых особенностей стала технология пространственной многопоточности (Spatial Multi-Threading). В отличие от традиционного SMT, где потоки поочерёдно используют ресурсы ядра, здесь ключевые элементы конвейера — исполнительные блоки, кеши и регистровые файлы — физически изолированы между потоками. Благодаря этому оба потока могут фактически выполняться одновременно, что повышает параллелизм инструкций, увеличивает пропускную способность и делает производительность более предсказуемой, поскольку простаивающие исполнительные блоки могут немедленно задействовать инструкции из другого потока. Подобная схема особенно полезна в средах с большим количеством независимых пользователей и виртуальных окружений.

Все 88 ядер объединены в единый вычислительный домен без NUMA-разделения, характерного для современных многоядерных x86-процессоров. Это должно уменьшить задержки доступа к памяти, повысить предсказуемость работы системы и упростить программирование. Для организации взаимодействия между ядрами используется новое поколение фирменной шины Nvidia Scalable Coherency Fabric с сеточной или ячеистой топологией (mesh). Оно основано на когерентной сетевой архитектуре Arm CMN-700, применявшейся в Grace, однако, вероятно, использует более современную реализацию CMN S3 или её модификацию.

Сеточная структура обеспечивает высокую суммарную пропускную способность памяти и позволяет эффективно распределять ресурсы между ядрами. В процессорах Grace общая пропускная способность памяти составляла 546 Гбайт/с, что соответствовало примерно 7,6 Гбайт/с на ядро. В Vera этот показатель вырос более чем вдвое — до 1,2 Тбайт/с, которые обеспечиваются 1,5 Тбайт памяти LPDDR5 в модулях SOCAMM. Ёмкость памяти увеличилась втрое, а средняя пропускная способность на ядро при полной загрузке достигает 13,6 Гбайт/с. При неравномерной нагрузке отдельное ядро может получать до 80 Гбайт/с, что особенно важно для потоков с интенсивным доступом к памяти.

Архитектура также включает десятиканальный блок декодирования инструкций, нейросетевой предсказатель ветвлений, специализированный механизм предварительной выборки для анализа графовых баз данных и буфер инструкций, оптимизированный под PyTorch. Процессор поддерживает технологию Confidential Computing, что позволяет создавать полностью защищённые вычислительные домены CPU и GPU.

Для связи между кристаллами используется интерфейс NVLink-C2C с пропускной способностью до 1,8 Тбайт/с — вдвое больше, чем у Grace, и примерно в семь раз быстрее, чем у PCI Express 6.0. Процессоры также поддерживают двухсокетные конфигурации и современные стандарты для дата-центров, включая PCIe 6.0 и CXL 3.1.

Помимо самих процессоров Nvidia представила стоечную систему Vera CPU Rack. Если ранее процессоры Grace выступали как дополнение к ускорителям вычислений на базе GPU, то теперь Nvidia намерена предложить Vera и как самостоятельный продукт в системах, ориентированных на CPU-вычисления и другие задачи.

В одной такой стойке размещается 256 процессоров Vera с жидкостным охлаждением, а также 74 сетевых процессора BlueField-4 DPU и сетевые адаптеры ConnectX SuperNIC. Общий объём памяти достигает 400 Тбайт LPDDR5, а суммарная пропускная способность памяти — 300 Тбайт/с. В системе насчитывается 45 056 потоков, которые, по словам Nvidia, способны поддерживать до 22 500 изолированных CPU-окружений.

Компания продемонстрировала результаты тестов в широком наборе задач, включая скриптовые нагрузки, компиляцию, анализ данных, графовую аналитику и HPC-вычисления. По сравнению с Grace прирост производительности составляет от 1,8 до 2,2 раза в зависимости от типа нагрузки.

Ожидается, что системы Vera CPU Rack появятся в инфраструктуре Meta✴, а также Nvidia планирует поставлять их и другим гиперскейлерам, включая Oracle, CoreWeave, Nebius и Alibaba. Помимо стоечных систем широкий круг производителей серверного оборудования предложит собственные решения на базе Vera. Среди партнёров Nvidia названы Dell, HPE, Lenovo, Supermicro, Foxconn и другие крупные OEM- и ODM-компании. Процессоры Vera также станут частью систем Nvidia HGX NVL8.

Особое значение новые CPU имеют для платформы Vera Rubin — комплексного решения Nvidia следующего поколения. Она включает сразу несколько типов компонентов: графический процессор Rubin, коммутатор NVLink6 для межсоединений на уровне стойки, сетевой адаптер ConnectX-9 SuperNIC, сетевой процессор BlueField-4 DPU, оптический коммутатор Spectrum-X 102.4T с интегрированными оптическими модулями и ускорители Groq 3 LPU.

Новые чипы Vera ориентированы как на задачи искусственного интеллекта, так и на более универсальные вычислительные нагрузки, хотя основной упор сделан именно на ИИ. Таким образом, с выпуском Vera компания Nvidia усиливает позиции на рынке серверных центральных процессоров, где доминируют Intel и AMD, а также навязывает конкуренцию многочисленным кастомным Arm-чипам.

По словам Nvidia, процессоры Vera уже запущены в массовое производство, а первые поставки партнёрам начнутся во второй половине текущего года.

«Мы любим CPU так же, как GPU»: глава Nvidia пообещал превзойти Intel и AMD в центральных процессорах

Периодичность публикации годовой отчётности Nvidia настроена таким образом, что на мартовской конференции GTC руководство компании рассказывает о перспективных продуктах этой марки, текущий год не станет исключением. Основатель Nvidia Дженсен Хуанг (Jensen Huang) уверен, что компания сможет составить конкуренцию Intel и AMD в сегменте CPU.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Данные заявления, как полагает Reuters, должны предвосхищать рассказ генерального директора о новых центральных процессорах Nvidia на грядущей мартовской конференции GTC 2026. На этой неделе Хуанг напомнил, что исторически вычислительная нагрузка распределялась в пропорции «90:10» с преобладанием центральных процессоров над GPU, но в последние годы ситуация зеркально изменилась. Теперь роль центральных процессоров в ИИ-вычислениях начнёт расти, как ожидает Дженсен Хуанг: «Мы точно так же любим CPU, как и GPU». Он даже выразил уверенность, что серверные процессоры Nvidia смогут превзойти изделия старожилов в лице Intel и AMD. В прошлом месяце Хуанг предсказал взрывной рост спроса на центральные процессоры для ЦОД, а также предположил, что это может превратить Nvidia «в одного из крупнейших производителей CPU в мире».

Недавно Nvidia заключила контракт с Meta✴ Platforms на поставку центральных процессоров Grace и Vera независимо от GPU. Этот же облачный гигант заключил подобный контракт и с конкурирующей AMD. Эксперты ожидают, что по мере эволюции ИИ-моделей роль центральных процессоров начнёт возрастать, и в ЦОД ближайшего будущего количество CPU сперва поравняется с количеством GPU, а потом первый тип компонентов начнёт доминировать. По словам главы Nvidia, серверные процессоры этой компании заточены под обработку больших объёмов информации, и это позволит им раскрыть себя с лучшей стороны при использовании в инфраструктуре ИИ. Дополнительные подробности о CPU марки Nvidia глава компании пообещал поведать на мартовской конференции GTC 2026.

Meta✴ закупит миллионы ИИ-чипов у Nvidia, включая центральные Arm-процессоры Grace и Vera

Компания Meta✴ Platforms готова расширить свою вычислительную инфраструктуру ИИ путём закупки дополнительных объёмов компонентов Nvidia, которые будут включать как GPU нового поколения, так и целые стойки семейства Vera Rubin, равно как и центральные процессоры Nvidia Grace.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Как поясняет CNBC, исторически Meta✴ в развитии своей ИИ-инфраструктуры отличалась всеядностью, закупая ускорители AMD и процессоры Google, а также разрабатывая собственные. Помимо вычислительных решений Nvidia, на новом этапе расширения своей облачной инфраструктуры Meta✴ готова использовать и сетевые решения этой марки. Кроме того, чипы Nvidia помогут ей реализовать ИИ-функции в мессенджере WhatsApp.

Новая сделка между компаниями подразумевает закупку миллионов чипов Nvidia для нужд Meta✴ Platforms. На каких условиях это будет сделано, не уточняется. В январе Meta✴ объявила о намерениях потратить до $135 млрд на развитие ИИ в текущем году. По мнению аналитиков Creative Strategies, в случае с новой сделкой речь идёт о десятках миллиардов долларов США. Новость об этой сделке вызвала рост курса акций Nvidia и Meta✴, а вот акции AMD упали в цене на 4 %.

Компоненты Nvidia компания Meta✴ уже использует в своей инфраструктуре не менее десяти лет, но никогда ранее она не приобретала у неё центральные процессоры в отдельности от специализированных модулей, где те обычно соседствуют с GPU. Представители Nvidia подтвердили, что Meta✴ станет первым клиентом, приступившим к масштабному использованию центральных процессоров Grace. Эти чипы больше заточены под агентские ИИ-нагрузки и работу с инференсом. В 2027 году Meta✴ планирует перейти на использование нового поколения процессоров Vera разработки Nvidia.

В общей сложности до 2028 года Meta✴ планирует направить на развитие вычислительных мощностей в США около $600 млрд. Из 30 центров обработки данных, запланированных Meta✴ к строительству в ближайшие годы, 26 будут расположены на территории США. Крупнейшими станут гигаваттный Prometheus в Огайо и 5-ГВт Hyperion в Луизиане. Коммутаторы Spectrum-X производства Nvidia также будут применяться Meta✴ в своей инфраструктуре, а ещё последняя внедрит технологии безопасности первой для развития функций ИИ в WhatsApp.

Nvidia бросила вызов Intel Xeon и AMD Epyc — серверный Arm-процессор Vera теперь продаётся отдельно

Nvidia уже несколько поколений подряд предлагает не только графические процессоры, но и так называемые «суперчипы» — связки из центрального Arm-процессора и GPU. Теперь Nvidia начала предлагать свои центральные процессоры Vera в качестве самостоятельного продукта, что знаменует дебют на рынке серверных процессоров, где доминируют Intel Xeon и AMD Epyc. Глава Nvidia Дженсен Хуанг (Jensen Huang) подтвердил серьёзность намерений компании в недавнем интервью Bloomberg.

 Источник изображений: Nvidia

Источник изображений: Nvidia

Заявление Хуанга привлекает особое внимание к новому бизнес-направлению Nvidia. Vera — это первый случай (почти), когда компания предлагает подобный чип в качестве автономного решения. Это означает, что Nvidia будет конкурировать с процессорами Intel и AMD в центрах обработки данных. Vera также может стать альтернативой собственным компонентам, используемым облачными провайдерами, такими как Graviton от Amazon. Предыдущие процессоры Nvidia были доступны только в составе систем, объединённых с другими чипами.

Процессор Vera оснащён 88 специализированными ядрами Armv9.2 Olympus, использующими технологию пространственной многопоточности, что позволяет ему обрабатывать 176 потоков за счёт физического разделения ресурсов. Эти специализированные ядра поддерживают нативную обработку FP8, что позволяет выполнять некоторые задачи ИИ непосредственно на процессоре с 6×128-битной реализацией SVE2.

Технология Scalable Coherency Fabric второго поколения обеспечивает пропускную способность 3,4 Тбайт/с, соединяя ядра на едином монолитном кристалле и устраняя проблемы с задержкой, характерные для чиплетных архитектур. Кроме того, Nvidia интегрировала технологию NVLink Chip-to-Chip второго поколения, обеспечивающую когерентную пропускную способность до 1,8 Тбайт/с для внешних графических процессоров Rubin.

Чип обеспечивает пропускную способность памяти 1,2 Тбайт/с и поддерживает до 1,5 Тбайт памяти LPDDR5X, что делает его идеальным для ресурсоёмких вычислительных задач. Однако, поскольку процессор теперь предлагается как автономное решение, неясно, будут ли доступны какие-либо классические варианты памяти, такие как DDR5 RDIMM, или же процессор будет использовать исключительно SOCAMM LPDDR5X.

«Vera — это совершенно революционный процессор», — уверен Хуанг. Он отказался назвать других заказчиков, помимо CoreWeave, но заверил, что «их будет много».

Поставки первых систем на ускорителях Nvidia Rubin стартуют в конце лета

В этом месяце глава и основатель Nvidia Дженсен Хуанг (Jensen Huang) продемонстрировал ускорители вычислений поколения Rubin, заявив о начале их массового производства. Между тем, серверная продукция обычно длительное время добирается до конечных пользователей, а потому и поставки систем на семейства Vera Rubin партнёры Nvidia собираются начать лишь к концу этого лета.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Об этом сообщает Commercial Times со ссылкой на комментарии вице-президента тайваньского производителя серверного оборудования Quanta Computer Майка Янга (Mike Yang), которые тот сделал на прошлой неделе на праздничном корпоративном мероприятии. Гиганты облачных вычислений начнут получать соответствующие системы на базе ускорителей Nvidia Rubin в августе текущего года. На тот момент отгрузки не будут массовыми, а потому Quanta Computer и не рассчитывает на получение существенной выручки от поставок первых систем на базе Vera Rubin.

Основная часть клиентов компании, по словам её представителя, уже эксплуатирует системы поколения Grace Blackwell (GB200 и GB300), что при условии родства архитектур с Vera Rubin позволит им достаточно быстро и безболезненно обновить в случае необходимости аппаратную базу. В официальных документах Nvidia осенью прошлого года сроки производства Vera Rubin упоминались достаточно размыто — под его начало отводился весь 2026 год.

Производители ПК и смартфонов получат в 2–5 раз меньше памяти, чем им требуется в этом году

В текущем году предпосылок для облегчения ситуации с дефицитом микросхем памяти не ожидается, как убеждены аналитики KeyBanc. На этом фоне производители ПК и смартфонов будут ощущать сильнейшую нехватку чипов памяти. Фактически, им будет доставаться не более 20–45 % необходимых объёмов памяти, а цены на смартфоны вырастут.

 Источник изображения: Asustek Computer

Объёмы поставок микросхем памяти в серверном сегменте в этом году в ёмкостном выражении должны увеличиться на 50 %, контрактные цены на DRAM в первом квартале вырастут на 25 % и на величину от 10 до 12 % во втором квартале, по прогнозам экспертов KeyBanc. В сегменте NAND контрактные цены вырастут на 20 % в первом квартале и до 15 % во втором, по их мнению. За пределами сегмента ЦОД покупателям микросхем памяти будут доступны гораздо более скромные квоты, не более 20–45 % от фактической потребности. В результате, цены на память для ПК и смартфонов тоже продолжат расти, а ещё сократятся объёмы производства этих устройств.

В количественном выражении поставки ПК сократятся в этом году на 5–10 %, а поставки смартфонов упадут на величину от 3 до 5 %. Более того, крупные поставщики смартфонов типа Apple и Samsung будут вынуждены увеличить стоимость своих устройств на $100–150. По мере наращивания поставок систем на базе процессоров Nvidia Vera, которые сочетаются с памятью типа LPDDR5X, будет усугубляться её дефицит на всём рынке. Эксперты KeyBanc предполагают, что эти системы потребуют такого же количества памяти, как и 150 млн смартфонов. Это менее 10 % ёмкости рынка смартфонов, так что давление на рынок LPDDR5X хоть и будет явно выраженным, окажется не критическим.

Обнаружен самый «вёрткий» астероид Солнечной системы — он совершает оборот менее чем за две минуты

В своей массе астероиды — это куча щебня, сбившегося вместе под действием гравитации. Это наглядно показал таран зондом-камикадзе NASA DART астероида Диморф — после удара тот выбросил массу пыли и мелких камней. Это также означает, что астероидам не свойственно быстрое вращение вокруг своей оси — центробежная сила разорвёт их на мелкие части. Тем ценнее найти астероид со сверхвысокой скоростью вращения, что стало возможным с появлением нового телескопа.

 Источник изображения: Vera C. Rubin Observatory

Источник изображения: Vera C. Rubin Observatory

Открытие сделала Обсерватория имени Веры С. Рубин (Vera C. Rubin Observatory). Огромная 3,2-гигапиксельной камера LSST обсерватории размером 3 × 1,65 метра способна делать снимки больших участков неба каждые 40 секунд. С апреля по июнь 2025 года обсерватория проходила стадию настройки оборудования, что не помешало сделать множество интересных открытий даже до начала научной работы. Одним из таких открытий стало обнаружение самого быстро вращающегося астероида Солнечной системы в категории свыше 500 метров, который при своих размерах в 710 метров совершал полный оборот вокруг своей оси за 1,88 минуты.

Всего в процессе настройки оборудования Обсерватория «Рубин» открыла 1900 новых астероидов, 16 из которых могли похвастаться сверхбыстрым вращением, а 3 — ультрабыстрым, один из которых стал рекордсменом — это объект 2025 MN45. Три самых «вёртких» астероида совершали полный оборот менее чем за 5 минут, а 16 сверхбыстрых совершали обороты от 13 минут до 2,2 часа.

Отметка 2,2 часа на каждый оборот считается границей, ниже которой не монолитные астероиды разрываются центробежной силой. Тем самым все быстро вращающиеся астероиды состоят из плотной и даже монолитной породы. Большинство из впервые открытых астероидов расположены в Главном поясе астероидов между Марсом и Юпитером. После начала научной работы Обсерватории «Рубин» будут открыты сотни тысяч таких объектов. Ожидается, что работа обсерватории начнётся в ближайшие месяцы.

Nvidia построит в США семь эксафлопсных суперкомпьютеров — два на Vera Rubin для Лос-Аламосской лаборатории

На конференции GTC 2025 компания Nvidia объявила о том, что построит в США семь эксафлопсных суперкомпьютеров в США. Две системы будут построены совместно с Oracle и будут использовать более 100 000 чипов Blackwell с производительностью до 2200 Эфлопс. Ещё две системы будут созданы совместно с HPE на перспективной платформе Vera Rubin для Лос-Аламосской национальной лаборатории.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Эти системы будут использоваться для обеспечения национальной безопасности и проведения научных исследований с применением ИИ-моделирования и высокопроизводительных вычислений. Что интересно, заявление Nvidia последовало за вчерашним объявлением AMD о победе в тендерах на поставку пары суперкомпьютеров для Министерства энергетики США.

Лос-Аламосская национальная лаборатория заключила контракт с HPE на создание суперкомпьютеров Mission и Vision на базе платформы Vera Rubin от Nvidia, которая включает центральные процессоры Vera и графические процессоры Rubin нового поколения. Масштабирование машин будет осуществляться с помощью технологии NVLink Gen6, а горизонтальное — посредством сетевого интерфейса Nvidia QuantumX 800 Infiniband.

Суперкомпьютер Mission, разработанный для Национального управления по ядерной безопасности, планируется ввести в эксплуатацию в 2027 году. Компьютер Vision будет опираться на достижения предыдущего суперкомпьютера Venado и использоваться для открытых научных исследований, включая исследования в области искусственного интеллекта.

«Mission — пятая передовая технологическая система в рамках программы Лос-Аламоса по развитию искусственного интеллекта для научной безопасности. Ожидается, что она будет введена в эксплуатацию в 2027 году и предназначена для запуска секретных приложений. Система Vision основана на достижениях суперкомпьютера Venado из LANL и предназначена для несекретных исследований в области искусственного интеллекта и открытой науки. Системы Mission и Vision представляют собой значительные инвестиции в национальную безопасность США и развитие открытых научных возможностей», — заявил Дион Харрис (Dion Harris), руководитель отдела маркетинга продуктов центров обработки данных Nvidia.

Nvidia не раскрыла ожидаемую производительность Mission и Vision. Однако Vision примет эстафету у Venado — 19-го по скорости суперкомпьютера в мире с производительностью Rmax FP64 98,51 Пфлопс. Поэтому вполне логично ожидать, что Vision обеспечит как минимум вдвое большую вычислительную мощность для научных задач.

«Мы предоставим более подробную информацию о конкретных конфигурациях [суперкомпьютеров] позже. Самое замечательное в этой [платформе], учитывая, как эти системы будут использоваться как в открытой науке, так и в исследованиях в области национальной безопасности, заключается в том, что, по нашему мнению, она позволит использовать как возможности ИИ, так и традиционные возможности моделирования для научных исследований», — добавил Харрис.

Хуанг показал Vera Rubin Superchip — CPU, два огромных GPU и 100 Пфлопс на одной плате для ИИ нового поколения

На конференции GTC 2025 глава компании Nvidia Дженсен Хуанг (Jensen Huang) продемонстрировал графический процессор следующего поколения — Rubin. Точнее, он показал со сцены прототип ускорителя Vera Rubin Superchip, который объединяет на одной плате совершенно новый центральный процессор Vera и пару огромных графических чипов Rubin. Такое сочетание обещает новый уровень производительности для ИИ-суперкомпьютеров будущего.

 Источник изображений: Nvidia

Источник изображений: Nvidia

Каждый GPU Rubin состоит из двух больших кристаллов с ядрами CUDA и восьми стеков высокоскоростной памяти HBM4 объёмом 288 Гбайт. Характеристики GPU не уточняются, равно как и пропускная способность памяти. Однако отмечается, что одна система Vera Rubin Superchip обеспечивает производительность в ИИ-операциях (FP4) на уровне 100 Пфлопс (100 квадриллионов операций в секунду).

Что касается центрального процессора Vera, то известно, что он предложит 88 ядер на неназванной версии архитектуры Arm с 176 потоками, а для его связи с графическими процессорами будет задействован интерфейс NVLink-C2C с пропускной способностью 1,8 Тбайт/с. Также на плате расположится оперативная память LPDDR (версия не уточняется, но вполне возможно, что это будет уже LPDDR6), в результате чего общий объём оперативной памяти на один «суперчип» достигнет 2 Тбайт.

На базе новых ускорителей Nvidia предложит самые разные системы, например новые Compute Tray, включая CPX-версию для задач с большим контекстом ИИ-моделей. Также компания рассказала о готовых серверных стойках Vera Rubin NVL144 с производительностью 3,6 Эфлопс (3,6 квинтильона операций в секунду) для запуска уже обученных ИИ-моделей (FP4 inference), а также 1,2 Эфлопс для обучения моделей (FP8 training).

Это примерно в 3,3 раза быстрее актуальных систем GB300 NVL72. Система предложит 13 Тбайт/c общей пропускной способности для памяти HBM4 и в совокупности 75 Тбайт быстрой системной памяти, а общая пропускная способность интерфейсов NVLink и CX9 достигнет 260 Тбайт/с и 28,8 Тбайт/с соответственно.

Nvidia также раскрыла детали о системе NVL576 на базе чипов Rubin Ultra, которые ожидаются во второй половине 2027 года. Эти чипы будут включать четыре крупных GPU-чиплета на одной подложке и 1 Тбайт памяти HBM4e. В итоге система NVL576 обеспечит производительность до 15 Эфлопс FP4 и 5 Эфлопс FP8, предлагая до 365 Тбайт быстрой системной памяти и сетевую пропускную способность до 1,5 Пбайт/с через NVLink.

Nvidia сообщила, что первые тестовые экземпляры Rubin уже поступили в лаборатории компании для испытаний, а старт массового производства запланирован на 2026 год. На смену этой архитектуре придёт совершенно новая архитектура Feynman, запуск которой намечен на 2027–2028 годы. Однако никаких чипов на этой платформе Nvidia пока не показала — вряд ли на данный момент они вообще существуют в физическом воплощении.


window-new
Soft
Hard
Тренды 🔥
Роскомнадзор опроверг сообщения о том, что перестал справляться с блокировками в Рунете 13 мин.
Измеритель скорости интернета «Яндекс Интернетометр» обзавёлся мобильным приложением 2 ч.
«Внушает трепет»: моддеры взялись за полноценный ремейк классической Baldur’s Gate на базе Baldur’s Gate 3 3 ч.
Anthropic догоняет OpenAI в сфере ИИ для бизнеса 3 ч.
ИИ по-русски: Минцифры РФ предложило правила регулирования нейросетей 3 ч.
Мультиплеерный вестерн The Legend of California от студии соавтора Overwatch можно будет попробовать совсем скоро — подробности публичной «альфы» 4 ч.
Россияне начали массово строчить электронные письма на фоне блокировки Telegram 4 ч.
Больше — не всегда лучше⁠⁠: критики вынесли вердикт Crimson Desert 4 ч.
Интерфейс некогда перспективной ОС Google Fuchsia возродили в браузере 5 ч.
Крепкие связи: 70 % российских компаний сохраняют зависимость от западных систем резервного копирования 6 ч.
16 тыс. км без регенерации сигнала: Ciena и Meta установили рекорд дальности и скорости передачи данных по подводному кабелю Bifrotst 17 мин.
Регулятор США углубил расследование в отношении автопилота Tesla после девяти ДТП 28 мин.
Лунный экипаж NASA повторно ушёл на карантин — все настроены на полёт через две недели 31 мин.
Игровые ноутбуки на новых процессорах Intel не выйдут все сразу — сначала лишь Lenovo, Razer и Dell 60 мин.
Apple зарабатывает на чужом ИИ, пока Siri буксует: доходы от приложений могут превысить $1 млрд 2 ч.
Китайские учёные научили робота играть в теннис новым методом обучения 2 ч.
Европа получила ключ к ангстрёмным техпроцессам будущего — Imec установит новейший EUV-сканер ASML EXE:5200 2 ч.
Nscale купит 8-ГВт кампус AIPCorp Monarch — Microsoft достанется 1,35 ГВт ИИ-мощностей 2 ч.
Облачные провайдеры стали поднимать цены из-за повышенного спроса на ИИ и дефицита оборудования 2 ч.
GMI Cloud развернёт в Японии суверенную ИИ-инфраструктуру стоимостью $12 млрд 3 ч.