|
Опрос
|
реклама
Быстрый переход
Выпуск DDR5 стал прибыльнее HBM для всех крупнейших производителей памяти
23.03.2026 [10:06],
Алексей Разин
В декабре прошлого года руководство Micron Technology призналось, что норма прибыли при выпуске классических типов DRAM, например, DDR5, оказалась выше обеспечиваемой при производстве HBM. Недавно он снова вернулся к этому тезису, говоря об итогах минувшего фискального квартала. Конкуренты располагают примерно такими же финансовыми показателями.
Источник изображения: Micron Technology По крайней мере, News 1 со ссылкой на руководство SK hynix сообщает, что обычная DDR уже обеспечивает норму прибыли в районе 80 %, тогда как при выпуске HBM она колеблется в районе 60 %. В прошлом квартале норма прибыли Micron в целом по компании выросла последовательно с 75 до 81 %, что также говорит о росте прибыльности бизнеса не только в сегменте HBM. Samsung на правах крупнейшего производителя памяти соответствующие тенденции прочувствовала ещё в конце прошлого года. Для выпуска HBM тоже требуются кристаллы DRAM, рост спроса на первый тип памяти первоначально вызывал рост цен на DDR5, поскольку последних чипов на рынке становилось меньше. В определённый момент производители бросились наращивать выпуск HBM в ущерб DDR5, поэтому цены на последнюю выросли до такого уровня, что сейчас её продавать выгоднее. Тем более, что затраты на выпуск DDR5 значительно ниже, чем в случае с HBM, а потому разница между доходами и расходами заметно больше, и прибыль растёт активнее. Южнокорейские производители опережают китайских в части технологий выпуска HBM примерно на три года, но если цены останутся на высоком уровне, то у китайских конкурентов появится определённый шанс закрепиться на международном рынке DDR. Правда, санкции США могут этому помешать, но китайские производители в любом случае заинтересованы в скорейшей организации массового выпуска HBM и экспансии производства DDR. В условиях дефицита памяти поставщики начали диктовать выгодные себе условия. Как уже отмечалось ранее, Samsung намеревается заключать со своими клиентами долгосрочные контракты на период от трёх до пяти лет, гарантируя поставку определённых объёмов продукции, но с привязкой цены к текущим уровням на рынке моментальных сделок. Кроме того, покупателям придётся сделать крупные авансовые платежи в пользу будущих поставок, и как они будут засчитываться, во многом будет зависеть от динамики рыночных цен. Micron со своими клиентами также заключает долгосрочные контракты, но они также охватывают и исследовательскую деятельность, поскольку будущие типы HBM, например, должны учитывать индивидуальные запросы конкретных клиентов, а потому соответствующую адаптацию памяти необходимо прописывать в договорах. Micron также сосредотачивается на комплексных поставках продукции для нужд ЦОД, которые охватывают DDR5 и HBM одновременно. Поскольку новые мощности по выпуску памяти будут введены в строй не ранее конца следующего года, при сохранении растущего спроса на микросхемы памяти будут увеличиваться и нормы прибыли производителей. Руководство SK hynix пытается найти инновационный подход к стабилизации цен на память, но удастся ли его реализовать, станет понятно в ближайшее время. Google благодаря ИИ-буму впервые вошла в пятёрку крупнейших клиентов Samsung
12.03.2026 [14:27],
Алексей Разин
Бум искусственного интеллекта меняет расстановку сил на многих рынках. Nvidia он позволил сместить Apple в статусе крупнейшего клиента TSMC, но и среди клиентов Samsung Electronics произошли некоторые перестановки. Ещё в прошлом году в пятёрку крупнейших клиентов южнокорейского гиганта впервые вошла корпорация Google, вытеснившая из этого перечня «долгожителя» в лице оператора связи Verizon.
Источник изображения: Samsung Electronics Помимо материнского холдинга Alphabet компании Google, в пятёрку крупнейших клиентов Samsung по итогам прошлого года вошли Apple, Deutsche Telekom, Techtronic Industries и Supreme Electronics. При этом сообща они определяли не более 15 % годовой выручки Samsung Electronics, которая достигла $228 млрд. Другими словами, концентрация источников выручки Samsung не так велика, как у некоторых прочих компаний сектора типа той же Nvidia или AMD, поэтому и риски корейского производителя чипов более уравновешены. По всей видимости, Google активно закупала у Samsung микросхемы памяти DDR5 и HBM для своих центров обработки данных. Google использует в своей инфраструктуре самостоятельно разработанные ускорители TPU, их она оснащает памятью HBM, поэтому и закупает её у Samsung. Предполагается, что в конце прошлого года Samsung поставляла более половины всей памяти HBM, используемой Google в составе ускорителей на базе чипов TPU. Apple остаётся как крупным клиентом Samsung, так и её конкурентом в сегменте смартфонов и прочих мобильных устройств. Это не мешает первой закупать у второй микросхемы типа LPDDR5X для смартфонов семейства iPhone 17 и их преемников. Предполагается, что и в первом складном смартфоне Apple будет использоваться память производства Samsung. В нынешних условиях затраты на покупку памяти определяют до 9 % себестоимости iPhone, и до 15 % себестоимости iPad и Mac, поэтому на поставках компонентов для нужд Apple компания Samsung может неплохо зарабатывать. Географическое распределение выручки Samsung также переживает трансформацию. Обе Америки в прошлом году формировали 39,9 % всей выручки южнокорейской компании, на этом направлении выручка выросла на 12,1 % до $90,2 млрд. Китай в долевом выражении просел с 14,6 до 14,2 %, но в абсолютном выражении выручка Samsung в этой стране выросла на 7,7 % по итогам прошлого года. На домашнем рынке Южной Кореи Samsung смогла увеличить свою выручку на 17,1 % до $31,6 млрд. SK hynix и SanDisk запустили стандартизацию High Bandwidth Flash — новой памяти между HBM и SSD
26.02.2026 [17:24],
Николай Хижняк
Компании SK hynix и SanDisk сообщили о запуске в рамках программы Open Compute Project проекта по глобальной стандартизации высокоскоростной флеш-памяти High Bandwidth Flash (HBF).
Источник изображений: SanDisk Компании описывают HBF как новый уровень памяти, располагающийся между сверхбыстрой памятью HBM и SSD. Технология HBF может заполнить пробел между высокой скоростью HBM и большой ёмкостью SSD, обеспечивая как расширение ёмкости, так и энергоэффективность, необходимые для выполнения задач искусственного интеллекта. В то время как HBM обеспечивает высокую пропускную способность, HBF выступает вспомогательным уровнем в архитектуре. SanDisk опубликовала информацию о том, как, по её мнению, будет выглядеть этот уровень HBF в составе аппаратного стека. Компания позиционирует HBF как память на основе NAND и утверждает, что она может обеспечить в 8–16 раз большую ёмкость, чем HBM, при аналогичной пропускной способности и сопоставимой стоимости в предполагаемой системной конфигурации. Для аппаратных решений первого поколения HBF SanDisk заявляет пропускную способность чтения до 1,6 Тбайт/с, 256 Гбит/с на кристалл и до 512 Гбайт общей ёмкости в рамках 16-кристального стека. Компания также утверждает, что стек разработан таким образом, чтобы максимально соответствовать HBM4 по физическим размерам, энергопотреблению и высоте, что подразумевает модель интеграции, аналогичную современным стекам HBM на ускорителях ИИ. SanDisk заявляет, что HBF обеспечивает производительность, отличающуюся всего на 2,2 % от «HBM с неограниченной ёмкостью» в ходе внутренних тестов и моделирования с использованием модели рабочей нагрузки для вывода данных, основанной на предварительно обученной 8-битной конфигурации параметров Llama 3.1 405B. В сноске к презентации отмечается, что сравнение предполагает неограниченную ёмкость HBM в целях моделирования, поэтому оно не измеряет преимущество в ёмкости напрямую. На фундаментальном технологическом уровне SanDisk связывает HBF со своей дорожной картой чипов BiCS NAND и технологией CBA (CMOS Direct Bonded to Array), а также с запатентованной технологией 3D-стекирования, предназначенной для 16-кристальных стеков с уменьшенной деформацией и лучшей теплопроводностью. В информационном листке также подчёркивается энергонезависимый характер HBF — она не требует питания для обновления данных, в отличие от памяти на основе DRAM. В дорожной карте SanDisk также указаны предварительные целевые показатели пропускной способности чтения HBF второго (Gen2) и третьего (Gen3) поколений — свыше 2 Тбайт/с и 3,2 Тбайт/с соответственно — с ёмкостью стека до 1 Тбайт и 1,5 Тбайт, а также более низкие целевые показатели энергопотребления по сравнению с Gen1 — 0,8× и 0,64×. SK hynix и SanDisk не сообщили о графике внедрения HBF, но уже обозначили стандартизацию как следующий шаг в рамках программы Open Compute Project. SK hynix предложила неоригинальный костыль для ускорения ИИ-моделей — гибридную архитектуру памяти HBM/HBF
17.02.2026 [19:52],
Геннадий Детинич
Светлая мысль разместить больше памяти рядом с процессором пришла не в одну голову. Год назад о разработке концепции замены памяти HBM (DRAM) памятью HBF (флеш) сообщила компания SanDisk. На днях работу о таком подходе опубликовала компания SK Hynix. Флеш-память NAND попросту плотнее памяти DRAM, и с позиции увеличения места под токены для ИИ замена одной на другую даст впечатляющий результат в виде роста скорости принятия решений.
Источник изображения: SK Hynix Не секрет, что современные платформы на базе центральных, графических и тензорных процессоров сталкиваются с серьёзным ограничением по объёму приданной им памяти High Bandwidth Memory (HBM), что сплошь и рядом происходит при работе с большими языковыми моделями. Например, модели вроде Llama 4 поддерживают до 10 млн токенов, что требует кэш объёмом до 5,4 Тбайт. Стандартные решения, такие как частичный сброс кэша на локальные SSD, приводят к значительным задержкам из-за низкой пропускной способности шины и медленного доступа к накопителям. В результате образуется узкое место по пропускной способности, что можно обойти только наращиванием массива ускорителей, а это — лишние деньги и энергопотребление. Предложенная компанией SK hynix гибридная иерархия памяти или архитектура H³ (Hybrid³), объединяющая HBM и новый пока тип памяти High Bandwidth Flash (HBF) на одном интерпозере вместе с процессором, решает проблему нехватки памяти для токенов ИИ. Память HBM продолжит использоваться так же, как и раньше — для данных с высокой частотой записи и чтения (динамически генерируемый кэш), а HBF — для данных с интенсивным чтением. Использование флеш-памяти HBF обеспечит до 16 раз большую ёмкость при пропускной способности, близкой к HBM, хотя задержка доступа останется выше на один или даже два порядка, износостойкость будет ниже, а энергопотребление может быть в 4 раза больше. В то же время массив гибридной памяти окажется единым для процессора, а грамотная маршрутизация запросов сведёт на нет все негативные последствия «тормозов» флеш-памяти. Результаты моделирования на конфигурации Nvidia Blackwell GPU с 8 стеками HBM3E и 8 стеками HBF на интерпозере демонстрируют впечатляющие улучшения. При 1 млн токенов контекста производительность в токенах в секунду вырастает в 1,25 раза, при 10 млн токенов — уже в 6,14 раза по сравнению с чисто HBM-системой, а энергоэффективность становится выше в 2,69 раза. И если раньше для обработки запросов такого масштаба требовалось 32 GPU, то теперь работа может быть выполнена всего на 2 GPU с существенным снижением энергозатрат и общей стоимости системы. Ради такого стоит рискнуть и создать коммерческие решения, считают в компании. Intel при поддержке SoftBank готова начать выпуск альтернативы памяти HBM к 2029 году
03.02.2026 [13:25],
Алексей Разин
При всей своей востребованности, память типа HBM не является идеальной, поскольку остаётся дорогой и прожорливой, а ещё из-за наращивания объёмов её производства страдает выпуск классической DRAM. Компании SoftBank и Intel намерены наладить серийное производство памяти нового типа ZAM к 2029 году.
Источник изображения: Intel Непосредственно на стороне SoftBank за разработку Z-Angle Memory (ZAM) будет отвечать дочерняя компания Saimemory, она же будет отвечать за продажи готовой продукции, а Intel поделится технологиями производства и упаковки данной памяти. Само по себе обозначение Z-Angle говорит о намерениях разработчиков нарастить высоту памяти по координате Z. По сути, она по примеру HBM будет представлять собой стек из нескольких ярусов микросхем, но будет использовать более прогрессивные методы упаковки и более эффективную архитектуру. Теоретически, это должно позволить увеличить удельную ёмкость стека памяти ZAM в два или три раза относительно HBM, при этом вдвое сократить энергопотребление, а себестоимость производства удержать либо на том же уровне, либо снизить на 40 %. По предварительным данным, Intel готова предложить для производства ZAM технологию упаковки памяти NGDB, которая повысит энергетическую эффективность относительно HBM. Помимо базового кристалла, в стеке существующих прототипов имеются восемь ярусов DRAM. В производстве память типа ZAM будет проще HBM, поэтому масштабировать объёмы её выпуска удастся достаточно быстро. Прототипы таких микросхем будут продемонстрированы партнёрами до конца марта 2028 года. В течение последующих 12 месяцев должно быть развёрнуто массовое производство нового типа памяти. С японской стороны в проекте также участвует компания Fujitsu. Оперативная память DDR5 и DDR4 подорожает вдвое в этом квартале, а NAND — на 60 %
02.02.2026 [15:37],
Алексей Разин
С наступлением февраля эксперты TrendForce пришли к выводу, что сформированный ими в четвёртом квартале прогноз по динамике цен на микросхемы памяти не отображает реальной ситуации на рынке, а потому его следует скорректировать в сторону повышения, причём весьма заметно. Теперь ожидается, что DDR5 и DDR4 в этом квартале последовательно подорожает в два раза, а цены на NAND увеличатся на 55–60 %.
Источник изображения: SK hynix Драйвером роста цен, по словам источника, остаётся высокий спрос на компоненты со стороны облачных провайдеров и серверного сегмента. Если ранее специалисты TrendForce ожидали, что в текущем квартале цены на DDR4 и DDR5 последовательно вырастут на 55–60 %, то теперь они призывают готовиться к росту на 90–95 %. Соответственно, в сегменте NAND последовательный рост цен пересмотрен с 33–38 % на 55–60 %. Не исключено, что это не последняя корректировка прогноза в сторону увеличения, поскольку ситуация меняется стремительно. В четвёртом квартале, как отмечают в TrendForce, объёмы поставок ПК превысили ожидания, а потому дефицит памяти усилился и за счёт этого фактора. В текущем квартале цены на DDR4 и DDR5 для персональных компьютеров последовательно вырастут более чем на 100 %, обновив квартальный рекорд по величине прироста.
Источник изображения: TrendForce В серверном сегменте покупатели пытаются формировать долгосрочные контракты с поставщиками, которые подразумевают более стабильную ценовую политику, но и здесь цены последовательно готовы вырасти на 90 % в текущем квартале, если говорить о DRAM, и это тоже окажется максимальным приростом за всю историю наблюдений. Серверные SSD в этом квартале также подорожают, пусть и на более скромные 53–58 %, хотя и это станет квартальным рекордом. На такую величину около 90 % вырастут и цены на память типов LPDDR4X и LPDDR5X, усложнив жизнь производителям смартфонов. Китайские марки будут формировать новые контракты на закупку памяти в конце февраля, поэтому можно ожидать новой волны подорожания в этот период. В сегменте NAND предложение продолжает сжиматься, поскольку многие крупные производители предпочитают переориентировать больше своих мощностей на выпуск DRAM. Всё это способствует росту цен на твердотельную память, хотя в этом квартале прирост и ограничится величиной от 55 до 60 %, что выглядит не таким резким на фоне динамики рынка DRAM. Дополнительные объёмы выпуска NAND в краткосрочной перспективе могут быть получены только за счёт модернизации используемых техпроцессов. Если цены на классическую DRAM в целом в этом квартале последовательно увеличатся на 90–95 %, то с учётом HBM прирост достигнет 80–85 %. Прежде аналитики TrendForce ожидали, что в этом квартале цены на память с учётом HBM увеличатся лишь на 50–55 %. По сути, HBM в отдельности дорожает медленнее, чем классическая DRAM. SK hynix на фоне бума ИИ впервые обошла Samsung по величине годовой прибыли
01.02.2026 [11:45],
Алексей Разин
Исторически именно Samsung Electronics на протяжении многих лет то и дело становилась крупнейшим поставщиком полупроводниковых компонентов в мире в показателях выручки. SK hynix, которая контролирует более 60 % рынка HBM, уже обходила Samsung по квартальной прибыли, но по итогам прошлого года впервые сделала это с учётом 12-месячного периода в целом.
Источник изображения: SK hynix Об этом позволяет судить опубликованная на уходящей неделе финансовая статистика Samsung Electronics и SK hynix, на которую ссылается издание CNBC. Именно высокая степень присутствия SK hynix в прибыльном сегменте HBM позволила компании в прошлом году получить операционную прибыль, превосходящую достижения Samsung Electronics — в целом более крупной компании. По версии Gartner, крупнейшим поставщиком полупроводниковой продукции в мире теперь является Nvidia, за ней следует Samsung, а SK hynix именно по итогам прошлого года поднялась с четвёртого места на третье, выгнав Intel из первой тройки. В национальной южнокорейской валюте операционная прибыль SK hynix за прошлый год достигла 47,2 трлн вон ($32,5 млрд), тогда как Samsung Electronics довольствовалась 43,6 трлн вон ($30 млрд). Кстати, если выделить операционную прибыль Samsung именно в сфере производства памяти, то она окажется заметно меньше предыдущей суммы — всего 24,9 трлн вон ($17,2 млрд). При этом SK hynix практически полностью концентрируется на производстве памяти, тогда как Samsung является многопрофильным холдингом. Впрочем, последняя из компаний тоже не обошлась без прогресса, ведь по итогам четвёртого квартала прошлого года в отдельности ей снова удалось стать лидером по выручке от реализации памяти. Аналитики также ожидают, что Samsung удастся укрепить свои позиции в сегменте памяти для систем ИИ после начала поставок HBM4, хотя SK hynix и сохранит за собой лидерство в этой сфере. Как ожидается, заказы Nvidia на оснащение ускорителей Vera Rubin памятью HBM4 примерно на две трети будут выполняться силами SK hynix. В третьем квартале SK hynix контролировала около 57 % выручки в сегменте HBM, на долю Samsung приходилось не более 22 %. Позиции SK hynix сильны и в более широком сегменте DRAM, который сейчас также переживает трансформацию в связи с бурным развитием инфраструктуры ИИ. Памяти не будет ещё долго: Micron признала, что «беспрецедентный» дефицит выйдет за пределы 2026 года
19.01.2026 [13:26],
Алексей Разин
Американский производитель памяти в условиях дефицита продукции ведёт себя сообразно ситуации. С одной стороны, нужды потребительского рынка он в свете прекращения поставок модулей памяти под маркой Crucial он готов обслуживать в минимальной степени. С другой стороны, компания вкладывается в расширение своих производственных мощностей. При этом текущим годом период дефицита памяти не ограничится, как считают в Micron.
Источник изображения: Micron Technology Исполнительный вице-президент по операционной деятельности Micron Technology Маниш Бхатиа (Manish Bhatia) в интервью Bloomberg после церемонии закладки фундамента крупного производственного комплекса в штате Нью-Йорк сообщил, что «текущий дефицит, который наблюдается, является беспрецедентным». По его словам, память типа HBM для ЦОД потребляет так много ресурсов промышленности, что возникает огромный дефицит на стороне классических сегментов рынка типа смартфонов и ПК. И если производители последних выстраиваются в очередь, чтобы уже сейчас забронировать поставки памяти на период после 2026 года, то в дальнейшем спрос на память будет расти и со стороны автомобильных систем автопилота и человекоподобных роботов. В сегменте ИИ, как ранее отмечали представители Micron, все квоты памяти этой марки выкуплены клиентами на весь текущий год. Недавние шаги по покупке предприятия у PSMC на Тайване, по словам исполнительного вице-президента Micron, были направлены на скорейший ввод новой площадки по упаковке памяти в строй. Она сможет приступить к обработке продукции со второй половины следующего года. Все вновь возводимые Micron предприятия по выпуску памяти будут введены в строй значительно позже. В штате Нью-Йорк это случится не ранее 2030 года, а вот первое предприятие в Айдахо сможет начать работу уже в 2027 году. Всего в штате будет построено два предприятия по выпуску памяти и исследовательский центр. Кроме того, Micron модернизирует и расширяет завод в Вирджинии. В любом случае, все новые мощности Micron будет вводить в строй на территории США, а азиатские площадки будут повышать производительность за счёт модернизации и перехода на более совершенные технологии изготовления памяти. В перспективе компания хотела бы 40 % своей памяти типа DRAM выпускать на территории США. «Отец HBM» пообещал внедрение энергонезависимой HBF-памяти в продуктах Nvidia и Google уже в 2027 году
16.01.2026 [22:01],
Анжелла Марина
По мере роста вычислительной нагрузки, связанной с задачами искусственного интеллекта, эксперты прогнозируют коммерциализацию технологии энергонезависимой памяти High-Bandwidth Flash (HBF) раньше, чем ожидалось. Об этом сообщает компания TrendForce, специализирующаяся на аналитике и консалтинге в сфере полупроводников, IT и телекоммуникационных технологий.
Источник изображения: SanDisk Профессор из корейского передового института науки и технологий (KAIST) Чонхо Ким (Joungho Kim), которого называют «отцом HBM», заявил, что Samsung Electronics и SanDisk планируют внедрить HBF в продукты для Nvidia, AMD и Google уже к концу 2027 или началу 2028 года. Он также отметил, что разработка HBF идёт быстрее, поскольку производители уже используют накопленный опыт проектирования и технологических процессов для разработки новой памяти. Ким также прогнозирует, что широкое распространение HBF начнётся одновременно с выходом стандарта HBM6, а к 2038 году рынок этой памяти может даже превзойти сегмент HBM. Он объясняет, что необходимость в новой технологии обусловлена физическими ограничениями ёмкости DRAM, и поскольку HBM6 будет представлять собой сложную структуру из взаимосвязанных стеков, многокристальная флеш-память HBF (NAND) станет необходимым решением для восполнения дефицита объёма памяти в будущих вычислительных системах. Профессор также поясняет, что в задачах ИИ-инференса HBF в будущем возьмёт на себя роль поставщика данных для видеокарт, обеспечив примерно в 10 раз большую ёмкость, чем HBM, хотя и с меньшей скоростью. Так как HBF имеет неограниченное количество циклов чтения, но всего около 100 000 циклов записи, это потребует от разработчиков программного обеспечения, включая OpenAI и Google, адаптации своих решений под преимущественное чтение данных. Кроме того, Ким предвидит смену архитектуры вычислительных систем к моменту выхода стандарта HBM7: концепция «фабрики памяти» позволит обрабатывать данные непосредственно в модулях памяти, устранив существующие длинные пути передачи информации через сети хранения и процессорные конвейеры. По оценкам отраслевых источников, HBF сможет обеспечить пропускную способность свыше 1638 Гбайт/с, что существенно превышает показатели стандартных SSD, которые через интерфейс NVMe PCIe 4.0 выдают около 7000 Мбайт/с, а также достичь ёмкости до 512 Гбайт, превосходя 64 Гбайт, предлагаемых HBM4. Samsung и SK hynix также продвигают разработку HBF и уже заключили соглашение с SanDisk о создании консорциума для стандартизации памяти HBF, намереваясь вывести коммерческие продукты на рынок к 2027 году. При этом SK hynix планирует продемонстрировать пробную версию технологии уже в текущем месяце. SK hynix построит предприятие по упаковке чипов памяти за $13 млрд к концу следующего года
13.01.2026 [04:51],
Алексей Разин
После затяжного спада спроса на память, вызванного перенасыщением рынка в пандемию, производители весьма осторожно относятся к идее расширения мощностей по выпуску чипов. В сегменте востребованной на фоне бума ИИ памяти HBM таких сомнений меньше, поэтому SK hynix решила выделить $12,9 млрд на строительство фабрики по упаковке чипов в Южной Корее.
Источник изображения: SK hynix Как поясняет Reuters со ссылкой на официальное заявление SK hynix, строительство предприятия будет начато в апреле текущего года, а завершить его планируется к концу 2027 года. Высокий спрос на память HBM со стороны инфраструктуры для ИИ вынуждает южнокорейского производителя сделать такой шаг. На рынке HBM компания SK hynix остаётся ведущим игроком, в прошлом году она занимала 61 %. Конкурирующая Samsung Electronics довольствовалась 19 %, а Micron Technology некоторое время находилась на втором месте с 20 %, прежде чем уступить эту позицию Samsung. В рамках выпуска HBM4 последняя рассчитывает добиться как минимуму паритета с SK hynix, а в идеале и добиться своего лидерства на рынке. ИИ-ускорители упёрлись в предел скорости HBM, и эта проблема пострашнее дефицита памяти
11.01.2026 [12:27],
Алексей Разин
По оценкам представителей отрасли, современные ИИ-ускорители в своём развитии достигли того этапа, когда пропускная способность интерфейса памяти становится узким местом на пути дальнейшего масштабирования быстродействия. Дефицит памяти или её объём в этом отношении уходят на второй план, и устранение этого барьера главным образом зависит от разработчиков GPU и больших языковых моделей.
Источник изображения: Nvidia По словам сооснователя Majestic Labs Ша Рабии (Sha Rabii), на которого ссылается CNBC, если непосредственно ускорители вычислений в последние годы продвинулись в своём быстродействии весьма значительно, сопутствующая им память стала не особо быстрее. По сути, именно производительность памяти ограничивает сейчас дальнейший рост быстродействия больших языковых моделей. При этом переход к инференсу увеличит потребности в объёме памяти, так что спрос на неё будет расти очень быстро. В любом случае, чем больше в инфраструктуре ИИ памяти, тем большее количество клиентов она способна обслуживать в единицу времени. О необходимости наращивать объёмы выпуска памяти на CES 2026 говорил и основатель Nvidia Дженсен Хуанг (Jensen Huang). Он даже отметил, что покупатели игровых решений компании типа видеокарт и консолей «обижены» на отрасль ИИ, поскольку дефицит памяти толкает цены вверх даже в указанных смежных сегментах рынка. Даже запланированный AMD и Nvidia переход на использование памяти типа HBM4 не позволит полностью решить проблему пропускной способности. Память этого семейства всё равно ограничена в количестве задействованных каналов и высоте стека микросхем, не говоря уже о ширине интерфейса. Пропускная способность вычислительных систем могла бы масштабироваться гораздо эффективнее, если бы не свойственные HBM ограничения. Наращивать количество вычислительных блоков в составе GPU в таких условиях не имеет особого смысла, ибо память не будет успевать передавать все данные при вычислительных нагрузках, имеющих отношение как к обучению больших языковых моделей, так и инференсу. Доступные разработчикам компонентов методы упаковки чипов также выступают в роли специфического ограничивающего фактора, в условиях высокого спроса профильные мощности сильно загружены, усиливая дефицит скоростной памяти и повышая расходы производителей. На архитектурном уровне разработчики пытаются изучать альтернативы типа осуществления вычислений прямо внутри микросхем памяти (PIM), увеличения плотности компоновки микросхем в составе стека памяти, а также применения в многокристальных решениях прогрессивных интерфейсов типа UCIe, которые позволяют не только увеличить эффективную полосу пропускания, но и снизить задержки при работе с данными. Темпы дальнейшего масштабирования инфраструктуры ИИ будут зависеть от прогресса в сфере внедрения более скоростной памяти. HBM4 предложит прирост быстродействия в полтора раза относительно HBM3E, позволяя через свою более широкую 2048-разрядную шину передавать до 2 терабайт данных в секунду. К 2027 году на арену выйдет память типа HBM4E, которая потенциально увеличить скорость передачи информации ещё в полтора раза. Внедрение интерфейса CXL также должно способствовать повышению эффективности обмена данными между компонентами вычислительных систем. В части памяти переход к CXL обеспечит увеличение степени загрузки на 50 %, а также снижение энергопотребления на величину до 20–30 %. Появление новых методов трёхмерной компоновки памяти тоже должно способствовать повышению производительности и снижению энергопотребления. Дженсен Хуанг объяснил на CES 2026, почему SRAM не вытеснит дорогую HBM в ИИ-ускорителях
08.01.2026 [06:52],
Анжелла Марина
Глава Nvidia Дженсен Хуанг (Jensen Huang) объяснил, почему SRAM не заменит высокоскоростную память HBM в системах искусственного интеллекта. Выступая на сессии вопросов и ответов в рамках CES 2026 в Лас-Вегасе (США), он ответил на предположение о возможном отказе компании от дорогостоящей HBM в пользу более дешёвой компонентной базы.
Источник изображения: Tom's Hardware Как пишет Tom's Hardware, Хуанг изложил видение, согласно которому ключевым требованием для аппаратного обеспечения ИИ является не узкая специализация, а гибкость, которую как раз и обеспечивает память HBM. Главный его аргумент строится вокруг нестабильной и постоянно меняющейся природы рабочих нагрузок ИИ. Модели быстро эволюционируют, внедряются новые архитектуры и модальности, что делает оптимизацию оборудования под одну конкретную задачу малоэффективной в долгосрочной перспективе. Хотя Хуанг признал, что решения с упором на SRAM могут показывать невероятную скорость в определенных сценариях и избегать задержек, присущих внешней памяти, они сталкиваются с жёсткими ограничениями по ёмкости при масштабировании. В контролируемых тестах такие ускорители выглядят привлекательно, но в реальном применении они не могут обеспечить тот баланс пропускной способности и плотности, который даёт HBM. Глава Nvidia также затронул тему открытых ИИ-моделей, чьё распространение, как предполагается, может снизить зависимость от дорогих GPU. Он признал их ценность, но подчеркнул, что открытость архитектуры не отменяет инфраструктурных ограничений. Обучение и обслуживание современных моделей, независимо от лицензии, по-прежнему требуют огромных вычислительных ресурсов и больших объёмов памяти. Более того, развитие открытых моделей с увеличением контекстных окон и добавлением мультимодальности лишь усиливает потребность в высокопроизводительной и гибкой памяти, такой как HBM. Таким образом, позиция Nvidia заключается в том, что разнообразие и постоянная изменчивость рабочих нагрузок ИИ делают универсальность и адаптивность ключевыми экономическими факторами. Специализированные ускорители, ориентированные на конкретные задачи, могут демонстрировать впечатляющие результаты в тестах, но в условиях быстро меняющегося ландшафта ИИ они рискуют устареть. Компания готова мириться с высокой стоимостью HBM и сложностью систем, поскольку это позволяет сохранить возможность адаптации к новым архитектурам моделей и сценариям развёртывания. По мнению Дженсена Хуанга, момент, когда модели стабилизируются настолько, чтобы сделать специализированные решения более выгодными, чем гибкие платформы, ещё не наступил. Новая статья: Итоги-2025: почему память стала роскошью и что будет дальше
08.01.2026 [00:03],
3DNews Team
Данные берутся из публикации Итоги-2025: почему память стала роскошью и что будет дальше Huawei схлестнётся с Nvidia за пределами Китая — ИИ-ускорители Ascend начнут поставлять в Южную Корею
27.12.2025 [07:19],
Алексей Разин
Для Huawei приоритетной задачей сейчас является обеспечение импортозамещения в китайской отрасли искусственного интеллекта, но это не мешает компании думать о потенциальной экспансии на внешние рынки. Хотя исторически под ними было принято подразумевать страны Ближнего Востока, неожиданно в данном контексте на уходящей неделе всплыла Южная Корея, куда Huawei намеревается поставлять свои ускорители Ascend.
Источник изображения: Huawei Technologies Как сообщает TrendForce со ссылкой на южнокорейские СМИ, глава местного представительства Huawei Technologies Валянь Ван (Valian Wang) вчера заявил о намерениях компании официально поставлять в Южную Корею ускорители вычислений и готовые системы для ИИ-ЦОД со следующего года. При этом проторить данную экспортную дорожку призван новейший ускоритель модели Ascend 950, так что никакой дискриминации внешнего рынка по сравнению с внутренним не будет. На рынке Южной Кореи китайская Huawei попробует конкурировать с американской Nvidia. Впрочем, понимая сложность освоения нового для себя рынка, Huawei в Южной Корее будет делать упор на продажу комплексных готовых решений, а не отдельных компонентов. Сетевая инфраструктура, системы хранения данных — всё это будет поставляться Huawei южнокорейским клиентам в совокупности с вычислительными мощностями и программным обеспечением. Полагаться на посредников в этой сфере Huawei тоже не может, а потому будет заниматься ими напрямую. Переговоры с некоторыми потенциальными клиентами в Южной Корее уже ведутся. В следующем году Huawei также намерена поставлять южнокорейским клиентам свою операционную систему HarmonyOS, хотя о продажах фирменных смартфонов под её управлением в данной стране речь пока не идёт. Помимо Южной Кореи, Huawei рассчитывает наладить поставки своих ИИ-систем в Малайзию в следующем году. Подобные амбиции указывают на наличие у компании способности наладить выпуск соответствующей продукции в достаточных количествах с учётом быстро растущей потребности внутреннего рынка КНР. На мероприятии Huawei Connect 2025 также стало известно, что ускорители семейства Ascend 950 будут оснащаться альтернативой памяти типа HBM, которую Huawei разработала своими силами. Ускорители для инференса получат HiBL 1.0, а модели для обучения — память семейства HiZQ 2.0. Fujitsu участвует в разработке более доступной альтернативы HBM вместе с Intel и SoftBank
26.12.2025 [08:58],
Алексей Разин
В середине уходящего года стало известно о попытках Intel и SoftBank разработать более дешёвую альтернативу скоростной памяти HBM, которая в разных своих поколениях использовалась в сегменте ускорения вычислений. Теперь издание Nikkei Asian Review сообщает, что в проекте принимает участие и японская компания Fujitsu, создающая самые мощные в стране суперкомпьютеры.
Источник изображения: Fujitsu Учреждённая SoftBank компания Saimemory выступит в роли координатора усилий на этом направлении, Fujitsu тоже будет с ней взаимодействовать. К весне 2027 года в проект предполагается вложить $51,2 млн и получить прототип нового типа памяти, а массовое производство планируется развернуть к 2029 году. К 2027 году SoftBank вложит в капитал Saimemory около $19 млн. Национальный исследовательский институт Riken вместе с Fujitsu вложат в три раза меньшую сумму. Часть расходов на разработку нового типа памяти будет субсидироваться японским правительством. Fujitsu имеет опыт массового производства чипов, поэтому она сможет им поделиться при организации выпуска нового вида памяти, хотя и Intel в этом смысле вряд ли уступает ей по масштабу компетенций. По сравнению с HBM, новый тип памяти должен обеспечить увеличение доступного объёма в два или три раза при снижении энергопотребления в два раза. Стоимость такой памяти при этом может оказаться чуть ниже. TSMC также будет участвовать в проекте на этапе изготовления прототипов новой памяти. Intel и Токийский университет примут участие в разработке, причём первая предложит свой опыт в области упаковки чипов в вертикальном измерении. Служебные блоки будут располагаться не на плоском кристалле, а интегрироваться вертикально, что и позволит увеличить плотность обработки данных в удельном измерении. Прочие участники проекта будут отвечать за разработку скоростного интерфейса передачи информации и эффективный отвод тепла. Saimemory не будет самостоятельно заниматься выпуском разработанной памяти, поручая эту функцию подрядчикам. Потребность японской экономики в инфраструктуре ИИ при нынешних темпах развития отрасли за текущее десятилетие может увеличиться в 300 раз. Стране не помешает увеличить в этом контексте степень своей независимости от импортных технологий. Рынок HBM сейчас на 90 % контролируется двумя южнокорейскими компаниями — SK hynix и Samsung Electronics. Япония производство памяти на своей территории свернула ещё в начале века. Fujitsu этот бизнес оставила в прошлом ещё в конце двадцатого века, не выдержав ценовой конкуренции. Бум ИИ меняет ситуацию с доходностью производства памяти, поэтому новые игроки (или хорошо забытые старые) на нём появятся в ближайшие годы. |