|
Опрос
|
реклама
Быстрый переход
Samsung вернулась в гонку за рынок памяти для ИИ — её доля на рынке HBM превысит 30 % в следующем году
24.09.2025 [12:33],
Алексей Разин
В последние несколько лет Samsung Electronics вынуждена довольствоваться ролью догоняющего на рынке памяти класса HBM, поскольку конкурирующим SK hynix и Micron удалось добиться расположения Nvidia, являющейся крупнейшим заказчиком, приобретающим такую память. Впрочем, в следующем году доля Samsung на рынке такой памяти может превысить 30 %, по мнению аналитиков Counterpoint Research.
Источник изображения: Samsung Electronics Добиться этого, как считают эксперты, Samsung помогут начавшиеся в будущем поставки микросхем поколения HBM4 для нужд Nvidia. Сейчас этот южнокорейский производитель памяти делает ставку на способность наверстать упущенное как раз при выпуске памяти HBM4. Во втором квартале текущего года на рынке HBM в целом лидировала SK hynix с 62 % сегмента. На втором месте расположилась американская Micron Technology с 21 % рынка, а Samsung Electronics довольствовалась только третьим с 17 % рынка. В любом случае, с точки зрения географической концентрации это значит, что 8 из 10 микросхем HBM производятся южнокорейскими компаниями. В следующем году Samsung имеет определённые шансы поднять свою долю рынка за 30 %. Помимо поставок HBM4, она сможет наладить поставки HBM3E для нужд Nvidia, и всё это будет способствовать укреплению рыночных позиций Samsung. Последняя уже может выпускать кристаллы DRAM с использованием 6-го поколения 10-нм технологии (1c), к массовому производству HBM4 компания приступит до конца текущего года, а её клиенты уже сейчас получают первые образцы таких чипов. Как ожидается, HBM4 в исполнении Samsung подняла энергетическую эффективность на 40 % по сравнению с памятью прежнего поколения, а скорость передачи информации может достигать 11 Гбит/с. Компания даже возобновила строительство новых корпусов в кампусе P5, чтобы лучше подготовиться к росту объёмов производства HBM. В рамках HBM4 лидерство южнокорейских производителей памяти в целом только укрепится, как считают в Counterpoint Research. Китайские компании хоть и пытаются нагнать зарубежных конкурентов, пока сильно отстают от них в части способности выпускать память подобного класса. Китайская CXMT, например, предпринимает попытки разработать HBM3, но у имеющихся прототипов наблюдаются проблемы с быстродействием и тепловыделением. Вряд ли этот производитель сможет наладить поставки HBM3 ранее второй половины следующего года. От разрабатываемой Huawei памяти такого типа эксперты также не ожидают быстродействия, превышающего половину уровня лучших зарубежных образцов. Micron похвалилась, что её HBM4 — самая быстрая память на рынке
24.09.2025 [11:00],
Алексей Разин
Квартальная отчётная конференция Micron Technology оказалась богата на заявления представителей компании, которые позволяли оценить текущие тенденции в развитии сегмента искусственного интеллекта. Этот производитель, например, убеждён, что сможет предлагать самую быструю память типа HBM4 на рынке.
Источник изображения: Micron Technology Сумит Садана (Sumit Sadana), исполнительный вице-президент и директор по развитию бизнеса Micron Technology, в ходе своего выступления отметил, что по занимаемой доле рынка в сегменте HBM компания по итогам третьего календарного квартала выйдет примерно на уровень своей доли на рынке DRAM в целом, а по итогам следующего календарного года увеличит свою долю в сегменте HBM по сравнению с текущим годом. Во многом такая уверенность, как он пояснил далее, основана на способности Micron Technology предложить клиентам самую быструю память типа HBM4 на рынке. Вот что заявил представитель компании: «Мы верим, что наша HBM4 обеспечивает самое высокое быстродействие на рынке по сравнению с любым из конкурирующих продуктов. Мы уверены, что сможем полностью распродать всю производственную программу на 2026 год». По данным компании, она снабжает своих клиентов образцами HBM4 со скоростью передачи информации 11 Гбит/с. Поскольку в последние месяцы много говорится о принятом крупными производителями DRAM свернуть производство микросхем DDR4, Сумиту Садане не удалось избежать обсуждения этой темы при общении с аналитиками. Он пояснил, что без учёта LPDDR4, сама по себе DDR4 отвечает лишь за несколько процентов всего бизнеса компании. По сути, это указывает на взятый Micron курс на поэтапное прекращение выпуска DDR4. Глава Micron Санджей Мехротра (Sanjay Mehrotra) пояснил, что HBM4 в исполнении этой компании будет оснащаться базовым кристаллом собственной разработки, она станет основным продуктом в этом сегменте рынка, производство которого будет наращиваться в 2026 году. Зато в 2027 году будет налажен выпуск HBM4E, которая будет предлагаться как в стандартизированной, так и в кастомизированной под запросы клиентов форме. В целом, Micron поставляет свою память HBM различных поколений шести крупным клиентам. Huawei представит четыре новых ИИ-ускорителя Ascend за три года, чтобы догнать и перегнать Nvidia
18.09.2025 [10:08],
Алексей Разин
Поскольку сфера искусственного интеллекта является ареной серьёзного соперничества между США и Китаем, страдающая от американских санкций уже более пяти лет компания Huawei Technologies старалась не афишировать свои соответствующие инициативы. На этой неделе она неожиданно призналась, что намерена за три ближайших года вывести на рынок четыре версии своих ускорителей семейства Ascend.
Источник изображения: Huawei Technologies В первом квартале этого года Huawei представила ускоритель Ascend 910C, в следующем году она представит две разновидности ускорителя Ascend 950, а в 2027 году выйдет Ascend 960, после чего уже в 2028 году будет представлен Ascend 970. Ближайшей новинке в лице Ascend 950 полагается память типа HBM собственной разработки Huawei, как сообщает Reuters со ссылкой на представителей компании. По всей видимости, китайским поставщикам удалось наладить выпуск такой памяти, поскольку ранее местные разработчики чипов зависели в этой сфере от производителей памяти из США и Южной Кореи. Huawei также планирует ввести в строй суперкомпьютерные кластеры Atlas 950 и Atlas 960, оснащаемые 8192 и 15 488 чипами Ascend соответственно. Вычислительные системы Atlas 900, также известные как CloudMatrix 384, оснащаются 384 ускорителями Ascend 910C. В некоторых дисциплинах они опережают по быстродействию Nvidia GB200 NVL72, которые содержат 72 чипа B200. Компания также похвасталась, что разработанная ей технология SuperPod поддерживает соединение до 15 488 графических карт, содержащих чипы искусственного интеллекта Ascend от Huawei. А в настоящее время она управляет суперкластером с примерно 1 миллионом графических карт. Ранее в этом году основатель Huawei Рен Чжэнфэй заявил в интервью, что Huawei все еще отстает от США по производительности одного чипа, но «мы все еще можем добиться желаемых результатов, компенсируя их вычислениями на основе кластеров». Представители Huawei также поделились прогнозами на общее развитие мировой отрасли искусственного интеллекта на ближайшие десять лет. По их мнению, к 2035 году мировые вычислительные мощности возрастут в 100 000 раз. При этом в ближайшие десять лет двигать отрасль будет искусственный интеллект, сопоставимый по своим способностям с человеческим разумом. По крайней мере, разработчики будут стремиться к созданию так называемого «сильного искусственного интеллекта». По прогнозам Huawei, к 2035 году 9 млрд человек будут подключены к 900 млрд так называемых ИИ-агентов, а мобильный интернет по сути своей превратится в «агентский». Huawei придумала программный «заменитель» санкционной памяти HBM для ускорения ИИ
13.08.2025 [12:24],
Алексей Разин
Китайские разработчики систем искусственного интеллекта, ограниченные из-за санкций США в своём доступе к современным вычислительным ресурсам, пытаются компенсировать возможное отставание разными методами. Huawei предложила программный инструмент с открытым исходным кодом, который призван компенсировать отсутствие доступа к ускорителям с памятью типа HBM для китайских разработчиков.
Источник изображения: Huawei Technologies Программный инструмент, предложенный Huawei, получил название Unified Cache Manager (UCM), его предназначение заключается в оптимизации доступа к данным в соответствии с заранее определённой иерархией типов памяти. Работа с информацией, хранящейся в HBM, DRAM и на SSD, может быть ускорена при помощи этого инструмента в системах ИИ, ориентированных на формирование логических выводов (инференс). В специализированных тестах UCM уже подтвердил свою эффективность, сократив задержки при обращении к памяти на величину до 90 % и увеличив пропускную способность системы в 22 раза в наиболее заметном случае. Доступ к UCM со следующего месяца получат разработчики, сотрудничающие с Huawei, а затем инструмент попадёт в руки более широкого круга китайских создателей систем ИИ. Это должно позволить снизить зависимость китайской ИИ-отрасли от микросхем памяти типа HBM, которые производятся южнокорейскими SK hynix и Samsung, а также американской Micron Technology. Поставки этой памяти в Китай запрещены американскими санкциями, а китайские производители только подбираются к моменту начала её выпуска — причём в не самом скоростном поколении. Прогрессу мешают санкции на поставку оборудования для выпуска памяти HBM в Китай, которые также наложены властями США. Недавно китайские чиновники призвали американских коллег ослабить ограничения на поставку памяти HBM в Поднебесную. Они же при этом призывают китайских разработчиков перестать использовать ускорители Nvidia H20, поставляемые из США. На фоне бума ИИ компания Micron решилась улучшить свой квартальный прогноз
12.08.2025 [08:29],
Алексей Разин
Приближение к концу очередного фискального квартала заставило Micron Technology пересмотреть изначальный прогноз по динамике выручки и норме прибыли за период. Эту новость можно отнести к разряду приятных для инвесторов, поскольку по факту Micron ожидает завершить период с более выдающимися финансовыми результатами по сравнению с заложенными в ранний прогноз.
Источник изображения: Micron Technology Итак, диапазон квартальной выручки изначально был немного шире, но ниже по своему среднему значению: от $10,4 до $11 млрд. Теперь Micron рассчитывает выручить за квартал, который завершится 28 августа текущего года, от $11,1 до $11,3 млрд. Центр диапазона, другими словами, сместился вверх на $500 млн. Норма прибыли должна уложиться в диапазон от 44 до 45 % против прежнего диапазона от 41 до 43 %. Удельный доход на одну акцию должен составить от $2,78 до $2,92 против прежнего диапазона от $2,35 до $2,65. Ключевые категории продукции, по словам представителей Micron, реализуются сейчас по более высоким ценам, чем ожидалось, что и позволяет улучшить финансовый прогноз. В особенности цены способствуют росту выручки на направлении DRAM, но наиболее прибыльная HBM как раз относится к этому сегменту. Улучшение прогноза было благосклонно воспринято фондовым рынком, акции Micron подорожали после открытия торгов в Нью-Йорке на 7,1 %, что является дневным максимум за последние три месяца. Даже если цены на HBM будут снижаться или расти меньшими темпами, объёмы поставок соответствующих микросхем позволят Micron нивелировать это влияние. Масштабные инвестиции в производство памяти на территории США, которые за несколько последующих лет в совокупности достигнут $200 млрд, ограждают продукцию Micron от воздействия повышенных таможенных пошлин. Представители компании выразили готовность активно сотрудничать и с другими производителями, развивающими своё присутствие на территории США. Рынок памяти для ИИ будет расти на 30 % ежегодно до конца десятилетия, как считает SK hynix
11.08.2025 [08:56],
Алексей Разин
Южнокорейской компании SK hynix высокий спрос на память типа HBM для инфраструктуры систем искусственного интеллекта позволил не только занять лидирующие позиции в сегменте, но и обойти по финансовым показателям более крупную Samsung Electronics. Представители SK hynix убеждены, что рынок памяти для ИИ будет расти на 30 % ежегодно до конца десятилетия.
Источник изображения: SK hynix Подобными прогнозами поделился с агентством Reuters директор по планированию в сегменте HBM Цой Чун Ён (Choi Joon-yong). По его словам, спрос на подобную память со стороны клиентов очень стабильный и высокий. Это позволяет руководству SK hynix рассчитывать, что до конца текущего десятилетия рынок специализированной памяти для инфраструктуры ИИ будет ежегодно расти на 30 % в год. Измеряемые миллиардами долларов суммы, которые крупные игроки рынка типа Amazon, Microsoft и Google ежегодно готовы тратить на развитие вычислительной инфраструктуры ИИ, скорее всего, в ближайшие годы будут расти, по мнению представителя SK hynix. При этом руководство компании учитывает, что на темпы экспансии данной вычислительной инфраструктуры будет накладывать ограничения энергетическая отрасль. В этом смысле упоминаемый выше прогноз по темпам роста рынка памяти для систем ИИ можно признать довольно консервативным. В целом, объёмы строительства ЦОД для ИИ и закупки HBM находятся в прямой зависимости, как поясняет руководство SK hynix. Ёмкость рынка профильной памяти к 2030 году будет измеряться десятками миллиардов долларов США. Переход на использование HBM4 лишь усилит зависимость клиентов от конкретного поставщика памяти, поскольку функциональные характеристики базового кристалла, который будет лежать в основе стека, будут изначально определяться техническим заданием конкретного заказчика. Кастомизация подобных решений будет только усиливаться, как считают в SK hynix. На прошлой неделе стало известно, что Samsung и SK hynix смогут избежать 100-процентной таможенной пошлины на поставку своей полупроводниковой продукции в США. Цой Чун Ён данную информацию никак комментировать не стал. Для корейской экономики американский рынок очень важен, поскольку в сегменте чипов профильный экспорт достиг 7,5 % всего объёма поставок или $10,7 млрд. Если говорить о памяти HBM, то некоторая её часть поставляется в США через Тайвань, на подобный маршрут приходится 18 % южнокорейского экспорта. Китай потребовал от США ослабить санкции на память HBM и другие чипы
10.08.2025 [16:22],
Анжелла Марина
Китай настаивает на ослаблении американских экспортных ограничений на высокопроизводительную память HBM в рамках торговых переговоров с США, которые могут предшествовать возможной встрече президентов Си Цзиньпина (Xi Jinping) и Дональда Трампа (Donald Trump).
Источник изображения: AI По сообщению Financial Times со ссылкой на неназванные источники, знакомые с ходом обсуждений, китайская делегация во главе с вице-премьером Хэ Лифэном (He Lifeng) за последние три месяца трижды поднимала вопрос о снятии ограничений на поставки HBM-чипов в ходе переговоров с министром финансов США Скоттом Бессентом (Scott Bessent). Пекин считает эти меры критически важными для развития собственных технологий искусственного интеллекта, особенно для компаний Huawei и SMIC, чьи возможности были серьёзно ограничены запретом на экспорт HBM, введённым администрацией Джо Байдена (Joe Biden): в 2022 году он запретил поставки передовых ИИ-чипов, а в 2024 году — и HBM. Ограничения на HBM, как отмечали участники обсуждений в американской администрации, ранее были признаны Белым домом при Байдене «единственным самым серьёзным препятствием» для массового производства ИИ-чипов в Китае. Грегори Аллен (Gregory Allen), эксперт по ИИ из аналитического центра CSIS, подчеркнул, что HBM составляет около половины стоимости передовых ИИ-чипов и является ключевым элементом их конструкции. По его словам, разрешение поставок более продвинутых HBM-чипов в Китай фактически означало бы помощь Huawei в создании конкурентоспособных аналогов продукции Nvidia. Другой собеседник, участвовавший в дискуссиях внутри правительства США, предупредил, что снятие контроля стало бы подарком для Huawei и SMIC и могло привести к выпуску миллионов ИИ-чипов в год, одновременно отвлекая дефицитные компоненты от рынка США. Китай также использует HBM для сборки чипов, логические компоненты которых, по подозрениям американских официальных лиц, были получены китайской компанией SophGo с нарушением экспортного законодательства США — от тайваньского производителя TSMC. Один из источников назвал HBM «главным узким местом» в производстве ИИ-чипов, где память и логика объединяются в единый модуль. В то же время, по данным Financial Times, министерство торговли США получило указание приостановить введение новых экспортных ограничений против Китая. Это усилило опасения в Вашингтоне, особенно на фоне решения Трампа в июле отменить запрет на продажу чипов H20 — модификации, разработанной Nvidia специально для китайского рынка после блокировки более мощных решений. В пятницу также стало известно, что США одобрили экспортные лицензии на H20 вскоре после встречи генерального директора Nvidia Дженсена Хуанга (Jensen Huang) с Трампом. Посольство Китая в США отказалось комментировать вопрос по HBM напрямую, однако заявило, что Вашингтон «злоупотребляет экспортным контролем в целях подавления Китая, нанося серьёзный ущерб законным правам китайских компаний». На этом фоне усиливаются и призывы к ужесточению надзора. Так, председатель комитета по делам Китая в Палате представителей Джон Муленар (John Moolenaar) заявил, что масштабы контрабанды передовых ИИ-чипов в Китай и их использование в обход ограничений требуют более решительных действий со стороны Бюро промышленности и безопасности Минторга США (BIS) и самой Nvidia. Он также отметил, что китайские компании активно продвигают игровые версии чипов 4090D и 5090D как пригодные для обучения ИИ-моделей, хотя Nvidia официально не позиционирует их для таких задач. В Nvidia в ответ заявили, что правительство США официально подтвердило: игровые видеокарты, продаваемые в Китае, не требуют экспортных лицензий. Компания подчеркнула, что эта продукция предназначена исключительно для потребителей, геймеров и академических пользователей, а её реализация соответствует всем требованиям экспортного законодательства. Ранее 3DNews сообщал, что в апреле—июне китайским компаниям удалось нелегально получить чипов Nvidia на сумму около $1 млрд, что вызвало обеспокоенность у регуляторов США и усилило давление на экосистему экспорта высоких технологий. Nanya и Etron создали совместное предприятие по разработке памяти HBM для смартфонов и автомобилей
10.08.2025 [08:11],
Алексей Разин
Принято считать, что производство памяти типа HBM, которая подразумевает технически сложную интеграцию нескольких ярусов кремниевых чипов, по плечу лишь продвинутым и крупным компаниям, причём далеко не всем. Это не помешало Nanya Technology и Etron образовать совместное предприятие, которое сосредоточится на разработке памяти типа HBM для самых различных сфер применения.
Источник изображения: Nanya Technology Общий вектор деятельности нового СП, как отмечает TrendForce со ссылкой на TechNews — это разработка скоростной памяти для периферийных вычислений. Развитие систем искусственного интеллекта подразумевает, что часть интенсивных вычислений должна осуществляться на периферийном устройстве, поэтому спрос на скоростную память будет диктоваться не только серверной инфраструктурой. В расчёте на извлечение выгоды из этой тенденции Nanya Technology и Etron создали совместное предприятие, которое займётся освоением этой рыночной ниши. В капитал СП компаньоны вложат около $16,7 млн, причём 80 % акций достанутся Nanya, пропорционально объёму инвестиций. Выпустить новые типы памяти HBM партнёры надеются к концу следующего года. Соответствующие чипы найдут своё применение в ПК, смартфонах, робототехнике и автомобильной электронике. Представители Nanya ранее сообщали, что компания не будет пытаться составить конкуренцию производителям HBM3 или HBM3E, а вместо этого сосредоточится на разработке более узкоспециализированных видов памяти. Как ожидается, упаковкой памяти HBM для нужд Nanya будет заниматься Formosa Advanced Technologies. Samsung провалила ИИ-гонку, недооценив значимость HBM — и теперь под ударом экономика всей Южной Кореи
08.08.2025 [18:59],
Сергей Сурабекянц
Samsung Electronics известна потребителям своими мобильными телефонами и плоскими телевизорами, но крупнейшим её продуктом являются микросхемы памяти, которые стали критически важными в обострившейся гонке за передовой искусственный интеллект. И в этой гонке Samsung отстаёт — её обогнала SK hynix, захватив 62 % рынка оперативной памяти с высокой пропускной способностью (High-Bandwidth Memory, HBM).
Источник изображения: unsplash.com На протяжении десятилетий Samsung была ведущим мировым производителем памяти DRAM (Dynamic Random Access Memory — динамическая память с произвольным доступом), используемой практически во всех электронных устройствах. Но компания оказалась не готова к резво возросшему спросу на память HBM, спровоцированному непрекращающимся бумом искусственного интеллекта. SK hynix в партнёрстве с Advanced Micro Devices оказалась более прозорливой и превзошла Samsung, став крупнейшим мировым производителем DRAM. На сегодняшний день SK hynix контролирует 62 % поставок чипов HBM и является основным поставщиком этой продукции для таких технологических лидеров, как Nvidia. Для сравнения, Samsung во втором квартале этого года занимала всего 17 % мирового рынка HBM и затратила огромные усилия, что остаться поставщиком для Nvidia.
Источник изображения: SK hynix Samsung рассчитывает на следующее поколений чипов памяти, которые должны вернуть ей утраченные позиции, но удастся ли ей сделать это в условиях жёсткой конкуренции, пока неясно. Важно отметить, что Samsung Electronics входит в число компаний, во многом определяющих экономическое положение Южной Кореи, и от успешности её бизнеса без преувеличения зависит благосостояние немалого процента жителей страны. Американский стартап придумал HBM-память из далёкого будущего, но ею никто не заинтересовался
06.08.2025 [10:02],
Геннадий Детинич
Молодая американская компания NEO Semiconductor представила ещё один вариант революционной стековой памяти X-DRAM собственной разработки. На этот раз производителям предложена память X-HBM, опередившая своё время на четверть века — а возможно, и больше. Чипы X-HBM обещают обеспечить в 16 раз более высокую пропускную способность или в 10 раз большую плотность записи по сравнению с самыми передовыми современными микросхемами памяти HBM.
Источник изображения: NEO Semiconductor «X-HBM — это не постепенное обновление, а фундаментальный прорыв, — заявил Энди Сю (Andy Hsu), основатель и генеральный директор NEO Semiconductor. — Благодаря пропускной способности, в 16 раз превышающей показатели существующих решений, или в 10 раз большей плотности, X-HBM открывает перед производителями ИИ-чипов чёткий путь к производительности следующего поколения — на годы раньше запланированного срока. Это изменит правила игры, ускорит развитие ИИ-инфраструктуры, снизит энергопотребление и расширит масштабируемость ИИ в различных отраслях». О перспективной архитектуре памяти X-DRAM компания NEO Semiconductor впервые заявила в 2020 году. Разработка защищена сотнями патентов. В целом речь идёт о стековой компоновке массивов ячеек памяти — по аналогии с архитектурой 3D NAND. Такой подход позволяет значительно повысить плотность записи и реализовать гораздо более широкую шину передачи данных к процессору. Архитектура X-HBM предусматривает использование 32 768-битной шины памяти. Для сравнения: технология HBM5, которая всё ещё находится в разработке и, как ожидается, выйдет на рынок примерно в 2030 году, будет поддерживать шину шириной 4096 бит и плотность 40 Гбит на кристалл. Предполагается, что даже HBM8, которую ожидают к 2040 году, предложит лишь 16 384-битную шину и 80 Гбит на чип. На этом фоне X-HBM с 32 768-битной шиной данных и плотностью 512 Гбит на кристалл выглядит как гостья из далёкого будущего, способная приблизить разработчиков ИИ-чипов к технологиям завтрашнего дня на десятилетия раньше. Также в арсенале NEO Semiconductor имеются чипы 3D X-AI, которые в дополнение к многослойной структуре содержат в себе слои нейронных сетей. Это позволяет обрабатывать данные непосредственно в памяти, экономя ресурсы GPU и СPU, а также снижая потребление. Разные версии технологии X-DRAM компания ежегодно представляет на августовском саммите FMS. Текущий год не стал исключением — публике была показана память X-HBM. К сожалению, к производству этой и других версий стековой памяти от NEO Semiconductor пока никто из производителей не проявил интереса. Отрасль охотно говорит о революциях, но на практике каждое нововведение должно окупаться — а это не терпит спешки. «Продажи HBM от Samsung достигли дна»: SK hynix стала крупнейшим производителем памяти в мире
31.07.2025 [14:29],
Анжелла Марина
SK hynix впервые обошла Samsung Electronics по объёму выручки от производства памяти, став крупнейшим в мире поставщиком, сообщает Bloomberg. Это произошло на фоне роста спроса на компоненты для систем искусственного интеллекта, где позиции SK hynix оказались более сильными.
Источник изображения: SK hynix Выручка Samsung от продаж компьютерной памяти, включая DRAM и NAND, за период с апреля по июнь составила 21,2 триллиона вон (около $15,2 млрд), что ниже, чем 21,8 триллиона вон, зафиксированных у SK hynix неделей ранее. Основной вклад в успех компании, базирующейся в Ичхоне (Южная Корея) внесла высокопроизводительная память HBM (High-Bandwidth Memory), используемая в ИИ-чипах. По данным аналитической компании Counterpoint Research, доля SK hynix на рынке HBM достигла 62 %, в то время как Samsung контролирует лишь 17 % этого сегмента и до сих пор не получила одобрения от Nvidia на поставку своей самой передовой версии HBM.
Источник изображения: Bloomberg МС Хван (MS Hwang), директор по исследованиям в Counterpoint, отметил, что траектории роста двух южнокорейских производителей начали расходиться в первой половине 2024 года на фоне повышенного спроса на продукцию Nvidia и связанную с ней память HBM. Он также указал, что падение продаж HBM у Samsung, вероятно, замедлилось. «Новость заключается в том, что продажи HBM-памяти Samsung, похоже, достигли своего дна», — сказал Хван. Для справки: HBM — это технология вертикального объединения нескольких слоёв DRAM, обеспечивающая высокую пропускную способность. Сегодня HBM рассматривается как критически важная составляющая для производительности современных компьютеров и серверов. Ажиотажный спрос на HBM подтолкнул SK hynix к увеличению капитальных затрат на 30 %
28.07.2025 [11:26],
Алексей Разин
В одном ряду бенефициаров ИИ-бума стоят компании Nvidia и SK hynix, поскольку вторая производит для первой микросхемы памяти типа HBM разных поколений. Рекордная прибыль, которая была получена SK hynix в прошлом квартале, растёт высокими темпами именно благодаря реализации HBM, поэтому компания готова увеличить капитальные затраты сразу на 30 % по итогам этого года.
Источник изображения: SK hynix Напомним, что именно HBM сейчас формирует 77 % выручки SK hynix, сейчас эта компания по величине операционной прибыли в два раза обходит конкурирующую Samsung Electronics, а по итогам текущего года выручка SK hynix от реализации HBM должна удвоиться, как ожидает руководство компании. При этом на официальном отчётном мероприятии никто не сказал, как сильно SK hynix намерена увеличить капитальные затраты на расширение производства памяти. Этот пробел попытались устранить неофициальные источники, опрощенные южнокорейским ресурсом The Elec. По их мнению, в этом году капитальные расходы SK hynix вырастут сразу на 30 % до почти $21 млрд. Это серьёзные показатели, причём как в натуральном выражении, так и в относительном. Как отмечали на прошлой неделе представители SK hynix, заметная часть капитальных расходов этого года будет направлена на обеспечение рынка памятью HBM в следующем календарном году. Здесь работает принцип «готовь телегу зимой, а сани летом». Бум ИИ продолжает обогащать SK hynix: выручка подскочила на 35 %, прибыль — на 69 %
24.07.2025 [12:04],
Алексей Разин
Статус крупнейшего поставщика памяти типа HBM для нужд Nvidia продолжает играть на руку южнокорейской компании SK hynix, которая по итогам прошлого квартала смогла увеличить выручку на 35 % в годовом сравнении, а операционную прибыль поднять сразу на 69 %. Выручка от реализации HBM в отдельности должна по итогам этого года удвоиться.
Источник изображения: SK hynix Как отмечает CNBC со ссылкой на квартальную отчётность SK hynix, по итогам прошлого квартала именно HBM определяла 77 % совокупной выручки компании. Собственно говоря, показатели выручки и операционной прибыли второго квартала стали для SK hynix рекордными за всю историю существования компании, они оказались заметно выше ожидаемого аналитиками уровня. Выручка за период достигла $16,17 млрд, а операционная прибыль выросла до $6,57 млрд. Последовательно выручка увеличилась на 26 %, а операционная прибыль — на 24 %. По величине прибыли SK hynix в два раза превосходит более крупную Samsung Electronics. По мнению представителей SK hynix, до конца года спрос на её продукцию вряд ли резко снизится, поскольку на рынок выйдут новые продукты партнёров, а складские запасы на стороне клиентов остаются стабильными. Как отмечает руководство компании, крупные инвестиции техногигантов в сферу ИИ формируют высокий спрос на память, применяемую в этом сегменте. Фактически, в серверном сегменте спрос будет расти не только на направлении систем для ИИ, но и решений общего назначения, как ожидают в SK hynix. Некоторые надежды в компании возлагают и на распространение клиентских устройств с функциями ускорения ИИ — таких как ПК и смартфоны. Наконец, развитие сферы так называемого «суверенного ИИ», чья инфраструктура будет финансироваться правительствами отдельных стран и регионов, позволит сформировать тенденцию к долгосрочному росту спроса на память для систем такого класса, как считают в компании. К массовому производству микросхем HBM4 она надеется приступить до конца текущего года. Капитальные расходы в этом году придётся увеличить, чтобы обеспечить продукцией клиентов в 2026 году, причём основная часть прироста предсказуемо придётся на память для систем ИИ. Примечательно, что неопределённость с так называемыми «тарифами Трампа» способствовала росту спроса на продукцию SK hynix в первой половине текущего года. Влияние этих тарифов на динамику выручки во втором полугодии пока предугадать сложно, по словам этого производителя памяти. Возобновление поставок ускорителей Nvidia H20 в Китай таит в себе кучу рисков и неопределённости
23.07.2025 [08:30],
Алексей Разин
Осведомлённые источники недавно уже предупреждали, что в случае необходимости возобновить выпуск чипов для ускорителей H20 на конвейере TSMC сделать это будет не так просто, да и сама Nvidia отмечала, что на нормализацию поставок может уйти до девяти месяцев. Тайваньские СМИ поясняют, что этим перечень возможных проблем не ограничивается.
Источник изображения: Nvidia Издание Commercial Times подчёркивает, что основная часть необходимых для обслуживания заказов по H20 кремниевых пластин уже была отгружена TSMC компании Nvidia и её прочим подрядчикам. Вероятность возобновления выпуска этих чипов на стороне TSMC сейчас не так велика, и она будет полностью зависеть от размера партии в составе вероятных новых заказов, если до них вообще дойдёт дело. TSMC и без этого загружена заказами на выпуск чипов 5-нм класса, к которому относится и 4-нм техпроцесс, применяемый при производстве H20. Доля выручки TSMC от реализации 5-нм чипов держится на уроне около 35–36 % на протяжении примерно года, сейчас это самый востребованный класс техпроцессов среди клиентов тайваньского контрактного производителя. Более того, сохраняются проблемы с упаковкой чипов по методу CoWoS-S, который также используется при производстве ключевых компонентов для H20. Компании TSMC по-прежнему не хватает профильных мощностей для удовлетворения всего спроса. Она пытается наращивать производство, но делает это осторожно. Ситуация со спросом также непредсказуема. Проблема с H20 усугубляется тем, что за пределами Китая ускорители типа H20 никому особо не нужны, поскольку Nvidia там может легально предлагать куда более производительные решения. Если компания окажется с излишками таких ускорителей для Китая в результате падения спроса, это создаст ей новые проблемы. По этой причине Nvidia пока не готова размещать заказы на выпуск дополнительных партий H20. Тем более, что на китайском рынке уже могут появиться достойные конкуренты для этих ускорителей в лице того же Huawei Ascend 910C. По объёму памяти типа HBM3 он уже достигает паритета с H20, поскольку располагает 96 Гбайт соответствующей памяти. Если санкции США продолжат требовать от Nvidia снижения производительности своих ускорителей для рынка КНР, то спрос на них может сократиться. Для Nvidia, как считается, менее рискованной стратегией может оказаться выпуск решений, унифицированных с ускорителями для других рынков, типа модифицированных RTX Pro 6000, которые она собирается вывести на китайский рынок к сентябрю. Эта новинка довольствуется памятью типа GDDR7, которая уступает по быстродействию HBM3, но существенно дешевле. В случае, если такие ускорители просто не будут брать в Китае, компания сохранит возможность переориентировать их на другие географические направления. По мнению некоторых источников, H20 по данным причинам станет последним ускорителем для Китая, оснащаемым более дорогой памятью HBM. Впрочем, на китайском рынке есть игроки, которые всё же выиграют от возобновления поставок H20 в краткосрочной перспективе. Компания DeepSeek, как считается, затормозила разработку своей языковой модели R2 из-за нехватки ускорителей данной модели. Если поставки возобновятся, это будет способствовать более заметному прогрессу DeepSeek в обучении R2. Модель R1 предыдущего поколения полагалась главным образом на ускорители H20, коих было задействовано 30 000 штук, а ещё компанию им составили 10 000 ускорителей H800 и 10 000 ускорителей H100. Поставки двух последних были запрещены в Китай ранее. HBM скоро утратит статус «золотой жилы»: передовой памяти спрогнозировали падение цен
18.07.2025 [11:21],
Алексей Разин
Первые попытки найти применение памяти HBM в сегменте игровых видеокарт быстро уступили активному её использованию в ускорителях вычислений, и на фоне бума искусственного интеллекта цены на эту память только росли. Теперь же аналитики Goldman Sachs высказывают опасение, что в следующем году цены на HBM снизятся более чем на 10 процентов.
Источник изображения: SK hynix Именно в следующем году, по мнению аналитиков, предложение на рынке HBM в мировых масштабах наконец-то начнёт превышать спрос. Это будет способствовать тому, что средние цены реализации памяти данного семейства начнут снижаться. В ближайшее время рынок HBM снизит темпы роста с прежних 45 % в год до 25 %. В частности, по итогам текущего года его ёмкость ограничится $36 млрд, а в следующем вырастет только до $45 млрд вместо заложенных в прежний прогноз $51 млрд. По мнению аналитиков TrendForce, в следующем году средние цены реализации HBM всё же вырастут, поскольку на рынок выйдет более современная и дорогая HBM4. Снижение цен если и будет наблюдаться, то только в сегменте более дешёвых типов памяти. Специалисты Goldman Sachs добавляют, что два последовательных поколения ускорителей вычислений Nvidia будут использовать идентичный объём памяти, по 288 Гбайт HBM3E в случае с B300 и HBM4 в случае с Rubin соответственно. По этой причине общая потребность в микросхемах памяти подобного типа не будет заметно увеличиваться. Не исключено, что доля SK hynix на рынке HBM в следующем году начнёт сокращаться, поскольку по мере насыщения сегмента на него выйдут и конкурирующие компании, включая китайские. Последние уже к концу следующего года начнут выпускать HBM3. По крайней мере, позиции SK hynix на внутреннем рынке КНР из-за этого пошатнутся. Samsung со следующего года также сможет ежегодно увеличивать поставки HBM на 20 %. |