|
Опрос
|
реклама
Быстрый переход
Broadcom расширила контракт по снабжению Google ИИ-чипами, Anthropic тоже почувствует выгоду
07.04.2026 [04:45],
Алексей Разин
Компания Broadcom всё активнее проявляет себя в качестве партнёра по разработке ИИ-чипов для американских облачных гигантов, и на этой неделе она расширила контракт с Google, охватив им будущие поколения компонентов. Кроме того, был расширен контракт с Anthropic, который теперь дополнительно обеспечит её эквивалентом 3,5 ГВт вычислительных мощностей на чипах Google.
Источник изображения: Broadcom Как поясняет CNBC, эти откровения прозвучали в отчётности, которую Broadcom предоставила американским регуляторам. В части взаимоотношений с Anthropic контракт с Broadcom подчёркивает динамичность развития бизнеса первой из компаний. Если в прошлом году Anthropic могла получать до $9 млрд выручки в приведённом измерении, то сейчас её величина превышает $30 млрд, если умножить максимальную месячную сумму на двенадцать. У Anthropic более 1000 корпоративных клиентов, которые ежегодно тратят на её услуги более $1 млн. Основная часть той инфраструктуры, которую Broadcom обеспечит чипами на 3,5 ГВт суммарной мощности, расположится на территории США. В прошлом месяце руководство Broadcom подчёркивало, что в 2027 году спрос на ИИ-ускорители превысит 3 ГВт результирующей вычислительной мощности. Аналитики ожидают, что в сегменте ИИ компания Broadcom выручит $21 млрд в текущем году и $42 млрд в следующем. Собственных оценок прироста выручки от расширения контрактов с Google и Anthropic компания в своей документации для регуляторов не приводит. Помимо Anthropic, Broadcom создаёт специализированные чипы и для конкурирующей OpenAI. На память теперь уходит до 30 % расходов при создании ЦОД — в четыре раза больше, чем в 2023 году
03.04.2026 [20:41],
Николай Хижняк
По оценкам аналитиков SemiAnalysis, на память будет приходиться примерно 30 % от общего объёма капитальных затрат крупных гиперскейлеров в 2026 году, что резко контрастирует примерно с 2023 и 2024 годами, когда на эту статью приходилось лишь около 8 % расходов. Эксперты прогнозируют дальнейший рост затрат на память в 2027 году, что ознаменует почти четырёхкратное увеличение цен всего за четыре года.
Источник изображения: SemiAnalysis SemiAnalysis ожидает, что цены на DRAM вырастут более чем вдвое в 2026 году, а средняя цена продажи (ASP) увеличится ещё на двузначное число процентов в 2027 году. Контрактные цены на память LPDDR5 уже выросли более чем в три раза с первого квартала 2025 года. По оценке аналитиков, цены на открытом рынке в этом квартале, вероятно, превысят $10 за Гбайт. Поставки высокопроизводительной памяти HBM, лежащей в основе ускорителей ИИ, по-прежнему будут испытывать дефицит до 2027 года, согласно прогнозам SemiAnalysis. Общие расходы на память составят значительную долю из примерно $250 млрд дополнительных затрат крупных гиперскейлеров, прогнозируемых на этот календарный год. Это уже отражается на ценах на серверы для ИИ: по данным SemiAnalysis, цены на ускорители Nvidia B200 к концу года вырастут до 20 %, в значительной степени из-за роста стоимости памяти. Данный анализ соответствует общему мнению в отрасли — ведущие производители компьютеров и серверного оборудования в ходе своих последних финансовых отчётов признали резкое увеличение стоимости компонентов. Например, Джефф Кларк (Jeff Clarke), операционный директор компании Dell, одного из крупнейших поставщиков компьютерного оборудования в мире, ещё по итогам третьего квартала прошлого года назвал темпы роста цен «беспрецедентными». Отдельно аналитики агентства Counterpoint Research прогнозируют, что модули памяти DDR5 объёмом 64 Гбайт RDIMM к концу 2026 года могут стоить вдвое дороже, чем в начале 2025 года. А серверы для ИИ, построенные на платформах Nvidia с поддержкой LPDDR, демонстрируют один из самых резких скачков цен из-за огромного объёма используемой памяти в каждой системе. В своём отчёте SemiAnalysis отмечает, что Nvidia пользуется преференциями при закупке памяти, поскольку поставщики предлагают компании так называемые VVP (Very Very Preferred) цены на DRAM. Эти цены «значительно ниже, чем озвучиваемые как для крупных облачных провайдеров, так и для рынка в целом». По мнению SemiAnalysis, это позволяет Nvidia снижать собственные затраты на серверы и в то же время занижает общие рыночные ценовые ориентиры, маскируя реальную серьёзность дефицита поставок для всех остальных. Основной конкурент Nvidia на рынке ИИ-ускорителей, компания AMD, таких преференций от поставщиков памяти не имеет, хотя в её ускорителях, как правило, на единицу продукта используется больше чипов памяти. AMD выпускает гораздо меньше ИИ-ускорителей, чем Nvidia, что делает её структурно более уязвимой к росту стоимости памяти в условиях гораздо меньшего масштаба производства процессоров для ИИ, говорится в отчёте. Другими словами, масштабы закупок Nvidia как HBM, так и обычной DRAM дают ей рычаги влияния, которыми покупатели с меньшим объёмом закупок просто не располагают. Huawei усилила Ascend 950PR совместимостью с Nvidia CUDA и нацелилась на сотни тысяч поставок
27.03.2026 [11:22],
Алексей Разин
Находящаяся с 2019 года под американскими санкциями компания Huawei Technologies решила активно расширять ассортимент предлагаемых компонентов собственной разработки, среди них оказались и ускорители вычислений Ascend 950PR. По имеющимся данным, они пришлись по вкусу китайским разработчикам, и в этом году разойдутся тиражом около 750 000 экземпляров.
Источник изображения: Huawei Technologies Об этом со ссылкой на собственные источники сообщило агентство Reuters. В текущем поколении ускорители Ascend 910C не нашли существенного спроса со стороны китайских разработчиков ПО и облачных провайдеров, даже с учётом существования государственной программы импортозамещения в КНР. Частные компании не горели желанием переходить на Ascend 910C и отказываться от привычных ускорителей Nvidia. В пользу потенциальной популярности Ascend 950PR сыграл тот факт, как отмечает Reuters, что эти ускорители Huawei более совместимы с экосистемой Nvidia CUDA, а потому имеющееся программное обеспечение проще адаптировать под аппаратные решения Huawei нового поколения. Кроме того, Ascend 950PR явно опережают предшественников в отзывчивости при работе в составе инфраструктуры ИИ. В этом году Huawei рассчитывает поставить клиентам около 750 000 ускорителей Ascend 950PR. Образцы ускорителей были отправлены клиентам для тестирования в январе, массовое производство должно начаться в апреле текущего года. Лишь во втором полугодии объёмы поставок этих ускорителей достигнут по-настоящему крупных значений. Ускорители Ascend 950PR будут предлагаться в двух основных модификациях: младшая с памятью типа DDR оценивается в $6900, а за более дорогой вариант с памятью HBM придётся отдать более $10 000. Американские власти с конца прошлого года готовятся создать условия для легальных поставок ускорителей Nvidia H200 в Китай, но китайские власти только недавно разрешили их импорт. Теперь китайским клиентам Nvidia предстоит определиться с объёмом заказов, прежде чем компания начнёт отгружать H200 по официальным каналам в КНР. Совместимость новых ускорителей Huawei с программным обеспечением Nvidia сделает миграцию китайских разработчиков на отечественные компоненты более гладкой. Ascend 950PR также лучше проявляет себя в задачах инференса по сравнению с предшественником. Первый ИИ-чип OpenAI получит память HBM4 от Samsung — TSMC начнёт выпускать его в третьем квартале
20.03.2026 [12:58],
Алексей Разин
Стартап OpenAI в качестве субъекта переговоров не ограничивается «кольцевыми» сделками, в которых сам ни за что не отвечает, но интересуется и вполне материальными проектами. С третьего квартала TSMC может наладить выпуск для OpenAI чипа, разработанного в сотрудничестве с Broadcom. Снабжать ускорители на его основе памятью HBM4 вызвалась Samsung Electronics.
Источник изображения: Samsung Electronics По крайней мере, на этом настаивает южнокорейское издание Korean Economic Daily. Соглашение между Samsung и OpenAI якобы уже подписано, оно подразумевает обязательства по поставке микросхем HBM4 в 12-ярусном исполнении со второй половины текущего года. Объём первой партии источники оценивают в 800 млн гигабит, хотя подобная единица измерения и не совсем удобна для восприятия. Непосредственно разработанный OpenAI при помощи Broadcomm чип для ускорения искусственного интеллекта будет представлен к концу текущего года, хотя фактически его выпуск должен начаться компанией TSMC в третьем квартале. Соглашение в сфере сотрудничества с Broadcom компания OpenAI с целью разработки ИИ-чипа заключила ещё в прошлом году. Традиционно охватывающий широкий спектр печатных источников ресурс TrendForce попутно сообщил, что Samsung также заключила долгосрочные контракты на поставку компонентов не только с AMD, но и с Google, а также Microsoft. Условия сделок не уточняются, но источники предполагают, что Samsung наверняка гарантировала поставку определённого количества микросхем памяти в течение года с привязкой цены к уровням рынка моментальных сделок. Формально, базовая минимальная цена фиксируется на весь период контракта, но если цены на спот-рынке превышают её, поставщик оставляет за собой право требовать доплаты. Контракты заключены на срок от трёх до пяти лет, как утверждают источники. Они предусматривают крупные авансовые платежи с возможностью их частичного возврата в случае отсутствия у клиента потребности в фактической закупке выпущенного для него количества памяти. Microsoft, например, договорилась заплатить Samsung авансом сразу более $10 млрд. Как поясняют эксперты, контракты на поставку памяти сроком от трёх до пяти лет становятся распространённой практикой не только в силу дефицита памяти на рынке, но и из-за необходимости адаптировать чипы HBM4 под нужды конкретных клиентов. Располагая солидным авансом, производитель памяти может не только свободнее наращивать мощности, но и быть уверенным, что выпущенная под конкретного заказчика память с высокой вероятностью будет им выкуплена. Расширение производства чипов споткнулось о нехватку оборудования для тестирования и упаковки
19.03.2026 [12:05],
Алексей Разин
Представители полупроводниковой отрасли признались Nikkei Asian Review, что на данном этапе одним из сдерживающих увеличение объёмов производства чипов факторов становится нехватка оборудования для тестирования и упаковки чипов, а также рост затрат времени на соответствующие процедуры. Зато производители профильного оборудования переживают бум заказов и готовятся наращивать выпуск продукции.
Источник изображения: LinkedIn Сразу несколько факторов влияют на спрос на такое оборудование в условиях бума систем искусственного интеллекта. Во-первых, потребность в увеличении объёмов выпуска чипов сама по себе подразумевает рост закупок профильного оборудования для их упаковки и тестирования. Во-вторых, современные чипы становятся всё более сложными с точки зрения упаковки, поэтому возрастают затраты на их тестирование и упаковку. В-третьих, в сегменте ИИ тестированию подвергается каждый выпущенный чип, проверка не производится выборочно, как это происходит в массовом сегменте. Обнаружение дефектов на ранних этапах позволяет сократить затраты времени, ведь после монтажа чипа на печатную плату заменить его будет сложнее. Наконец, к операциям тестирования отдельных чипов добавляются и этапы проверки готовых единиц оборудования, и под эти нужды создаётся и закупается отдельное оборудование. Как отмечает Nikkei Asian Review, японская компания Advantest, которая контролирует более половины мирового рынка оборудования для тестирования чипов, текущий фискальный год в этом месяце планирует завершить с рекордной выручкой, увеличив её на 37 %. Чистая прибыль производителя при этом более чем удвоится по сравнению с предыдущим фискальным годом. Схожие ожидания демонстрируют и конкурирующие компании типа американской Teradyne или тайваньской Chroma ATE. За прошлый год курсовая стоимость акций всех трёх компаний выросла более чем в три раза. Представители Advantest пояснили, что в прошлом тестирование одного процессора для мобильного процессора занимало менее минуты. Современный многокристальный чип для ИИ тестируется более 10 минут, причём эту процедуру должен проходить каждый экземпляр продукции, а потому данный этап производственного процесса способен стать «узким местом». Чтобы избежать этого, производители чипов активно закупают оборудование для тестирования продукции и её упаковки. Отдельным направлением стало тестирование силовой электроники, используемой в инфраструктуре ИИ. Для этих операций потребовалось новое оборудование, которое проектируется и отгружается поставщиками, но его нехватка также может накладывать ограничения на объёмы выпуска готовой продукции. Производители контрольно-измерительного оборудования, которое используется для контроля за качеством полупроводниковой продукции на разных этапах, также переживают бум спроса на свои изделия. Компания WinWay, например, для резкого увеличения объёмов производства сочла нецелесообразным строить новые предприятия самостоятельно, а отдала часть заказов на субподряд. Кроме того, она арендовала или купила уже готовые корпуса для размещения там своего оборудования и выпуска продукции. Наиболее дефицитные виды оборудования WinWay по итогам текущего года сможет выпускать в количествах, увеличенных почти втрое, но даже в этом случае за счёт собственных мощностей может покрыть лишь 60 % рыночного спроса. Сотрудники WinWay почувствовали выгоду от такого резкого роста объёмов выпуска оборудования. Им в среднем полагается премия за переработку в размере до 35 месячных окладов в год, а 10 % лучших получают до 50 месячных окладов в дополнение к основной зарплате по итогам года. Участники рынка полагают, что спрос на оборудование для тестирования чипов сохранится на высоком уровне как минимум до 2028 года. Расширение бизнеса для многих из них упирается в нехватку земли, источников электроэнергии и человеческих ресурсов. Производители верят, что нынешний бум не завершится так же скоро, как это происходило в прошлом. Рынок меняется структурно, а потому спрос переходит на новый уровень. Крупные производители оборудования смогут хорошо заработать на этих тенденциях. Илон Маск заверил, что SpaceX AI и Tesla продолжат закупать много чипов Nvidia
19.03.2026 [08:27],
Алексей Разин
Активное обсуждение планов Tesla по выпуску своих ИИ-чипов на американских предприятиях Samsung Electronics, по всей видимости, вынудило генерального директора Илона Маска (Elon Musk) сделать важное замечание со страниц социальной сети X. По его словам, SpaceX AI и Tesla продолжат закупать чипы Nvidia в значительных количествах.
Источник изображения: SpaceX Характерно, что новая укрупнённая после объединения SpaceX и xAI компания Илона Маска впервые публично упоминается им под именем «SpaceX AI». Непосредственно стартапу xAI с прошлого года уже принадлежит социальная сеть X, ранее носившая имя Twitter. По сути, SpaceX AI теперь представлена и в аэрокосмической сфере, и в сегменте социальных сетей, и на рынке систем искусственного интеллекта. Илон Маск отдельно пояснил, что разрабатываемый компанией Tesla чип AI5 действительно может использоваться в центрах обработки данных для обучения больших языковых моделей, но первичным его предназначением станут периферийные ИИ-вычисления в составе человекоподобных роботов Optimus и беспилотных такси. В ближайшие несколько недель Маск намерен представить крупное обновление программного обеспечения FSD, отвечающего за автопилот в электромобилях Tesla. Напомним, что в конце этой недели Маск пообещал поделиться подробными данными о судьбе проекта гигантской фабрики по производству ИИ-чипов для нужд Tesla и смежных компаний, принадлежащих ему в той или иной степени. Миллиардер не раз отмечал, что оценивает потребности этих компаний в чипах высокими до степени, не позволяющей рассчитывать на удовлетворение спроса имеющимися контрактными производителями компонентов. Nvidia готовит для китайского рынка особую версию ИИ-чипов Groq
18.03.2026 [07:01],
Алексей Разин
В прошлом году Nvidia в рамках сделки на сумму $17 млрд получила доступ к разработкам стартапа Groq, и уже в этом месяце представила специализированные чипы LPU для ускорения работы ИИ в задачах инференса. Как отмечают источники, для Китая компания уже готовит адаптированную версию чипов Groq, с учётом существующих в США экспортных ограничений.
Источник изображения: Nvidia Об этом накануне сообщило агентство Reuters со ссылкой на собственные источники. Одновременно глава Nvidia Дженсен Хуанг (Jensen Huang) заявил, что компания возобновила выпуск чипов H200 собственной разработки, которые собирается продавать на китайском рынке. Nvidia удалось получить необходимые для отгрузки H200 китайским клиентам экспортные лицензии США, а китайские органы власти разрешили их импорт в Поднебесную. Среди китайских конкурентов Nvidia немало тех, кто предлагает собственные специализированные чипы для инференса, поэтому возможность поставки адаптированных решений семейства Groq важна для американской компании с точки зрения сохранения своих позиций на китайском рынке. Как поясняет Reuters, адаптация чипов Groq для Китая будет заключаться не в снижении быстродействия, а в сохранении возможности работы с другими системами. Поставки чипов Groq начнутся в мае этого года, для Китая их не будут выпускать отдельно от основных партий. Илон Маск пообещал запустить проект гигантской фабрики по выпуску чипов к концу следующей недели
15.03.2026 [06:25],
Алексей Разин
В последнее время Илон Маск был сосредоточен на идее строительства центров обработки данных в космосе, но поскольку для них потребуются вычислительные компоненты, вчера он заявил о намерениях запустить проект по строительству гигантской фабрики, выпускающей чипы для ИИ, через семь дней.
Источник изображения: Tesla Судя по всему, как заключает Reuters, речь идёт о прошлогодней инициативе Маска по строительству «терафабрики», которая позволила бы Tesla самостоятельно изготавливать чипы для ускорителей вычислений, бортовых систем электромобилей и человекоподобных роботов. Из прежних пояснений главы компании становится ясно, что её потребности в чипах для ИИ будут серьёзными до степени, которая не позволит даже совместными усилиями всех подрядчиков удовлетворить спрос. К слову, среди возможных партнёров по выпуску своих чипов Tesla уже упоминала не только TSMC и Samsung, с которыми уже сотрудничает, но и компанию Intel. По крайней мере, в прошлом году Илон Маск рассуждал, что «с Intel следовало бы провести переговоры», хотя и подчеркнул в тот момент, что никаких договорённостей с этим производителем чипов у Tesla не было. На ежегодном собрании акционеров Tesla в прошлом году Маск пояснил, что «даже в лучшем сценарии производства чипов всеми нашими поставщиками их всё равно не хватит». «Так что я думаю, что нам придётся построить терафабрику Tesla. Это как гига, но только заметно больше. Я не вижу иного способа получить объёмы чипов, которые нам требуются. Поэтому я думаю, что нам, возможно, придётся построить гигантскую фабрику чипов. Это необходимо сделать», — отмечал ранее Илон Маск. Выпуск чипов AI5 собственной разработки Tesla намерена поручить и компании Samsung Electronics, которая для этих целей готовит новое предприятие в Техасе. TSMC при этом также не останется без заказов. Говоря о терафабрике в прошлом году, Маск планировал обеспечить с её помощью обработку 1 млн кремниевых пластин ежемесячно. Это надолго: дефицит памяти не ослабнет до второй половины 2027 года, прикинули аналитики
13.03.2026 [00:48],
Николай Хижняк
В период празднования Китайского Нового года цены на универсальную DRAM и флеш-память NAND выросли примерно в три раза. Свежий прогноз аналитиков Counterpoint Research говорит, что дефицит памяти продолжает усугубляться и сохранится как минимум до второй половины следующего года.
Источник изображения: SK hynix По данным Counterpoint Research, в период Китайского Нового года цены на 64-гигабайтные модули DRAM (RDIMM) DDR5 для серверов выросли на 150 % по сравнению с предыдущим кварталом, на 12-гигабайтные модули LPDDR5X для мобильных устройств — на 130 %, а на универсальные 8-гигабайтные SO-DIMM DDR4, в основном использующиеся в ноутбуках, — на 180 %, несмотря на то, что они более старые. Цены на чипы NAND выросли на 130–150 %, показав беспрецедентный рост. Ожидается, что этот дефицит памяти сохранится как минимум до второй половины следующего года. Капитальные затраты (CAPEX) компаний Samsung Electronics и SK hynix, оцениваемые в 80–90 триллионов вон ($50–60 млрд), недостаточны для удовлетворения текущего спроса. «В этом году ожидается, что производство DRAM такими компаниями, как Samsung Electronics, SK hynix, Micron, CXMT и Nanya, увеличится на 26 %, а NAND — на 24 %. Однако это не окажет никакого значительного воздействия на рынок до второй половины 2027 года. Дефицит предложения не будет решён примерно до конца второй половины 2027 года», — сообщил научный сотрудник Counterpoint Research Хван Мин-сон (Min-sung Hwang). По его словам, «не существует сценария, при котором цены на память скорректируются во второй половине 2026 года». В этом году основное внимание поставщиков высокопроизводительной памяти HBM (High Bandwidth Memory) будет, вероятно, сосредоточено на конкуренции за маржу, а не на доле рынка. По данным Counterpoint Research, на долю SK hynix приходилось около 60 % поставок и выручки HBM в прошлом году, но ожидается, что в этом году эта доля немного снизится. «По сравнению с прошлым годом в этом году Samsung Electronics, как ожидается, добьётся больших успехов на рынке HBM4. Поскольку SK hynix находится в довольно сложной ситуации, когда ей приходится модифицировать свою существующую продукцию (переход на HBM4 для Nvidia), ключевым фактором, вероятно, станет скорость, с которой компания сможет с этим справиться», — добавил эксперт. По данным Counterpoint Research, поставщики памяти переориентируют производство со специализированных модулей памяти HBM на память общего назначения для максимизации прибыльности. «Поскольку крупные поставщики облачных услуг (гиперскейлеры) по-прежнему закупают память в огромных объёмах, цены на чипы вряд ли снизятся во второй половине этого года», — говорится в отчёте. Аналитики считают, что геополитические риски, связанные с войной на Ближнем Востоке, вряд ли окажут существенное влияние на цены на память. «Хотя война не окажет немедленного влияния на цены на память, если энергетический кризис сохранится в долгосрочной перспективе, рост цен на чипы, вызванный увеличением капитальных затрат и повышением тарифов на электроэнергию, на долю которых приходится более половины операционных расходов центров обработки данных, может оказать давление на спрос», — пояснил Хван Мин-сон. По его мнению, большего внимания в среднесрочной перспективе заслуживают китайские производители памяти. «Ожидается, что CXMT, китайский производитель DRAM, к 2028 году займёт более 10 % рынка, а YMTC, китайский производитель NAND, уже занимает 13 % рынка», — добавил эксперт. Meta✴ представила четыре собственных ИИ-ускорителя MTIA для инференса — чипы Nvidia и AMD они не заменят
12.03.2026 [08:08],
Владимир Фетисов
Meta✴✴ Platforms на этой неделе представила дорожную карту, в рамках которой компания осуществляет разработку четырёх новых чипов на фоне стремительного расширения инфраструктуры собственных центров обработки данных. Гигант соцсетей, как и многие другие крупные бигтехи, вкладывает значительные средства в создание команды, способной разрабатывать собственные чипы для сферы ИИ, которые могли бы стать дополнением к закупкам продукции Nvidia и AMD.
Источник изображений: Igor Omilaev / unsplash.com Процесс создания чипов для решения специфических задач по обработке данных может привести к появлению аппаратных продуктов, которые потребляют меньше энергии и имеют привлекательность с финансовой точки зрения по сравнению с уже имеющимися на рынке чипами. Разработка чипов Meta✴✴ проходит в рамках программы Meta✴✴ Training and Inference Accelerator (MTIA). Первым в числе новых чипов стал MTIA 300, и он уже задействован для обеспечения работы систем ранжирования и рекомендаций в сервисах компании. Остальные три чипа будут выпущены в 2026-2027 годах, причём два последних — MTIA 450 и MTIA 500, разрабатываются для инференса, т.е. обеспечения работы процесса генерации ответов на пользовательские запросы. Meta✴✴ уже добилась определённого успеха в плане разработки чипов для инференса, но долгое время сталкивалась с трудностями в реализации собственных амбиций по созданию чипов для обучения генеративных ИИ-моделей. Начиная с MTIA 400, который, по словам компании, находится на пути к началу использования в ЦОД Meta✴✴, под эти задачи была спроектирована полноценная система, включающая в себя несколько серверных стоек и систему жидкостного охлаждения. На данный момент план Meta✴✴ предполагает запуск новых чипов с интервалом в шесть месяцев, поскольку компания сосредоточена на быстром расширении инфраструктуры своих ЦОД, которые обеспечивают работу таких приложений, как Instagram✴✴ и Facebook✴✴. В начале этого года компания сообщила, что объём капитальных затрат в этом году составит от $115 до $135 млрд. Частично разработка новых чипов осуществляется совместно с Broadcom в рамках заключенного ранее партнёрского соглашения. Для производства готовой продукции используются мощности тайваньской TSMC. Broadcom в следующем году рассчитывает выручить на ИИ-чипах более $100 млрд
05.03.2026 [08:25],
Алексей Разин
Возможно, компания Broadcom и остаётся в тени ИИ-бума, но это не мешает ей активно зарабатывать на нём. По мнению генерального директора Хок Тана (Hock Tan), выручка компании от реализации ИИ-компонентов в следующем году значительно превысит $100 млрд. Для сравнения, в текущем квартале компания рассчитывает выручить на этом направлении $10,2 млрд.
Источник изображения: Broadcom В принципе, как поясняет CNBC, уже сейчас выручка Broadcom от реализации ИИ-чипов и сотрудничества с компаниями, их создающими, растёт впечатляющими темпами. В прошлом квартале она более чем удвоилась до $8,4 млрд, хотя совокупная выручка компании выросла только на 29 % до $19,3 млрд. По словам главы Broadcom, компания заручилась поддержкой поставщиков, необходимой для достижения целевой выручки рубежа в $100 млрд по итогам следующего года. Broadcom не только поставляет клиентам цифровые сигнальные процессоры и компоненты телекоммуникационного оборудования, необходимые для работы вычислительной инфраструктуры ИИ. Она помогает крупным игрокам рынка разрабатывать собственные чипы. Среди её клиентов на этом направлении, как считается, числятся Google, Meta✴✴, Anthropic и OpenAI. Кроме того, за пределами США у Broadcom тоже есть профильные клиенты — например, Fujitsu и ByteDance. Google свои процессоры семейства Tensor начала разрабатывать в 2015 году как раз при поддержке Broadcom. С 2018 года доступ к этим чипам предоставляется сторонним компаниям, среди них уже замечены Apple и Anthropic, а недавно к ним присоединилась Meta✴✴ Platforms. Кроме того, для неё Broadcom разрабатывает и специализированные ускорители MTIA. Как отметил глава Broadcom на этой неделе, данная программа не упразднена, вопреки слухам. Хок Тан пояснил, что упоминаемая выше выручка в размере $100 млрд будет определяться потребностями крупнейших клиентов в развитии ИИ-инфраструктуры. В частности, Anthropic собирается ввести в строй 3 ГВт вычислительных мощностей, столько же обеспечит Google, не менее 2 ГВт предоставит Meta✴✴, а OpenAI введёт не менее 1 ГВт. Meta✴ будет разрабатывать собственные ИИ-ускорители
05.03.2026 [06:58],
Алексей Разин
Финансовый директор Meta✴✴ Platforms Сьюзан Ли (Susan Li) на технологической конференции Morgan Stanley заявила, что компания продолжит разрабатывать собственные процессоры, оптимизированные под вычислительные нагрузки, используемые компанией. Активное сотрудничество с поставщиками готовых ускорителей сторонней разработки не отменяет актуальности создания собственных чипов.
Источник изображения: Unsplash, Igor Omilaev «Некоторые из наших вычислительных нагрузок очень специфичны. Нагрузки, связанные с сортировкой и рекомендациями, присутствовали изначально, и именно в этой сфере мы наиболее активно применяли собственные чипы. Мы надеемся, что сможем расширить их применение со временем, включая и процесс обучения ИИ-моделей», — заявила представительница компании. Хотя Meta✴✴ Platforms и не является провайдером облачных услуг, она обладает одним из крупнейших парков центров обработки данных, используемым для собственных нужд. За последние недели она заключила крупные сделки с Nvidia и AMD, которые подразумевают поставку ускорителей для этой вычислительной инфраструктуры. Компания также договорилась об аренде ускорителей Google, поэтому с аппаратной точки зрения Meta✴✴ оказалась буквально всеядной. При этом продолжается разработка и собственных процессоров. По словам Сьюзан Ли, компания применяет разные виды чипов для разных видов вычислительной нагрузки: «Опираясь на то, что мы знаем сегодня и наши текущие потребности, какой из чипов является лучшим для каждого случая, по нашему мнению? Созданный на заказ является большой частью этого». Xiaomi будет делать новый процессор каждый год — и уже в этом выпустит смартфон с собственным чипом, ОС и ИИ
04.03.2026 [19:45],
Сергей Сурабекянц
Президент Xiaomi Лу Вэйбин (Lu Weibing) сообщил, что компания будет ежегодно выпускать новый процессор собственной разработки XRing для смартфонов. В этом году Xiaomi впервые объединит собственный чип, свою операционную систему и самостоятельно разработанного ИИ-помощника в одном устройстве. Лу также заявил, что Xiaomi готовится к запуску своего ИИ-помощника не только для внутреннего рынка Китая, но и для международных клиентов.
Источник изображения: Xiaomi В прошлом году Xiaomi выпустила систему на кристалле (SoC) XRing O1, основанную на передовом 3-нанометровом технологическом процессе. Немногие производители смартфонов разрабатывают собственные SoC — только Apple использует свои чипы серии A, а Samsung — чипы Exynos. Остальные полагаются на платформы от таких компаний, как Qualcomm и MediaTek. «Это наш первый чип. В дальнейшем мы, скорее всего, будем выпускать ежегодные обновления», — подчеркнул Лу во время выставки Mobile World Congress в Барселоне. Ежегодное обновление SoC — это весьма масштабная задача. Лу сказал, что чип дебютирует в устройстве, которое будет выпущено в этом году в Китае, и в конечном итоге появится на международных рынках. Комментарии Лу, похоже, указывают на изменение графика разработки, поскольку ранее в сентябре вице-президент Xiaomi Сюй Фэй (Xu Fei) утверждал, что компания не может гарантировать выпуск нового чипа ежегодно. Собственный SoC позволит Xiaomi тесно интегрировать своё оборудование с мобильной операционной системой на базе Android под названием HyperOS. Продаваемые в Китае устройства Xiaomi оснащены ИИ-помощником Xiao AI, созданным на основе моделей ИИ собственной разработки. Лу сообщил, что компания готовится выпустить ИИ-помощника для международных рынков одновременно с запуском своих электромобилей за рубежом, который, как ранее заявляла компания, состоится в Европе в 2027 году. «Когда наши автомобили выйдут на международные рынки, вы увидите, что наши ИИ-агенты появятся вместе с ними», — заверил Лу. По словам Лу, Xiaomi, вероятно, будет сотрудничать с Google, чтобы использовать модели Gemini как для китайского, так и для международного ИИ-помощника. Другие производители смартфонов придерживаются аналогичного подхода. Samsung интегрирует различные модели и предложения ИИ в свои устройства, в значительной степени полагаясь на Google Gemini. Xiaomi стремится к тому, чтобы её ИИ-помощник был доступен как в смартфонах, так и в автомобилях. В прошлом году генеральный директор Xiaomi Лэй Цзюнь (Lei Jun) заявил, что компания инвестирует не менее 50 млрд юаней ($6,9 млрд) в разработку собственных чипов в течение следующих 10 лет. В видеокартах GeForce RTX 5000 наконец появились чипы GDDR7 от Micron, но дефицит вряд ли смягчится
27.02.2026 [18:04],
Николай Хижняк
Компания Micron стала третьим поставщиком чипов памяти GDDR7 для видеокарт GeForce RTX 50-й серии. До этого микросхемы памяти для этих ускорителей поставляли только Samsung и SK hynix.
Источник изображений: QuasarZone Изображениями печатной платы видеокарты Galax GeForce RTX 5060, оснащённой чипами памяти GDDR7 от Micron, поделилось издание Quasar Zone. В составе видеокарты используются микросхемы GDDR7 MT68A512M32DF. В собственном каталоге производителя они обозначены как MT68A512M32DF-28:A. Это 16-Гбит (2 Гбайт) микросхемы со скоростью передачи данных 28 Гбит/с. Привлечение третьего поставщика может помочь партнёрам Nvidia сбалансировать доступность памяти при производстве видеокарт в разных партиях. Однако вряд ли это поможет устранить проблему дефицита — сама Nvidia вчера признала, что нехватка видеокарт GeForce из-за проблем с поставками памяти сохранится не только в текущем, но и в следующих кварталах. Ранее уже сообщалось, что Micron собирается поставлять чипы памяти GDDR7 со скоростью 28 и 32 Гбит/с производителям видеокарт GeForce RTX 50-й серии. Однако не было подтверждения, какие именно модели первыми получат микросхемы памяти от этого производителя. Micron представила 3-Гбайт чипы памяти GDDR7 со скоростью до 36 Гбит/с
25.02.2026 [23:20],
Николай Хижняк
Компания Micron представила чипы графической памяти GDDR7 плотностью 24 Гбит (3 Гбайт). По словам производителя, эти микросхемы обеспечивают скорость передачи данных до 36 Гбит/с на контакт. В настоящий момент они не используются ни в одном коммерческом продукте, представленном на рынке.
Источник изображения: Micron При заявленной скорости 36 Гбит/с на контакт и использовании 512-битного интерфейса общая пропускная способность подсистемы памяти на базе новой GDDR7 может достигать 2 Тбайт/с, если отсутствуют какие-либо другие искусственные ограничения. «Память Micron GDDR7 — это не просто повышение производительности, это фундаментальная технология для следующего десятилетия визуальных и ИИ-вычислений. Благодаря скорости 36 Гбит/с, плотности 24 Гбит и улучшенной энергоэффективности GDDR7 позволяет производителям графических процессоров и ПК с поддержкой ИИ обеспечивать более насыщенные, динамичные и интеллектуальные вычислительные возможности», — пишет производитель в своём блоге. Micron не первая компания, предлагающая чипы памяти GDDR7 ёмкостью 3 Гбайт. Samsung проводила тестирование подобных чипов для партнёров ещё в ноябре прошлого года. Чипы 3-Гбайт микросхемы GDDR7 от Samsung обеспечивают скорость передачи данных 36 Гбит/с, поэтому Micron здесь также не выделяется. Возможно, именно поэтому компания раскрыла подробности о новом продукте в блоге, а не в отдельном пресс-релизе. На сегодняшний день наибольшую ёмкость памяти GDDR7 для настольных компьютеров предлагает профессиональная видеокарта Nvidia RTX Pro 6000 Blackwell, которая оснащается 96 Гбайт GDDR7, распределённой по 24 чипам ёмкостью 4 Гбайт каждый. Эти чипы работают на скорости 28 Гбит/с, а общая пропускная способность подсистемы памяти составляет 1,8 Тбайт/с. При скорости 36 Гбит/с пропускная способность достигла бы 2,3 Тбайт/с, однако ёмкость осталась бы прежней. |
|
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |