|
Опрос
|
реклама
Быстрый переход
Инвесторы сходят с ума от ИИ: акции разработчика ИИ-чипов MetaX взлетели в восемь раз сразу после IPO
17.12.2025 [12:33],
Алексей Разин
Публичное размещение акций является традиционным способом привлечения капитала, и для китайских разработчиков ИИ-чипов сейчас наступил благоприятный период для выхода на IPO, поскольку диктуемый властями страны курс на импортозамещение сулит высокий спрос на их продукцию. Акции MetaX вслед за первичным размещением на бирже выросли в цене на 700 %, подтверждая эту традицию. ![]() Как уже отмечалось ранее, конкурирующая Moore Threads, которую считают китайским конкурентом Nvidia, недавно дебютировала на бирже, продемонстрировав рост котировок своих акций на 400 %. Основанная выходцем из AMD в 2020 году, MetaX разрабатывает не только ускорители вычислений на базе GPU, но и специализированные процессоры (ASIC). По итогам IPO ей удалось привлечь почти $600 млн, а количество желающих купить её акции в 4000 раз превысило доступную квоту. Пока стартап остаётся убыточным, но благодаря инициативам китайских властей в сфере импортозамещения ускорителей чипов планирует удвоить выручку в текущем году и выйти на безубыточность в следующем году. Пока MetaX контролирует не более 1 % китайского рынка компонентов для инфраструктуры ИИ. Конкуренты тоже не стоят на месте. В конце ноября Moore Threads смогла привлечь $1,1 млрд, на этой неделе разрешение на размещение акций в Гонконге получила Biren Technology, а принадлежащая Baidu компания Kunlunxin также планирует разместить свои акции на этой площадке. В сегменте ASIC компании MetaX приходится конкурировать с Cambricon, HiSilicon (Huawei), Kunlunxin (Baidu) и T-Head (Alibaba). В сегменте GPU её конкурентами являются не только Moore Threads и Biren, но и Hygon Information Technology. Аналитики считают, что на фоне ажиотажа котировки акций новоиспечённых китайских эмитентов завышены, но в определённой перспективе даже покупка их акций по текущим ценам может себя оправдать. Apple готовит собственные ИИ-чипы для серверов — Broadcom стала помощником в их создании
17.12.2025 [10:17],
Алексей Разин
История компании Apple показывает, что она изначально внедряет новые технологии, полагаясь на компоненты сторонних поставщиков, но когда рынок формируется и крепнет, переходит к их замене на чипы собственной разработки. В случае с чипами для вычислительной инфраструктуры ИИ, как ожидается, Apple полагается на сотрудничество с Broadcom.
Источник изображения: Broadcom Напомним, последняя из компаний в последнее время активно привлекает новых клиентов на направление специализированных чипов для инфраструктуры ИИ. Помимо Google, взаимодействовать на этом направлении Broadcom готова и с Anthropic, а ещё руководство этого поставщика чипов недавно пояснило, что количество профильных клиентов достигло четырёх, а в прошлом квартале к ним присоединился пятый. Его имя до сих пор не названо, но некоторые источники полагают, что Apple также может обратиться за помощью к Broadcom для разработки ИИ-чипов для собственной инфраструктуры. Издание Economic Daily News упоминает условное обозначение первого специализированного чипа Broadcom — «Baltra», который ляжет в основу центров обработки данных Apple, запланированных к введению в строй с 2027 года. Контрактным производством специализированных серверов займётся Foxconn, а сама Apple будет использовать их для развития фирменного сервиса Apple Intelligence. Даже с учётом бурного развития контрактного бизнеса Foxconn по выпуску ИИ-серверов, Apple продолжает оставаться крупнейшим клиентом этой тайваньской компании, но благодаря заказам на выпуск традиционной потребительской электроники. Отдельно сообщается, что пока Apple предпочитает осуществлять экспансию этого сервиса осторожно. Языковая модель Google Gemini, которая будет обслуживать клиентов Apple, насчитывает не более 3 трлн параметров. По условиям договорённостей между Apple и Google, первая будет платить второй ежегодно около $1 млрд за доступ к данной модели. Если говорить о контрактном бизнесе Foxconn, то на направлении серверных систем на основе специализированных чипов (ASIC) она должна удвоить объёмы их выпуска в текущем году, но на GPU-системы будет приходиться до 80 % заказов. Тайваньский подрядчик контролирует примерно 40 % мирового рынка услуг по выпуску серверов для инфраструктуры ИИ. Intel готова выложить за стартап SambaNova около $1,6 млрд уже в январе
13.12.2025 [07:54],
Алексей Разин
Переговоры о покупке ИИ-стартапа SambaNova корпорацией Intel попали в фокус интереса общественности в том числе и по причине нахождения во главе обеих компаний Лип-Бу Тана (Lip-Bu Tan). На первом этапе возможные условия сделки не обсуждались публично, но теперь источники утверждают, что Intel уже в следующем месяце может выложить за активы SambaNova около $1,6 млрд.
Источник изображения: SambaNova Systems Об этом сообщает Bloomberg со ссылкой на собственные осведомлённые источники. Хотя переговоры продвинулись, условия сделки всё ещё могут измениться, по их словам. При этом SambaNova привлекла интерес со стороны альтернативных инвесторов, поэтому её активы в итоге могут достаться не Intel, либо финансирование будет осуществляться без поглощения компании. Основанная в 2017 году SambaNova Systems уже через год привлекла средства фонда Walden International, принадлежащего нынешнему генеральному директору Intel Лип-Бу Тану, в размере $56 млн. В дальнейшем это позволило ему занять пост председателя правления молодой компании. Как считается, именно он и подтолкнул SambaNova к переговорам с Intel, поскольку последняя заинтересована в получении доступа к разработкам, позволяющим продвинуться в совершенствовании своих аппаратных предложений для сегмента искусственного интеллекта. На этапе финансирования в 2021 году капитализация SambaNova оценивалась в $5 млрд, поэтому упоминаемая сумма в $1,6 млрд представляет серьёзный дисконт. Впрочем, сейчас процессорный гигант находится не в лучшем финансовом положении, и любая возможность сэкономить пойдёт ему на пользу. Собственная капитализация Intel сейчас не превышает $180 млрд. Nvidia столкнулась с огромным спросом на ИИ-чипы H200 в Китае и задумалась о наращивании производства
12.12.2025 [20:28],
Николай Хижняк
Nvidia рассматривает возможность увеличить объёмы производства ИИ-чипов H200 для своих китайских клиентов, сообщает Reuters со ссылкой на несколько источников, знакомых с ситуацией. Текущие объёмы заказов на эти чипы превышают уровень их производства.
Источник изображения: Nvidia Издание сообщает, что этот шаг со стороны Nvidia последовал за заявлением президента США Дональда Трампа во вторник о том, что правительство США разрешит Nvidia экспортировать H200 в Китай при условии 25 % комиссионных с каждого проданного чипа. Спрос на чипы со стороны китайских компаний настолько высок, что Nvidia склоняется к увеличению мощностей, сообщил один из источников Reuters. Собеседники издания согласились дать комментарии на условиях анонимности, поскольку обсуждения носят конфиденциальный характер. В Nvidia на запрос Reuters о комментарии не ответили. Крупные китайские компании, включая Alibaba и ByteDance, на этой неделе обратились к Nvidia по поводу закупок H200 и сообщили о готовности разместить крупные заказы. Однако неопределённость в отношении возможности таких поставок сохраняется, поскольку китайское правительство ещё не дало разрешения на закупку H200. Китайские чиновники провели в среду экстренные совещания для обсуждения этого вопроса, сообщили источники Reuters. В настоящее время в производстве находятся очень ограниченные партии чипов H200, поскольку Nvidia сосредоточена на выпуске своих самых передовых ИИ-чипов Blackwell и будущих Rubin. Поставки H200 вызывают серьёзную обеспокоенность у китайских клиентов, и они обратились к Nvidia за разъяснениями по этому вопросу, сообщили источники. Nvidia также предоставила им информацию о текущих объёмах поставок, сообщил один из источников, не называя конкретных цифр. Чип H200 поступил в массовое производство в прошлом году и является самым производительным решением для ИИ в рамках предыдущего поколения архитектуры Hopper от Nvidia. Микросхемы производятся на мощностях компании TSMC с использованием 4-нм технологического процесса. Высокий спрос китайских компаний на H200 обусловлен тем, что это, безусловно, самый мощный чип, доступный им на данный момент. Он примерно в шесть раз мощнее, чем H20 — урезанный вариант от Nvidia, разработанный специально для китайского рынка и выпущенный в конце 2023 года. Решение Трампа по H200 принято на фоне стремления Китая развивать собственную отечественную индустрию чипов для искусственного интеллекта. Поскольку отечественные производители ещё не выпустили продукцию, сопоставимую по эффективности с H200, существуют опасения, что допуск H200 на китайский рынок может затормозить развитие отрасли. «Его (H200) вычислительная производительность примерно в 2–3 раза выше, чем у самых передовых отечественных ускорителей. Я уже наблюдаю, как многие поставщики облачных услуг и корпоративные клиенты активно размещают крупные заказы и лоббируют правительство с целью ослабления ограничений на определённых условиях», — прокомментировал в разговоре с Reuters Нори Чиоу (Nori Chiou), инвестиционный директор White Oak Capital Partners, добавив, что спрос на оборудование для ИИ в Китае превышает текущие возможности местного производства. По словам источников Reuters, в рамках таких обсуждений также рассматривалась возможность обязать китайских покупателей при приобретении каждого H200 также закупать определённое количество отечественных чипов. Для Nvidia наращивание объёмов поставок тоже является сложной задачей, поскольку компания не только находится в процессе перехода на новое поколение ИИ-чипов Rubin, но и конкурирует с такими компаниями, как Google (Alphabet), за ограниченные производственные мощности TSMC по выпуску передовых микросхем. Многомиллиардными заказами на поставку чипов Broadcom обеспечит Anthropic
12.12.2025 [08:05],
Алексей Разин
В начале сентября Broadcom заявила о заключении сделки с новым клиентом на поставку чипов для инфраструктуры ИИ на общую сумму $10 млрд, но не стала раскрывать его имени. В духе времени, некоторые источники быстро привили общественности уверенность в том, что этим клиентом станет OpenAI, однако на этой неделе руководство Broadcom в данном контексте сослалось на Anthropic.
Источник изображения: Broadcom Более того, как поясняет CNBC, глава Broadcom Хок Тан (Hock Tan) во время выступления на квартальной отчётной конференции признался: «Мы получили заказ на $10 млрд на поставку стоек с новейшими TPU семейства Ironwood компании Anthropic». Другими словами, речь идёт о поставках разработанных для нужд Google ускорителей TPU поколения Ironwood стартапу Anthropic, а не о создании каких-то принципиально новых чипов или сотрудничестве с OpenAI, хотя последнее в целом на фоне этих новостей не отменяется. В минувшем квартале Anthropic разместила дополнительный заказ на сумму $11 млрд, как признался глава Broadcom. Компании такого масштаба обычно не раскрывают имён клиентов, но сентябрьские заявления руководства Broadcom вызвали такое оживление среди инвесторов, что в октябре оно вынуждено было пояснить, что новым клиентом на данном направлении является не OpenAI. Более того, глава Broadcom на этой неделе добавил, что Anthropic является четвёртым по счёту клиентом, которого компания снабжает своими ускорителями (XPU). При этом у Broadcom в минувшем квартале появился пятый клиент на этом направлении, который разместил заказы на сумму $1 млрд. В дальнейшем выручка от поставок XPU этому клиенту будет расти, но Broadcom пока отказывается раскрыть его имя. В октябре Anthropic и Google объявили о сотрудничестве, договорившись, что первая будет арендовать у второй 1 млн ускорителей TPU, и в течение 2026 года в строй будет введено более 1 ГВт вычислительной мощности в рамках соответствующей сделки. В целом, Anthropic использует различные аппаратные платформы, включая чипы Nvidia и Google, а также Trainium в исполнении AWS (Amazon). Успех ИИ-модели Gemini 3 компании Google во многом предопределил рост спроса партнёров и конкурентов на разработанные ею в сотрудничестве с Broadcom чипы TPU, поскольку компонентов Nvidia на всех не хватает, да и ценовая политика последнего из поставщиков устраивает не всех разработчиков приложений для ИИ. Google с помощью TPU сможет отщипнуть десятки миллиардов от ИИ-пирога, который почти единолично «поедает» Nvidia
09.12.2025 [10:17],
Алексей Разин
На фоне недавнего успеха Google Gemini на передний план вышли ускорители TPU собственной разработки, которые она уже много лет использует в собственной вычислительной инфраструктуре. Аналитики Morgan Stanley прогнозируют, что в следующем году для нужд Google компания TSMC выпустит 3,2 млн ускорителей TPU.
Источник изображения: Google В дальнейшем это количество будет расти, по данным источника, до 5 млн штук в 2027 году и 7 млн штук в 2028 году. Аналитики утверждают, что Google могла бы продавать свои TPU сторонним заказчикам с большой выгодой. Каждые 500 000 реализованных по такой схеме TPU могли бы принести Google до $13 млрд дополнительной выручки. В разработке TPU интернет-гиганту помогают Broadcom и MediaTek, а первые эксперименты в этой сфере начались ещё в 2013 году. По слухам, заинтересованность в приобретении TPU у Google уже проявила Meta✴✴ Platforms, хотя последняя от комментариев на эту тему отказалась. Около 1 млн ускорителей TPU будут предоставлены ИИ-стартапу Anthropic, сумма сделки измеряется десятками миллиардов долларов США. Как ожидают эксперты, если Google сможет заключить контракты на поставку TPU с OpenAI, xAI и Safe Superintelligence, это позволит её увеличить свою выручку более чем на $100 млрд в ближайшие годы. Наличие систем так называемого вайб-кодинга позволяет специалистам проще адаптировать свои программные ИИ-платформы под новое аппаратное обеспечение, и в этом контексте привязка большинства отраслевых решений к экосистеме Nvidia уже не имеет прежнего значения. Руководство последней данная тенденция уже насторожила, оно поспешило заявить, что компания находится на целое поколение впереди всей отрасли. Представители Nvidia и Google при этом подтвердили сохранение сотрудничества между компаниями в сфере использования аппаратных компонентов первой. Если ранее Google старалась выпускать новое поколение TPU каждые два года, то теперь компания старается обновлять их ежегодно. Amazon раскрыла планы по NVLink Fusion в Trainium4 и представила ИИ-модели Nova 2 и Sonic
03.12.2025 [05:04],
Алексей Разин
Поскольку сама Arm недавно заявила о поддержке интерфейса NVLink Fusion в своих процессорных архитектурах, её клиентам сделать это рано или поздно тоже бы пришлось. Облачный гигант Amazon (AWS) начал декабрь заявления о намерениях реализовать поддержку интерфейса Nvidia в своих будущих ускорителях семейства Trainium4.
Источник изображения: AWS Сроки выхода этих ускорителей при этом названы не были, как отмечает Reuters. Анонс был сделан на недельной конференции по облачным вычислениям в Лас-Вегасе, которая собрала около 60 000 посетителей. Непосредственно среди разработчиков чипов поддержку NVLink Fusion ранее анонсировали компании Intel, Samsung и Qualcomm, теперь к ним присоединилась и AWS. По замыслу последней, технология Nvidia поможет компании создавать более эффективные вычислительные кластеры, в которых серверы быстрее обмениваются информацией друг с другом. Прежде чем появятся ускорители Trainium4, компания AWS наполнит рынок серверами на основе ускорителей Trainium3, распространение которых уже начала. Данные системы содержат 144 чипов и в четыре раза превосходят по быстродействию своих предшественников, при этом потребляя на 40 % меньше электроэнергии. Представители AWS рассчитывают конкурировать с другими участниками рынка, включая Nvidia, благодаря более выгодному сочетанию цены и быстродействия своих решений. В программной сфере AWS представила ИИ-модель Nova 2, которая получила возможность комбинировать в ответах на запросы текстовую и визуальную информацию, а также генерировать речевые сообщения. Модель Sonic специализируется на речевом обмене информации, причём делает это вполне естественно, по словам разработчиков. AWS помогает клиентам создавать собственные ИИ-модели, для этого был представлен сервис Nova Forge, который предоставляет инструменты для обучения более специализированных моделей. Ускорители вычислений Baidu имеют все шансы стать хитом китайского рынка
30.11.2025 [08:19],
Алексей Разин
Китайский интернет-гигант Baidu в уходящем месяце представил собственные ускорители M100 и M300 для работы в инфраструктуре искусственного интеллекта. Ориентированный на инференс M100 будет доступен в начале следующего года, а более универсальный M300 с 2027 года позволит китайским компаниям хотя бы частично решить проблему дефицита вычислительных ресурсов для обучения больших языковых моделей.
Источник изображения: Baidu, TechPowerUp Опрошенные CNBC аналитики сходятся во мнении, что при правильной организации производства и маркетинга ускорители Baidu помогут китайским разработчикам решить сразу две проблемы. Во-первых, они снизят зависимость от американских ускорителей в условиях санкций. Во-вторых, они позволят удовлетворить требования китайских властей по переходу на использование чипов локальной разработки. Инвесторы на этом фоне начали смотреть на акции Baidu с возросшим оптимизмом. Они убеждены, что появление в арсенале Baidu собственных ускорителей не только поможет развитию бизнеса этой компании, но и привлечёт к ним прочих участников китайского рынка. Один из крупнейших операторов мобильной связи в КНР, компания China Mobile, уже начал закупать ускорители Kunlunxin у Baidu. Последняя в этом смысле становится серьёзным конкурентом для Huawei Technologies, которая с трудом наращивает объёмы выпуска собственных чипов в условиях санкций. Появление ещё одного конкурентоспособного поставщика на рынке Китая пойдёт на пользу местному рынку искусственного интеллекта. По прогнозам JPMorgan, в следующем году Baidu сможет нарастить выручку от реализации своих чипов в шесть раз до $1,1 млрд. Капитализация профильного подразделения компании при этом достигнет $28 млрд. Китайские программные гиганты испытывают нехватку вычислительных ресурсов. Руководство Tencent в этом месяце было вынуждено признаться, что по итогам 2025 года капитальные затраты компании окажутся ниже ожидаемых, поскольку ей банально не хватает ИИ-чипов для введения в строй новых вычислительных мощностей. Руководство Alibaba недавно также призналось, что не успевает предлагать клиентам новые облачные мощности в достаточном для удовлетворения спроса объёме. Если Baidu сможет ритмично выпускать новые поколения ИИ-чипов, то на китайском рынке эта продукция окажется в числе фаворитов, по мнению аналитиков The Futurum Group. Сроки окупаемости ускорителей ИИ остаются загадкой для участников рынка
16.11.2025 [08:34],
Алексей Разин
Инвестиционная активность OpenAI является наглядным примером того ажиотажа, который сейчас сопровождает развитие вычислительной инфраструктуры для сферы искусственного интеллекта. В планы компании и её многочисленных партнёров входит вложение до $1,5 трлн в эту сферу за ближайшие восемь лет только на территории США. При этом сроки окупаемости профильного оборудования с трудом определяются даже бывалыми экспертами.
Источник изображения: Nvidia Как поясняет CNBC, отрасль генеративного искусственного интеллекта в её нынешнем виде достаточно молода — её история насчитывает не более трёх лет, поэтому активные инвестиции пока не приносят заметной финансовой отдачи, и просчитать бизнес-модель на этом этапе затруднительно. Google, Oracle и Microsoft исходят из продолжительности жизненного цикла своих центров обработки данных для ИИ до шести лет включительно, и за это время, с бухгалтерской точки зрения, соответствующие активы должны пройти полную амортизацию. Другими словами, стоимость данного оборудования должна быть полностью перенесена на себестоимость услуг указанных компаний за шесть лет или даже быстрее. Стремительное развитие больших языковых моделей, однако, может потребовать от участников рынка ускорения амортизации, поскольку оборудование может устареть быстрее, чем за шесть лет. Формально, Microsoft в своей финансовой документации указывает срок амортизации от двух до шести лет. Обычно длительные сроки амортизации благотворно влияют на прибыль компании, поскольку затраты на закупку оборудования переносятся на себестоимость услуг и продукции постепенно, малыми частями. В случае с применяемыми для ускорения работы ИИ ускорителями участники рынка пока теряются, на какой срок эксплуатации следует рассчитывать при планировании инвестиций и расчёте окупаемости. Облачный провайдер CoreWeave исходит из шестилетнего срока амортизации, начиная с 2023 года. По мнению представителей компании, устаревшие GPU получают «вторую жизнь» в рамках постоянно обновляющейся инфраструктуры, поскольку в условиях дефицита вычислительных мощностей они всё равно находят применение и приносят пользу не только клиентам, но и владельцам оборудования. Что характерно, партия ускорителей Nvidia H100 после трёх лет эксплуатации была недавно вновь введена в оборот по цене на уровне 95 % от изначальной, хотя в целом бывшему в употреблении оборудованию столь высокая остаточная стоимость не присуща. Скептики придерживаются мнения, что рыночный жизненный цикл оборудования в этой сфере не превышает двух или трёх лет при нынешних темпах развития отрасли ИИ. Примечательно, что разработчики ускорителей перешли на ежегодный выпуск новых поколений продукции. Моду задала считающаяся лидером отрасли Nvidia, недавно её подхватила AMD, а руководство Intel тоже не стало оставаться в стороне от тенденции. Microsoft при закупке ускорителей Nvidia старается равномерно распределять расходы между последующими поколениями продукции этой марки, чтобы не остаться в какой-то момент с большим запасом устаревших ускорителей. Рынок ИИ пока изучен слабо, поэтому владельцы ЦОД стараются придерживаться гибкого подхода к планированию затрат и окупаемости. Microsoft готова использовать разработки OpenAI для совершенствования собственных чипов
13.11.2025 [05:58],
Алексей Разин
Корпорация Microsoft разрабатывала собственные серверные процессоры задолго до того, как стартап OpenAI набрал силу и стал влиятельным игроком на рынке систем искусственного интеллекта. Оказавшись одним из ранних и крупных инвесторов в капитал OpenAI, компания Microsoft сохраняет право использовать разработки первой в сфере аппаратного обеспечения для своих нужд.
Источник изображения: OpenAI Исключением, как напоминает Bloomberg, являются только создаваемые OpenAI совместно со стартапом Джони Айва (Jony Ive) потребительские устройства. Известно, что OpenAI одновременно разрабатывает некие процессоры для инфраструктуры ИИ при участии компании Broadcom. Глава Microsoft Сатья Наделла (Satya Nadella) дал понять, что его корпорация намерена использовать разработки OpenAI в этой сфере для собственных нужд. Как отмечает Bloomberg, Наделла недавно заявил во время своего выступления в подкасте: «По мере того, как они внедряют инновации даже на системном уровне, мы имеем доступ ко всему этому. Мы хотели бы сперва изучить, что они для них создают, а потом мы расширим это». В данном случае глава Microsoft имел в виду усилия OpenAI по созданию собственных чипов, которые будут реализовываться при поддержке партнёров и подрядчиков. Получается, что Microsoft готова использовать разработки OpenAI в аппаратной сфере для собственных нужд. По условиям нового соглашения между компаниями, Microsoft сохраняет доступ к языковым моделям OpenAI до 2032 года и разработкам до 2030 года, либо до момента создания так называемого «сильного» искусственного интеллекта (AGI). При этом Microsoft не имеет доступа к разработкам OpenAI в сфере потребительских устройств. По словам Наделлы, Microsoft готова работать с дизайнами OpenAI и своими собственными, будучи уверенной, что имеет доступ к соответствующей интеллектуальной собственности на законных основаниях. Производством американских ИИ-чипов для Tesla займутся и Samsung, и TSMC
23.10.2025 [04:58],
Алексей Разин
Не является секретом контракт на выпуск чипов для ускорителей ИИ компании Tesla южнокорейской Samsung на строящемся предприятии в Техасе. Глава автопроизводителя Илон Маск (Elon Musk) накануне признался, что к выпуску чипов AI5 будет привлечено и американское предприятие TSMC в Аризоне, поскольку компания хочет получать такие компоненты в избытке.
Источник изображения: Tesla Унификация данных чипов с бортовыми системами электромобилей поможет Tesla гибко перенаправлять их запасы на человекоподобных роботов или собственные центры обработки данных. «Наша явная цель заключается в перепроизводстве чипов AI5», — пояснил глава Tesla на вчерашней квартальной отчётной конференции. При этом он подчеркнул, что компания не откажется от использования ускорителей Nvidia в своей вычислительной инфраструктуре для обучения языковых моделей. «Мы не собираемся заменять Nvidia, чтобы вы понимали, но мы будет сочетать их применение», — добавил миллиардер. Как пояснил Маск на этой неделе, Tesla сейчас располагает вычислительными мощностями, соответствующими 81 000 чипов Nvidia H100. Чип AI5 собственной разработки впервые был анонсирован на собрании акционеров Tesla в 2024 году. В июле текущего года стало известно о заключении контракта с Samsung на сумму $16,5 млрд, по условиям которого компания должна будет выпускать чипы AI6 для нужд Tesla на своём предприятии в Техасе. Ещё тогда Маск признался, что чипы AI5 более зрелого поколения для Tesla будет выпускать TSMC. Теперь же глава Tesla заявил, что к производству AI5 будут привлечены Samsung и TSMC одновременно, причём с использованием их американских предприятий. Как образно дал понять Маск, чип AI5 по площади кристалла будет соответствовать половине чипов, выпускаемых компаниями Nvidia и AMD. Поскольку Tesla будет единственной компанией, эксплуатирующей чип AI5, при разработке от всех «ненужных» функциональных блоков удалось избавиться. Дизайн чипа удалось оптимизировать и упростить, это также ускорило его разработку, по словам Маска. Помимо графической подсистемы и сигнальных процессоров, были упразднены и другие части чипа. В итоге, как утверждает Маск, AI5 обеспечит превосходство над конкурентами по соотношению производительности и себестоимости буквально в десять раз. «Nvidia проделала потрясающую работу, имея дело практически с невозможным в реализации набором требований, но в нашем случае мы рассчитываем на радикальное упрощение», — пояснил Илон Маск. Как известно, миллиардер возглавляет ИИ-стартап xAI, который готов стать крупным клиентом Tesla в части использования специализированных ускорителей ИИ. Сейчас эта компания вынуждена полагаться на ускорители разработки Nvidia. Дженсен Хуанг отправил в Samsung гарантийное письмо — в компании не верят, что Nvidia захочет закупать её HBM3E
09.10.2025 [12:00],
Алексей Разин
В конце сентября стало известно, что после неоднократных попыток удовлетворить требования Nvidia к закупаемой памяти типа HBM3E, южнокорейская Samsung Electronics всё же добилась своего, и получила право снабжать ею данного заказчика. Теперь южнокорейские СМИ сообщают, что соответствующие намерения Nvidia подкрепила письменно в обращении к фактическому руководителю Samsung Ли Чжэ Ёну (Lee Jae-yong).
Источник изображения: Nvidia Издание News1 Korea сообщает, что недавно основатель и руководитель Nvidia Дженсен Хуанг (Jensen Huang) направил председателю совета директоров Samsung Electronics письмо с заверениями о готовности на регулярной основе закупать у этого поставщика 12-ярусные микросхемы HBM3E для использования в составе ускорителей семейства GB300. По данным источника, попытки Samsung встроиться в цепочку поставок Nvidia с конкретным типом памяти длились около года и семи месяцев. Ещё в марте прошлого года Дженсен Хуанг оставил свой автограф с одобрением на символической пластине с чипом HBM3E производства Samsung, но фактически предлагаемая этой компанией продукция не могла удовлетворить требования Nvidia вплоть до прошлого месяца. Где-то в начале текущего года Samsung предложила Nvidia заметно переработанные чипы HBM3E, после чего процесс сертификации встал на путь к успеху. Впрочем, конкуренты Samsung в этой сфере оказались далеко впереди, поскольку SK hynix начала снабжать Nvidia своими 12-ярусными чипами ещё в сентябре прошлого года, а в феврале текущего к ней присоединилась американская Micron Technology. С точки зрения планов Nvidia, память типа HBM3E приближается к излёту своего жизненного цикла, поэтому много заработать на поставках своих микросхем этого типа Samsung не успеет. Зато Samsung уже предлагает своим клиентам образцы HBM4, и с их сертификацией она может добиться большего успеха, чем с HBM3E. Попутно стало известно, что Samsung закупила у Nvidia около 50 000 ускорителей вычислений. Предполагается, что они понадобятся для развития как собственных решений компании в сфере ИИ, так и реализации совместного проекта с OpenAI по строительству специализированного вычислительного центра на территории Южной Кореи. Карманный ИИ становится массовым: каждый третий смартфон в этом году получит ИИ-ускоритель
01.10.2025 [11:57],
Алексей Разин
Надежды производителей ПК на скорый рост продаж систем с возможностью локального ускорения ИИ пока не оправдываются, но вот в сегменте смартфонов в этом году количество устройств на основе процессоров с поддержкой генеративного ИИ вырастет на 74 % и достигнет 35 % годового объёма продаж. К такому выводу приходят специалисты Counterpoint Research.
Источник изображения: Qualcomm Technologies В премиальном сегменте, как они утверждают, в этом году 88 % всех отгруженных в этом году чипов для смартфонов будут наделены функциями аппаратного ускорения работы с генеративным искусственным интеллектом. При этом подобные функции проникнут и в смартфоны в ценовом диапазоне от $300 до $499, которые в целом нарастят свою долю с 12 до 38 % рынка. Объёмы поставок ИИ-чипов для смартфонов в среднем ценовом диапазоне утроятся по сравнению с прошлым годом. Как отмечают аналитики, рост объёмов реализации ИИ-чипов по рынку смартфонов в целом на 74 % в текущем году во многом станет возможным именно благодаря распространению продвинутых функциональных возможностей на более низкие ценовые диапазоны. Среди поставщиков подобных процессоров лидировать будет Apple с 46 % рынка, хотя на программном уровне собственная экосистема ИИ у этой компании развита не так сильно, как она хотела бы. Тем не менее, формально процессоры семейства A19 позволяют работать с генеративным ИИ, что позволяет занять ведущие позиции на рынке.
Источник изображения: Counterpoint Research На втором месте окажется Qualcomm с 35 % рынка, на третьем MediaTek с 12 %. Samsung с процессорами собственной разработки окажется на четвёртом месте с 4 % рынка, а Google достанутся 3 %. Год назад расстановка сил была другой: Apple (50 %), Qualcomm (35 %), MediaTek (10 %), Samsung (6 %) и Google (4 %) хоть и шли в том же порядке, продемонстрируют разную динамику по итогам текущего года в прогнозах авторов аналитической записки. Google увеличит объёмы поставок своих чипов на 22 %, Samsung прибавит только 10 %, Mediatek окажется лидером по темпам роста с 110 %, а Qualcomm лишь немного уступит ей с 103 %. В то же время, Apple с приростом на 61 % окажется крепким середнячком по динамике, но сохранит за собой лидирующие позиции по доле рынка. В сегменте Android-смартфонов лидером остаётся Qualcomm со своими процессорами, начиная с семейства Snapdragon 8 Gen 3. Компания постепенно проникает и в ценовой диапазон смартфонов от $100 до $299 со своими процессорами, наделёнными ИИ-функциями. В премиальном сегменте поставки ИИ-чипов для смартфонов вырастут на 53 % по итогам текущего года, их доля в сегменте достигнет 88 %. Здесь будут доминировать процессоры Apple A19 и A19 Pro, а также Qualcomm Snapdragon 8 Elite Gen 5 и MediaTek Dimensity 9500. В эту группу также входят процессоры Samsung Exynos, Google Tensor и HiSilicon Kirin 9000. Их внедрение вызовет рост средней цены реализации смартфонов в премиальном сегменте. Кроме того, смартфоны с такими функциональными возможностями в среднем содержат больше чипов. Китай попытается создать ИИ-чипы нового типа, так как подражать США «смертельно опасно»
11.09.2025 [21:13],
Сергей Сурабекянц
Главный советник китайского правительства профессор пекинского Университета Цинхуа Вэй Шаоцзюнь (Wei Shaojun), выступая на форуме в Сингапуре, заявил, что азиатским странам, включая Китай, следует снизить зависимость от универсальных графических процессоров, которые сейчас используются во всём мире для обучения ИИ платформ. По его словам, Китаю требуются чипы ИИ, построенные на собственной архитектуре и не зависящие от технологий Nvidia. Источник изображения: Samsung Вэй, который много лет консультировал высокопоставленных чиновников китайского правительства, признал, что «к сожалению, мы в Азии, включая Китай, подражаем США в разработке алгоритмов и больших моделей». Продолжение этого пути может быть «смертельно опасным» для региона, добавил он. Китаю следует сосредоточиться на создании нового типа чипа, специально предназначенного для разработки крупных моделей, а не продолжать полагаться на архитектуру, изначально разработанную для игр и промышленной графики, добавил Вэй. Он подчеркнул, что Китай по-прежнему активно развивает собственную индустрию по производству микросхем и располагает для этого достаточными средствами, несмотря на годы санкций США. Китайские компании столкнулись с нехваткой ИИ-ускорителей Nvidia из-за экспортных ограничений, введённых США, которые не позволяют китайским компаниям приобретать самые передовые чипы. Собственные технологии производства чипов в Китае пока не позволяют выпускать ускорители ИИ, сопоставимые по производительности с лучшими решениями Nvidia. Однако выход нейросети DeepSeek на мировую арену в начале этого года показал, что китайские компании способны совершенствовать свои алгоритмы ИИ даже на сравнительно слабом оборудовании. В конце июля китайские регуляторы обвинили Nvidia в том, что предназначенные для рынка КНР ускорители H20 имеют функции удалённой блокировки и отслеживания, из-за чего представителям компании пришлось неоднократно опровергать подобные обвинения. Между тем китайские СМИ продолжают продвигать тезис о том, что ускорители Nvidia H20 небезопасны для разработчиков в Китае.
Источник изображения: Nvidia Китайская сторона усиливает работу над импортозамещением, а муниципальные власти крупных китайских городов присоединились к этой работе. Например, в Шанхае установлено требование к 2027 году довести долю китайских ускорителей в муниципальных ЦОД до 70 %, в Пекине этот уровень достигает 100 %, а для округа Гуйян, характеризуемого развитой вычислительной инфраструктурой, планка установлена на уровне 90 %. OpenAI выпустит свой первый ИИ-чип в 2026 году при поддержке Broadcom — последней это сулит $10 млрд
05.09.2025 [05:29],
Алексей Разин
Слухи о намерениях OpenAI представить чип для ускорения вычислений в системах ИИ получили новую жизнь на этой неделе, поскольку компания Broadcom открыто призналась в заключении контракта с таинственным новым клиентом на поставку подобных чипов на общую сумму $10 млрд. Данные чипы выйдут в следующем году.
Источник изображения: Broadcom Издание Financial Times подтвердило, что Broadcom помогла OpenAI разработать профильный чип, и на рынок он выйдет в 2026 году. Вторая из компаний собирается использовать этот компонент для собственных нужд и не предлагать сторонним клиентам. Сотрудничество с Broadcom в этой сфере началось ещё в прошлом году. До этого момента не было известно, когда начнётся массовое производство данного изделия. Для Broadcom стартап OpenAI станет уже четвёртым по счёту клиентом, для которого она разработала ИИ-чип. Акции Broadcom после этих заявлений в сочетании с в целом позитивной отчётностью выросли в цене на 4,5 %. Компания сотрудничала с Google при разработке специализированных тензорных процессоров последней. По мнению аналитиков HSBC, следующий год будет характеризоваться ростом продаж специализированных ИИ-чипов, тогда как универсальные решения типа предлагаемых Nvidia уже не смогут продемонстрировать высокой динамики роста выручки. Глава OpenAI Сэм Альтман (Sam Altman) в прошлом месяце выразил готовность увеличить вычислительные мощности компании вдвое за ближайшие пять месяцев. |
|
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |