Сегодня 11 апреля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → ии-чип
Быстрый переход

Anthropic тоже задумалась о разработке собственных ИИ-чипов

Огромные масштабы проектов в сфере искусственного интеллекта заставляют участников рынка предлагать смелые инициативы. Не желающая уступать OpenAI компания Anthropic, по некоторым данным, изучает возможность разработки собственных ИИ-чипов для использования в вычислительной инфраструктуре.

 Источник изображения: Samsung Electronics

Источник изображения: Samsung Electronics

Как отмечает Reuters, такое предложение обсуждается внутри Anthropic в качестве одного из возможных ответов на сложившийся в отрасли дефицит компонентов подобного класса. Впрочем, альтернативный сценарий предполагает закупку чипов, поэтому взяться за разработку собственных Anthropic ещё может и не решиться. Пока не сформировано даже предварительное представление о том, какими должны быть разрабатываемые чипы, и кто внутри компании будет за них отвечать.

На этой неделе Anthropic сообщила, что её выручка в приведённом к году объёме уже превысила $30 млрд, хотя по состоянию на конец прошлого года она достигала всего лишь $9 млрд. В настоящее время Anthropic использует сочетание различных чипов для формирования своей вычислительной инфраструктуры, включая разработанные Google и конкурирующей Amazon решения. На этой неделе между Anthropic, Google и Broadcom было подписано долгосрочное соглашение, касающееся поставок чипов TPU. В развитие вычислительной инфраструктуры в США стартап готов вложить $50 млрд.

Meta✴ и OpenAI также проявляют интерес к теме разработки собственных чипов, причём первая имеет в этой сфере определённый практический опыт. В современных условиях только разработка чипа может потребовать до $500 млн, а ещё необходимо найти подрядчиков по их производству в необходимых количествах, что в условиях дефицита мощностей сделать становится всё сложнее.

Broadcom расширила контракт по снабжению Google ИИ-чипами, Anthropic тоже почувствует выгоду

Компания Broadcom всё активнее проявляет себя в качестве партнёра по разработке ИИ-чипов для американских облачных гигантов, и на этой неделе она расширила контракт с Google, охватив им будущие поколения компонентов. Кроме того, был расширен контракт с Anthropic, который теперь дополнительно обеспечит её эквивалентом 3,5 ГВт вычислительных мощностей на чипах Google.

 Источник изображения: Broadcom

Источник изображения: Broadcom

Как поясняет CNBC, эти откровения прозвучали в отчётности, которую Broadcom предоставила американским регуляторам. В части взаимоотношений с Anthropic контракт с Broadcom подчёркивает динамичность развития бизнеса первой из компаний. Если в прошлом году Anthropic могла получать до $9 млрд выручки в приведённом измерении, то сейчас её величина превышает $30 млрд, если умножить максимальную месячную сумму на двенадцать. У Anthropic более 1000 корпоративных клиентов, которые ежегодно тратят на её услуги более $1 млн.

Основная часть той инфраструктуры, которую Broadcom обеспечит чипами на 3,5 ГВт суммарной мощности, расположится на территории США. В прошлом месяце руководство Broadcom подчёркивало, что в 2027 году спрос на ИИ-ускорители превысит 3 ГВт результирующей вычислительной мощности. Аналитики ожидают, что в сегменте ИИ компания Broadcom выручит $21 млрд в текущем году и $42 млрд в следующем. Собственных оценок прироста выручки от расширения контрактов с Google и Anthropic компания в своей документации для регуляторов не приводит. Помимо Anthropic, Broadcom создаёт специализированные чипы и для конкурирующей OpenAI.

Huawei усилила Ascend 950PR совместимостью с Nvidia CUDA и нацелилась на сотни тысяч поставок

Находящаяся с 2019 года под американскими санкциями компания Huawei Technologies решила активно расширять ассортимент предлагаемых компонентов собственной разработки, среди них оказались и ускорители вычислений Ascend 950PR. По имеющимся данным, они пришлись по вкусу китайским разработчикам, и в этом году разойдутся тиражом около 750 000 экземпляров.

 Источник изображения: Huawei Technologies

Источник изображения: Huawei Technologies

Об этом со ссылкой на собственные источники сообщило агентство Reuters. В текущем поколении ускорители Ascend 910C не нашли существенного спроса со стороны китайских разработчиков ПО и облачных провайдеров, даже с учётом существования государственной программы импортозамещения в КНР. Частные компании не горели желанием переходить на Ascend 910C и отказываться от привычных ускорителей Nvidia.

В пользу потенциальной популярности Ascend 950PR сыграл тот факт, как отмечает Reuters, что эти ускорители Huawei более совместимы с экосистемой Nvidia CUDA, а потому имеющееся программное обеспечение проще адаптировать под аппаратные решения Huawei нового поколения. Кроме того, Ascend 950PR явно опережают предшественников в отзывчивости при работе в составе инфраструктуры ИИ.

В этом году Huawei рассчитывает поставить клиентам около 750 000 ускорителей Ascend 950PR. Образцы ускорителей были отправлены клиентам для тестирования в январе, массовое производство должно начаться в апреле текущего года. Лишь во втором полугодии объёмы поставок этих ускорителей достигнут по-настоящему крупных значений. Ускорители Ascend 950PR будут предлагаться в двух основных модификациях: младшая с памятью типа DDR оценивается в $6900, а за более дорогой вариант с памятью HBM придётся отдать более $10 000.

Американские власти с конца прошлого года готовятся создать условия для легальных поставок ускорителей Nvidia H200 в Китай, но китайские власти только недавно разрешили их импорт. Теперь китайским клиентам Nvidia предстоит определиться с объёмом заказов, прежде чем компания начнёт отгружать H200 по официальным каналам в КНР. Совместимость новых ускорителей Huawei с программным обеспечением Nvidia сделает миграцию китайских разработчиков на отечественные компоненты более гладкой. Ascend 950PR также лучше проявляет себя в задачах инференса по сравнению с предшественником.

Первый ИИ-чип OpenAI получит память HBM4 от Samsung — TSMC начнёт выпускать его в третьем квартале

Стартап OpenAI в качестве субъекта переговоров не ограничивается «кольцевыми» сделками, в которых сам ни за что не отвечает, но интересуется и вполне материальными проектами. С третьего квартала TSMC может наладить выпуск для OpenAI чипа, разработанного в сотрудничестве с Broadcom. Снабжать ускорители на его основе памятью HBM4 вызвалась Samsung Electronics.

 Источник изображения: Samsung Electronics

Источник изображения: Samsung Electronics

По крайней мере, на этом настаивает южнокорейское издание Korean Economic Daily. Соглашение между Samsung и OpenAI якобы уже подписано, оно подразумевает обязательства по поставке микросхем HBM4 в 12-ярусном исполнении со второй половины текущего года. Объём первой партии источники оценивают в 800 млн гигабит, хотя подобная единица измерения и не совсем удобна для восприятия.

Непосредственно разработанный OpenAI при помощи Broadcomm чип для ускорения искусственного интеллекта будет представлен к концу текущего года, хотя фактически его выпуск должен начаться компанией TSMC в третьем квартале. Соглашение в сфере сотрудничества с Broadcom компания OpenAI с целью разработки ИИ-чипа заключила ещё в прошлом году.

Традиционно охватывающий широкий спектр печатных источников ресурс TrendForce попутно сообщил, что Samsung также заключила долгосрочные контракты на поставку компонентов не только с AMD, но и с Google, а также Microsoft. Условия сделок не уточняются, но источники предполагают, что Samsung наверняка гарантировала поставку определённого количества микросхем памяти в течение года с привязкой цены к уровням рынка моментальных сделок. Формально, базовая минимальная цена фиксируется на весь период контракта, но если цены на спот-рынке превышают её, поставщик оставляет за собой право требовать доплаты. Контракты заключены на срок от трёх до пяти лет, как утверждают источники. Они предусматривают крупные авансовые платежи с возможностью их частичного возврата в случае отсутствия у клиента потребности в фактической закупке выпущенного для него количества памяти. Microsoft, например, договорилась заплатить Samsung авансом сразу более $10 млрд.

Как поясняют эксперты, контракты на поставку памяти сроком от трёх до пяти лет становятся распространённой практикой не только в силу дефицита памяти на рынке, но и из-за необходимости адаптировать чипы HBM4 под нужды конкретных клиентов. Располагая солидным авансом, производитель памяти может не только свободнее наращивать мощности, но и быть уверенным, что выпущенная под конкретного заказчика память с высокой вероятностью будет им выкуплена.

Расширение производства чипов споткнулось о нехватку оборудования для тестирования и упаковки

Представители полупроводниковой отрасли признались Nikkei Asian Review, что на данном этапе одним из сдерживающих увеличение объёмов производства чипов факторов становится нехватка оборудования для тестирования и упаковки чипов, а также рост затрат времени на соответствующие процедуры. Зато производители профильного оборудования переживают бум заказов и готовятся наращивать выпуск продукции.

 Источник изображения: LinkedIn

Источник изображения: LinkedIn

Сразу несколько факторов влияют на спрос на такое оборудование в условиях бума систем искусственного интеллекта. Во-первых, потребность в увеличении объёмов выпуска чипов сама по себе подразумевает рост закупок профильного оборудования для их упаковки и тестирования. Во-вторых, современные чипы становятся всё более сложными с точки зрения упаковки, поэтому возрастают затраты на их тестирование и упаковку. В-третьих, в сегменте ИИ тестированию подвергается каждый выпущенный чип, проверка не производится выборочно, как это происходит в массовом сегменте. Обнаружение дефектов на ранних этапах позволяет сократить затраты времени, ведь после монтажа чипа на печатную плату заменить его будет сложнее. Наконец, к операциям тестирования отдельных чипов добавляются и этапы проверки готовых единиц оборудования, и под эти нужды создаётся и закупается отдельное оборудование.

Как отмечает Nikkei Asian Review, японская компания Advantest, которая контролирует более половины мирового рынка оборудования для тестирования чипов, текущий фискальный год в этом месяце планирует завершить с рекордной выручкой, увеличив её на 37 %. Чистая прибыль производителя при этом более чем удвоится по сравнению с предыдущим фискальным годом. Схожие ожидания демонстрируют и конкурирующие компании типа американской Teradyne или тайваньской Chroma ATE. За прошлый год курсовая стоимость акций всех трёх компаний выросла более чем в три раза.

Представители Advantest пояснили, что в прошлом тестирование одного процессора для мобильного процессора занимало менее минуты. Современный многокристальный чип для ИИ тестируется более 10 минут, причём эту процедуру должен проходить каждый экземпляр продукции, а потому данный этап производственного процесса способен стать «узким местом». Чтобы избежать этого, производители чипов активно закупают оборудование для тестирования продукции и её упаковки. Отдельным направлением стало тестирование силовой электроники, используемой в инфраструктуре ИИ. Для этих операций потребовалось новое оборудование, которое проектируется и отгружается поставщиками, но его нехватка также может накладывать ограничения на объёмы выпуска готовой продукции.

Производители контрольно-измерительного оборудования, которое используется для контроля за качеством полупроводниковой продукции на разных этапах, также переживают бум спроса на свои изделия. Компания WinWay, например, для резкого увеличения объёмов производства сочла нецелесообразным строить новые предприятия самостоятельно, а отдала часть заказов на субподряд. Кроме того, она арендовала или купила уже готовые корпуса для размещения там своего оборудования и выпуска продукции. Наиболее дефицитные виды оборудования WinWay по итогам текущего года сможет выпускать в количествах, увеличенных почти втрое, но даже в этом случае за счёт собственных мощностей может покрыть лишь 60 % рыночного спроса.

Сотрудники WinWay почувствовали выгоду от такого резкого роста объёмов выпуска оборудования. Им в среднем полагается премия за переработку в размере до 35 месячных окладов в год, а 10 % лучших получают до 50 месячных окладов в дополнение к основной зарплате по итогам года. Участники рынка полагают, что спрос на оборудование для тестирования чипов сохранится на высоком уровне как минимум до 2028 года. Расширение бизнеса для многих из них упирается в нехватку земли, источников электроэнергии и человеческих ресурсов. Производители верят, что нынешний бум не завершится так же скоро, как это происходило в прошлом. Рынок меняется структурно, а потому спрос переходит на новый уровень. Крупные производители оборудования смогут хорошо заработать на этих тенденциях.

Илон Маск заверил, что SpaceX AI и Tesla продолжат закупать много чипов Nvidia

Активное обсуждение планов Tesla по выпуску своих ИИ-чипов на американских предприятиях Samsung Electronics, по всей видимости, вынудило генерального директора Илона Маска (Elon Musk) сделать важное замечание со страниц социальной сети X. По его словам, SpaceX AI и Tesla продолжат закупать чипы Nvidia в значительных количествах.

 Источник изображения: SpaceX

Источник изображения: SpaceX

Характерно, что новая укрупнённая после объединения SpaceX и xAI компания Илона Маска впервые публично упоминается им под именем «SpaceX AI». Непосредственно стартапу xAI с прошлого года уже принадлежит социальная сеть X, ранее носившая имя Twitter. По сути, SpaceX AI теперь представлена и в аэрокосмической сфере, и в сегменте социальных сетей, и на рынке систем искусственного интеллекта.

Илон Маск отдельно пояснил, что разрабатываемый компанией Tesla чип AI5 действительно может использоваться в центрах обработки данных для обучения больших языковых моделей, но первичным его предназначением станут периферийные ИИ-вычисления в составе человекоподобных роботов Optimus и беспилотных такси. В ближайшие несколько недель Маск намерен представить крупное обновление программного обеспечения FSD, отвечающего за автопилот в электромобилях Tesla.

Напомним, что в конце этой недели Маск пообещал поделиться подробными данными о судьбе проекта гигантской фабрики по производству ИИ-чипов для нужд Tesla и смежных компаний, принадлежащих ему в той или иной степени. Миллиардер не раз отмечал, что оценивает потребности этих компаний в чипах высокими до степени, не позволяющей рассчитывать на удовлетворение спроса имеющимися контрактными производителями компонентов.

Nvidia готовит для китайского рынка особую версию ИИ-чипов Groq

В прошлом году Nvidia в рамках сделки на сумму $17 млрд получила доступ к разработкам стартапа Groq, и уже в этом месяце представила специализированные чипы LPU для ускорения работы ИИ в задачах инференса. Как отмечают источники, для Китая компания уже готовит адаптированную версию чипов Groq, с учётом существующих в США экспортных ограничений.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Об этом накануне сообщило агентство Reuters со ссылкой на собственные источники. Одновременно глава Nvidia Дженсен Хуанг (Jensen Huang) заявил, что компания возобновила выпуск чипов H200 собственной разработки, которые собирается продавать на китайском рынке. Nvidia удалось получить необходимые для отгрузки H200 китайским клиентам экспортные лицензии США, а китайские органы власти разрешили их импорт в Поднебесную.

Среди китайских конкурентов Nvidia немало тех, кто предлагает собственные специализированные чипы для инференса, поэтому возможность поставки адаптированных решений семейства Groq важна для американской компании с точки зрения сохранения своих позиций на китайском рынке. Как поясняет Reuters, адаптация чипов Groq для Китая будет заключаться не в снижении быстродействия, а в сохранении возможности работы с другими системами. Поставки чипов Groq начнутся в мае этого года, для Китая их не будут выпускать отдельно от основных партий.

Илон Маск пообещал запустить проект гигантской фабрики по выпуску чипов к концу следующей недели

В последнее время Илон Маск был сосредоточен на идее строительства центров обработки данных в космосе, но поскольку для них потребуются вычислительные компоненты, вчера он заявил о намерениях запустить проект по строительству гигантской фабрики, выпускающей чипы для ИИ, через семь дней.

 Источник изображения: Tesla

Источник изображения: Tesla

Судя по всему, как заключает Reuters, речь идёт о прошлогодней инициативе Маска по строительству «терафабрики», которая позволила бы Tesla самостоятельно изготавливать чипы для ускорителей вычислений, бортовых систем электромобилей и человекоподобных роботов. Из прежних пояснений главы компании становится ясно, что её потребности в чипах для ИИ будут серьёзными до степени, которая не позволит даже совместными усилиями всех подрядчиков удовлетворить спрос.

К слову, среди возможных партнёров по выпуску своих чипов Tesla уже упоминала не только TSMC и Samsung, с которыми уже сотрудничает, но и компанию Intel. По крайней мере, в прошлом году Илон Маск рассуждал, что «с Intel следовало бы провести переговоры», хотя и подчеркнул в тот момент, что никаких договорённостей с этим производителем чипов у Tesla не было. На ежегодном собрании акционеров Tesla в прошлом году Маск пояснил, что «даже в лучшем сценарии производства чипов всеми нашими поставщиками их всё равно не хватит».

«Так что я думаю, что нам придётся построить терафабрику Tesla. Это как гига, но только заметно больше. Я не вижу иного способа получить объёмы чипов, которые нам требуются. Поэтому я думаю, что нам, возможно, придётся построить гигантскую фабрику чипов. Это необходимо сделать», — отмечал ранее Илон Маск. Выпуск чипов AI5 собственной разработки Tesla намерена поручить и компании Samsung Electronics, которая для этих целей готовит новое предприятие в Техасе. TSMC при этом также не останется без заказов. Говоря о терафабрике в прошлом году, Маск планировал обеспечить с её помощью обработку 1 млн кремниевых пластин ежемесячно.

Meta✴ представила четыре собственных ИИ-ускорителя MTIA для инференса — чипы Nvidia и AMD они не заменят

Meta✴ Platforms на этой неделе представила дорожную карту, в рамках которой компания осуществляет разработку четырёх новых чипов на фоне стремительного расширения инфраструктуры собственных центров обработки данных. Гигант соцсетей, как и многие другие крупные бигтехи, вкладывает значительные средства в создание команды, способной разрабатывать собственные чипы для сферы ИИ, которые могли бы стать дополнением к закупкам продукции Nvidia и AMD.

 Источник изображений: Igor Omilaev / unsplash.com

Источник изображений: Igor Omilaev / unsplash.com

Процесс создания чипов для решения специфических задач по обработке данных может привести к появлению аппаратных продуктов, которые потребляют меньше энергии и имеют привлекательность с финансовой точки зрения по сравнению с уже имеющимися на рынке чипами. Разработка чипов Meta✴ проходит в рамках программы Meta✴ Training and Inference Accelerator (MTIA). Первым в числе новых чипов стал MTIA 300, и он уже задействован для обеспечения работы систем ранжирования и рекомендаций в сервисах компании. Остальные три чипа будут выпущены в 2026-2027 годах, причём два последних — MTIA 450 и MTIA 500, разрабатываются для инференса, т.е. обеспечения работы процесса генерации ответов на пользовательские запросы.

Meta✴ уже добилась определённого успеха в плане разработки чипов для инференса, но долгое время сталкивалась с трудностями в реализации собственных амбиций по созданию чипов для обучения генеративных ИИ-моделей. Начиная с MTIA 400, который, по словам компании, находится на пути к началу использования в ЦОД Meta✴, под эти задачи была спроектирована полноценная система, включающая в себя несколько серверных стоек и систему жидкостного охлаждения.

На данный момент план Meta✴ предполагает запуск новых чипов с интервалом в шесть месяцев, поскольку компания сосредоточена на быстром расширении инфраструктуры своих ЦОД, которые обеспечивают работу таких приложений, как Instagram✴ и Facebook✴. В начале этого года компания сообщила, что объём капитальных затрат в этом году составит от $115 до $135 млрд. Частично разработка новых чипов осуществляется совместно с Broadcom в рамках заключенного ранее партнёрского соглашения. Для производства готовой продукции используются мощности тайваньской TSMC.

Meta✴ будет разрабатывать собственные ИИ-ускорители

Финансовый директор Meta✴ Platforms Сьюзан Ли (Susan Li) на технологической конференции Morgan Stanley заявила, что компания продолжит разрабатывать собственные процессоры, оптимизированные под вычислительные нагрузки, используемые компанией. Активное сотрудничество с поставщиками готовых ускорителей сторонней разработки не отменяет актуальности создания собственных чипов.

 Источник изображения: Unsplash, Igor Omilaev

Источник изображения: Unsplash, Igor Omilaev

«Некоторые из наших вычислительных нагрузок очень специфичны. Нагрузки, связанные с сортировкой и рекомендациями, присутствовали изначально, и именно в этой сфере мы наиболее активно применяли собственные чипы. Мы надеемся, что сможем расширить их применение со временем, включая и процесс обучения ИИ-моделей», — заявила представительница компании.

Хотя Meta✴ Platforms и не является провайдером облачных услуг, она обладает одним из крупнейших парков центров обработки данных, используемым для собственных нужд. За последние недели она заключила крупные сделки с Nvidia и AMD, которые подразумевают поставку ускорителей для этой вычислительной инфраструктуры. Компания также договорилась об аренде ускорителей Google, поэтому с аппаратной точки зрения Meta✴ оказалась буквально всеядной. При этом продолжается разработка и собственных процессоров. По словам Сьюзан Ли, компания применяет разные виды чипов для разных видов вычислительной нагрузки: «Опираясь на то, что мы знаем сегодня и наши текущие потребности, какой из чипов является лучшим для каждого случая, по нашему мнению? Созданный на заказ является большой частью этого».

ByteDance разрабатывает фирменный ИИ-чип — производство планируется поручить Samsung

Крупные игроки сегмента ИИ всё чаще демонстрируют заинтересованность в создании собственных ускорителей вычислений, китайская ByteDance не является исключением, как отмечает Reuters со ссылкой на собственные источники. Выпуском разработанного ByteDance чипа может заняться Samsung, которая предоставит первые образцы уже в конце марта.

 Источник изображения: ByteDance

Источник изображения: ByteDance

В этом году, как ожидается, Samsung Electronics намерена в этом году выпустить не менее 100 000 чипов, разработанных ByteDance для ускорения задач, связанных с инференсом в системах искусственного интеллекта. В дальнейшем объёмы производства могут быть увеличены до 350 000 экземпляров в год. Samsung в данном случае выбрана в качестве подрядчика не только по причине наличия у неё контрактных мощностей по выпуску логических чипов, но и наличию собственного производства памяти, которая неизбежно потребуется для создания ИИ-ускорителей ByteDance. Представители последней назвали данную информацию некорректной, а сотрудники Samsung подобные слухи комментировать отказались.

Попытки приступить к самостоятельной разработке чипов ByteDance предпринимает с 2022 года, когда она наняла профильных специалистов. В июне 2024 года агентство Reuters сообщало, что ByteDance в этой сфере сотрудничает с Broadcom, а выпускать результирующие чипы будет тайваньская TSMC. Крупные игроки китайского рынка в лице Alibaba и Baidu давно располагают чипами собственной разработки, которые применяют для ускорения вычислений в своей инфраструктуре.

Проект ByteDance по разработке собственного чипа носит условное обозначение SeedChip. На закупки необходимого для развития своей ИИ-инфраструктуры оборудования ByteDance в этом году потратит $22 млрд, более половины этой суммы будет направлено на приобретение ускорителей Nvidia, включая новейшую для Китая модель H200. Часть суммы будет потрачена на создание собственного ИИ-чипа. По мнению руководства ByteDance, вложения в сферу ИИ принесут пользу всем подразделениям китайской компании.

Уже в этом году китайские ИИ-ускорители займут до 80 % на местном рынке

В прошлом году, говоря о необходимости возобновить поставки H20 в Китай, глава и основатель Nvidia сперва заявил, что за несколько лет доля компании на местном рынке сократилась с 95 до 50 %, а потом и вовсе признался в полной потере позиций. Сторонние эксперты ситуацию оценивают не столь эмоционально, но считают, что в этом году Nvidia сможет претендовать не более чем на 8 % китайского рынка ИИ-ускорителей.

 Источник изображения: Moore Threads Technology

Источник изображения: Moore Threads Technology

Об этом сообщает издание Nikkei Asian Review, ссылающееся на комментарии аналитиков Bernstein. В позапрошлом году, по их словам, Nvidia контролировала 66 % рынка ИИ-ускорителей в Китае. Санкции США, активность местных конкурентов и политика китайских властей в сфере импортозамещения, по мнению экспертов, могут привести к тому, что в текущем году до 80 % местного рынка достанется китайским поставщикам ускорителей, а Nvidia сможет претендовать не более чем на 8 %. По всей видимости, оставшиеся примерно 12 % поделят между собой AMD и Intel.

На конференции для разработчиков в Пекине, которая прошла в предыдущем месяце, китайская компания Moore Threads представила новую архитектуру Huagang, а также линейки ускорителей Huashan и графических адаптеров Lushan. В массовое производство они отправятся в этом году. По словам представителей Moore Threads, если ИИ-ускорители Huashan по уровню быстродействия близки к массовым моделям Nvidia, то Lushan вообще превосходят мировые аналоги. Как заявляет генеральный директор Чжан Цзяньчжон (Zhang Jianzhong), эти новые продукты Moore Threads соответствуют потребностям местных производителей, им больше нет нужды рассчитывать на поставки передовых продуктов из-за границы.

На этой неделе Дональд Трамп (Donald Trump) подписал указ, по условиям которого ввозимые в США для дальнейшей отправки в Китай ускорители Nvidia будут облагаться 25-процентной импортной пошлиной. Можно догадаться, что для китайских заказчиков они из-за этого станут дороже. Кроме того, китайские власти накладывают свои ограничения на поставку тех же H200 в Поднебесную, и местным разработчикам невольно приходится больше полагаться на отечественные ускорители.

Китайские власти пытаются поддерживать местных разработчиков ИИ-ускорителей. Помимо Huawei Technologies, в пятёрку лидеров входят Moore Threads, MetaX, Biren Technology и Suiyuan Technology (Enflame). Если не считать Huawei и Enflame, все эти компании недавно вышли на биржу в Китае, чтобы привлечь дополнительные средства к разработке ИИ-ускорителей, хотя и Enflame намеревается сделать это в обозримом будущем.

Кроме того, Baidu и Kunlunxin намереваются представить до 2030 года не менее пяти ИИ-чипов. Помимо Huawei, над созданием собственных ускорителей работает и Cambricon Technologies. Выпускать чипы для китайских ускорителей вынуждена компания SMIC, поскольку как только профильные компании добиваются успеха в создании конкурентоспособных решений, они тут же попадают под американские санкции и лишаются доступа к конвейеру тайваньской TSMC. По мнению китайских экспертов, ускорители местного происхождения в своём развитии достигли того уровня, когда их уже удобно применять. Перед китайской отраслью ещё стоит немало вызовов, но перелом в пользу импортозамещения уже наметился, как считают некоторые эксперты.

TSMC может начать выпуск 3-нм ИИ-чипов OpenAI Titan уже в этом году — второе поколение перейдёт на 1,6 нм

Одержимый идеей активного развития вычислительной инфраструктуры ИИ глава OpenAI Сэм Альтман (Sam Altman) настаивает не только на строительстве центров обработки данных в огромных количествах, но и на выпуске специализированных чипов для них, которые стартап готов разработать при поддержке Broadcom. По слухам, их выпуском совсем скоро может заняться TSMC.

 Источник изображения: OpenAI

Источник изображения: OpenAI

Об этом сообщает тайваньское издание Commercial Times, уточняя, что ИИ-чипы собственной разработки OpenAI нарекла условным обозначением Titan, а их первое поколение уже к концу этого года TSMC начнёт выпускать с использованием техпроцесса N3. В планы партнёров входит и выпуск второго поколения чипов, которое будет производиться по технологии A16. Разработка Titan 2 начнётся во второй половине текущего года, помогать OpenAI в этой сфере в обоих случаях будет компания Broadcom.

Сейчас вычислительная инфраструктура OpenAI в основном полагается на готовые решения Nvidia и AMD, но по мере её масштабирования может появиться смысл создать узкоспециализированные ускорители, и в этом процессе компания намеревается принять непосредственное участие. Осталось только убедиться в том, что та же TSMC сможет обеспечить OpenAI достаточными объёмами производства этих чипов.

Не забывает OpenAI и о разработке конечных пользовательских устройств для взаимодействия с ИИ. По слухам, она собирается предлагать наушники с условным обозначением Sweetpea на основе 2-нм процессора Samsung семейства Exynos. Помимо локальной обработки запросов, наушники будут взаимодействовать с облачной вычислительной инфраструктурой по схеме подписки с регулярной ежемесячной платой.

Рынок полупроводников вырос на 21 % до $793 млрд в прошлом году — Intel вылетела из тройки лидеров

Эксперты Gartner уже подвели итоги прошлого года по направлению рынка полупроводниковой продукции, сообщив о росте совокупной выручки на 21 % до $793 млрд. При этом связанная с поставками ИИ-ускорителей выручка в полупроводниковом сегменте превысила по итогам года $200 млрд, как отмечается в свежем отчёте Gartner.

В текущем году, как считает источник, расходы участников рынка на развитие ИИ-инфраструктуры могут превысить $1,3 трлн. Компания Nvidia предсказуема не только стала лидером по сумме выручки от реализации полупроводниковых компонентов, но и продемонстрировала максимальные темпы её роста. В частности, годовая выручка Nvidia выросла на 63,9 % до $125,7 млрд, позволив компании впервые в истории наблюдений Gartner преодолеть рубеж в $100 млрд годовой выручки среди игроков этого сегмента. От ближайшего конкурента в лице Samsung Electronics её теперь отделяют $53 млрд выручки. По сути, именно Nvidia на 35 % определила рост выручки всей полупроводниковой отрасли в прошлом году.

Samsung Electronics сохранила за собой второе место, но её выручка за прошлый год увеличилась всего на 10,4 % до $72,5 млрд. Высокие цены на память помогли ей увеличить выручку на профильном направлении на 13 %, а вот за пределами рынка памяти выручка Samsung даже сократилась на 8 %. В спину Samsung предсказуемо дышит SK hynix, которая добралась до третьего места в рейтинге, увеличив свою годовую выручку на 37,2 % до $60,6 млрд. Прежде всего, благодарить за это она должна высокие объёмы продаж памяти HBM для ИИ-серверов и ускорителей.

 Источник изображения: Gartner

Источник изображения: Gartner

Intel сползла с третьего места на четвёртое, и только она продемонстрировала снижение выручки среди компаний первой десятки. Годовая выручка компании упала на 3,9 % до $47,9 млрд. Конкурирующая AMD, кстати, сохранила за собой восьмое место с 2024 года, но свою выручку увеличила сразу на 34,9 % до $32,5 млрд. На пятом месте оказалась перескочившая сразу через две позиции Micron Technology, которая увеличила годовую выручку на 50,2 % до $41,5 млрд. Это ещё одно подтверждение того, что на буме ИИ неплохо зарабатывают именно производители памяти, потому что все три крупнейших игрока рынка попали в первую пятёрку.

Интересно, что не выпускающая чипы самостоятельно Apple в этом рейтинге заняла девятое место, как и годом ранее, а её выручка от их реализации увеличилась почти на 20 % до $24,6 млрд. В прошлом году HBM формировала 23 % выручки на рынке DRAM, что в денежном выражении превышает $30 млрд. Чипы для ИИ-ускорителей обеспечили более $200 млрд выручки своим поставщикам. К 2029 году, по прогнозам Gartner, те или иные типы ИИ-чипов будут формировать более половины всей выручки на рынке полупроводниковых компонентов.

Отдельно отметим, что поставщики чипов за пределами первой десятки контролировали 37,6 % мировой выручки в прошлом году, они сообща получили $298,3 млрд, что соответствует увеличению выручки на 10,3 % относительно результатов 2024 года.

4 ZOPS производительности: Intel похвалилась поставками 100 млн ПК на процессорах с ИИ-ускорителями

Вопреки ожиданиям разработчиков процессоров, появление на рынке моделей с функцией локального ускорения работы с ИИ не стало стимулом к росту спроса в желаемых масштабах, а дорожающая память только усугубила ситуацию с продажами ПК. Это не мешает Intel доложить о поставках на рынок 100 млн ПК с функциями локального ускорения ИИ.

 Источник изображения: Intel

Источник изображения: Intel

Как поясняет ресурс PCGamer, на CES 2026 корпорация Intel сообщила о преодолении данного рубежа в течение двух предыдущих лет, напомнив, что соответствующими функциями оснащены процессоры Meteor Lake и Lunar Lake для ноутбуков. Помимо чисто количественной характеристики, понятной для восприятия, представители Intel обратились к более абстрактной величине.

Пользовательская база таких ПК, по данным Intel, измеряется четырьмя ZOPS с точки зрения быстродействия. Это четыре миллиарда триллионов операций (TOPS) в секунду. При этом Intel не выделяет, какая часть этого вычислительного ресурса на практике используется именно для работы с искусственным интеллектом. Представители Intel признали, что работающие с плавающей запятой блоки вычислений десятилетиями присутствовали в составе центральных процессоров, но они не находили широкого применения. Триггером к экспансии использования ИИ-ПК, по их мнению, станет популярность Copilot+ компании Microsoft. Как только эта технология начнёт активно и повсеместно применяться, все «дремлющие» вычислительные ресурсы ИИ-ПК окажутся востребованными и полезными.


window-new
Soft
Hard
Тренды 🔥