Сегодня 10 мая 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → ускоритель
Быстрый переход

AMD выпустила ИИ-ускоритель Instinct MI350P с 144 Гбайт HBM3E, PCIe 5.0 x16 и потреблением 600 Вт

Компания AMD выпустила специализированный графический ускоритель Instinct MI350P в формате карты расширения PCIe. Новинка предназначена для серверов с воздушным охлаждением и ориентирована на развёртывание систем логического вывода для искусственного интеллекта, не требующих полноценной платформы OAM.

 Источник изображений: AMD

Источник изображений: AMD

В составе Instinct MI350P используется графический чип со 128 исполнительными блоками, 8192 потоковыми процессорами и 512 матричными ядрами. AMD заявляет для GPU максимальную частоту 2,2 ГГц. Формально Instinct MI350P представляет собой наполовину урезанную версию Instinct MI350X.

Карта получила 144 Гбайт памяти HBM3E с поддержкой 4096-битной шины. Для памяти заявляется пиковая пропускная способность на уровне 4 Тбайт/с. Также ускоритель оснащён 128 Мбайт кеш-памяти последнего уровня и поддерживает функцию ECC (коррекции ошибок) для памяти.

AMD заявляет для Instinct MI350P производительность до 4,6 Пфлопс при работе с матрицами MXFP4 или MXFP6. Карта также обеспечивает производительность 2,3 Пфлопс при работе с матрицами MXFP8 и OCP-FP8, 1,15 Пфлопс — при работе с матрицами FP16 и BF16 и 36 Тфлопс — при работе с матрицами FP64. Благодаря структурированной разреженности некоторые показатели производительности при работе с 8-битными и 16-битными числами удваиваются.

Толщина ускорителя Instinct MI350P составляет два слота расширения, длина карты — 267 мм. Для работы новинка использует интерфейс PCIe 5.0 x16. Подача дополнительного питания на карту обеспечивается через разъём 12V-2×6. Стандартный показатель энергопотребления ускорителя составляет 600 Вт, однако его можно настроить на режим потребления 450 Вт.

Ускоритель AMD Instinct MI430X оказался вшестеро быстрее Nvidia Rubin, но он не для ИИ

AMD раскрыла производительность ускорителя Instinct MI430X. Его отличительной особенностью является предназначение — не для систем искусственного интеллекта, а для сегмента высокопроизводительных вычислений (HPC): вычислений с двойной точностью в научных целях, моделирования и других подобных приложений.

 Источник изображения: amd.com

Источник изображения: amd.com

В последние годы графические процессоры с высокой производительностью разрабатываются главным образом для работы с алгоритмами ИИ. Форматы данных трансформируются в меньшую сторону: FP8 и BF8 сменяются FP6 и FP4, появляются аналогичные MXFP6 и MXFP4. В приоритете оказываются скорость и экономия памяти — в ущерб точности.

Но в некоторых областях нужны прямо противоположные решения. Поэтому ещё в начале разработки ускорителей семейства Instinct MI400 компания AMD решила обращаться не только к ИИ, как в случае MI450/455X, но и к сегменту HPC как в случае MI430X. Компания анонсировала его ещё осенью минувшего года, когда получила первые крупные заказы.

Теперь AMD раскрыла производительность ускорителя с 432 Гбайт памяти HBM4 — в режиме FP64 она составляет 200 Тфлопс, и это «более чем в шесть раз быстрее», чем Nvidia Rubin в тех же задачах. Решение от Nvidia ориентировано на ИИ с упором на FP4 и аналогичные форматы — FP64, если он вообще работает, является второстепенным форматом, специально для которого у «зелёных» нет вообще ничего. Хотя в режиме FP4 ускорители Rubin окажутся быстрее, чем MI430X, но AMD здесь точного показателя не раскрыла.

Первыми заказчиками AMD Instinct MI430X стали научные организации: ускорители получит HPC-комплекс Discovery при Национальной лаборатории Ок-Ридж (США) и суперкомпьютер Alice Recoque (Франция). Последняя уже заявила о выходе на показатель более 1 Эфлопс в FP64, и это одна из наиболее быстрых высокопроизводительных систем в Европе. Более подробно компания расскажет о своих продуктах на мероприятии AMD Advancing AI 2026, которое пройдёт 22 и 23 июля.

Цена на серверы с Nvidia B300 на сером рынке Китая взлетела до $1 млн

На фоне жёстких ограничений на экспорт чипов со стороны США и ажиотажного спроса на вычислительные мощности для искусственного интеллекта цены на серверы Nvidia B300 в Китае выросли почти вдвое, достигнув $1 млн. Критически важные для развития технологий в КНР поставки оборудования, которое идёт через серый рынок, оказались в дефиците из-за ужесточения борьбы с контрабандой.

 Источник изображения: Nvidia

Источник изображения: Nvidia

По сообщению Reuters, стоимость самого продвинутого сервера Nvidia, оснащённого восемью графическими процессорами B300, в Китае теперь составляет около 7 млн юаней (примерно $1 023 650), тогда как в конце прошлого года показатель находился на отметке в 4 млн юаней (около $584 950). Такой резкий скачок обусловлен давлением на серый рынок, который ранее являлся ключевым каналом поставок, а также устойчивым спросом со стороны местных технологических гигантов. При этом многие китайские компании стараются не указывать оборудование Nvidia в своей отчётности из-за опасений подвергнуться американским санкциям. Сама Nvidia подчеркнула, что B300 запрещён к продаже в Китае, а любые попытки незаконного оборота обречены на провал из-за строгих механизмов контроля.

Для сравнения, в США цена аналогичного сервера составляет около 550 тысяч долларов, что также выше прошлогодних показателей. Китайская наценка отражает так называемую надбавку за дефицит, которая возникла после мартовского уголовного преследования американскими властями сооснователя компании Supermicro, являющейся партнёром Nvidia, И Шянь Лио (Yi-Shyan Liaw). Лио обвинили в участии незаконной деятельности по провозу из США в Китай запрещённого серверного оборудования. В результате некоторые компании, не имеющие возможности приобрести серверы в собственность, вынуждены рассматривать варианты аренды, стоимость которой достигает 190 тысяч юаней (примерно $27 800) в месяц по годовому контракту.

Однако дефицит оборудования не ослабляет аппетиты местных разработчиков, стремящихся к монетизации своих моделей и вычислительной инфраструктуры. По данным Morgan Stanley, в марте 2026 года доля китайских ИИ-моделей в глобальном потреблении токенов резко возросла, достигнув 32 % по сравнению с 5-% годом ранее. Например, компании MiniMax, Zhipu и Qwen от Alibaba зафиксировали рост использования токенов в шесть-семь раз в феврале и марте по сравнению с декабрём. Для обработки таких массивов данных требуется наиболее эффективное оборудование, каковым является B300 с его 288 Гбайт памяти и вычислительной мощностью 14 петафлопс при точности FP4.

К этому добавляется неопределённость вокруг поставок чипов H200, которая также способствует росту цен на B300. Несмотря на получение одобрения от правительств обеих стран, экспорт H200 в Китай так и не начался из-за разногласий по условиям продажи. Напомним, Nvidia и её партнёры начали поставлять B300 ещё в сентябре прошлого года, однако закрытые каналы поставок не позволяют в полной мере удовлетворить запросы китайского рынка и в таких условиях борьба за доступ к мощным вычислительным ресурсам продолжает стимулировать рост цен.

Выход DeepSeek V4 взвинтил спрос на ИИ-ускорители Huawei Ascend 950

После выхода ИИ-модели DeepSeek V4, специально оптимизированной для работы на чипах Huawei, в Китае резко вырос спрос на ИИ-ускорители Ascend 950, пишет агентство Reuters. По словам его источников, крупнейшие китайские интернет-компании, включая ByteDance, Tencent и Alibaba, обращаются к Huawei с заявками на новые заказы.

 Источник изображения: huaweicentral.com

Источник изображения: huaweicentral.com

Также стремятся разместить заказы на поставку Ascend 950 компании, специализирующиеся на облачных вычислениях и услугах аренды графических процессоров (GPU). Чип Ascend 950PR значительно превосходит по производительности Nvidia H20 — самый мощный чип, который Nvidia разрешалось продавать в Китае до того, как Пекин заблокировал его импорт в прошлом году. Но он всё же уступает чипу H200, который пока так и поставляется в Китай из-за разногласий Пекина и Вашингтона относительно условий его продажи.

Решение DeepSeek оптимизировать версию DeepSeek V4 специально для использования с чипами Huawei знаменует собой стратегический сдвиг от зависимости от американских полупроводников к развитию собственного китайского оборудования для ИИ-технологий, что является приоритетом для Пекина в стремлении к технологическому превосходству, отметило Reuters.

Серия Huawei Ascend 950 — в частности, вариант 950PR — является единственным китайским чипом с поддержкой технологии обработки ИИ-вычислений в более сжатом вычислительном формате, что позволяет производить больше вычислений в секунду при меньших затратах.

Сразу же после анонса платформа Bailian от Alibaba Cloud предоставила доступ к DeepSeek V4, предложив варианты V4-Pro и V4-Flash по официальным ценам разработчика. Аналогично поступила Tencent Cloud. Быстрый запуск ИИ-модели крупными облачными платформами означает, что миллионы пользователей и разработчиков теперь могут получить доступ к V4, что резко увеличивает объём запросов, и, соответственно, спрос на базовые чипы для их обработки.

DeepSeek заявила, что цена V4-Pro может значительно снизиться во второй половине 2026 года, как только кластеры на Huawei Ascend 950 начнут «поставляться в больших масштабах». Следует отметить, что из-за экспортных ограничений США на поставку передового оборудования для производства микросхем Huawei не сможет удовлетворить потребности отрасли в чипах Ascend 950.

По словам источников, Huawei планирует отгрузить около 750 тыс. единиц Ascend 950PR в этом году. Старт его серийного производства был намечен на апрель, а полномасштабные поставки должны начаться во второй половине 2026 года.

Японцы создали прототип настольного ускорителя частиц — он разгоняет электроны до «скорости света» на масштабе муравья

Коллектив учёных из Японии совершил прорыв в создании компактных ускорителей частиц. Они впервые продемонстрировали повышение мощности лазера на свободных электронах в экстремальном ультрафиолетовом диапазоне длин волн 27–50 нм с помощью так называемого кильватерного ускорения, инициированного лазерным лучом в плазме, что впервые произошло на отрезке всего нескольких миллиметров. Это путь к настольным ускорителям, которые далеко продвинут науку.

 Источник изображения: SANKEN

Источник изображения: SANKEN

В исследовании приняли участие учёные из Института научных и промышленных исследований Университета Осаки (SANKEN) совместно с Kansai Institute for Photon Science (KPSI), Национального института квантовой науки и технологий (QST), Центра RIKEN SPring-8 (RSC) и Организации исследований высоких энергий (KEK). Сегодня ускорители электронов, лежащие в основе синхротронов, это системы с периметром до нескольких сотен метров. Например, создающийся в России под Новосибирском ускоритель СКИФ кольцо периметром около полукилометра. Это делает исследования с использованием ускорителей доступными относительно небольшому количеству коллективов. Настольные ускорители, напротив, помогут совершать научные прорывы даже на уровне небольших лабораторий.

Добавим, что ускоритель электронов интересен как источник вторичного рентгеновского излучения. Эксперимент с ультрафиолетовым излучением — это шаг в нужном направлении. Благодаря более короткой волне когерентного рентгеновского света и за счёт повышения его энергии в компактном ускорителе будет повышено разрешение получаемой картинки — атомарной структуры материалов, строения клеток и всего, на что будет направлен этот луч. Подобные ускорители позволят буквально заглянуть в суть вещей и организмов.

Ключевым успехом в разработке компактной установки стало получение стабильных моноэнергетических электронных пучков высокой энергии благодаря усовершенствованной форме лазерного импульса, повышающей точность фокусировки, и специально разработанным сверхзвуковым газовым соплам, обеспечивающим устойчивые фронты плазмы. В результате исследователям удалось добиться усиления лазера на свободных электронах в экстремальном ультрафиолете. Технология использует плазменные поля, которые в тысячу раз сильнее полей традиционных ускорителей, сокращая трек для ускорения с сотен метров до миллиметров.

Метод основан на фокусировке мощного лазерного импульса на сверхзвуковой газовой струе, что создаёт плазму и формирует волны, ускоряющие электроны почти до скорости света. Полученный пучок электронов затем транспортируется в ондулятор — регулярную магнитную структуру, где электроны колеблются и генерируют когерентное лазерное излучение. Повышение стабильности плазмы позволило преодолеть предыдущие проблемы, связанные с неконтролируемым поведением плазменной среды.

Это открытие приближает создание компактных рентгеновских лазеров на свободных электронах, способных генерировать излучение в 10 миллиардов раз ярче Солнца с длительностью импульсов на уровне фемтосекунд, но в условиях обычной лаборатории. Такие устройства обещают революцию исследований в биологии, материаловедении, разработке полупроводников и квантовых технологиях.

Новая статья: NVIDIA Groq 3: SRAM, дезагрегация, детерминизм

Данные берутся из публикации NVIDIA Groq 3: SRAM, дезагрегация, детерминизм

Alibaba похвалилась выпуском 500 000 ИИ-ускорителей и признала, что они медленнее аналогов Nvidia

Руководство китайского технологического гиганта Alibaba подтвердило, что полупроводниковое подразделение компании произвело почти 500 000 чипов, в том числе для ускорителей искусственного интеллекта, но все они отстают от продукции Nvidia.

 Источник изображения: alibabagroup.com

Источник изображения: alibabagroup.com

Входящий в Alibaba производитель полупроводников T-Head недавно провёл конференцию по итогам III квартала 2026 финансового года, в ходе которой его гендиректор Ёнмин Ву (Yongming Wu) сообщил, что компания выпустила почти 470 000 чипов, в том числе трёх моделей, разработанных специально для рабочих нагрузок искусственного интеллекта: XuanTie C908, TH1520 и Pingtouge Zhenwu 810E. Это значит, что Alibaba действительно наладила мощное производство полупроводников — для сравнения, за год выпущены 6 млн чипов Nvidia Blackwell.

Но одной только производственной мощностью всех задач решить не получится — китайские ИИ-ускорители от Alibaba T-Head уступают американской продукции, и в компании с этим не спорят. «Учитывая, что наши чипы всё ещё отстают от зарубежных аналогов по производительности в различных аспектах, мы стремимся углубить совместное проектирование с облачной инфраструктурой Alibaba и моделью Qwen для повышения эффективности. <..> Это одно из ключевых отличий и наш подход к проектированию чипов в T-Head, который выделяет нас среди прочих компаний — производителей чипов. Наша основная цель — создать систему ИИ с превосходным соотношением цены и качества», — отметил Ёнмин Ву.

Intel представила мечту анонимов — чип Heracles для работы с зашифрованными данными без дешифровки

Intel впервые показала чип для полностью гомоморфного шифрования (Fully Homomorphic Encryption, FHE), который справляется с задачами в 5000 раз быстрее классических серверных процессоров. Это ускоритель Heracles («Геракл»), созданный по заказу военных США для противодействия взлому со стороны квантовых компьютеров. «Геракл» ускоряет обработку полностью зашифрованной информации без какого-либо декодирования, сохраняя конфиденциальность на всех этапах.

 Источник изображения: Intel

Источник изображения: Intel

Полностью гомоморфное шифрование (Fully Homomorphic Encryption, FHE) представляет собой перспективную криптографическую технологию, позволяющую выполнять произвольные вычисления над зашифрованными данными без необходимости их расшифровки. Это решает фундаментальную проблему доверия к облачным сервисам и ИИ-системам: данные остаются полностью закрытыми для платформ даже во время обработки. Однако главным препятствием для практического применения FHE остаётся крайне низкая производительность обычных процессоров и видеокарт.

Более подробно о «головоломной» математике полностью гомоморфного шифрования можно прочесть в статье «Полная гомоморфность — и никакого доверия!» из нашего архива. Не углубляясь, отметим, что на обычных CPU и GPU такие операции могут быть в тысячи–десятки тысяч раз медленнее, чем работа с открытыми данными. Именно поэтому ведущие компании и стартапы активно разрабатывают специализированные ускорители для FHE. Как ни крути, анонимность всегда будет востребована.

Чип, получивший имя «Геракл», компания Intel начала разрабатывать пять лет назад. До конференции ISSCC в прошлом месяце о нём было мало что известно. Теперь Intel готова дозированно делиться информацией о нём, поскольку конкуренты не дремлют и важно оставаться на слуху. По словам представителей компании, Heracles ускоряет FHE-вычисления до 5000 раз по сравнению с лучшими серверными процессорами Intel Xeon (например, 24-ядерным Sapphire Rapids).

Чип изготовлен по самому передовому 3-нм FinFET-техпроцессу компании, имеет площадь примерно в 20 раз больше конкурирующих разработок в сфере FHE (более 200 мм² вместо примерно 10 мм² у конкурентов) и работает в тесной связке с двумя модулями HBM по 24 Гбайт каждый. Чип и память упрятаны под общий водоблок и охлаждаются жидким хладагентом. В целом исполнение напоминает топовый GPU, но решает иные задачи.

Архитектура «Геркулеса» представляет собой ячеистую структуру, связывающую парные плитки-вычислители шиной с пропускной способностью 9,6 Тбайт/с. Внешняя память HBM общей ёмкостью 48 Гбайт буферизируется общей для всех парных плиток кеш-памятью ёмкостью 64 Мбайт. Канал доступа к внешней памяти обеспечивает 819 Гбайт/с. Подобные характеристики даже не снились самым мощным на сегодня графическим ускорителям.

В компании утверждают, что Heracles — это первый чип FHE, работающий «в масштабе». Иначе говоря, это не лабораторная демонстрация, а решение, способное к выполнению реальных крупномасштабных задач. В живой демонстрации на ISSCC чип обработал анонимный запрос к зашифрованной базе данных избирателей (функция проверки регистрации голоса) за 14 мкс вместо 15 мс на Xeon — разница, которая при проверке 100 млн бюллетеней сокращается с 17 дней до 23 минут.

Публичное представление «Геркулеса» можно расценить как важный шаг в гонке за коммерциализацией аппаратных FHE-платформ. Стартапы Duality Technologies, Optalysys, Niobium Microsystems и другие тоже активно продвигают свои решения, но Intel рассчитывает на собственные лидирующие позиции в отрасли, которые поддержат перспективную разработку. Если технология получит широкое распространение, это радикально изменит подход к приватности в облачных вычислениях, анализе данных, машинном обучении и многих других областях, где сейчас приходится жертвовать конфиденциальностью ради скорости обработки.

Meta✴ провалила создание собственного ИИ-чипа, потому что это «слишком сложно» и кругом «технические проблемы»

Meta✴ столкнулась со сложностями при разработке собственных ускорителей для систем искусственного интеллекта и была вынуждена отказаться от самого передового проекта в пользу менее сложного варианта. Об этом сообщил ресурс The Information со ссылкой на осведомлённые источники.

 Источник изображений: Igor Omilaev / unsplash.com

Источник изображений: Igor Omilaev / unsplash.com

На минувшей неделе Meta✴ отказалась продолжать работу над наиболее передовым ускорителем для обучения моделей ИИ, потому что столкнулась с трудностями при его проектировании и техническими проблемами; руководство компании проинформировало работников отдела инфраструктуры об изменении планов. Компания пересмотрела дорожную карту, имея множество запасных вариантов. Она заключила многомиллиардную сделку по аренде ИИ-ускорителей TPU у Google; инициировала партнёрский проект в области ускорителей AMD Instinct суммарной мощностью до 6 ГВт; а также объявила о намерении закупать ИИ-ускорители Nvidia текущего и перспективных поколений.

Собственные чипы компания разрабатывает в рамках программы Meta✴ Training and Inference Accelerator (MTIA) — она призвана снизить затраты и усилить контроль над инфраструктурой центров обработки данных. «Мы по-прежнему привержены инвестициям в диверсифицированный портфель чипов для удовлетворения наших потребностей, что включает в себя развитие нашего портфеля MTIA, и в этом году мы поделимся свежей информацией», — прокомментировал происходящее представитель Meta✴. Компания отказалась от одной из версий своего чипа второго поколения для обучения ИИ, проходящего внутри Meta✴ под кодовым наименованием Iris, затем она начала работать над более совершенным чипом, которому присвоили название Olympus, но теперь отказалась и от него.

В Meta✴ назрело скептическое отношение к возможности создать собственные ИИ-ускорители, сопоставимые по возможностям с чипам Nvidia, признался один из разработчиков Meta✴ — всё дело в рисках задержек или вынужденных доработок проектов. Работа требует большой команды инженеров для проектирования, отладки чипов и обеспечения их невысокого энергопотребления, в результате чего продукты Nvidia оказываются более целесообразными. В основу предназначенного для обучения ИИ-ускорителя Iris легла технология пакетной обработки параллельных данных SIMD (Single Instruction, multiple data) — они легче в проектировании, но для них труднее писать ПО. В ускорителе Olympus использовался принятый Nvidia подход SIMT (Single Instruction, Multiple Threads), при котором множество потоков выполняет одну инструкцию, сохраняя логическую независимость. Такие чипы сложнее в проектировании, но под них проще писать ПО для обучения ИИ-моделей.

Некоторые технологические компании предпочитают второй подход по образцу Nvidia, потому что он обеспечивает более высокую гибкость и лучше адаптирован для обучения современных моделей ИИ. Meta✴ планировала завершить разработку Olympus не раньше IV квартала 2026 года, но в действительности потребовались бы не менее девяти месяцев до передачи проекта в массовое производство. Основу архитектуры Olympus должны были составить наработки стартапа Rivos, поглощённого Meta✴ в минувшем году, — они совместимы с ПО Nvidia CUDA, наиболее популярным в обучении и запуске моделей ИИ.

Meta✴ планировала разработать большие кластеры серверов на чипах Olympus, но руководство компании увидело в этом угрозу для обучения новых моделей в условиях конкуренции с OpenAI и Google. ПО для собственных ускорителей было бы менее стабильным, чем у Nvidia, а сложная архитектура Olympus могла бы затруднить его массовое производство. Поэтому пока Meta✴ намерена использовать в обучении ИИ ускорители партнёров, к которым прилагается более развитое и стабильное ПО.

Meta✴ купит у AMD чипов на $100 млрд для ИИ-систем на 6 ГВт — и получит «в подарок» кусочек самой AMD

Компании AMD и Meta✴ объявили о ещё одной колоссальной сделке, стоимость которой может превысить $100 млрд. AMD предоставит до 6 гигаватт вычислительной мощности на основе ИИ-ускорителей AMD Instinct для реализации амбиций Meta✴ в области ИИ. Сделка предусматривает вознаграждение для Meta✴, в рамках которого компания может получить до 160 млн акций AMD. Meta✴ также станет ведущим потребителем чипов AMD EPYC Venice и процессоров следующего поколения EPYC Verano.

 Источник изображений: AMD

Источник изображений: AMD

В своём пресс-релизе AMD подтвердила партнёрство с Meta✴ с целью «быстрого масштабирования инфраструктуры ИИ и ускорения разработки и внедрения передовых моделей ИИ». С этой целью AMD предоставит Meta✴ архитектуру AMD Helios для стоечных систем, начало развёртывания которой ожидается во второй половине 2026 года. Решение будет основано на базе специализированных графических процессоров AMD Instinct, построенных на архитектуре MI450, процессоров AMD EPYC Venice и программного обеспечения ROCm.

Глава AMD Лиза Су (Lisa Su) заявила, что партнёрство с Meta✴ представляет собой «многолетнее сотрудничество», а генеральный директор Meta✴ Марк Цукерберг (Mark Zuckerberg) подтвердил долгосрочные перспективы партнёрства. По словам Цукерберга, амбиции Meta✴ в области искусственного интеллекта направлены на создание «персонального суперинтеллекта». AMD также сообщила, что Meta✴ станет ведущим клиентом для процессоров AMD EPYC Venice шестого поколения, а также чипов EPYC следующего поколения Verano.

AMD заявила, что выпустила для Meta✴ «варранты на основе производительности» на сумму до 160 млн обыкновенных акций AMD, которые будут предоставляться «по мере достижения определённых этапов, связанных с поставками графических процессоров Instinct». По сути, AMD вознаграждает Meta✴ своими акциями за покупку графических процессоров. Сделка по масштабу практически идентична партнёрству OpenAI и AMD, объявленному в октябре.

По данным The Wall Street Journal, стоимость сделки превышает $100 млрд, при этом каждый гигаватт вычислительных мощностей приносит AMD десятки миллиардов долларов дохода. Что касается сделки с акциями, Meta✴ сможет приобрести до 160 млн акций по цене 0,01 доллара за штуку. Для получения полного вознаграждения в виде акций, цена акций AMD должна достичь $600. В настоящее время они торгуется чуть ниже $200.

На прошлой неделе сообщалось о намерении Meta✴ использовать автономные процессоры Nvidia Grace в своих ЦОД, что, по словам компании, обеспечит значительный скачок производительности на ватт.

Топ-менеджер Intel: в половине отгруженных в этом году ПК будет ускоритель ИИ

Президент японского подразделения Intel Макото Оно (Makoto Ohno) уверен, что 2026 год станет решающим для ПК с поддержкой ИИ. По его прогнозам, в этом году на ПК с ИИ придётся примерно половина от общего объёма поставок за год. По предварительным оценкам IDC, в 2026 году будет отгружено около 260 млн ПК. Если прогноз Макото Оно сбудется, 130 млн из них будут оснащены нейронным процессором (NPU) или другим чипом для локальной обработки данных с помощью ИИ.

Тем не менее Макото Оно признал, что основной причиной покупки ПК с ИИ могут оказаться не его возможности по ускорению искусственного интеллекта, а повышенная производительность в широком спектре прикладных задач и более длительное время автономной работы благодаря новым поколениям оптимизированных процессоров.

«Прогнозируется, что к 2026 году […] каждый второй компьютер будет ПК с искусственным интеллектом. Однако, учитывая текущую ситуацию, причинами выбора ПК с ИИ являются его высокая производительность и длительное время автономной работы, обеспечиваемое использованием нейронного процессора. Другими словами, важно учитывать тот факт, что люди в настоящее время покупают ПК с ИИ не для того, чтобы использовать его функции, связанные с ИИ», — отметил Макото Оно.

По словам Макото Оно, Intel хочет в кратчайшие сроки сделать ПК с ИИ нормой, а не исключением. Компания признает, что в настоящее время эти ПК в основном воспринимаются как продукты высокого класса, и стремится как можно быстрее изменить это восприятие и вывести такие устройства на массовый рынок.

Intel также подчеркнула необходимость большего количества приложений, которые действительно используют возможности ПК с ИИ, с целью достижения точки, когда люди будут покупать ПК с ИИ для конкретной цели, а не просто потому, что это новейший продукт.

Microsoft представила Maia 200 — фирменный 3-нм ИИ-ускоритель с 216 Гбайт HBM3e

Компания Microsoft представила новейший ускоритель ИИ собственной разработки — Azure Maia 200. Новый чип является следующим поколением линейки серверных графических процессоров Microsoft Maia, предназначенных для выполнения задач вывода моделей ИИ с высокой скоростью и производительностью, превосходящей предложения от таких крупных конкурентов, как Amazon и Google.

 Источник изображения: Microsoft

Источник изображения: Microsoft

Maia 200 позиционируется как самая эффективная система вывода от Microsoft из когда-либо развёрнутых. Во всех пресс-релизах компании акцент делается как на высоких показателях производительности, так и на заявлениях о приверженности Microsoft принципам защиты окружающей среды. Компания утверждает, что Maia 200 обеспечивает на 30 % большую производительность на доллар, чем Maia 100 первого поколения, что весьма впечатляет, учитывая, что новый чип также имеет на 50 % более высокое значение TDP, чем его предшественник.

Maia 200 построен на 3-нм техпроцессе TSMC и содержит 140 млрд транзисторов. Он, как утверждается, способен обеспечивать до 10 петафлопс производительности в вычисления FP4, что в три раза выше, чем у конкурента от Amazon — Trainium3. Maia 200 оснащён 216 Гбайт памяти HBM3e с пропускной способностью 7 Тбайт/с, а также имеет 272 Мбайт встроенной памяти SRAM.

 Источник изображения: Tom's Hardware

Источник изображения: Tom's Hardware

Из сравнительной таблицы выше, подготовленной порталом Tom’s Hardware, видно, что Maia 200 демонстрирует явное превосходство в вычислительной мощности по сравнению с решением компании Amazon и по некоторым показателям соответствует ИИ-ускорителю B300 Ultra от Nvidia. Очевидно, что сравнивать их как прямых конкурентов бессмысленно. Покупатели не могут приобрести Maia 200 напрямую, а Blackwell B300 Ultra оптимизирован для гораздо более ресурсоёмких задач, чем чип Microsoft. Кроме того, программный стек Nvidia предоставляет B300 значительное преимущество перед любыми другими конкурентами.

Однако Maia 200 превосходит B300 по эффективности, что является большим достижением в эпоху, когда обеспокоенность общественности негативным воздействием ИИ на окружающую среду неуклонно растёт. Maia 200 работает при почти вдвое меньшем TDP, чем B300 (750 против 1400 Вт). И если новый ИИ-ускоритель Microsoft похож по энергоэффективности на предшественника Maia 100, то он, как и предшественник, будет работать ниже своего теоретического максимального TDP. Для Maia 100 был заявлен TDP на уровне 700 Вт, но Microsoft утверждает, что в рабочем режиме его энергопотребление составляет всего 500 Вт.

Maia 200 оптимизирован для работы с вычислениями 4-битной (FP4) и 8-битной (FP8) точности с плавающей запятой. Он ориентирован на клиентов, которые работают с ИИ-моделями, требующими производительности FP4, а не для более сложных операций. Как предполагает Tom’s Hardware, значительная часть бюджета Microsoft на исследования и разработки этого чипа была направлена на иерархию памяти, использующуюся внутри его 272 Мбайт высокоэффективной SRAM-памяти. Последняя разделена на «многоуровневую кластерную SRAM (CSRAM) и плиточную SRAM (TSRAM)», что обеспечивает повышенную эффективность работы и философию интеллектуального и равномерного распределения рабочей нагрузки по всем кристаллам HBM и SRAM.

Сообщается, что ИИ-процессоры Maia 200 уже развёрнуты в центральном дата-центре Microsoft в США (Azure), а в будущем их развёртывание планируется в западном дата-центре (Финикс, Аризона). Чипы станут частью гетерогенной инфраструктуры Microsoft, работая в тандеме с другими различными ускорителями ИИ.

По основному накопительному кольцу российского синхротрона СКИФ впервые пронёсся рабочий пучок электронов

Под Новосибирском достигнут важный этап в создании Центра коллективного пользования «Сибирский кольцевой источник фотонов» (СКИФ) — первой в России установки синхротронного излучения четвертого поколения (4+), которая станет самым мощным в мире источником такого света. 22 декабря 2025 года учёные успешно переправили пучок электронов с энергией 3 гигаэлектронвольта (ГэВ) из бустерного синхротрона в основное накопительное кольцо. Работа не за горами.

 Источник изображения: ТАСС

Источник изображения: ТАСС

Периметр бустерного кольца достигает 158 метров. В этом кольце пучок электронов в электромагнитном канале за полсекунды будет разгоняться до 3 ГэВ — энергии, на которой будет работать синхротрон. По достижении этой отметки пучок по 220-метровому транспортному тоннелю будет влетать в основное накопительное кольцо периметром 476 м.

В основном кольце электроны будут разгоняться до околосветовой скорости, после чего смогут возбуждать вторичное рентгеновское излучение на специальных портах. Каждый такой порт будет выходить в лабораторию на испытательную установку. Лабораторий, или испытательных станций, по периметру основного кольца будет 30 штук — все для разных задач, от биологии до материаловедения.

 Общий вид на объекты ЦКП «СКИФ». Рендер. Источник изображения: СО РАН

Общий вид на объекты ЦКП «СКИФ». Рендер. Источник изображения: СО РАН

Монтаж бустерного кольца начался в ноябре 2024 года. Первые пучки по кольцу запустили в августе 2025 года. В ноябре СКИФ был готов на 95 %. И хотя проект из-за санкций немного запаздывает, его реализация идёт близко к утверждённому графику. Во всяком случае, пучок с рабочей энергией 3 ГэВ запущен в основное накопительное кольцо, что зафиксировали датчики. Похоже, первая научная работа на установке не задержится. Лаборатории будут вводиться постепенно ещё не один год, но первые из них заработают уже в начале 2026 года. Высочайшая яркость синхротронного излучения СКИФа поможет учёным заглянуть вглубь вещества с ещё большей детализацией, чем когда бы то ни было.

Несмотря на сопротивление Пекина, Nvidia намерена начать поставки чипов H200 в Китай к середине февраля

Осведомлённые источники сообщают, что Nvidia уведомила китайских клиентов о намерении начать поставки своих вторых по мощности чипов для искусственного интеллекта в Китай до новогодних праздников по китайскому лунному календарю, то есть в середине февраля. Компания планирует выполнить первоначальные заказы из имеющихся запасов. Будет поставлено от 5000 до 10 000 серверов, что эквивалентно 40 000–80 000 чипов H200 для искусственного интеллекта.

 Источник изображений: Nvidia

Источник изображений: Nvidia

Nvidia также сообщила китайским клиентам о планах наращивания мощностей для производства этих чипов, при этом заказы на эти мощности начнут приниматься во втором квартале 2026 года. Для китайских технологических гигантов, таких как Alibaba Group и ByteDance, которые выразили заинтересованность в покупке чипов H200, потенциальные поставки обеспечат доступ к процессорам, примерно в шесть раз более мощным, чем H20, которые Nvidia разработала специально для Китая.

Независимо от озвученных планов Nvidia поставки пока под вопросом, поскольку Пекин ещё не одобрил ни одной закупки H200 и сроки могут измениться в зависимости от решений правительства. Китайские чиновники провели экстренные совещания в начале декабря для обсуждения этого вопроса и пока взвешивают возможность разрешения поставок. Согласно одному из предложений, каждая покупка H200 должна сопровождаться приобретением определённого количества ускорителей ИИ китайского производства.

Китай активно развивает собственную индустрию чипов для искусственного интеллекта. Но пока ускорители ИИ от китайских компаний не могут сравниться по производительности с H200, что вызывает у правительства Китая опасения, что разрешение импорта может замедлить внутренний прогресс.

Планируемые поставки, если они состоятся, станут первыми поставками ИИ-ускорителей H200 в Китай после того, как администрация США разрешила такие продажи с выплатой 25 % прибыли в американский бюджет. Этот шаг представляет собой серьёзный сдвиг в политике США по сравнению с предыдущей администрацией, которая полностью запретила продажу передовых чипов для ИИ в Китай, ссылаясь на соображения национальной безопасности. Серьёзность намерений правительства США подтверждает начавшаяся на прошлой неделе межведомственная проверка заявок на лицензирование экспорта чипов H200 в Китай.

H200, входящий в линейку Hopper предыдущего поколения от Nvidia, по-прежнему широко используется в ИИ, несмотря на то, что ему на смену пришли ИИ-ускорители поколения Blackwell. Ранее Nvidia сосредоточила усилия на выпуске ускорителей Blackwell и запуске будущей линейки Rubin, что привело к дефициту поставок H200.

Китайский ответ Nvidia: Moore Threads представила игровые GPU Lushan и ИИ-ускорители Huashan — и они кратно быстрее прежних

Китайский производитель чипов Moore Threads представил два новых графических процессора: предназначенный для игр Lushan и ориентированный на задачи искусственного интеллекта Huashan — в обоих случаях обещан значительный прирост скорости в сравнении с графикой предыдущего поколения у того же производителя, сообщает Wccftech.

 Источник изображений: wccftech.com

Источник изображений: wccftech.com

В основе Lushan и Huashan лежит архитектура Flower Harbor (Huagang) с улучшенными вычислительными блоками, в которых вычислительная плотность чипов увеличилась на 50 %, а энергоэффективность выросла на 10 %. Новая архитектура поддерживает следующие форматы вычислений: FP64, FP32, TF32, FP16, BF16, FP8, FP6, FP4, INT8, MTFP8, MTFP6, MTFP4. Сделан упор на параллельную работу и масштабирование: ускорители обмениваются данными с высокой скоростью и работают асинхронно — при помощи технологии MTLink можно сформировать кластер из более чем 100 тыс. графических процессоров Huashan.

Видеокарты Lushan адресованы любителям игр и создателям контента и выступают преемниками потребительских Moore Threads MTT S80 и MTT S90. Подробности о продукте пока не приводятся, но разработчик уже рассказал, каких результатов можно ждать от видеокарт нового поколения:

  • прирост производительности в задачах ИИ — в 64 раза;
  • прирост производительности в трассировке лучей — в 50 раз;
  • прирост игровой производительности — в 15 раз;
  • прирост скорости в обработке геометрии — в 16 раз;
  • прирост скорости при обработке текстур — в 4 раза;
  • прирост скорости атомарных операций с памяти — в 8 раз;
  • прирост объёма памяти — в 4 раза.

Moore Threads обеспечила графике на новой архитектуре полную совместимость с наиболее популярными API, в том числе DirectX 12 Ultimate — продукты из предыдущей потребительской линейки в этом плане сильно отставали. Другие важные нововведения — рендеринг с использованием генеративного ИИ теперь встроен в единый конвейер UniTE; полностью переработана аппаратная часть подсистемы трассировки лучей. В итоге стало удобнее работать с нейронным рендерингом и задачами трассировки пути.

Графический процессор Huashan состоит из двух чиплетов и включает восемь ячеек памяти HBM. Moore Threads сравнивает возможности ускорителя с чипами Nvidia Hopper и Blackwell: по скорости вычислений с плавающей запятой он приблизился к Blackwell B200, сравнялся с B200 по общей пропускной способности и даже превзошёл Blackwell по способности работать с большим объёмом памяти одновременно и обслуживать большое число обращений.

Новые графические процессоры, как ожидается, получат вчетверо больший объём памяти: модели MTT S80/S90 комплектовались 16 Гбайт GDDR6, так что в новых моделях можно ожидать до 64 Гбайт. Первые видеокарты Lushan и ускорители Huashan выйдут в 2026 году. Компания также поделилась сведениями о производительности ускорителя MTT S5000 — он позиционируется как конкурент Nvidia Hopper: для модели DeepSeek V3 скорость обработки запросов составляет 4000, а генерации ответов — 1000 токенов в секунду. MTT S5000 будет работать в составе суперсервера MTT C256, который также ожидается в следующем году.


window-new
Soft
Hard
Тренды 🔥
Ветеран Epic Games взялся за европейскую альтернативу Unreal Engine 9 мин.
Google привязала reCAPTCHA к Play Services и отрезала от верификации пользователей Android без сервисов Google 3 ч.
Новая статья: Heroes of Might and Magic: Olden Era — время расцвета. Предварительный обзор 15 ч.
Anthropic отучила свой ИИ шантажировать пользователей при угрозе отключения 20 ч.
Microsoft улучшила работу Windows 11 с тачпадом и сенсорной клавиатурой, а также повысила стабильность «Проводника» 22 ч.
Пользователей Instagram лишили сквозного шифрования в личных сообщениях 22 ч.
ИИ всё чаще пишет научные статьи — отличить от человеческих становится невозможно, и это пугает 09-05 14:43
ИИ-модель OpenAI GPT-5.5 оказалась в 1,5–2 раза дороже предшественницы 09-05 14:38
В ЕС назвали VPN лазейкой для обмана систем проверки возраста — и её хотят закрыть 09-05 11:57
Департамент DOGE Илона Маска использовал ChatGPT глупым и незаконным способом 09-05 11:53
Samsung расширила группу по созданию человекоподобных роботов и ускорила ИИ-трансформацию 4 ч.
Nvidia в этом году потратила на покупку активов других компаний более $40 млрд 7 ч.
Запрещённые к ввозу в США дроны и маршрутизаторы смогут получать обновления безопасности до января 2029 года 14 ч.
Под руководством Лип-Бу Тана компания Intel так и не избавилась от основных проблем 14 ч.
Война на Ближнем Востоке усугубила дефицит строительных материалов и компонентов для ЦОД 16 ч.
Учёные предложили квантовый процессор с подвижными кубитами — он прост в производстве и гибок в работе 17 ч.
В США расследуют аварии с участием роботакси Avride, ранее входившей в «Яндекс» 22 ч.
Жители США бунтуют против дата-центров — запреты множатся по всей стране 22 ч.
Sony призналась, что ещё не решила, когда и по какой цене выпустит PlayStation 6 09-05 14:46
Lian Li выпустила СЖО с 6,67-дюймовым изогнутым дисплеем — HydroShift II OLED Curved 360 AIO 09-05 14:45