Сегодня 31 января 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Hardware

ИИ-ускорители упёрлись в предел скорости HBM, и эта проблема пострашнее дефицита памяти

По оценкам представителей отрасли, современные ИИ-ускорители в своём развитии достигли того этапа, когда пропускная способность интерфейса памяти становится узким местом на пути дальнейшего масштабирования быстродействия. Дефицит памяти или её объём в этом отношении уходят на второй план, и устранение этого барьера главным образом зависит от разработчиков GPU и больших языковых моделей.

 Источник изображения: Nvidia

Источник изображения: Nvidia

По словам сооснователя Majestic Labs Ша Рабии (Sha Rabii), на которого ссылается CNBC, если непосредственно ускорители вычислений в последние годы продвинулись в своём быстродействии весьма значительно, сопутствующая им память стала не особо быстрее. По сути, именно производительность памяти ограничивает сейчас дальнейший рост быстродействия больших языковых моделей. При этом переход к инференсу увеличит потребности в объёме памяти, так что спрос на неё будет расти очень быстро. В любом случае, чем больше в инфраструктуре ИИ памяти, тем большее количество клиентов она способна обслуживать в единицу времени. О необходимости наращивать объёмы выпуска памяти на CES 2026 говорил и основатель Nvidia Дженсен Хуанг (Jensen Huang). Он даже отметил, что покупатели игровых решений компании типа видеокарт и консолей «обижены» на отрасль ИИ, поскольку дефицит памяти толкает цены вверх даже в указанных смежных сегментах рынка.

Даже запланированный AMD и Nvidia переход на использование памяти типа HBM4 не позволит полностью решить проблему пропускной способности. Память этого семейства всё равно ограничена в количестве задействованных каналов и высоте стека микросхем, не говоря уже о ширине интерфейса. Пропускная способность вычислительных систем могла бы масштабироваться гораздо эффективнее, если бы не свойственные HBM ограничения. Наращивать количество вычислительных блоков в составе GPU в таких условиях не имеет особого смысла, ибо память не будет успевать передавать все данные при вычислительных нагрузках, имеющих отношение как к обучению больших языковых моделей, так и инференсу.

Доступные разработчикам компонентов методы упаковки чипов также выступают в роли специфического ограничивающего фактора, в условиях высокого спроса профильные мощности сильно загружены, усиливая дефицит скоростной памяти и повышая расходы производителей.

На архитектурном уровне разработчики пытаются изучать альтернативы типа осуществления вычислений прямо внутри микросхем памяти (PIM), увеличения плотности компоновки микросхем в составе стека памяти, а также применения в многокристальных решениях прогрессивных интерфейсов типа UCIe, которые позволяют не только увеличить эффективную полосу пропускания, но и снизить задержки при работе с данными. Темпы дальнейшего масштабирования инфраструктуры ИИ будут зависеть от прогресса в сфере внедрения более скоростной памяти.

HBM4 предложит прирост быстродействия в полтора раза относительно HBM3E, позволяя через свою более широкую 2048-разрядную шину передавать до 2 терабайт данных в секунду. К 2027 году на арену выйдет память типа HBM4E, которая потенциально увеличить скорость передачи информации ещё в полтора раза. Внедрение интерфейса CXL также должно способствовать повышению эффективности обмена данными между компонентами вычислительных систем. В части памяти переход к CXL обеспечит увеличение степени загрузки на 50 %, а также снижение энергопотребления на величину до 20–30 %. Появление новых методов трёхмерной компоновки памяти тоже должно способствовать повышению производительности и снижению энергопотребления.

Источник:


window-new
Soft
Hard
Тренды 🔥
ИИ-агенты в «бесчеловечной» соцсети Moltbook основали собственную религию — «панцифарианство» 3 ч.
Соцсети вскоре столкнутся с массовыми набегами ИИ-агентов, предупредили учёные 5 ч.
Apple проигрывает борьбу за ИИ-специалистов — ценные кадры уходят в Meta и Google DeepMind 5 ч.
Instagram разрешит удалять себя из чужих списков «Близкие друзья» 5 ч.
Экс-инженера Google осудили за кражу коммерческих тайн для Китая 7 ч.
ФСТЭК России опубликовала рекомендации по безопасной настройке Samba 8 ч.
Обещанная Павлом Дуровым интеграция Grok c Telegram до сих пор не случилась и, похоже, уже никогда не случится 11 ч.
Запустилась соцсеть Moltbook, где общаются только ИИ-агенты — людям разрешили только наблюдать 15 ч.
Новая статья: Arknights: Endfield — если бы Satisfactory была китайской гачей. Рецензия 21 ч.
Хардкорный шутер Road to Vostok о выживании на границе Финляндии и России скоро ворвётся в ранний доступ Steam — дата выхода и новый трейлер 23 ч.
RISC-V, Wi-Fi 6, Bluetooth 5.2 и 10GbE SFP+: представлен одноплатный компьютер Milk-V Jupiter 2 24 мин.
Не только ChatGPT: ИИ Google и Microsoft тоже уличили в цитировании Grokipedia 48 мин.
Улучшенная геотермальная энергетика будет выгоднее АЭС, ископаемых и возобновляемых источников, заявили учёные из США 3 ч.
Цена прогресса: Oracle не нашла денег на новые ЦОД и может уволить до 30 тысяч человек 3 ч.
Очередная группа космических туристов отправится на МКС в январе 2027 года — Axiom и NASA подписали контракт 7 ч.
SpaceX завершила 2025 год с прибылью $8 млрд — оценка к IPO может достичь $1,5 трлн 8 ч.
NASA впервые доверило ИИ управление марсоходом — он проехал почти полкилометра 8 ч.
Спутниковый интернет Amazon забуксовал — компания попросила больше времени на развёртывание Leo 9 ч.
8K оказался почти никому не нужен — LG остановила выпуск телевизоров 8K OLED и 8K LCD 9 ч.
Мегасделка между OpenAI и Nvidia на $100 млрд застопорилась из-за сомнений Nvidia 9 ч.