Компания Micron сообщила о старте массового производства высокопроизводительной памяти HBM3E в формате 8-этажных стеков объёмом 24 Гбайт. Такие микросхемы будут использоваться в составе специализированных ИИ-ускорителей NVIDIA H200, массовые поставки которых начнутся во втором календарном квартале 2024 года.
В Micron заявляют, что растущий спрос на ИИ-вычисления требует новых высокопроизводительных решений в вопросе памяти. Новые микросхемы HBM3E от Micron полностью отвечают этим требованиям.
Для своих 8-слойных стеков памяти HBM3E объёмом 24 Гбайт компания Micron заявляет скорость передачи данных в 9,2 Гбит/с на контакт и пропускную способность более 1,2 Тбайт/с. По словам Micron, её чипы памяти HBM3E до 30 % энергоэффективнее аналогичных решений от других производителей.
Компания также отмечает, что большая ёмкость в 24 Гбайт чипов памяти HBM3E позволяет центрам обработки данных беспрепятственно масштабировать свои задачи, связанные с ИИ, будь то обучение массивных нейронных сетей или ускорение инференса.
Компания Micron производит чипы памяти HBM3E с использованием своего самого передового технологического процесса 1β (1-beta), а также передовой технологии сквозных соединений TSV (Through-silicon via) и других инновационных решений, связанных с упаковкой микросхем. Micron будет производить свои чипы памяти HBM3E на мощностях компании TSMC.
Производитель также сообщил, что в марте этого года начнёт рассылать производителям образы передовых 12-слойных чипов памяти HBM3E ёмкостью 36 Гбайт, которые обеспечат пропускную способность выше 1,2 Тбайт/с.
Источник: