|
Опрос
|
реклама
Быстрый переход
В самый раз для ИИ: Micron выпустила первый в мире модуль памяти LPDRAM SOCAMM2 на 256 Гбайт
04.03.2026 [11:28],
Павел Котов
Компания Micron представила первый в мире высокопроизводительный модуль оперативной памяти LPDRAM SOCAMM2 объёмом 256 Гбайт — он разработан специально для работы в центрах обработки данных и рабочих нагрузок в области искусственного интеллекта.
Источник изображений: micron.com Оперативная память нового типа потребляет втрое меньше мощности и отличается компактными габаритами модуля — сам модуль построен на монолитных кристаллах объёмом 32 Гбит. При наличии 8-канального центрального процессора в системе с 2 Тбайт памяти скорость при рабочей нагрузке инференса (запуска) ИИ увеличивается в 2,3 раза по важнейшему показателю — времени до выдачи первого токена. ![]() Новый модуль памяти Micron ориентирован на задачи вывода больших языковых моделей и прочие рабочие нагрузки, в которых объёмы памяти, пропускная способность, эффективность и величина задержки определяют производительность и масштабируемость. Формфактор SOCAMM2 представляет собой идеальное решение с более компактными размерами модулей и сниженным потреблением энергии в сравнении с традиционным форматом RDIMM. Разработку компонента компания Micron вела совместно с Nvidia. В рабочих нагрузках ИИ видеопамять на графическом процессора имеет решающее значение, но при больших объёмах KV-кеша его можно частично выгружать в более дешёвую общую системную память, если та достаточно быстрая — и эту возможность предлагает LPDRAM SOCAMM2 от Micron. Samsung представила SOCAMM2 LPDDR5X для ИИ-дата-центров — быстрее и энергоэффективнее DDR5 RDIMM
20.12.2025 [01:53],
Николай Хижняк
Компания Samsung анонсировала модуль памяти SOCAMM2 на базе чипов LPDDR5X, разработанный специально для платформ центров обработки данных с поддержкой ИИ. Новый формат памяти призван обеспечить преимущества LPDDR5X в плане энергоэффективности и пропускной способности для серверов без необходимости постоянной пайки чипов памяти на несущую материнскую плату.
Источник изображений: Samsung Память SOCAMM2 ориентирована на определённый и растущий класс систем, где процессоры или суперчипы CPU–GPU работают в паре с большими пулами системной памяти, которые должны обеспечивать высокую пропускную способность при меньшем энергопотреблении, чем могут предложить обычные серверные модули DIMM, — и всё это в более компактном форм-факторе. По мере расширения рабочих нагрузок в области вывода данных и перехода ИИ-серверов к непрерывной работе в режиме постоянной доступности энергоэффективность памяти больше не может рассматриваться как второстепенная оптимизация, поскольку она вносит существенный вклад в эксплуатационные расходы на уровне стойки. SOCAMM2 является ответом на эти вызовы. Samsung отмечает, что, хотя серверные модули на базе чипов DRAM, такие как RDIMM (Registered Dual Inline Memory Module), по-прежнему служат основой для высокопроизводительных серверов общего назначения, SOCAMM2 предлагает дополнительную альтернативу, оптимизированную для серверов следующего поколения с ускорением ИИ, которым требуются как высокая скорость отклика, так и энергоэффективность. Память SOCAMM2 обеспечивает более чем в два раза большую пропускную способность по сравнению с традиционными модулями RDIMM, при этом потребляя более чем на 55 % меньше энергии и поддерживая стабильную высокую производительность при интенсивных ИИ-нагрузках, что делает это решение идеальным для энергоэффективных серверов ИИ, ориентированных на производительность. Кроме того, повышенная энергоэффективность SOCAMM2 упрощает задачу организации и управления охлаждением ИИ-систем, что является критически важным фактором для сред с высокой плотностью размещения вычислительных ИИ-мощностей. Samsung заявляет, что уже сотрудничает с компанией Nvidia по развитию инфраструктурных решений с использованием подобных модулей памяти, и позиционирует формат SOCAMM2 как естественный ответ на растущие затраты на электроэнергию, ограничения по плотности размещения и проблемы с ремонтопригодностью в крупномасштабных инстансах. Samsung также отмечает, что по мере роста масштабов и сложности рабочих нагрузок ИИ компания будет и дальше развивать свой портфель серверной памяти на основе LPDDR. |