Опрос
|
реклама
Быстрый переход
NVIDIA представила суперчип GH200 Grace Hopper с памятью HBM3e и производительностью 4 Пфлопс
08.08.2023 [22:17],
Николай Хижняк
Компания NVIDIA в рамках конференции SIGGRAPH 2023 представила вычислительную платформу GH200 Grace Hopper SuperChip нового поколения, представляющую собой двухчиповую систему из центрального и графического процессоров. Она послужит для построения НРС-систем и ИИ-платформ. В её основе используется новое поколение суперчипа NVIDIA Grace, оснащённого набортной высокопроизводительной памятью HBM3e, обеспечивающей доступ к информации со скоростью 5 Тбайт/с. ![]() Источник изображения: NVIDIA По словам NVIDIA, платформа GH200 Grace Hopper SuperChip нового поколения значительно превосходит по производительности своего предшественника. Один сервер на платформе GH200 Grace Hopper с двумя новыми суперчипами (то есть с двумя парами GPU+CPU) сможет предложить наличие 144 ядер Arm Neoverse, работающих в тандеме с 282 Гбайт передовой набортной высокопроизводительной памяти HBM3e. Такая конфигурация обеспечивает в 3,5 раза больше памяти и в три раза больше пропускной способности, чем предшественник. Производительность подобной платформы с парой суперчипов составляет 8 петафлопс. «Для удовлетворения растущего спроса на генеративный ИИ центрам обработки данных требуются вычислительные платформы с особыми возможностями. Этот вопрос готова решить новая платформа GH200 Grace Hopper SuperChip, в которой применяется технология набортной памяти HBM3e с повышенной пропускной способностью. Она предлагает возможность объединения нескольких GPU для объединения производительности, а также позволяет создавать серверные системы, которые можно легко развернуть в любом месте центра обработки данных», — прокомментировал глава NVIDIA Дженсен Хуанг (Jensen Huang). Суперчип Grace Hopper, лежащий в основе новой платформы, может быть объединён с такими же суперчипами с помощью шины NVIDIA NVLink. Эта высокоскоростная технология предоставляет графическому процессору полный доступ к памяти центрального процессора, обеспечивая суммарно 1,2 Тбайт быстрой памяти в случае конфигурации с двумя суперчипами. Это позволяет развёртывать крупномасштабные вычислительных системы, необходимые для решения комплексных задач, связанных с генеративными ИИ. Память стандарта HBM3e, использующаяся в составе платформы GH200 Grace Hopper SuperChip нового поколения, обладает на 50 % более высокой производительностью по сравнению с HBM3 и обеспечивает совокупную пропускную способность на уровне 10 Тбайт/с в системе с несколькими платформами GH200 Grace Hopper SuperChip. Это позволяет платформе запускать в 3,5 раза более крупные ИИ-модели и обеспечивает значительный прирост общей производительности за счёт увеличенной в три раза пропускной способности памяти по сравнению с предшественником. В NVIDIA отмечают, что на фоне растущего спроса на платформу Grace Hopper ведущие производители уже начали предлагать системы, построенные на базе суперчипа Grace Hopper. Новая платформа Grace Hopper SuperChip следующего поколения с памятью HBM3e полностью совместима со спецификациями серверной модульной архитектуры NVIDIA MGX, которая была представлена на выставке Computex 2023. Такая совместимость гарантирует, что любой производитель серверных решений сможет быстро и с минимальными затратами интегрировать Grace Hopper в более чем 100 вариантов серверов, представленных на рынке. Внедрние новой платформы NVIDIA ведущими производителями серверных систем начнётся во втором квартале 2024 года. NVIDIA: проблемы с поставками GPU для ИИ-ускорителей связаны со сложной упаковкой, а не с самими чипами
04.08.2023 [19:27],
Сергей Сурабекянц
По словам Илона Маска (Elon Musk), закупившего 10 000 ускорителей вычислений NVIDIA, достать их было «труднее, чем наркотики». NVIDIA объяснила, что узким местом при производстве графических процессоров стал этап упаковки чипов. В графических процессорах NVIDIA H-класса (для ускорителей) используется технология упаковки TSMC 2.5D Chip-on-Wafer-on-Substrate (CoWoS) — многоэтапный высокоточный процесс, высокая сложность которого ограничивает его производительность. ![]() Источник изображения: NVIDIA Существует много факторов, способных повлиять на изготовление полупроводников, начиная от ошибок при проектировании, перебоев электроснабжения, загрязнения материалов вплоть до банальной нехватки редкоземельных металлов или других материалов. Но проблема с упаковкой CoWoS может оказаться более серьёзной, чем ожидалось. TSMC заявила, что ей потребуется 1,5 года на завершение строительства дополнительных фабрик и расширение уже существующих мощностей, чтобы компенсировать отставание процесса упаковки от скорости производства самих чипов. Это означает, что NVIDIA придётся расставлять приоритеты при выпуске своих продуктов — не хватит времени и возможностей, чтобы упаковать их все. TSMC на сегодняшний день является одним из немногих игроков с функциональной, высокопроизводительной технологией упаковки, которая является абсолютным требованием для масштабирования производительности. Но есть надежда, что Intel Foundry Services (IFS) в скором времени сможет составить конкуренцию TSMC в этой области. Компания Samsung также прилагает большие усилия, чтобы сократить разрыв в производственных технологиях по сравнению с TSMC. Недавно даже появилась информация, что NVIDIA поручит Samsung упаковку чипов для ИИ-ускорителей. Если это окажется правдой, то проблему дефицита GPU для ускорителей получится если не решить, то хотя бы несколько сгладить. NVIDIA поручит Samsung упаковку чипов для ИИ-ускорителей и будет покупать у неё память HBM3
02.08.2023 [12:29],
Павел Котов
Samsung Electronics обеспечит компании NVIDIA поставку высокопроизводительных полупроводниковых компонентов и услуги по упаковке чипов. Сотрудничество с таким партнёром поможет корейскому электронному гиганту обеспечить себя заказами и от других технологических компаний. ![]() Источник изображений: semiconductor.samsung.com Samsung и NVIDIA сейчас проводят технологическую проверку стеков памяти HBM3 (High Bandwidth Memory) от Samsung, а также качества услуг по упаковке чипов для графических процессоров американской компании, сообщает Korea Economic Daily со ссылкой на собственный источник из Сеула. По завершении работ Samsung будет осуществлять упаковку чипов H100, составляющих основу ускорителей NVIDIA для систем искусственного интеллекта, а также станет поставщиком стеков памяти HBM3 для этих ускорителей. Соглашение будет заключено в конце года. Упаковка — один из последних этапов производства полупроводников. Она предполагает размещение микросхемы на подложке из текстолита со всеми контактами и интерфейсами, необходимыми для работы чипа и его подключения к другим компонентам системы. NVIDIA традиционно полагалась на TSMC, которая производит упаковку чипов с использованием собственной технологии; память HBM3 для ускорителей выпускала SK hynix. Но в связи с высоким спросом на компоненты для ИИ, а также загруженностью линий TSMC американский производитель был вынужден искать альтернативное предложение, которое ей обеспечила Samsung. В рамках нового партнёрства корейская компания может получить заказ и на производство самих графических процессоров NVIDIA, но пока речь только о поставках памяти и упаковке чипов. Все больше технологических компаний могут начать обращаться в Samsung в связи с загруженностью упаковочных линий TSMC, утверждает источник издания. ![]() Крупнейшие мировые полупроводниковые подрядчики в лице Samsung, TSMC и Intel жёстко конкурируют на рынке передовых технологий упаковки, позволяющих объединять разнородные компоненты или вертикально соединять несколько микросхем. В 2021 году мировой рынок этого сегмента составлял $37,4 млрд, а к 2027 году он может вырасти на 74 % до $65 млрд. Сегодня отрасль сосредоточен на технологии 2.5D, предполагающей симбиоз графических процессоров и памяти HBM, которая в 10 раз быстрее DRAM. Мировым лидером является TSMC, которая вот уже шесть лет работает над технологией 2.5D — недавно компания сообщила, что планирует инвестировать 90 млрд тайваньских долларов ($2,9 млрд) в новый завод по производству упаковки на Тайване. В 2021 году компания представила технологию 2.5D I-Cube: во II квартале 2024 года стартует массовое производство компонентов I-Cube4 с графическим процессором и четырьмя чипами HBM, а в III квартале настанет черёд I-Cube8 с восемью чипами HBM. Samsung же стремится сделать своей сильной стороной предложение упаковки «под ключ», способное привлечь крупные технологические компании. Корейский производитель начал оказывать услугу, охватывающую весь процесс выпуска полупроводников: поставки чипов памяти, упаковку и тестирование — это поможет компании стать привлекательной альтернативой TSMC в условиях интенсивного роста отрасли ИИ. Спрос на услугу «под ключ» будет расти, помогая клиентам экономить время и деньги, а не привлекать подрядчиков для каждой услуги. Кроме того, Samsung и её местный конкурент SK hynix планируют значительно расширить линии производства памяти типа HBM — к концу 2024 года они планируют вложить в это направление более 2 трлн вон ($1,56 млрд), что поможет более чем вдвое увеличить производственную мощность линий HBM. Пока рынок DRAM пытается выйти из пике, спрос на HBM продолжает демонстрировать положительную динамику: в 2022 году он был 181 млн Гбайт; в 2023 году может подскочить на 60 % до 290 млн Гбайт, а в 2024 году может вырасти ещё на 30 % в годовом исчислении, подсчитали аналитики TrendForce. |