Опрос
|
реклама
Быстрый переход
Colorful представила оперативную память iGame Jiachen Zhilong DDR5 в стиле китайского года дракона
27.07.2024 [11:52],
Анжелла Марина
Компания Colorful представила серию модулей оперативной памяти iGame Jiachen Zhilong DDR5, созданную в едином стиле с ранее выпущенными материнскими платами ограниченной серии Dragon Year («Год Дракона»). Эта высокопроизводительная память адресована пользователям, которые ценят не только производительность, но и эстетику. Первый комплект памяти в новой линейке имеет объём 48 Гбайт (2 × 24 Гбайт) и работает на частоте 6800 МГц с таймингами CL34. Ключевой особенностью модулей является эффектный теплоотвод с дизайном Dragon Scale (драконья чешуя) и RGB-подсветкой в виде дракона. Дизайн серии Jiachen Zhilong вдохновлён традиционной китайской цветовой гаммой, включая красный Zheng Li и золотой Jin Xiang. На лицевой стороне модулей можно увидеть узоры в виде облаков Xiang Yun и летящих фениксов Yu Feng, а на обратной стороне расположена эмблема Jiachen Zhilong. Общий вид дополняется золотой окантовкой и многослойными волоконно-оптическими световодами, символизирующими «восхождение шаг за шагом» (rising step by step). С технической точки зрения известно, что новая память использует высококачественные чипы от SK hynix и обеспечивает скорость передачи данных до 6800 МТ/с. Поддерживается технология XMP 3.0 для простого разгона в один клик, интеллектуальный контроль температуры PMIC для оптимального теплового режима и ON-Die ECC для автоматического исправления ошибок, гарантирующего целостность данных и стабильность работы. Хотя в настоящий момент на JD.com доступна только 48-гигабайтная версия, на странице продукта есть намёк на будущий выпуск варианта объёмом 32 Гбайт. Ожидается, что эта версия с меньшей ёмкостью сохранит тайминги CL34, но справляться со своими задачами на 100 % сможет при более высоком рабочем напряжении в 1,4 Вт. На данный момент комплект доступен на китайской площадке JD.com по цене 1399 юаней (около 16 600 рублей). AMD становится компанией-разработчиком ПО, меняя приоритеты
09.07.2024 [04:20],
Анжелла Марина
Компания AMD объявила о масштабной трансформации своей бизнес-модели, смещая приоритет с разработки аппаратного обеспечения на создание программных решений, API и искусственного интеллекта. Таким образом компания станет больше похожа на Nvidia, которая давно сместила акцент на ПО. На недавней встрече с журналистами в Барселоне руководство AMD, включая исполнительного вице-президента Фила Гвидо (Phil Guido) и главного коммерческого директора Джека Хюня (Jack Huynh), поделилось новым видением будущего компании. Главным сюрпризом стало заявление о кардинальном изменении подхода AMD к разработке технологий, сообщает издание TechPowerUp. По словам представителей компании, AMD увеличило количество инженеров, работающих над программным обеспечением, и полностью пересматривает свою стратегию. «Старая AMD гналась за скоростью и производительностью. Новая AMD ставит на первое место искусственный интеллект и сначала будет создавать программное обеспечение, а затем процессоры в соответствии с архитектурой этого ПО», — заявили в компании. Целью этого шага является устранение главной проблемы AMD — недостаточного взаимодействие с экосистемой разработчиков программного обеспечения. Несмотря на конкурентоспособные процессоры и графические карты, компания занимает лишь четверть рынка серверных процессоров и шестую часть рынка игровых графических процессоров. Например, графические процессоры Radeon обладают возможностями тесселяции, опережающими NVIDIA на два поколения, но эти возможности оставались невостребованными разработчиками, пока Microsoft не стандартизировала их в API DirectX 11, аналогичная ситуация возникла с Mantle, спецификацией низкоуровневого API, разработанной AMD, и DirectX 12. В данном случае фактором успеха Nvidia стал акцент на программное обеспечение и взаимодействие с разработчиками. Существует также несколько подобных примеров, когда передовые ускорители AMD в различных продуктах компании не были должным образом использованы сообществом разработчиков программного обеспечения из-за их приверженности оборудованию в первую очередь. Теперь AMD планирует сначала общаться с разработчиками программного обеспечения, чтобы понять их потребности, и только потом создавать под них процессоры. Также планируется делиться своими долгосрочными планами с партнёрами, среди которых Microsoft, Adobe и OpenAI, чтобы те могли заранее подготовить свои продукты к использованию новых функций на оборудовании AMD. Одновременно компания работает над созданием унифицированной архитектуры для своих CPU и GPU, что упростит разработку программного обеспечения. По мнению экспертов, этот шаг может значительно усилить позиции AMD на рынке и сделать её более похожей на таких сильных конкурентов, как Nvidia и Intel, которые уже давно придерживаются подхода «сначала программное обеспечение». ИИ — это пузырь: чтобы окупить вложения, ИИ-индустрии нужно научиться зарабатывать на порядки больше
06.07.2024 [15:01],
Владимир Мироненко
Масштабные инвестиции технологических гигантов в инфраструктуру ИИ пока не нашли отображения в росте доходов от этого направления, отметил ресурс Tom's Hardware. Согласно расчётам Дэвида Кана (David Cahn), аналитика Sequoia Capital, компаниям ИИ-индустрии придётся зарабатывать около $600 млрд в год, чтобы компенсировать расходы на свою ИИ-инфраструктуру, включая ЦОД. В прошлом году выручка Nvidia от продажи оборудования для ЦОД составила $47,5 млрд. При этом большую часть оборудования составляли компьютерные ускорители для приложений ИИ и высокопроизводительных вычислений. Крупнейшие ИТ-компании, такие, как AWS, Google, Meta✴, Microsoft и многие другие, вложили значительные средства в свою инфраструктуру ИИ в 2023 году для работы таких приложений, как OpenAI ChatGPT. Возникает вопрос: «Смогут ли они вернуть эти инвестиции?». По мнению Дэвида Кана, это может означать, что мы являемся свидетелями роста финансового пузыря. Подсчёты Кана довольно просты. Для начала он удвоил прогноз текущих доходов Nvidia, чтобы покрыть общие затраты на ЦОД ИИ, половину которых составляют расходы на GPU, остальное — затраты на энергию, здания и резервные генераторы. Затем аналитик снова удваивает сумму, чтобы обеспечить 50 % валовой прибыли для конечных пользователей, таких как стартапы или предприятия, покупающих вычислительные ИИ-ресурсы у таких компаний, как AWS или Microsoft Azure, которые тоже должны быть с прибылью. Провайдеры облачных услуг, как, например, Microsoft, вкладывают значительные средства в покупку GPU. По данным Nvidia, половина её доходов от ЦОД поступает от крупных провайдеров облачных услуг. При этом только Microsoft принесла Nvidia около 22 % выручки в IV квартале 2024 финансового года. Между тем, в I квартале 2025 финансового года Nvidia продала GPU для ЦОД на сумму около $19 млрд. С выходом более производительных и более дорогих чипов Nvidia B100/B200 сумма инвестиций будет расти. Если компания OpenAI, разработавшая ИИ-чат-бот ChatGPT и использующая инфраструктуру Microsoft Azure, добилась существенного увеличения доходов: с $1,6 млрд в конце 2023 года до $3,4 млрд в 2024 году, то другим компаниям в сфере ИИ пока не удаётся достичь даже отметки в $100 млн дохода. Тем не менее инвестиции в оборудование ИИ растут, отметил Tom's Hardware. Как утверждает Кан, даже оптимистические прогнозы доходов крупных технологических компаний от ИИ не оправдывают ожиданий. Если предположить, что Google, Microsoft, Apple и Meta✴ ежегодно будут зарабатывать на решениях ИИ по $10 млрд, а другие компании, такие как Oracle, ByteDance, Alibaba, Tencent, X и Tesla, смогут генерировать по $5 млрд дохода каждая, остаётся разрыв в $500 млрд. Как полагает аналитик, рынку ИИ предстоит долгий и трудный путь, поскольку предприятиям и стартапам ещё предстоит изобрести приложения, которые приносят реальные деньги. Кан считает, что отрасли следует умерить ожидания быстрой прибыли от достижений в области ИИ, признавая спекулятивный характер текущих инвестиций и необходимость устойчивых инноваций и создания стоимости. В противном случае пузырь стоимостью в сотни миллиардов долларов может лопнуть и обрушить рынок. Франция готовит обвинения против Nvidia из-за доминирования на рынке GPU и ИИ-ускорителей
01.07.2024 [20:55],
Анжелла Марина
Французский антимонопольный регулятор планирует предъявить обвинения Nvidia — компанию подозревают в антиконкурентной практике ведения бизнеса. Это станет первым случаем правоприменительных действий против крупнейшего производителя компьютерных чипов. По данным Reuters, ссылающегося на информированные источники, французский надзорный комитет готовится выдвинуть обвинения против компании Nvidia, лидера в производстве графических процессоров и ускорителей вычислений для искусственного интеллекта. Этому предшествовали рейды в сентябре прошлого года, направленные на расследование деятельности Nvidia в секторе поставок графических процессоров. Расследование является частью более широкого изучения конкуренции в сфере облачных вычислений. При этом особое внимание регуляторов привлёк резкий рост спроса на чипы Nvidia после выпуска ChatGPT, что вызвало озабоченность как в Европе, так и в США. Французский регулятор в своём недавнем отчёте в целом указал на риски злоупотреблений со стороны поставщиков чипов. Особую обеспокоенность вызывает зависимость отрасли от проприетарного программного обеспечения Nvidia CUDA — многие системы используют только этот софт и замены ему нет. Кроме того, регулятор выразил беспокойство по поводу недавних инвестиций Nvidia в поставщиков облачных услуг, ориентированных на искусственный интеллект, таких как CoreWeave. В случае, если нарушения французских антимонопольных правил, Nvidia может грозить штраф до 10 % от глобального годового оборота. Однако компания может избежать штрафа, пойдя на уступки. Параллельно с европейскими расследованиями, Министерство юстиции США также ведёт расследование в отношении Nvidia, разделяя контроль над крупными технологическими компаниями с Федеральной торговой комиссией. Nvidia и французский регулятор пока воздерживаются от комментариев по данному вопросу. Gigabyte выпустила видеокарту GeForce RTX 4070 Ti SUPER Windforce MAX с необычным расположением разъёма питания
23.06.2024 [06:02],
Анжелла Марина
Компания Gigabyte представила новую видеокарту Nvidia GeForce RTX 4070 Ti SUPER Windforce MAX OC. Данная модель является продолжением линейки Windforce, ориентированной на бюджетный сегмент рынка. Новинка базируется на графическом процессоре Nvidia AD103 и оснащена 8448 ядрами CUDA, а также 16 Гбайт высокоскоростной памяти GDDR6X. По сравнению с эталонной моделью, частота графического процессора повышена на 45 МГц и составляет 2655 МГц, что обеспечивает дополнительную производительность в играх и ресурсоёмких приложениях. Примечательно, что ранее в январе Gigabyte уже выпускала модель GeForce RTX 4070 Ti SUPER Windforce OC, однако новая версия MAX отличается не только дизайном, но и более высокой тактовой частотой. Одной из ключевых особенностей GeForce RTX 4070 Ti SUPER Windforce MAX OC является её габаритный кулер. Длина видеокарты увеличена на 7 сантиметров, а ширина на 1 сантиметр по сравнению с оригинальной моделью Windforce OC. Такое решение позволило использовать массивную систему охлаждения, идентичную по размерам с кулерами топовых моделей GeForce RTX 4090 WF V2 и GeForce RTX 4080 SUPER WF V2. Ещё одним интересным нововведением стало расположение разъёма дополнительного питания. Он спрятан сзади под кулером, что позволяет избежать проблем с изгибом кабеля при боковом расположении разъёма и экономит пространство. Хотя кабель по-прежнему остаётся частично видимым, такой подход упрощает подключение и укладку проводов в корпусе системного блока. На данный момент Gigabyte не раскрывает информацию о цене новой GeForce RTX 4070 Ti SUPER Windforce MAX OC, поскольку неизвестно, когда видеокарта поступит в продажу. Qualcomm раскрыла детали о графике Adreno X1 в чипах Snapdragon X и сравнила её с Intel Xe
13.06.2024 [18:13],
Николай Хижняк
Менее чем за неделю до старта продаж Windows-ноутбуков на базе новых Arm-процессоров серии Snapdragon X, разработавшая их компания Qualcomm поделилась деталями об архитектуре данных процессоров, в том числе и об их встроенной графике Adreno X1. В названии Adreno X1 цифра «1» указывает на принадлежность к первому поколению компьютерной графики Qualcomm. Таким образом, последующие поколения графики получат названия Adreno X2, Adreno X3 и т.д. В самой максимальной конфигурации, X1-85, цифра «8» указывает на уровень GPU, а «5» — артикул. Графический процессор Adreno X1 содержит до шести ядер, объединяющих до 1536 шейдерных ALU для операций FP32, способных обрабатывать до 96 текселей за цикл. В пике производительность GPU составляет 4,6 Тфлопс, он может обрабатывать до 72 ГТ/с (гигатекселей в секунду). Графический процессор Adreno X1 поддерживает все современные API включая DirectX 12.1 с Shader Model 6.7, DirectX 11, Vulkan 1.3 и OpenCL 3.0. В своей презентации Qualcomm приводит примеры игровой производительности для старшей версии GPU — X1-85 — в составе своего референсного ноутбука. Компания сравнивает результаты с показателями встроенной графики Intel Xe в чипе Core Ultra 7 155H с восемью графическими ядрами, который использовался в ноутбуке Acer Swift Go 14. В четырёх из девяти игровых тестов при разрешении 1080p ускоритель Qualcomm оказывается быстрее. На другом слайде компания утверждает, что GPU X1-85 обеспечивает до 67 % более высокую производительность по сравнению с конкурирующими решениями при одинаковом уровне энергопотребления, а пиковой производительности конкурента ускоритель Qualcomm достигает при энергопотреблении на 62 % ниже. Qualcomm также представила Adreno Control Panel — фирменное приложение для настройки графики, игровых оптимизаций, а также обновлений драйверов. Компания обещает ежемесячно выпускать для него свежие обновления. По функциональности и задачам это приложение похоже на то, что предлагают другие производители видеокарт. Официальные продажи ноутбуков с процессорами Qualcomm Snapdragon X начнутся с 18 июня. Однако некоторые производители уже предлагают оформить предзаказы на эти новинки. Первый тест встроенной графики AMD Radeon 890M на RDNA 3.5 — на 39 % быстрее предшественника
07.06.2024 [15:49],
Николай Хижняк
Компания AMD почти не раскрыла подробностей о свежей графической архитектуре RDNA 3.5, на которой построена встроенная графика мобильных процессоров Ryzen AI 300. Известно, что обновлённый iGPU предлагает больше графических ядер по сравнению с графикой предыдущего поколения. Теперь первые результаты тестов RDNA 3.5 были обнаружены в базе данных бенчмарка Geekbench. Протестирована была встроенная графика Radeon 890M в процессоре Ryzen AI 9 HX 170. Как ранее стало известно, AMD в последний момент поменяла название новой серии мобильных процессоров на Ryzen AI 300. Этот факт подтвердился на выставке Computex 2024, на которой отметились ноутбуки, оснащённые процессорами Ryzen AI 9 HX 170 (ныне Ryzen AI 9 HX 370) и Ryzen AI 9 165 (ныне Ryzen AI 9 365). Ryzen AI 9 HX 370 — это 12-ядерный и 24-поточный процессор, в котором используются производительные ядра Zen 5 и малые энергоэффективные ядра Zen 5c. Ядра Zen 5 работают с частотой до 5,1 ГГц. Для ядер Zen 5c компания AMD пока не заявляла тактовую частоту. Также в составе процессора присутствует встроенная графика с 16 исполнительными блоками RDNA 3.5, которая работает с частотой до 2,9 ГГц. Запись в базе данных Geekbench не сообщает, с каким TDP работал чип во время тестирования. Однако известно, что процессор использовался в составе ноутбука ASUS ProArt A16, не оснащённого дискретной видеокартой. Напомним, что показатель энергопотребления у процессоров Ryzen AI 300 динамический и может варьироваться от 15 до 45 Вт. В результатах теста Geekbench чипа Ryzen AI 9 HX 170 (Ryzen AI 9 HX 370) видно, что он работал не на максимальной частоте 5,1 ГГц — его скорость составила только 4,25 ГГц. Возможно, это связано с пониженным TDP или тест неправильно считал показатели. В тесте OpenCL встроенная графика Radeon 890M показала результат в 41 995 баллов. Это на 39 % больше показателя встроенной графики Radeon 780M предыдущего поколения на архитектуре RDNA 3. Nvidia захватила 88 % рынка видеокарт для настольных ПК — остальное за AMD, а доля Intel исчезающе мала
07.06.2024 [00:42],
Анжелла Марина
По данным исследовательской компании Jon Peddie Research (JPR), в первом квартале 2024 года продажи дискретных видеокарт для настольных ПК снизились по сравнению с предыдущим кварталом, но выросли по сравнению с аналогичным периодом 2023 года. При этом Nvidia смогла нарастить свою долю на рынке до 88 %, в то время как доля AMD упала до 12 %. Дискретная графика Intel по-прежнему занимает совсем незначительную долю рынка. Как сообщает издание Tom's Hardware, в абсолютных цифрах для Nvidia, AMD и Intel в первом квартале 2024 года было продано 8,7 млн дискретных GPU для настольных ПК. Это на 9 % меньше 9,5 млн GPU, проданных в предыдущем квартале, однако на 39,2 % больше, чем за тот же период 2023 года. Nvidia отгрузила 7,66 млн дискретных графических процессоров, что немного выше показателя предыдущего квартала в 7,6 млн. В годовом выражении рост составил 46 % — для сравнения, в первом квартале 2023 года компания продала 5,26 млн дискретных GPU для настольных ПК. У AMD ситуация иная. Компания поставила всего 1,04 млн дискретных графических процессоров для настольных ПК по сравнению с 1,81 миллиона в предыдущем квартале, что означает падение на 41 %. В то же время это на 39 % больше 750 тыс. в том же квартале год назад. Поставки Intel, по данным JPR, в первом квартале 2024 остаются незначительными. Компания вышла на рынок видеокарт со своими моделями Arc A770 и A750 в третьей четверти 2022 года, но пока не может конкурировать с лидерами. Как показывает недавний отчет JPR, рынок GPU сильно пострадал от рецессии 2008 года и не успел полностью восстановиться до начала глобального интереса к криптовалютам, пандемии COVID-19 и украинских событий. В 2023 году наблюдался рост на протяжении четырёх кварталов, поэтому спад в первом квартале 2024 года не вызывает паники — это естественные сезонные колебания. Тем не менее, поставщики прогнозируют рост продаж видеокарт во втором квартале 2024 года, в основном за счет систем для задач искусственного интеллекта. Отмечается также, что спрос на GPU со стороны ИИ-технологий может негативно сказаться на игровом сегменте. Таким образом, во втором квартале ожидается стагнация продаж игровых видеокарт и дальнейший рост для ИИ и облачных вычислений. Nvidia втрое ускорила работу ИИ на видеокартах GeForce RTX
22.05.2024 [12:08],
Николай Хижняк
Nvidia сообщила, что дополнительно увеличила ИИ-производительность своих видеокарт GeForce RTX и платформ RTX AI PC с выпуском последнего драйвера версии GeForce Game Ready 555.85 WHQL. В ходе конференции Microsoft Build компания Nvidia анонсировала ряд новых оптимизаций производительности для алгоритмов искусственного интеллекта, которые теперь доступны в рамках экосистемы RTX, включая графические процессоры GeForce RTX, рабочие станции и ПК. Nvidia отмечает, что последние оптимизации нацелены на ускорение работы ряда больших языковых моделей (LLM) использующихся генеративным ИИ. Новый драйвер Nvidia версии 555 обеспечивает видеокартам GeForce RTX и платформам RTX AI PC трёхкратный прирост ИИ-производительности при работе с фреймворками ONNX Runtime (ORT) и DirectML. Оба инструмента используются для запуска ИИ-моделей в среде операционной системы Windows. Кроме того, новый драйвер увеличил производительность программного интерфейса WebNN для DirectML, который используется веб-разработчиками для размещения новых ИИ-моделей. Nvidia сообщает, что сотрудничает с Microsoft над дальнейшим повышением производительности графических процессоров RTX и добавлением поддержки DirectML в PyTorch. Ниже приведен полный список возможностей, которые предлагаются свежим драйвером Nvidia R555 для графических процессоров GeForce RTX и ПК с RTX:
В тестах производительности ORT, генеративного расширения искусственного интеллекта, выпущенного Microsoft, новый драйвер Nvidia приводит к приросту производительности по всем направлениям, как для типов данных INT4, так и для FP16. Благодаря методам оптимизации, добавленным в это обновление, производительность больших языковых моделей Phi-3, Llama 3, Gemma и Mistral увеличивается до трёх раз. Nvidia также напоминает, что преимущество экосистемы RTX заключается в использовании возможностей воспроизводительных тензорных ядер. На их основе работают DLSS Super Resolution, Nvidia Ace, RTX Remix, Omniverse, Broadcast, RTX Video и другие технологии. Кроме того, для использования тензорных ядер в ускорении работы ИИ компания предлагает комплекты разработчиков TensorRT, Maxine и RTX Video. В своём пресс-релизе Nvidia сообщает, что её GPU обеспечивают ИИ-производительность до 1300 TOPS (триллионов операций в секунду), что гораздо выше возможностей любых других конкурентных решений. Исследование: флагманские видеокарты Nvidia могут взламывать сложные пароли менее чем за час
01.05.2024 [17:44],
Анжелла Марина
Новое исследование компании Hive Systems показало, что мощные видеокарты могут быть использованы не только для игр и машинного обучения, но и для взлома паролей. Видеокарты последнего поколения, такие как GeForce RTX 4090 от Nvidia, обеспечивают невероятную производительность в играх. Однако их мощные вычислительные возможности могут быть использованы не только для развлечений. Как показало недавнее исследование компании Hive Systems, специализирующейся по кибербезопасности, подобные видеокарты способны довольно быстро взламывать пароли с помощью хеширования. Как поясняет издание Tom's Hardware, в отличие от использования искусственного интеллекта для подбора паролей, хеширование подразумевает преобразование пароля в уникальную комбинацию символов — хеш. Серверы хранят пароли именно в таком зашифрованном виде. Даже если злоумышленники получат доступ к базе хешей, они не смогут узнать реальные пароли. Чтобы все же их взломать, хакеры перебирают различные варианты паролей, генерируют из них хеши и сравнивают с украденными хешами из базы данных. Когда хеши совпадают — пароль найден. Этот метод называется Brute Force атакой (атака грубой силой). Хотя такой подбор можно осуществить и на обычном ПК, использование мощных видеокарт типа RTX 4090 или серверных GPU A100 от Nvidia значительно ускоряет этот процесс. Для оценки производительности различных GPU в контексте взлома паролей, Hive Systems использовала популярное ПО Hashcat. В отличие от предыдущих тестов Hive Systems, основанных на устаревшем алгоритме хеширования MD5, в этот раз также тестировался более современный и стойкий алгоритм Bcrypt. Для теста использовались сложные пароли длиной 8 символов, содержащие строчные и прописные буквы, цифры и специальные символы. Оказалось, что при взломе хешей MD5, GeForce RTX 4090 справилась за 59 минут. Восемь видеокарт A100 сократили это время до 20 минут. Гипотетически, у системы типа ChatGPT, имеющей доступ к десяткам тысяч A100, хватило бы мощностей выполнить полный перебор всего за несколько секунд. Однако современный алгоритм Bcrypt значительно усложнил задачу взлома. Для RTX 4090 время возросло до 99 лет! Даже восемь A100 потребовали бы 17 лет. Практически, лишь массивное распараллеливание на сотнях тысяч GPU могло бы обеспечить приемлемое время взлома в несколько месяцев. Однако поводов для паники нет. Во-первых, злоумышленникам нужен доступ к базе хешей, что возможно лишь при серьезных утечках персональных данных. Во-вторых, при правильной настройке систем безопасности, взлом одного только пароля не принесет пользы, так как необходимо еще обойти многофакторную аутентификацию пользователя. Тем не менее, исследование Hive Systems еще раз демонстрирует растущие возможности GPU в контексте взлома паролей. NVIDIA представила самый мощный чип в мире — Blackwell B200, который откроет путь к гигантским нейросетям
19.03.2024 [00:12],
Андрей Созинов
Компания Nvidia в рамках конференции GTC 2024 представила ИИ-ускорители следующего поколения на графических процессорах с архитектурой Blackwell. По словам производителя, грядущие ИИ-ускорители позволят создавать ещё более крупные нейросети, в том числе работать с большими языковыми моделями (LLM) с триллионами параметров, и при этом будут до 25 раз энергоэффективнее и экономичнее в сравнении с Hopper. Архитектура GPU Blackwell получила название в честь американского математика Дэвида Блэквелла (David Harold Blackwell) и включает в себя целый ряд инновационных технологий для ускорения вычислений, которые помогут совершить прорыв в обработке данных, инженерном моделировании, автоматизации проектирования электроники, компьютерном проектировании лекарств, квантовых вычислениях и генеративном ИИ. Причём на последнем в Nvidia делают особый акцент: «Генеративный ИИ — это определяющая технология нашего времени. Графические процессоры Blackwell — это двигатель для новой промышленной революции», — подчеркнул глава Nvidia Дженсен Хуанг (Jensen Huang) в рамках презентации. Графический процессор Nvidia B200 производитель без лишней скромности называет самым мощным чипом в мире. В вычислениях FP4 и FP8 новый GPU обеспечивает производительность до 20 и 10 Пфлопс соответственно. Новый GPU состоит из двух кристаллов, которые произведены по специальной версии 4-нм техпроцесса TSMC 4NP и объединены 2,5D-упаковкой CoWoS-L. Это первый GPU компании Nvidia с чиплетной компоновкой. Чипы соединены шиной NV-HBI с пропускной способностью 10 Тбайт/с и работают как единый GPU. Всего новинка насчитывает 208 млрд транзисторов. По сторонам от кристаллов GPU расположились восемь стеков памяти HBM3E общим объёмом 192 Гбайт. Её пропускная способность достигает 8 Тбайт/с. А для объединения нескольких ускорителей Blackwell в одной системе новый GPU получил поддержку интерфейса NVLink пятого поколения, которая обеспечивает пропускную способность до 1,8 Тбайт/с в обоих направлениях. С помощью данного интерфейса (коммутатор NVSwitch 7.2T) в одну связку можно объединить до 576 GPU. Одними из главных источников более высокой производительности B200 стали новые тензорные ядра и второе поколение механизма Transformer Engine. Последний научился более тонко подбирать необходимую точность вычислений для тех или иных задач, что влияет и на скорость обучения и работы нейросетей, и на максимальный объём поддерживаемых LLM. Теперь Nvidia предлагает тренировку ИИ в формате FP8, а для запуска обученных нейросетей хватит и FP4. Но отметим, что Blackwell поддерживает работу с самыми разными форматами, включая FP4, FP6, FP8, INT8, BF16, FP16, TF32 и FP64. И во всех случаях кроме последнего есть поддержка разреженных вычислений. Флагманским ускорителем на новой архитектуре станет Nvidia Grace Blackwell Superchip, в котором сочетается пара графических процессоров B200 и центральный Arm-процессор Nvidia Grace с 72 ядрами Neoverse V2. Данный ускоритель шириной в половину серверной стойки обладает TDP до 2,7 кВт. Производительность в операциях FP4 достигает 40 Пфлопс, тогда как в операциях FP8/FP6/INT8 новый GB200 способен обеспечить 10 Пфлопс. Как отмечает сама Nvidia, новинка обеспечивает 30-кратный прирост производительности по сравнению с Nvidia H100 для рабочих нагрузок, связанных с большими языковыми моделями, а она до 25 раз более экономична и энергетически эффективна. Ещё Nvidia представила систему GB200 NVL72 — фактически это серверная стойка, которая объединяет в себе 36 Grace Blackwell Superchip и пару коммутаторов NVSwitch 7.2T. Таким образом данная система включает в себя 72 графических процессора B200 Blackwell и 36 центральных процессоров Grace, соединенных NVLink пятого поколения. На систему приходится 13,5 Тбайт памяти HBM3E с общей пропускной способностью до 576 Тбайт/с, а общий объём оперативной памяти достигает 30 Тбайт. Платформа GB200 NVL72 работает как единый GPU с ИИ-производительностью 1,4 эксафлопс (FP4) и 720 Пфлопс (FP8). Эта система станет строительным блоком для новейшего суперкомпьютера Nvidia DGX SuperPOD. Наконец, Nvidia представила серверные системы HGX B100, HGX B200 и DGX B200. Все они предлагают по восемь ускорителей Blackwell, связанных между собой NVLink 5. Системы HGX B100 и HGX B200 не имеют собственного CPU, а между собой различаются только энергопотреблением и как следствие мощностью. HGX B100 ограничен TDP в 700 Вт и обеспечивает производительность до 112 и 56 Пфлопс в операциях FP4 и FP8/FP6/INT8 соответственно. В свою очередь, HGX B200 имеет TDP в 1000 Вт и предлагает до 144 и 72 Пфлопс в операциях FP4 и FP8/FP6/INT8 соответственно. Наконец, DGX B200 копирует HGX B200 в плане производительности, но является полностью готовой системой с парой центральных процессоров Intel Xeon Emerald Rapids. По словам Nvidia, DGX B200 до 15 раз быстрее в задачах запуска уже обученных «триллионных» моделей по сравнению с предшественником. Для создания наиболее масштабных ИИ-систем, включающих от 10 тыс. до 100 тыс. ускорителей GB200 в рамках одного дата-центра, компания Nvidia предлагает объединять их в кластеры с помощью сетевых интерфейсов Nvidia Quantum-X800 InfiniBand и Spectrum-X800 Ethernet. Они также были анонсированы сегодня и обеспечат передовые сетевые возможности со скоростью до 800 Гбит/с. Свои системы на базе Nvidia B200 в скором времени представят многие производители, включая Aivres, ASRock Rack, ASUS, Eviden, Foxconn, GIGABYTE, Inventec, Pegatron, QCT, Wistron, Wiwynn и ZT Systems. Также Nvidia GB200 в составе платформы Nvidia DGX Cloud, а позже в этом году решения на этом суперчипе станут доступны у крупнейших облачных провайдеров, включая AWS, Google Cloud и Oracle Cloud. Дженсен Хуанг объяснил, почему ИИ-ускорители Nvidia лучше бесплатных ускорителей конкурентов
11.03.2024 [17:37],
Дмитрий Федоров
На Экономическом саммите SIEPR Дженсен Хуанг (Jensen Huang), глава компании Nvidia, занимающей ведущие позиции в секторе аппаратного обеспечения для искусственного интеллекта (ИИ), заявил о непревзойдённом качестве и ценности продукции своей компании. По его словам, даже если бы конкуренты предложили свои чипы бесплатно, они всё равно не смогли бы соперничать с высококачественными, хотя и дорогими альтернативами Nvidia. Компания Nvidia, достигшая третьего места в мире по объёму рыночной капитализации в размере $2,19 трлн, тотально доминирует в области продвинутого аппаратного обеспечения для ИИ. Это не только подняло Хуанга на 20-е место в индексе миллиардеров Bloomberg с состоянием в $77,2 млрд, но и подтвердило статус Nvidia как ключевого игрока на рынке. В ходе дискуссии с Джоном Шовеном (John Shoven), профессором экономики Стэнфордского университета (SIEPR), Хуанг отметил, что Nvidia сталкивается с беспрецедентным уровнем конкуренции, борясь не только с прямыми конкурентами, но и с клиентами, которые используют продукцию Nvidia для разработки собственных решений. Тем не менее, компания продолжает придерживаться политики «открытой книги», сотрудничая почти со всеми участниками отрасли и предоставляя информацию о текущих и будущих проектах своих чипов. Однако по поводу этой открытости есть вопросы. В прошлом месяце стартап Groq, создающий ИИ-чипы для запуска в больших языковых моделях (LLM), отметил, что клиентам Nvidia приходится скрывать свои сделки по приобретению ИИ-ускорителей у конкурентов, чтобы избежать возможных задержек в выполнении заказов со стороны Nvidia. Подобная мера якобы применяется Nvidia как форма наказания. В свою очередь, бывший вице-президент AMD Скотт Херкельман (Scott Herkelman) описал компанию Nvidia как «картель производителей GPU», контролирующий всё предложение на рынке. Эти утверждения поднимают вопросы о реальной степени открытости и сотрудничества Nvidia с участниками отрасли, а также о методах, которыми компания обеспечивает своё доминирующее положение на рынке аппаратного обеспечения для ИИ. Говоря о цене ИИ-ускорителей Nvidia и о том, предлагают ли конкуренты лучшее соотношение цены и качества, Хуанг отметил, что о ценах думают только те, кто покупает и продает чипы, а те, кто управляет центрами обработки данных, думают о совокупной стоимости владения (TCO). Глава Nvidia добавил, что её чипы демонстрируют отличный показатель прямых и косвенных затрат благодаря таким факторам, как время развертывания, производительность, использование и гибкость. По словам Хуанга, совокупная стоимость владения картами Nvidia настолько впечатляет, что даже если бы конкуренты раздавали свои чипы бесплатно, продукция Nvidia всё равно обходилась бы дешевле. Разработчик ChatGPT задумал создать собственный ИИ-чип, чтобы снизить зависимость от NVIDIA
06.10.2023 [12:19],
Владимир Мироненко
Разработчик чат-бота на базе искусственного интеллекта ChatGPT, компания OpenAI, изучает возможность создания собственных ИИ-чипов. Это позволит снизить зависимость от производителей ускорителей, включая доминирующую на рынке компанию NVIDIA, а также обеспечить необходимое количество чипов для дальнейшей работы.
По данным источников Reuters, в прошлом году в OpenAI обсуждались различные варианты решения проблемы нехватки весьма недешёвых ИИ-чипов. Рассматривались возможность создания собственного ИИ-чипа, более тесное сотрудничество с другими производителями таких чипов, включая NVIDIA, а также диверсификация поставщиков ускорителей вычислений. Гендиректор Open AI Сэм Альтман (Sam Altman) назвал приобретение большего количества ИИ-чипов главным приоритетом для компании. Он указал на две основные проблемы: нехватку передовых ускорителей вычислений, на которые опирается ПО OpenAI, и «невероятные затраты» на эксплуатацию аппаратного обеспечения, отвечающего за работу продуктов компании. OpenAI разрабатывает технологии генеративного ИИ на мощном суперкомпьютере. Его построила Microsoft и он включает в себя 10 000 графических процессоров NVIDIA. Согласно оценкам аналитика Bernstein Стейси Расгон (Stacy Rasgon), выполнение каждого запроса в ChatGPT обходится компании примерно в $0,04. Если количество запросов вырастет до десятых долей от количества поисковых запросов Google, то для работы чат-бота потребуется ИИ-чипов примерно на $48,1 млрд, а для поддержания стабильности работы понадобится ещё ускорителей на сумму около $16 млрд в год. Пока неясно, будет ли OpenAI заниматься созданием собственного ИИ-чипа. Затраты на это могут составить сотни миллионов долларов в год, причём даже при выделении такой суммы успех не гарантирован. Ускорить процесс можно было бы с помощью приобретения компании, производящей чипы. По данным источника, OpenAI рассматривала такой вариант, и даже провела комплексную проверку потенциального объекта приобретения. Однако выяснить название этой компании не удалось. Следует отметить, что реализация планов OpenAI по созданию собственного чипа, даже если это будет приобретение компании, займёт несколько лет, и компания тем временем будет зависеть от сторонних поставщиков, таких как NVIDIA и AMD. Лаборатории Intel уже тестируют один из графических процессоров будущей серии Arc Battlemage
29.08.2023 [21:24],
Николай Хижняк
Компания Intel уже приступила к тестированию графических процессоров BMG G10, которые станут основной одной или нескольких моделей видеокарт из будущей серии Arc Battlemage. Об этом сообщил портал HardwareLuxx, журналисты которого приняли участие в экскурсии Intel Tech Tour. К сожалению, прессе не позволили делать фотографии в рамках мероприятия, однако они видели стопку GPU с припиской BMG G10. Предположительно, BMG G10 станет наследником Alchemist ACM-G10, который используется в видеокарте Arc A770. Но учитывая сложную схему наименований GPU Intel, пока непонятно, в видеокартах какого уровня может применяться данный графический процессор. Всё же следует отметить, что ACM-G12 (мобильные Arc A570M и A530M, а также профессиональная Arc Pro A60) стоит выше по иерархии, чем ACM-G11 (младшая Arc A380), хотя можно было бы предположить иное. Упомянутый BGM G10 уже фигурировал в утечках дорожных карт будущих продуктов Intel. Его появление в видеокартах прогнозируется ко второму или третьему кварталу 2024 года. К этому моменту компания планировала выпустить как минимум два графических процессора — BMG G10 и BMG G21. Первый станет основой для видеокарт с TDP до 225 Вт, второй будет использоваться в видеокартах с TDP до 150 Вт. Что касается технических особенностей BMG G10, то предполагается, что он получит вдвое больше графических ядер Xe, а именно 64, по сравнению с актуальным ACM-G10. Также известно, что Intel хочет сохранить поддержку 256-битной шины памяти для данного GPU. Анонс серии графических процессоров Intel Battlemage ожидается в 2024 году. Однако компания официально пока не подтверждала эту информацию. Согласно слухам, их дебют может состояться в первой половине будущего года. NVIDIA представила суперчип GH200 Grace Hopper с памятью HBM3e и производительностью 4 Пфлопс
08.08.2023 [22:17],
Николай Хижняк
Компания NVIDIA в рамках конференции SIGGRAPH 2023 представила вычислительную платформу GH200 Grace Hopper SuperChip нового поколения, представляющую собой двухчиповую систему из центрального и графического процессоров. Она послужит для построения НРС-систем и ИИ-платформ. В её основе используется новое поколение суперчипа NVIDIA Grace, оснащённого набортной высокопроизводительной памятью HBM3e, обеспечивающей доступ к информации со скоростью 5 Тбайт/с. По словам NVIDIA, платформа GH200 Grace Hopper SuperChip нового поколения значительно превосходит по производительности своего предшественника. Один сервер на платформе GH200 Grace Hopper с двумя новыми суперчипами (то есть с двумя парами GPU+CPU) сможет предложить наличие 144 ядер Arm Neoverse, работающих в тандеме с 282 Гбайт передовой набортной высокопроизводительной памяти HBM3e. Такая конфигурация обеспечивает в 3,5 раза больше памяти и в три раза больше пропускной способности, чем предшественник. Производительность подобной платформы с парой суперчипов составляет 8 петафлопс. «Для удовлетворения растущего спроса на генеративный ИИ центрам обработки данных требуются вычислительные платформы с особыми возможностями. Этот вопрос готова решить новая платформа GH200 Grace Hopper SuperChip, в которой применяется технология набортной памяти HBM3e с повышенной пропускной способностью. Она предлагает возможность объединения нескольких GPU для объединения производительности, а также позволяет создавать серверные системы, которые можно легко развернуть в любом месте центра обработки данных», — прокомментировал глава NVIDIA Дженсен Хуанг (Jensen Huang). Суперчип Grace Hopper, лежащий в основе новой платформы, может быть объединён с такими же суперчипами с помощью шины NVIDIA NVLink. Эта высокоскоростная технология предоставляет графическому процессору полный доступ к памяти центрального процессора, обеспечивая суммарно 1,2 Тбайт быстрой памяти в случае конфигурации с двумя суперчипами. Это позволяет развёртывать крупномасштабные вычислительных системы, необходимые для решения комплексных задач, связанных с генеративными ИИ. Память стандарта HBM3e, использующаяся в составе платформы GH200 Grace Hopper SuperChip нового поколения, обладает на 50 % более высокой производительностью по сравнению с HBM3 и обеспечивает совокупную пропускную способность на уровне 10 Тбайт/с в системе с несколькими платформами GH200 Grace Hopper SuperChip. Это позволяет платформе запускать в 3,5 раза более крупные ИИ-модели и обеспечивает значительный прирост общей производительности за счёт увеличенной в три раза пропускной способности памяти по сравнению с предшественником. В NVIDIA отмечают, что на фоне растущего спроса на платформу Grace Hopper ведущие производители уже начали предлагать системы, построенные на базе суперчипа Grace Hopper. Новая платформа Grace Hopper SuperChip следующего поколения с памятью HBM3e полностью совместима со спецификациями серверной модульной архитектуры NVIDIA MGX, которая была представлена на выставке Computex 2023. Такая совместимость гарантирует, что любой производитель серверных решений сможет быстро и с минимальными затратами интегрировать Grace Hopper в более чем 100 вариантов серверов, представленных на рынке. Внедрние новой платформы NVIDIA ведущими производителями серверных систем начнётся во втором квартале 2024 года. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |