Опрос
|
реклама
Быстрый переход
Nvidia выпустила драйвер с поддержкой Horizon Forbidden West Complete Edition
19.03.2024 [20:44],
Николай Хижняк
Компания Nvidia выпустила свежий пакет графического драйвера GeForce Game Ready 551.86 WHQL. В него включена поддержка полного издания Horizon Forbidden West, в котором реализована технология масштабирования DLSS 3. Кроме того, обновление содержит поддержку патча для Portal with RTX с DLSS 3.5 и Nvidia RTX IO. ![]() Источник изображения: Sony Interactive Entertainment В новый драйвер компания добавила оптимальные игровые настройки для Helldivers 2 и Three Kingdoms Zhao Yun. Свежее программное обеспечение также содержит поддержку 11 новых игровых мониторов, которые совместимы с технологией синхронизации изображения G-Sync и базовой поддержкой технологии динамической смены частоты обновления Variable Refresh Rate (VRR). Указанные модели мониторов представлены в таблице ниже. Список исправленных проблем:
Список известных проблем:
Скачать драйвер GeForce Game Ready 551.86 WHQL можно через приложение GeForce Experience (или бета-версию Nvidia App) либо с официального сайта Nvidia. Дженсен Хуанг представил самый мощный чип в мире в новой кожаной куртке за $8990
19.03.2024 [17:39],
Павел Котов
Глава Nvidia Дженсен Хуанг (Jensen Huang) традиционно появляется на публике в чёрных кожаных мотоциклетных куртках. Он никогда не рассказывал, почему выбрал этот теперь уже ставший неотъемлемой частью его образа предмет гардероба, но в минувшем году упомянул, что за его стиль отвечают жена и дочь. А на очередном мероприятии он был замечен в куртке по цене почти $9000. ![]() Источник изображения: tomshardware.com На своё основное выступление на выставке GTC 2024 Дженсен Хуанг надел новую куртку — она имеет чёрную расцветку и выглядит так, будто сделана из кожи ящерицы. Журналисты ресурса Tom's Hardware выяснили, что это далеко не самая дешёвая модель на рынке. Судя по воротнику, застёжкам-молниям и манжетам, гендиректор технологической компании с капитализацией более $2 трлн выбрал модель Tejus из коллекции мужской одежды Tom Ford SS2023. Это не кожа ящерицы или крокодила, как можно предположить по фактуре материала, а тиснёная телячья кожа — экзотические шкуры в Калифорнии запрещены. А стоит эта модель $8990 или чуть более десяти акций Nvidia. В одном из итальянских онлайн-бутиков куртка Tejus была замечена со скидкой 40 %, но даже на таких условиях это получается $5394 или более шести акций производителя видеокарт. Надев куртку от Tom Ford за $9000, Дженсен Хуанг анонсировал ускоритель искусственного интеллекта Nvidia Blackwell B200 — преемник Hopper H100. Он также рассказал, что компания интегрировала генеративный ИИ в платформу cuLitho, которую TSMC и Synopsys применяют в оптимизации разработки литографии. Nvidia представила GR00T — базовую ИИ-модель для создания человекоподобных роботов
19.03.2024 [14:03],
Владимир Фетисов
В рамках ежегодной конференции GTC компания Nvidia представила немало любопытных новинок. Одной из них стал Project GR00T (Generalist Robot 00 Technology) — базовая модель на основе искусственного интеллекта для создания человекоподобных роботов. Она позволит использовать для обучения роботов не только текстовые данные, но также речь, видео и даже живые демонстрации, т.е. роботы смогут обучаться, наблюдая за действиями человека. ![]() Источник изображения: Nvidia Созданные на базе модели GR00T роботы смогут понимать естественный язык и повторять движения человека, обучаясь таким образом координации, ловкости и другим навыкам. «Создание базовых моделей для человекоподобных роботов общего назначения — одна из самых интересных задач, решаемых сегодня в сфере ИИ. Ведущие робототехники по всему миру объединяются, чтобы совершить гигантский скачок на пути к ИИ-робототехнике общего назначения», — заявил гендиректор Nvidia Дженсен Хуанг (Jensen Huang). Разработка модели GR00T осуществлялась с помощью инструментов платформы Nvidia Isaac Robotic Platform, которая вскоре получит крупное обновление. Чтобы помочь предприятиям добиться успеха при использовании GR00T, Nvidia анонсировала специальный ИИ-процессор Jetson Thor, предназначенный для использования в человекоподобных роботах. Он включает в себя GPU нового поколения на базе архитектуры Blackwell, обеспечивающий производительность на уровне 800 терафлопс для обеспечения работы мультимодальных генеративных моделей, таких как GR00T. По словам разработчиков, этот чип обеспечит робота достаточным объёмом вычислительных мощностей для обучения и взаимодействия с человеком, а также другими машинами. Nvidia планирует создать комплексную платформу искусственного интеллекта для ведущих компаний-производителей человекоподобных роботов, таких как 1X Technologies, Agility Robotics, Apptronic, Boston Dynamics и др. Что касается обновлений платформы Isaac Robotic Platform, то они станут доступны в следующем квартале. С помощью платформы можно будет создавать базовые модели для обучения роботов, предназначенных для использования в любой среде. Nvidia сделала цифровых людей более реалистичными
19.03.2024 [14:02],
Павел Котов
Nvidia рассказала на конференции GDC 2024, как партнёры применяют её технологии в области искусственного интеллекта для создания реалистичных цифровых воплощений человека в профессиональной деятельности и для игровых приложений. Наиболее востребованными решениями являются Nvidia ACE (Avatar Cloud Engine) для генерации речи и анимации, Nvidia NeMo для генерации реплик и Nvidia RTX для прорисовки с трассировкой лучей. ![]() Источник изображения: blogs.nvidia.com Inworld AI продемонстрировала разработанную при поддержке Nvidia игру Covert Protocol, в которой геймер может почувствовать себя опытным частным детективном — здесь расширены возможности взаимодействия с неигровыми персонажами. В проекте использован инструмент Inworld Engine, объединяющий системы познания, восприятия и поведения — это помогает сформировать повествование в игре, — а также средства создания игровой среды с визуализацией при помощи RTX. В игре также применяются технология распознавания речи Nvidia Riva и микросервисы Nvidia Audio2Face. Цифровая платформа UneeQ, специализирующаяся на создании 3D-аватаров на базе ИИ для корпоративных приложений, также внедрила микросервис Nvidia Audio2Face и объединила его с собственной технологией Synanim ML. Это повысило реалистичность генерируемых ИИ аватаров, а заказчики UneeQ повысили качество обслуживания собственных клиентов. Nvidia также рассказала о технологии Neural Radiance Cache (NRC) — это основанный на ИИ алгоритм трассировки лучей, направленный на обработку непрямых источников света в динамичных сценах без потребности предварительной обработки статического освещения с учётом геометрии и материалов. Технология Nvidia Spatial Hash Radiance Cache (ShaRC) предлагает те же возможности, но без использования нейросети с совместимостью с любым графическим процессором с поддержкой трассировки лучей в DirectX или Vulkan. Наконец, Nvidia сообщила, что вскоре расширится число игр с поддержкой технологии масштабирования DLSS 3.5, главным преимуществом которой является решение Ray Reconstruction — реконструкция трассировки лучей взамен стандартных алгоритмов шумоподавления. Поддержка DLSS 3.5 появится в Black Myth: Wukong и Naraka: Bladepoint; она уже есть в Portal with RTX, а скоро появится и в бета-версии платформы Nvidia RTX Remix, позволяющей добавлять трассировку лучей в классические игры. Nvidia и Shutterstock запустили ИИ-генератор 3D-моделей Edify
19.03.2024 [13:59],
Павел Котов
Архитектура визуального генеративного искусственного интеллекта Nvidia Edify вышла на новый уровень — она предложила генерацию 3D-объектов по текстовому описанию. Возможности платформы заинтересовали Shutterstock, Getty Images, Adobe, HP, Mattel и других партнёров Nvidia. ![]() Источник изображений: nvidia.com Фотобанк Shutterstock открыл ранний доступ к API на основе архитектуры Edify — платформа позволяет художникам создавать трёхмерные объекты или целые сцены по текстовому описанию. Разработчики смогут протестировать возможности предварительно обученных моделей ИИ на архитектуре Edify с использованием данных Getty Images и Shutterstock по API через набор микросервисов Nvidia NIM. Обученная на лицензионном контенте Shutterstock модель обладает встроенными средствами фильтрации генерируемого контента; поддерживается экспорт в наиболее популярные 3D-форматы. Доступно также обучение и развёртывание специализированных моделей генеративного ИИ на архитектуре Edify при помощи платформы Nvidia Picasso на ресурсах Nvidia DGX Cloud. Предложенный Shutterstock 3D-генератор заинтересовал компанию HP: созданные по текстовому описанию объекты можно преобразовывать в модели для 3D-принтеров HP с возможностью их последующего вывода на печать. Проект оказался полезным и компании Mattel: инструменты ИИ помогают дизайнерам визуализировать свои идеи для создания новых игрушек посредством текстовых команд, снижая тем самым технический барьер при разработке дизайна. На архитектуре Nvidia Edify также работает запущенный Adobe генератор 3D-изображений для пользователей сервисов Firefly и Creative Cloud. ![]() Технологическая консалтинговая компания Accenture Song, которая уже развернула в работе платформу Nvidia Omniverse, также внедрила решения Edify для создания при помощи текстовых команд 3D-сцен в реалистичной среде для цифрового двойника автомобиля Land Rover Defender. Фотобанк Getty Images на январской выставке CES анонсировал API на базе Nvidia Edify — этот инструмент позволяет добавлять, удалять или заменять объекты на изображениях, и теперь эти функции доступны на платформах Gettyimages.com и iStock.com. С мая Getty Images предложит услуги по индивидуальной настройке модели Edify Foundation в соответствии с брендом и визуальным стилем выступающей заказчиком компании. Эти сервисы работают без необходимости использовать программный код: клиент сможет загрузить собственный набор данных, свериться с автоматически генерируемыми тегами, сформировать задачи по тонкой настройке модели и просмотреть результаты перед их окончательным развёртыванием. Наконец, Getty Images предложит средства API для точного контроля над выводом изображений: платформа сможет генерировать изображения по эскизам, контролируя глубину цвета и сегментируя фрагменты изображения для работы с каждым объектом сцены в индивидуальном порядке. Nvidia запустила Quantum Cloud — облачный симулятор квантового компьютера для исследований
19.03.2024 [10:44],
Геннадий Детинич
Квантовые вычисления обещают экспоненциально ускорить расчёты, но как и с помощью каких алгоритмов — это человечество пока представляет очень слабо. Очевидно, что чем больше светлых умов будет вовлечено в поиск практического применения квантовых платформ, тем скорее наступит прорыв. При этом важно использовать всё то богатство возможностей, которое предоставляют классические компьютеры. Nvidia Quantum Cloud — это шаг в нужном направлении. ![]() Источник изображения: Nvidia Компания объявила, что 18 марта запустила облачный сервис, «который позволяет исследователям и разработчикам расширять границы исследований квантовых вычислений в ключевых научных областях, включая химию, биологию и материаловедение». Платформа доступна по подписке через крупных облачных провайдеров. В основе сервиса Quantum Cloud лежит платформа квантовых вычислений CUDA-Q с открытым исходным кодом. По словам Nvidia, до 75 % компаний, так или иначе развёртывающих физические квантовые платформы, используют CUDA-Q. Иными словами, это востребованный и удобный для решения своих задач продукт. По крайней мере, альтернатив немного. Тем самым Quantum Cloud как услуга «впервые позволяет пользователям создавать и тестировать в облаке новые квантовые алгоритмы и приложения, включая мощные симуляторы и инструменты для гибридного квантово-классического программирования». «Квантовые вычисления представляют собой следующий революционный рубеж вычислительной техники, и потребуются самые блестящие умы в мире, чтобы приблизить это будущее ещё на шаг, — сказал Тим Коста (Tim Costa), директор по высокопроизводительным вычислениям и квантовым вычислениям в Nvidia. — Nvidia Quantum Cloud устраняет барьеры для изучения этой преобразующей технологии и позволяет каждому учёному в мире использовать возможности квантовых вычислений и приближать свои идеи к реальности». Важной особенностью Quantum Cloud стала возможность интеграции программного обеспечения сторонних производителей для ускорения научных исследований. На данном этапе в составе платформы можно будет воспользоваться разработанным в сотрудничестве с Университетом Торонто пакетом Generative Quantum Eigensolver, который использует большие языковые модели (LLM), позволяющие квантовым алгоритмам быстрее находить энергию основного состояния молекулы; пакет израильского стартапа Classiq, облегчающий создание больших и сложных квантовых программ, включая глубокий анализ квантовых схем; и пакет QC Ware Promethium, помогающий решать сложные задачи квантовой химии, например, связанные с молекулярным моделированием. SK hynix запустила массовое производство стеков памяти HBM3E — первой её получит Nvidia
19.03.2024 [10:03],
Алексей Разин
Южнокорейская компания SK hynix с момента выпуска памяти HBM первого поколения оставалась основным поставщиком соответствующих микросхем для нужд AMD и Nvidia, а уже после сегодняшнего анонса ускорителей Nvidia B200 решила не скрывать своих намерений начать массовые поставки микросхем HBM3E, которые уже относятся к пятому поколению. В конце этого месяца крупный клиент SK hynix начнёт получать от компании микросхемы HBM3E. ![]() Источник изображения: SK hynix Легко догадаться, что этим клиентом будет Nvidia, хотя прямых ссылок на этого партнёра в тексте пресс-релиза SK hynix нет. Зато корейский производитель упоминает о той самой технологии MR-MUF (массовой оплавки изоляционного слоя с частичным заполнением формы), которая позволяет на 10 % улучшить условия теплоотвода от микросхем HBM3E и повысить уровень выхода годной продукции по сравнению с альтернативной технологией NCF, подразумевающей использование изолирующей плёнки для разделения кристаллов памяти в стеке. Напомним, что Samsung интересуется внедрением первой из этих технологий при производстве памяти HBM3E своими силами, поскольку рассчитывает за счёт этого не только увеличить объёмы выпуска продукции, но и завоевать благосклонность Nvidia на этапе сертификации своей памяти. Память HBM3E, которую начала массово выпускать компания SK hynix, способна передавать информацию со скоростью 1,18 Тбайт в секунду. По данным SK hynix, эта компания первой в мире освоила серийное производство микросхем памяти типа HBM3E. Память четвёртого поколения (HBM3) она тоже начала выпускать первой. Предметом особой гордости SK hynix является тот факт, что разработку HBM3E она анонсировала только семь месяцев назад, и в сжатые сроки смогла наладить массовое производство одноимённых микросхем. Nvidia и Synopsys внедрили искусственный интеллект в сфере литографической подготовки производства чипов
19.03.2024 [07:49],
Алексей Разин
Искусственному интеллекту нашлось применение не только на этапе разработки чипов и программного обеспечения для них, но и при создании технологической оснастки для их производства. По крайней мере, сотрудничество Nvidia и Synopsys позволило заметно ускорить процесс разработки фотомасок, а также внедрения корректирующих действий в техпроцессы при выпуске чипов методом оптической литографии. ![]() Источник изображения: Nvidia Как поясняется в пресс-релизе на сайте Nvidia, эта компания в сотрудничестве с разработчиком программного обеспечения для проектирования чипов и технологической оснастки Synopsys применили искусственный интеллект для оптимизации работы программной платформы cuLitho, которая уже использовала вычислительные возможности GPU для оптимизации процесса разработки фотомасок при выпуске чипов. Во-первых, сам по себе перенос профильных вычислений с центральных процессоров на графические позволяет значительно ускорить процесс разработки фотошаблонов, коих для производства современных чипов требуется всё больше с учётом освоения более «тонких» норм литографии. Силами центральных процессоров расчёты могут осуществляться на протяжении 30 млн часов или даже дольше, но система с 350 ускорителями Nvidia H100 способна заменить центр обработки данных с 40 000 центральных процессоров, сокращая потребность в занимаемой оборудованием площади и потребляемой электроэнергии. Компания TSMC, которая является крупнейшим контрактным производителем чипов, в своих технологических процессах внедряет решения Nvidia cuLitho, которые были представлены ещё в прошлом году. Synopsys своё программное обеспечение Proteus для расчёта оптической коррекции приближения при проектировании фотомасок тоже переводит на платформу Nvidia cuLitho, достигая двукратного ускорения процесса по сравнению с использованием вычислительных ресурсов исключительно центральных процессоров. Данные решения в будущем обретут поддержку ускорителей Nvidia семейства Blackwell. NVIDIA представила самый мощный чип в мире — Blackwell B200, который откроет путь к гигантским нейросетям
19.03.2024 [00:12],
Андрей Созинов
Компания Nvidia в рамках конференции GTC 2024 представила ИИ-ускорители следующего поколения на графических процессорах с архитектурой Blackwell. По словам производителя, грядущие ИИ-ускорители позволят создавать ещё более крупные нейросети, в том числе работать с большими языковыми моделями (LLM) с триллионами параметров, и при этом будут до 25 раз энергоэффективнее и экономичнее в сравнении с Hopper. ![]() Источник изображений: Nvidia Архитектура GPU Blackwell получила название в честь американского математика Дэвида Блэквелла (David Harold Blackwell) и включает в себя целый ряд инновационных технологий для ускорения вычислений, которые помогут совершить прорыв в обработке данных, инженерном моделировании, автоматизации проектирования электроники, компьютерном проектировании лекарств, квантовых вычислениях и генеративном ИИ. Причём на последнем в Nvidia делают особый акцент: «Генеративный ИИ — это определяющая технология нашего времени. Графические процессоры Blackwell — это двигатель для новой промышленной революции», — подчеркнул глава Nvidia Дженсен Хуанг (Jensen Huang) в рамках презентации. Графический процессор Nvidia B200 производитель без лишней скромности называет самым мощным чипом в мире. В вычислениях FP4 и FP8 новый GPU обеспечивает производительность до 20 и 10 Пфлопс соответственно. Новый GPU состоит из двух кристаллов, которые произведены по специальной версии 4-нм техпроцесса TSMC 4NP и объединены 2,5D-упаковкой CoWoS-L. Это первый GPU компании Nvidia с чиплетной компоновкой. Чипы соединены шиной NV-HBI с пропускной способностью 10 Тбайт/с и работают как единый GPU. Всего новинка насчитывает 208 млрд транзисторов. ![]() Один из кристаллов Blackwell — в GPU таких кристаллов два По сторонам от кристаллов GPU расположились восемь стеков памяти HBM3E общим объёмом 192 Гбайт. Её пропускная способность достигает 8 Тбайт/с. А для объединения нескольких ускорителей Blackwell в одной системе новый GPU получил поддержку интерфейса NVLink пятого поколения, которая обеспечивает пропускную способность до 1,8 Тбайт/с в обоих направлениях. С помощью данного интерфейса (коммутатор NVSwitch 7.2T) в одну связку можно объединить до 576 GPU. Одними из главных источников более высокой производительности B200 стали новые тензорные ядра и второе поколение механизма Transformer Engine. Последний научился более тонко подбирать необходимую точность вычислений для тех или иных задач, что влияет и на скорость обучения и работы нейросетей, и на максимальный объём поддерживаемых LLM. Теперь Nvidia предлагает тренировку ИИ в формате FP8, а для запуска обученных нейросетей хватит и FP4. Но отметим, что Blackwell поддерживает работу с самыми разными форматами, включая FP4, FP6, FP8, INT8, BF16, FP16, TF32 и FP64. И во всех случаях кроме последнего есть поддержка разреженных вычислений. Флагманским ускорителем на новой архитектуре станет Nvidia Grace Blackwell Superchip, в котором сочетается пара графических процессоров B200 и центральный Arm-процессор Nvidia Grace с 72 ядрами Neoverse V2. Данный ускоритель шириной в половину серверной стойки обладает TDP до 2,7 кВт. Производительность в операциях FP4 достигает 40 Пфлопс, тогда как в операциях FP8/FP6/INT8 новый GB200 способен обеспечить 10 Пфлопс. Как отмечает сама Nvidia, новинка обеспечивает 30-кратный прирост производительности по сравнению с Nvidia H100 для рабочих нагрузок, связанных с большими языковыми моделями, а она до 25 раз более экономична и энергетически эффективна. ![]() Ещё Nvidia представила систему GB200 NVL72 — фактически это серверная стойка, которая объединяет в себе 36 Grace Blackwell Superchip и пару коммутаторов NVSwitch 7.2T. Таким образом данная система включает в себя 72 графических процессора B200 Blackwell и 36 центральных процессоров Grace, соединенных NVLink пятого поколения. На систему приходится 13,5 Тбайт памяти HBM3E с общей пропускной способностью до 576 Тбайт/с, а общий объём оперативной памяти достигает 30 Тбайт. ![]() Платформа GB200 NVL72 работает как единый GPU с ИИ-производительностью 1,4 эксафлопс (FP4) и 720 Пфлопс (FP8). Эта система станет строительным блоком для новейшего суперкомпьютера Nvidia DGX SuperPOD. Наконец, Nvidia представила серверные системы HGX B100, HGX B200 и DGX B200. Все они предлагают по восемь ускорителей Blackwell, связанных между собой NVLink 5. Системы HGX B100 и HGX B200 не имеют собственного CPU, а между собой различаются только энергопотреблением и как следствие мощностью. HGX B100 ограничен TDP в 700 Вт и обеспечивает производительность до 112 и 56 Пфлопс в операциях FP4 и FP8/FP6/INT8 соответственно. В свою очередь, HGX B200 имеет TDP в 1000 Вт и предлагает до 144 и 72 Пфлопс в операциях FP4 и FP8/FP6/INT8 соответственно. Наконец, DGX B200 копирует HGX B200 в плане производительности, но является полностью готовой системой с парой центральных процессоров Intel Xeon Emerald Rapids. По словам Nvidia, DGX B200 до 15 раз быстрее в задачах запуска уже обученных «триллионных» моделей по сравнению с предшественником. Для создания наиболее масштабных ИИ-систем, включающих от 10 тыс. до 100 тыс. ускорителей GB200 в рамках одного дата-центра, компания Nvidia предлагает объединять их в кластеры с помощью сетевых интерфейсов Nvidia Quantum-X800 InfiniBand и Spectrum-X800 Ethernet. Они также были анонсированы сегодня и обеспечат передовые сетевые возможности со скоростью до 800 Гбит/с. Свои системы на базе Nvidia B200 в скором времени представят многие производители, включая Aivres, ASRock Rack, ASUS, Eviden, Foxconn, GIGABYTE, Inventec, Pegatron, QCT, Wistron, Wiwynn и ZT Systems. Также Nvidia GB200 в составе платформы Nvidia DGX Cloud, а позже в этом году решения на этом суперчипе станут доступны у крупнейших облачных провайдеров, включая AWS, Google Cloud и Oracle Cloud. Nvidia раскрыла, когда в Diablo IV появится рейтрейсинг, и показала Black Myth: Wukong с трассировкой пути
14.03.2024 [19:35],
Дмитрий Рудь
Компания Nvidia в преддверии конференции разработчиков GDC 2024 раскрыла линейку новых и уже вышедших игр, которые получат поддержку трассировки лучей и интеллектуального масштабирования DLSS. Заявленное на март обновление для ролевого экшена Diablo IV с трассировкой лучей (для отражений и теней) улучшит внешний вид брони, воды, окон и прочих отражающих поверхностей 26 марта. Сегодняшний (14 марта) патч добавил в Portal with RTX поддержку DLSS 3.5 (с реконструкцией лучей DLSS) и RTX IO (ускорение загрузки игр), а обновление от 12 марта принесло DLSS 3 в Sengoku Dynasty. Горячо ожидаемая игровая новинка стартует с трассировкой пути (полная трассировка лучей) и DLSS 3.5 — китайский боевик Black Myth: Wukong (20 августа). Первый взгляд на игру с этими технологиями доступен в ролике выше. Кроме того, амбициозный экшен в открытом мире Star Wars Outlaws выйдет с трассировкой пути, DLSS 3 и Reflex. Обещают поддержку RTX Direct Illumination, улучшенные с помощью рейтрейсинга тени и глобальное освещение. Кроме того, трассировка пути и DLSS 3.5 в обозримом будущем будут интегрированы в королевскую битву Naraka: Bladepoint (см. трейлер), а ролевой экшен The First Berserker: Khazan получит поддержку DLSS 3 и Reflex со старта. Как сообщила Nvidia в декабре, с момента запуска технология DLSS помогла повысить производительность более чем в 500 выпущенных играх и приложениях — полный их список можно найти на сайте компании. Nvidia покажет ИИ-ускоритель нового поколения уже на следующей неделе в рамках GTC 2024
14.03.2024 [19:15],
Сергей Сурабекянц
Генеральный директор и соучредитель Nvidia Дженсен Хуанг (Jensen Huang) в понедельник 18 марта выйдет на сцену хоккейной арены Кремниевой долины, чтобы представить новые решения, включая ИИ-чипы нового поколения. Поводом для этого станет ежегодная конференция разработчиков GTC 2024, которая станет первой очной встречей такого масштаба после пандемии. Nvidia ожидает, что это мероприятие посетят 16 000 человек, что примерно вдвое превысит число посетителей в 2019-м. ![]() Источник изображения: Getty Images Рыночная капитализация Nvidia превысила $2 трлн в конце февраля, и теперь ей не хватает «всего» $400 млрд, чтобы превзойти Apple, которая занимает второе место по капитализации после лидера фондового рынка Microsoft. Аналитики ожидают, что выручка Nvidia в этом году вырастет на 81 % до $110 млрд, поскольку технологические компании на волне бума ИИ десятками тысяч скупают её новейшие ускорители ИИ для разработки и обучения чат-ботов, генераторов изображений и других нейросетей. Новое поколение высокопроизводительных ИИ-чипов от Nvidia, которое предположительно получит обозначение B100, должно стать основой для дальнейшего укрепления рыночных позиций компании. В рамках предстоящей GTC компания Nvidia вряд ли раскроет все характеристики и назовёт точную цену нового ускорителя, которая не в последнюю очередь зависит от размера партии и сроков поставки. Очевидно, B100 будет намного быстрее своего предшественника и, вероятно, будет стоить дороже, хотя цена актуальных H100 может превышать $20 000. Поставки нового чипа ожидаются позднее в этом году. ![]() Источник изображений: Nvidia Спрос на текущие ускорители Nvidia превысил предложение: разработчики программного обеспечения месяцами ждут возможности использовать кластеры ускорителей ИИ у облачных провайдеров. Реагируя на высокий спрос, акции Nvidia выросли на 83 % в этом году после более чем утроения их стоимости в прошлом. И даже после этого стремительного роста акции Nvidia торгуются с прибылью, в 34 раза превышающей ожидаемую. Аналитики значительно повысили оценки будущих доходов компании, но, если их прогнозы окажутся слишком оптимистичными, акции Nvidia рискуют ощутимо просесть в цене. «Самое большое беспокойство вызывает то, что цифры стали настолько большими и настолько быстрыми, что вы просто беспокоитесь, что они не продлятся долго, — считает аналитик Bernstein Стейси Расгон (Stacy Rasgon). — Чем больше у них появляется новых продуктов с более высокими характеристиками и более высокими ценами, тем больше у них возможностей для взлёта». Nvidia также, вероятно, представит на GTC 2024 множество обновлений своего программного обеспечения CUDA, которое предоставляет разработчикам инструменты для запуска своих программ на ускорителях компании, ещё сильнее привязывая их к чипам Nvidia. Глубокое погружение в использование CUDA усложняет для разработчика переход на «железо» конкурентов, таких как AMD, Microsoft и Alphabet. ![]() В прошлом году Nvidia начала предлагать процессоры и программное обеспечение в виде облачных сервисов и продолжает развивать успех. Аналитики полагают, что «возможно, поставщики облачных услуг и программного обеспечения нервничают из-за того, что Nvidia действует на их игровой площадке». Nvidia располагает ощутимым технологическим преимуществом над китайскими конкурентами. США отрезали Китаю доступ к самым передовым чипам Nvidia, поэтому самыми передовыми китайскими ускорителями ИИ являются чипы Huawei, которые по производительности соответствуют процессорам Nvidia A100, выпущенным в далёком 2020 году. Ни один китайский ускоритель ИИ даже близко не может сравниться с флагманским чипом Nvidia H100, выпущенным в 2022 году, а предстоящий B100 ещё более увеличит отрыв. Эксперты полагают, что «со временем этот разрыв станет экспоненциально большим». ![]() ИИ-ускоритель Intel Gaudi2 оказался на 55 % быстрее Nvidia H100 в тестах Stable Diffusion 3, но есть нюанс
12.03.2024 [18:34],
Сергей Сурабекянц
Компания Stability AI, разработчик популярной модели генеративного ИИ Stable Diffusion, сравнила производительность модели Stable Diffusion 3 на популярных ускорителях вычислений для центров обработки данных, включая Nvidia H100 Hopper, A100 Ampere и Intel Gaudi2. По утверждению Stability AI, Intel Gaudi2 продемонстрировал производительность примерно на 56 % выше, чем Nvidia H100. ![]() Источник изображения: Intel В отличие от H100, который представляет собой суперскалярный графический процессор с тензорными CUDA-ядрами, Gaudi2 специально спроектирован для ускорения генеративного ИИ и больших языковых моделей (LLM). В тестах приняли участие пары кластеров, которые в сумме обеспечивали по 16 тех или ускорителей, а проводились тесты с постоянным размером батча (число тренировочных объектов) в 16 на каждый ускоритель (всего 256). Системы на Intel Gaudi2 оказались способны генерировать 927 изображений в секунду по сравнению с 595 изображениями для ускорителей H100 и 381 изображением в секунду для массива A100. ![]() Источник изображения: Stability AI При увеличении количества кластеров до 32, а числа ускорителей до 256 и размере батча 16 на ускоритель (общий размер 4096), массив Gaudi2 генерирует 12 654 изображения в секунду или 49,4 изображения в секунду на ускоритель, по сравнению с 3992 изображениями в секунду или 15,6 изображениями в секунду на устройство у массива A100 Ampere. ![]() Источник изображения: Nvidia Необходимо отметить, что производительность ускорителей ИИ измерялась с использованием фреймворка PyTorch, а в случае применения оптимизации TensorRT чипы A100 создают изображения до 40 % быстрее, чем Gaudi2. Тем не менее, исследователи Stability AI ожидают, что при дальнейшей оптимизации Gaudi2 превзойдёт A100. Компания полагает, что более быстрый интерконнект и больший объем памяти (96 Гбайт) делают решения Intel вполне конкурентоспособными и планирует использовать ускорители Gaudi2 в Stability Cloud. ![]() Источник изображения: techpowerup.com По сообщению Stability AI, в более ранних тестах модели Stable Diffusion XL с использованием фреймворка PyTorch ускоритель Intel Gaudi2 генерирует при 30 шагах изображение размером 1024 × 1024 за 3,2 секунды по сравнению с 3,6 секунды для PyTorch на Nvidia A100 и 2,7 секунды при использовании оптимизации TensorRT на Nvidia А100. На старых видеокартах Nvidia неофициально разблокировали Resizable BAR для повышения FPS
11.03.2024 [19:21],
Сергей Сурабекянц
Вышел неофициальный драйвер UEFI NVStrapsReBar, который позволит разблокировать функцию Resizable BAR (Base Address Register) для видеокарт Nvidia GeForce RTX 20-й и GTX 16-й серий (Turing). Технология Resizable BAR, которая является частью спецификации PCI, позволяет центральному процессору получать доступ ко всему стеку памяти графического процессора через PCIe, тем самым устраняя узкие места и обеспечивая более высокую производительность. ![]() Источник изображения: unsplash.com Изначально Resizable BAR поддерживалась лишь на самых современных графических процессорах и материнских платах, но позже распространилась на большее число платформ. К сожалению, некоторые популярные семейства видеокарт так и не получили официальной поддержки этой технологии, например, ускорители Nvidia GeForce RTX 20-й и GTX 16-й серий, основанные на архитектуре Turing. Nvidia уже прекратила производство этих графических процессоров, но они по-прежнему обладают достойной производительностью и в большом количестве представлены на вторичном рынке. Ранее мы уже писали об утилите ReBarUEFI, которая позволяет включить Resizable BAR на старых ПК. Но именно для видеокарт с графическими процессорами Turing автор этой утилиты рекомендует использовать UEFI NVStrapsReBar. Создатели NVStrapsReBar сообщают на своей странице в GitHub об успешном тестировании значительного числа конфигураций с видеокартами серий RTX 2000 и GTX 1600 разных производителей. А вот видеокарты GeForce GTX 10-й серии на архитектуре Pascal поддержки Resizable BAR не получили. Для активации Resizable BAR на графических процессорах с архитектурой Turing потребуется прошивка UEFI материнской платы. Автор утилиты отмечает, что vBIOS графических карт Nvidia имеет цифровую подпись, зашифрован и не может быть изменён моддерами и конечными пользователями. В отличие от него, UEFI материнской платы не заблокирован от изменений, хотя также может быть подписан или иметь проверку целостности. Для старых плат добавление функциональности Resizable BAR зависит от опции «Декодирование выше 4G» в настройках UEFI, которую необходимо активировать, в то время как модуль совместимости CSM требуется отключить. ![]() Источник изображения: GitHub Полное руководство по включению Resizable BAR для графических процессоров Nvidia с архитектурой Turing можно изучить на странице автора на GitHub. Следует обратить внимание, что в некоторых случаях включение этой опции может не привести к приросту производительности и даже немного снизить её. Для каждой конкретной игры пользователю придётся самостоятельно оценить актуальность включения поддержки Resizable BAR. Помните, что все манипуляции Вы выполняете на свой страх и риск. Дженсен Хуанг объяснил, почему ИИ-ускорители Nvidia лучше бесплатных ускорителей конкурентов
11.03.2024 [17:37],
Дмитрий Федоров
На Экономическом саммите SIEPR Дженсен Хуанг (Jensen Huang), глава компании Nvidia, занимающей ведущие позиции в секторе аппаратного обеспечения для искусственного интеллекта (ИИ), заявил о непревзойдённом качестве и ценности продукции своей компании. По его словам, даже если бы конкуренты предложили свои чипы бесплатно, они всё равно не смогли бы соперничать с высококачественными, хотя и дорогими альтернативами Nvidia. ![]() Источник изображений: Nvidia Компания Nvidia, достигшая третьего места в мире по объёму рыночной капитализации в размере $2,19 трлн, тотально доминирует в области продвинутого аппаратного обеспечения для ИИ. Это не только подняло Хуанга на 20-е место в индексе миллиардеров Bloomberg с состоянием в $77,2 млрд, но и подтвердило статус Nvidia как ключевого игрока на рынке. В ходе дискуссии с Джоном Шовеном (John Shoven), профессором экономики Стэнфордского университета (SIEPR), Хуанг отметил, что Nvidia сталкивается с беспрецедентным уровнем конкуренции, борясь не только с прямыми конкурентами, но и с клиентами, которые используют продукцию Nvidia для разработки собственных решений. Тем не менее, компания продолжает придерживаться политики «открытой книги», сотрудничая почти со всеми участниками отрасли и предоставляя информацию о текущих и будущих проектах своих чипов. Однако по поводу этой открытости есть вопросы. В прошлом месяце стартап Groq, создающий ИИ-чипы для запуска в больших языковых моделях (LLM), отметил, что клиентам Nvidia приходится скрывать свои сделки по приобретению ИИ-ускорителей у конкурентов, чтобы избежать возможных задержек в выполнении заказов со стороны Nvidia. Подобная мера якобы применяется Nvidia как форма наказания. В свою очередь, бывший вице-президент AMD Скотт Херкельман (Scott Herkelman) описал компанию Nvidia как «картель производителей GPU», контролирующий всё предложение на рынке. Эти утверждения поднимают вопросы о реальной степени открытости и сотрудничества Nvidia с участниками отрасли, а также о методах, которыми компания обеспечивает своё доминирующее положение на рынке аппаратного обеспечения для ИИ. ![]() Говоря о цене ИИ-ускорителей Nvidia и о том, предлагают ли конкуренты лучшее соотношение цены и качества, Хуанг отметил, что о ценах думают только те, кто покупает и продает чипы, а те, кто управляет центрами обработки данных, думают о совокупной стоимости владения (TCO). Глава Nvidia добавил, что её чипы демонстрируют отличный показатель прямых и косвенных затрат благодаря таким факторам, как время развертывания, производительность, использование и гибкость. По словам Хуанга, совокупная стоимость владения картами Nvidia настолько впечатляет, что даже если бы конкуренты раздавали свои чипы бесплатно, продукция Nvidia всё равно обходилась бы дешевле. В исках NeMo: писатели обвинили Nvidia в незаконном использовании произведений для обучения нейросети
11.03.2024 [11:30],
Алексей Разин
В минувшую пятницу Федеральный суд Сан-Франциско принял к рассмотрению групповой иск к Nvidia от троих авторов литературных произведений, которые обвиняют компанию в неправомерном использовании своих трудов для обучения системы искусственного интеллекта NeMo созданию текстов на английском языке. ![]() Источник изображения: Nvidia Представители истцов сообщают, что Nvidia использовала выборку из 196 640 литературных произведений для обучения своей платформы NeMo с целью дальнейшей генерации текстов на английском языке силами системы искусственного интеллекта. Авторы книг упрекают компанию в использовании их произведений без разрешения. Иск подан от имени трёх авторов: Брайана Кина (Brian Keene), Абди Наземяна (Abdi Nazemian) и Стюарта О’Нэна (Stewart O’Nan), которые уличили Nvidia в использовании текстов их романов и новелл различных лет публикации без согласования с правообладателями. Сумма ущерба, которую пытаются взыскать истцы, не уточняется, но групповой характер иска подразумевает, что к претензиям могут присоединиться и прочие авторы из упоминаемой выборки, которую Nvidia использовала для обучения своей большой языковой модели. Это уже не первый иск такого рода, с которым приходится сталкиваться Nvidia, ранее компанию обвинило в неправомерном использовании своих материалов издание The New York Times. Аналогичные мотивы уже заставили некоторые организации обратиться в суд с иском не только на создавшую ChatGPT компанию OpenAI, но и финансирующую её Microsoft. |