|
Опрос
|
реклама
Быстрый переход
Nvidia ускорит и обезопасит запуск ИИ-агентов — представлены Agent Toolkit и NemoClaw
17.03.2026 [12:51],
Павел Котов
Среди прочих крупных анонсов на мероприятии GTC 2026 глава компании Nvidia Дженсен Хуанг (Jensen Huang) анонсировал множество новых моделей искусственного интеллекта, а также инструменты Agent Toolkit и NemoClaw, предназначенные для быстрого запуска ИИ-агентов на оборудовании Nvidia.
Источник изображений: nvidia.com Nvidia Agent Toolkit — платформа с открытым исходным кодом, предназначенная для разработчиков и располагающая средствами стандартизации и масштабирования при запуске автономных ИИ-агентов в масштабах предприятия. NemoClaw представляет собой программный стек на основе популярного OpenClaw с дополнительными средствами обеспечения конфиденциальности и контроля. Оба инструмента предназначены для ускоренного развёртывания ИИ-агентов и предлагают оптимизацию для оборудования Nvidia — от компактных DGX Spark до мощных серверов Vera Rubin. Компания отметила, что множество её партнёров уже взяли на себя обязательства вести разработку с использованием средств Agent Toolkit — среди них упомянуты Adobe, Salesforce, SAP, ServiceNow, Siemens, CrowdStrike, Atlassian и Palantir. Agent Toolkit позволяет быстро интегрировать функции ИИ-агентов в бизнес-приложения с общими ресурсами и едиными стандартами — это снижает нагрузку на инженеров и обеспечивает тесную связь с имеющимся вычислительным стеком Nvidia, что помогает оптимизировать производительность. ![]() NemoClaw представляет собой готовый программный пакет, включающий установку OpenClaw, открытых моделей Nvidia Nemotron и среды выполнения OpenShell одной командой. Стандартный вариант OpenClaw получил дополнительные функции конфиденциальности, безопасности и оперативного контроля для ИИ-агентов. В качестве аппаратной платформы могут выступать ПК с видеокартами Nvidia RTX, компьютеры DGX Spark и DGX Station, а также серверы с ускорителями Nvidia. Компания упомянула, что с обновлением ПО появилась поддержка кластеризации до четырёх систем DGX Spark в единой конфигурации (против двух на момент запуска). ![]() Отдельно было сказано о новом партнёрском проекте Nvidia с Adobe — последнюю заинтересовали средства Agent Toolkit, компания также решила интегрировать в свои приложения инструменты CUDA-X и Omniverse, а ИИ-модели нового поколения будут обучаться на ИИ-оборудовании Nvidia. «Зелёные» напомнили о семействе открытых моделей Alpamayo класса Vision-Language-Action (VLA) для систем автопилота. Наконец, было объявлено о создании организации Nemotron Coalition, в которую, помимо самой Nvidia, вошли Black Forest Labs, Cursor, LangChain, Mistral AI, Perplexity, Reflection AI, Sarvam и Thinking Machines Lab. Они решили вести разработку открытых ИИ-моделей совместно, используя единые ресурсы Nvidia DGX Cloud, что позволит им не дублировать усилия на базовых этапах. Специализация будет проводиться с учётом потребностей отраслей, регионов и сценариев использования — результаты работы коалиции лягут в основу перспективного семейства моделей Nemotron 4. Nvidia показала полный стек Vera Rubin — от GPU до сетей для ИИ-фабрик нового поколения
17.03.2026 [10:01],
Алексей Разин
Являясь одним из лидеров в сфере вычислительной инфраструктуры для систем искусственного интеллекта, Nvidia комплексно подходит к развитию собственных платформ, а потому вместе с ускорителями поколения Vera Rubin предложила ряд сопутствующих аппаратных решений.
Источник изображений: Nvidia Как отмечается в корпоративном пресс-релизе, платформа Vera Rubin открывает новые рубежи в развитии агентского искусственного интеллекта. В массовом производстве сейчас находятся семь новых чипов Nvidia, позволяющих эффективно масштабировать так называемые ИИ-фабрики. В число семи аппаратных новинок Nvidia вошли графические процессоры Rubin, центральные процессоры Vera, коммутаторы NVLink 6, сетевые решения ConnectX-9 SuperNIC, специализированные процессоры BlueField-4 и Ethernet-коммутаторы Spectrum-6, а также созданные с помощью разработок одноимённого поглощённого стартапа процессоры Groq для ускорения инференса при работе с ИИ-агентами. В совокупности они работают, как ИИ-суперкомпьютер, как отмечается в материалах Nvidia для прессы на официальном сайте компании, позволяя ускорять создание профильных технологий на всех этапах жизненного цикла ИИ-систем. Основатель и глава Nvidia Дженсен Хуанг (Jensen Huang) заявил, что с выходом платформы Vera Rubin наступил переломный момент в развитии агентского ИИ, поскольку данная платформа будет способствовать самому масштабному развёртыванию инфраструктуры в истории. Руководители OpenAI и Anthropic прокомментировали анонс Vera Rubin в предсказуемо хвалебных выражениях, подчёркивая значение этого события для всей ИИ-отрасли. Разработчики ИИ-моделей теперь смогут совершенствовать их и делать это быстрее, чем на аппаратных решениях прошлого поколения. Структура ЦОД теперь строится на готовых модулях, как считают в Nvidia, которые содержат всё необходимое для эффективного масштабирования вычислительных мощностей с учётом постоянного роста сложности решаемых задач. Клиенты могут сочетать готовые модули ЦОД с учётом специфики своей деятельности. Например, в одной стойке Vera Rubin NVL72 находятся 72 графических процессора Rubin и 36 центральных процессоров Vera, соединённых скоростной шиной NVLink 6 и сетевыми контроллерами ConnectX-9 SuperNIC, а также специализированные процессоры BlueField-4, которые разгружают центральные процессоры от задач работы с сетевым трафиком. По сравнению с решениями поколения Blackwell новые системы Vera Rubin справляются с обучением сложных моделей силами в четыре раза меньшего количества GPU. Пропускная способность в пересчёте на ватт потребляемой энергии в задачах инференса у Vera Rubin до десяти раз выше, а затраты на один токен в десять раз ниже. В кластерах стойки NVL72 масштабируются при помощи Quantum-X800 InfiniBand и Spectrum-X Ethernet. Центральные процессоры Vera, по словам представителей Nvidia, хорошо себя проявляют в задачах обучения с подкреплением и агентских ИИ-нагрузках. Компания может объединять в одной стойке до 256 таких процессоров, оснащённых системой жидкостного охлаждения. С прочими компонентами кластера они могут сообщаться при помощи сетевых решений Spectrum-X. По сравнению с некими традиционными CPU, на которые ссылается Nvidia, её процессоры Vera могут справляться с ИИ-задачами на 50 % быстрее. ![]() Специализированные чипы Groq 3 LPX обеспечивают эффективную работу с агентскими ИИ-нагрузками при минимальных задержках. В сочетании с другими чипами, входящими в состав платформы Vera Rubin, они обеспечивают увеличение пропускной способности в задачах инференса до 35 раз на один мегаватт потребляемой мощности, а потенциал выручки при использовании моделей с триллионом параметров увеличивается в десять раз. В состав одной стойки входит 256 чипов LPU, 128 Гбайт интегрированной на них памяти SRAM, а пропускная способность достигает 640 Тбайт/с. В сочетании с прочими компонентами платформы Vera Rubin, чипы LPU достигают максимальной эффективности как по быстродействию, так и по энергопотреблению, а также использованию ресурсов памяти. Стойки LPX будут доступны клиентам Nvidia со второй половины текущего года. Стойка BlueField-4 STX специализируется на унификации адресного пространства GPU между элементами кластера. Обработка хранимой в кеше информации в операциях инференса ускоряется до пяти раз, при этом обеспечивается высокая энергоэффективность по сравнению с системами на классической архитектуре. Достигается общий для кластера контекст, обеспечивающий быстрое взаимодействие с ИИ-агентами и более эффективно масштабируемыми ИИ-сервисами. Отдельная стойка Spectrum-6 SPX отвечает за скоростной обмен данными по интерфейсу Ethernet. Она может содержать не только коммутаторы Spectrum-X Ethernet, но и коммутаторы Nvidia Quantum-X800 InfiniBand в зависимости от потребностей конкретной конфигурации. В исполнении с кремниевой фотоникой и интеграцией на уровне упаковки чипов эффективность передачи информации возрастает в пять раз, а надёжность по сравнению с традиционными подключаемыми решениями увеличивается в десять раз. «Не могу поверить, что это не первоапрельская шутка»: нейронный рендеринг в DLSS 5 оказался больше похож на ИИ-фильтр
17.03.2026 [08:42],
Михаил Романов
Анонсированное компанией Nvidia на конференции GTC 2026 интеллектуальное масштабирование DLSS 5 вызвало стойкое отторжение среди геймеров, ценящих художественный замысел своих любимых игр. По словам Nvidia, DLSS 5 использует модель нейронного рендеринга в реальном времени, которая насыщает игровые кадры фотореалистичным освещением и детализацией материалов. Несмотря на громкие обещания, дебютная демонстрация DLSS 5 на YouTube-канале Nvidia (см. видео ниже) собрала в четыре раза больше дизлайков, чем лайков — 48 тыс. негативных оценок на 11 тыс. положительных. Пользователи массово раскритиковали то, как DLSS 5 преображает изображение и, в частности, персонажей. Например, Грейс Эшкрофт из Resident Evil Requiem после инъекции DLSS 5 получила более пухлые губы и более выразительные скулы. Предполагается, что новый апскейлер Nvidia должен сделать героев более реалистичными, но выглядит, словно их обработал ИИ-фильтр. «Не могу поверить, что это не первоапрельская шутка», — удивляется azul1458. Сравнения от Nvidia
В комментариях к ролику Nvidia уверяет, что DLSS 5 предоставляет разработчикам полный художественный контроль над эффектами масштабирования, что позволяет им «сохранять уникальную эстетику своей игры». Релиз DLSS 5 ожидается осенью. Первыми играми с поддержкой технологии станут Resident Evil Requiem, Starfield, The Elder Scrolls IV: Oblivion Remastered, Assassin’s Creed Shadows, Hogwarts Legacy, Delta Force и Naraka: Bladepoint. Хуанг пообещал, что Nvidia заработает $1 трлн на ИИ-железе до конца 2027 года
17.03.2026 [04:50],
Алексей Разин
Подобные заявления формально больше подходят для квартальной отчётной конференции, но основатель Nvidia Дженсен Хуанг (Jensen Huang) на открытии мероприятия GTC 2026 не удержался от финансовых прогнозов. Он ожидает, что до конца 2027 года компания выручит на продажах «железа» для ИИ не менее $1 трлн.
Источник изображения: Nvidia «Я ожидаю, что до конца 2027 года продажи аппаратного обеспечения для ИИ обеспечат не менее $1 трлн», — заявил генеральный директор компании. Сейчас в мире попросту нет компаний, получающих подобную выручку за год, но прогноз Хуанга относится к периоду с 2025 по 2027 годы включительно, то есть, он охватывает три года сразу. Ближайшие к показателю годовой выручки в $1 трлн компании — это американский гигант розничной торговли Walmart ($681 млрд) и в чём-то родственная ей Amazon, которая одновременно выступает и в роли облачного гиганта ($638 млрд). Даже Apple в прошлом году выручила только $391 млрд, а это один из крупнейших поставщиков аппаратного обеспечения в мире, если считать смартфоны и прочую мобильную электронику. В прошлом фискальном году Nvidia выручила $215 млрд, но и это было существенным прогрессом по сравнению с предыдущим отчётным периодом, который обеспечил только $130,5 млрд годовой выручки. В текущем фискальном квартале Nvidia рассчитывает выручить $78 млрд. Чтобы достичь объёма выручки в $578 млрд по итогам 2028 фискального года (примерно совпадает с 2027 календарным), Nvidia должна сохранить средний темп увеличения выручки в 164 % за год. Если же ориентироваться на годовую выручку в $1 трлн, то Nvidia при условии сохранения ИИ-бума выйдет на такой показатель примерно к 2030 году, по мнению некоторых аналитиков. Важно понимать, что высокие темпы роста выручки Nvidia также обеспечиваются и ростом средних цен на её ускорители вычислений. Они становятся производительнее и сложнее в компоновке, а потому дорожают опережающими темпами. Кроме того, высокий спрос также подогревает реальные рыночные цены, хотя в этом случае не вся добавленная стоимость оседает в карманах самой Nvidia. Физически не все партнёры Nvidia способны выпускать столько компонентов, чтобы покрыть её потребности в полной мере. Помимо TSMC, сдержанных темпов увеличения объёмов выпуска продукции придерживаются и производители памяти. По крайней мере, за спросом все они сейчас точно не успевают. Этот фактор также будет определять темпы роста выручки Nvidia. «Космические вычисления уже здесь»: Nvidia представила модуль Space-1 Vera Rubin для орбитальных ИИ-серверов
17.03.2026 [00:33],
Николай Хижняк
Генеральный директор Nvidia Дженсен Хуанг (Jensen Huang) анонсировал на конференции GTC 2026 космический модуль Nvidia Space-1 Vera Rubin Module. По словам Хуанга, модуль обеспечивает до 25 раз большую вычислительную мощность для задач искусственного интеллекта, чем сервер с ускорителями H100.
Источник изображения: Nvidia По словам Nvidia, в настоящее время шесть коммерческих космических компаний используют её платформы в орбитальной и наземной средах: Aetherflux, Axiom Space, Kepler Communications, Planet Labs PBC, Sophia Space и Starcloud. При этом Kepler использует в своей спутниковой группировке платформу Jetson Orin для управления данными с помощью ИИ. «Nvidia Jetson Orin внедряет передовые технологии ИИ непосредственно на наши спутники, позволяя нам интеллектуально управлять данными и маршрутизировать их по всей нашей группировке», — заявила Мина Митри (Mina Mitry), генеральный директор компании, в официальном пресс-релизе Nvidia. В октябре прошлого года основатель Amazon и Blue Origin Джефф Безос (Jeff Bezos) предсказал, что орбитальные центры обработки данных гигаваттного уровня появятся через 10–20 лет. В качестве основных преимуществ таких платформ он назвал непрерывное солнечное электроснабжение и упрощённую систему охлаждения в космосе. Starcloud, один из шести партнёров Nvidia, уже строит, как он сам описывает, специально разработанные орбитальные центры обработки данных, предназначенные для выполнения задач обучения моделей ИИ и вывода данных на орбите. «Космические вычисления, последний рубеж, уже здесь», — сказал Дженсен Хуанг, добавив, что «обработка данных с помощью ИИ в космических и наземных системах обеспечивает сбор данных в реальном времени, принятие решений и автономность, превращая орбитальные центры обработки данных в инструменты исследований, а космические аппараты — в системы с автономным управлением». Глава Nvidia не сказал, когда космический модуль Vera Rubin станет доступен для развёртывания. Компания уже предлагает в качестве космических платформ IGX Thor, Jetson Orin и RTX Pro 6000 Blackwell Server Edition. Nvidia ударила по Intel и AMD: представлены серверные 88-ядерные CPU Vera, которые сгодятся не только для ИИ
17.03.2026 [00:23],
Андрей Созинов
Nvidia на конференции GTC 2026 раскрыла подробности о серверных центральных процессорах Vera, оснащённых 88 вычислительными ядрами. Компания заявляет о резком росте производительности благодаря новым ядрам Olympus. Одновременно была представлена стоечная система Vera CPU Rack с 256 процессорами, которая, по оценке Nvidia, обеспечивает шестикратный рост CPU-производительности и двукратное ускорение задач агентного ИИ.
Источник изображений: Nvidia Процессор Vera получил 88 вычислительных ядер и 176 потоков, тогда как у первого поколения Grace было 72 ядра. Компания Nvidia заявляет о росте количества исполняемых инструкций за такт (IPC) сразу на 50 %, что является необычно крупным скачком для современной процессорной архитектуры, где прирост от поколения к поколению обычно ограничивается однозначными или небольшими двузначными процентами. Всё дело в том, что если в Grace применялись стандартные ядра Arm Neoverse, то в Vera используются новые ядра Olympus, которые описываются как разработанные Nvidia, что указывает на серьёзные модификации базового дизайна Arm. За основу взята современная архитектура Arm v9.2-A. Одной из ключевых особенностей стала технология пространственной многопоточности (Spatial Multi-Threading). В отличие от традиционного SMT, где потоки поочерёдно используют ресурсы ядра, здесь ключевые элементы конвейера — исполнительные блоки, кеши и регистровые файлы — физически изолированы между потоками. Благодаря этому оба потока могут фактически выполняться одновременно, что повышает параллелизм инструкций, увеличивает пропускную способность и делает производительность более предсказуемой, поскольку простаивающие исполнительные блоки могут немедленно задействовать инструкции из другого потока. Подобная схема особенно полезна в средах с большим количеством независимых пользователей и виртуальных окружений. Все 88 ядер объединены в единый вычислительный домен без NUMA-разделения, характерного для современных многоядерных x86-процессоров. Это должно уменьшить задержки доступа к памяти, повысить предсказуемость работы системы и упростить программирование. Для организации взаимодействия между ядрами используется новое поколение фирменной шины Nvidia Scalable Coherency Fabric с сеточной или ячеистой топологией (mesh). Оно основано на когерентной сетевой архитектуре Arm CMN-700, применявшейся в Grace, однако, вероятно, использует более современную реализацию CMN S3 или её модификацию. Сеточная структура обеспечивает высокую суммарную пропускную способность памяти и позволяет эффективно распределять ресурсы между ядрами. В процессорах Grace общая пропускная способность памяти составляла 546 Гбайт/с, что соответствовало примерно 7,6 Гбайт/с на ядро. В Vera этот показатель вырос более чем вдвое — до 1,2 Тбайт/с, которые обеспечиваются 1,5 Тбайт памяти LPDDR5 в модулях SOCAMM. Ёмкость памяти увеличилась втрое, а средняя пропускная способность на ядро при полной загрузке достигает 13,6 Гбайт/с. При неравномерной нагрузке отдельное ядро может получать до 80 Гбайт/с, что особенно важно для потоков с интенсивным доступом к памяти. Архитектура также включает десятиканальный блок декодирования инструкций, нейросетевой предсказатель ветвлений, специализированный механизм предварительной выборки для анализа графовых баз данных и буфер инструкций, оптимизированный под PyTorch. Процессор поддерживает технологию Confidential Computing, что позволяет создавать полностью защищённые вычислительные домены CPU и GPU. Для связи между кристаллами используется интерфейс NVLink-C2C с пропускной способностью до 1,8 Тбайт/с — вдвое больше, чем у Grace, и примерно в семь раз быстрее, чем у PCI Express 6.0. Процессоры также поддерживают двухсокетные конфигурации и современные стандарты для дата-центров, включая PCIe 6.0 и CXL 3.1. ![]() Помимо самих процессоров Nvidia представила стоечную систему Vera CPU Rack. Если ранее процессоры Grace выступали как дополнение к ускорителям вычислений на базе GPU, то теперь Nvidia намерена предложить Vera и как самостоятельный продукт в системах, ориентированных на CPU-вычисления и другие задачи. В одной такой стойке размещается 256 процессоров Vera с жидкостным охлаждением, а также 74 сетевых процессора BlueField-4 DPU и сетевые адаптеры ConnectX SuperNIC. Общий объём памяти достигает 400 Тбайт LPDDR5, а суммарная пропускная способность памяти — 300 Тбайт/с. В системе насчитывается 45 056 потоков, которые, по словам Nvidia, способны поддерживать до 22 500 изолированных CPU-окружений. Компания продемонстрировала результаты тестов в широком наборе задач, включая скриптовые нагрузки, компиляцию, анализ данных, графовую аналитику и HPC-вычисления. По сравнению с Grace прирост производительности составляет от 1,8 до 2,2 раза в зависимости от типа нагрузки. ![]() Ожидается, что системы Vera CPU Rack появятся в инфраструктуре Meta✴✴, а также Nvidia планирует поставлять их и другим гиперскейлерам, включая Oracle, CoreWeave, Nebius и Alibaba. Помимо стоечных систем широкий круг производителей серверного оборудования предложит собственные решения на базе Vera. Среди партнёров Nvidia названы Dell, HPE, Lenovo, Supermicro, Foxconn и другие крупные OEM- и ODM-компании. Процессоры Vera также станут частью систем Nvidia HGX NVL8. Особое значение новые CPU имеют для платформы Vera Rubin — комплексного решения Nvidia следующего поколения. Она включает сразу несколько типов компонентов: графический процессор Rubin, коммутатор NVLink6 для межсоединений на уровне стойки, сетевой адаптер ConnectX-9 SuperNIC, сетевой процессор BlueField-4 DPU, оптический коммутатор Spectrum-X 102.4T с интегрированными оптическими модулями и ускорители Groq 3 LPU. Новые чипы Vera ориентированы как на задачи искусственного интеллекта, так и на более универсальные вычислительные нагрузки, хотя основной упор сделан именно на ИИ. Таким образом, с выпуском Vera компания Nvidia усиливает позиции на рынке серверных центральных процессоров, где доминируют Intel и AMD, а также навязывает конкуренцию многочисленным кастомным Arm-чипам. По словам Nvidia, процессоры Vera уже запущены в массовое производство, а первые поставки партнёрам начнутся во второй половине текущего года. Nvidia анонсировала DLSS 5 с нейронным рендерингом — ИИ добавит фотореализм в каждую игру уже осенью
16.03.2026 [22:40],
Николай Хижняк
Глава компании Nvidia Дженсен Хуанг (Jensen Huang) анонсировал на конференции GTC 2026 технологию DLSS 5. Новая версия апскейлера знаменует переход от функций, ориентированных на повышение производительности, к генерации изображений для повышения визуального качества. Выпуск технологии планируется осенью этого года.
Источник изображений: Nvidia Компания заявляет, что новая версия DLSS использует модель нейронного рендеринга в реальном времени, которая добавляет фотореалистичное освещение и детализацию материалов к игровым кадрам. По данным Nvidia, DLSS 5 берёт данные о цвете и векторах движения из каждого игрового кадра, а затем применяет модель искусственного интеллекта, которая улучшает освещение и отклик материалов, оставаясь при этом привязанной к исходной 3D-сцене. Компания заявляет, что система работает в реальном времени с разрешением до 4K и разработана для обеспечения детерминированного и согласованного вывода от кадра к кадру, что является ключевым требованием для игр. DLSS 5 позиционируется как обновление визуального конвейера, а не как ещё один этап генерации кадров. Nvidia заявляет, что модель обучена понимать элементы сцены, такие как кожа, волосы, ткань и условия освещения, а затем использовать эту информацию для улучшения эффектов, таких как подповерхностное рассеивание, блеск ткани и взаимодействие света с волосами. Разработчики также получат элементы управления интенсивностью, цветокоррекцией и маскированием, а интеграция будет продолжаться через существующую структуру Nvidia Streamline, используемую для DLSS и Reflex. Поддержка DLSS 5 уже согласована с несколькими крупными издателями и студиями, включая Bethesda, Capcom, Ubisoft, NetEase, Tencent и Warner Bros. Games. Первыми играми, которые предложат поддержку DLSS 5, станут: Starfield, Assassin’s Creed Shadows, Hogwarts Legacy, Resident Evil Requiem, Delta Force, Naraka: Bladepoint и The Elder Scrolls IV: Oblivion Remastered. По данным Digital Foundry, Nvidia использовала две видеокарты RTX 5090 для демонстрации работы технологии. Однако релизная версия DLSS 5 потребует только одну карту RTX. «Компания Nvidia использовала две видеокарты RTX 5090 для своих демонстраций: одна запускала игру, а другая работала исключительно с технологией DLSS 5. Использование двух GPU сейчас необходимо, поскольку DLSS 5 ещё предстоит пройти долгий путь в плане оптимизации — как с точки зрения производительности, так и с точки зрения объёма использующейся видеопамяти. Однако DLSS 5 разработана для использования на одном графическом процессоре, и именно в таком режиме она будет выпущена позже в этом году. Насколько масштабируемой она окажется, также ещё предстоит выяснить, но, как и в случае с другими технологиями DLSS, Nvidia сообщает, что вычислительные затраты увеличиваются с разрешением», — говорит Digital Foundry. Nvidia пока не сообщает, какие графические архитектуры получат поддержку DLSS 5. MSI рассказала, кто виноват в дефиците видеокарт, и предупредила о росте цен на игровое железо на 15–30 %
16.03.2026 [16:35],
Николай Хижняк
Компания MSI готовится повысить цены на свою линейку игровой продукции на 15–30 %. Об этом сообщил ресурс Money UDN, ссылающийся на заявления руководства тайваньского производителя компьютерных комплектующих, прозвучавшие на последнем брифинге для инвесторов. В отчёте говорится, что компания ожидает, что более высокие средние цены продаж компенсируют снижение объёмов поставок в этом году.
Источник изображения: MSI Руководство MSI назвало 2026 год самым сложным годом в истории компании, указав на серьёзный дефицит памяти, рост цен на SSD и дефицит поставок игровых видеокарт Nvidia, который, по оценкам, составит около 20 %. Компания ожидает, что рынок ПК сократится на 10–20 %, что хуже прогнозов некоторых аналитиков, которые ожидают сокращения рынка примерно на 10 %. «Этот год стал самым сложным для компании с момента её основания. Индустрия ПК сталкивается с серьёзными проблемами, главным образом из-за острой нехватки памяти. Помимо Micron, SK hynix и Samsung, MSI также имеет долгосрочные партнёрские отношения с тайваньскими поставщиками, такими как Nanya Technology (2408). Поставки графических процессоров Nvidia также недостаточны, дефицит оценивается в 20 %. В результате, по оценкам, рынок ПК сократится на 10–20 %, что более серьёзно, чем прогнозируемое исследовательскими компаниями снижение на 10 %», — сообщили в MSI. Для защиты прибыли MSI планирует сократить производство моделей начального уровня и перенаправить больше ресурсов на выпуск более дорогих продуктов. По данным Money UDN, ранее модели начального уровня составляли около 30 % от общего объёма продаж MSI, а теперь компания хочет больше сосредоточиться на продуктах среднего и высокого ценового сегмента, в частности на моделях RTX 5060 и RTX 5070. MSI также заявила о корректировке некоторых планов по выпуску материнских плат с поддержкой памяти DDR4 из-за резкого изменения цен на чипы памяти. Согласно отчёту, цена 16 Гбайт памяти во втором квартале прошлого года составляла около $40, а сейчас выросла примерно до $170–180, при этом некоторые предложения достигают $200. Компания также сообщила, что цена 16 Гбайт памяти DDR4 составляет около $110–120, что подталкивает производителя к большей поддержке DDR4. Компания добавила, что у неё есть запас памяти, достаточный примерно на один-два месяца, и она не планирует гнаться за объёмом продаж в нижнем ценовом сегменте. В то же время, и это очевидно, MSI уделяет больше внимания своему серверному бизнесу, где она нацелена на ежегодный рост выручки на 50–100 % в течение следующих трёх–пяти лет. Власти США передумали продавать ИИ-чипы только в те страны, которые строят ЦОД в США
14.03.2026 [07:22],
Алексей Разин
На прошлой неделе появилась информация о намерениях властей США предоставить право закупок ускорителей вычислений американского происхождения только тем зарубежным компаниям и странам, которые готовы развивать собственно американскую вычислительную инфраструктуру. На днях стало известно, что инициатива не получила поддержки.
Источник изображения: Nvidia Об этом сообщает Reuters, отмечая, что проект профильного документа был удалён с сайта Управления по вопросам информации и регулирования США в эту пятницу. Он находится на этом ресурсе с 26 февраля, ожидая дальнейшего рассмотрения заинтересованными инстанциями. При помощи новой редакции правил экспортного контроля власти США намеревались заменить принципы, которыми они руководствовались ещё со времён президентства Байдена, поскольку считали, что они требуют упрощения и реформирования. Предполагалось, что желающие получить более 200 000 американских ускорителей за раз страны должны будут либо предоставить гарантии их безопасного для США использования, либо гарантировать инвестиции в американскую вычислительную инфраструктуру. Даже если частная компания собиралась бы приобрести партию размером до 100 000 ускорителей, это потребовало бы предоставления межправительственных гарантий на уровне двух стран. При Байдене экспортный контроль в данной сфере делил страны на три категории по критерию близости к политическому курсу США, причём самая близкая группа стран была достаточно малочисленной, но могла получать ускорители почти без ограничений. Ещё одна малочисленная группа стран типа Китая и России американские передовые ускорители получать не могла, а все остальные государства могли получать ускорители из США при условии соблюдения определённых ограничений. Источник из числа бывших чиновников пояснил Reuters, что снятие чернового варианта новых правил экспортного контроля с обсуждения может быть результатом возникших в администрации Трампа противоречий. Министерство торговли США ранее отмечало, что использованный в сделках с Саудовской Аравией и ОАЭ подход к разрешению поставок ускорителей из США в эти страны мог бы лечь в основу новых правил экспортного контроля. Указанные ближневосточные страны в обмен на поставки ускорителей из США согласились вложиться в строительство профильной инфраструктуры и на территории США. Министерство торговли страны не желает возвращаться к прежним принципам контроля, которые были выработаны при Байдене, поскольку считает их обременительными. Nvidia пообещала ускорить «в миллион раз» трассировку лучей и путей в будущих GPU
13.03.2026 [23:16],
Николай Хижняк
Несмотря на растущую конкуренцию со стороны Intel и AMD, линейка видеокарт RTX от Nvidia объективно остаётся лучшим оборудованием для работы технологий трассировки лучей и трассировки путей в играх. Начиная с архитектуры Turing и серии RTX 20, компания добилась значительных успехов (в основном за счёт использования ИИ и нейронного рендеринга) в повышении графической детализации без ущерба для производительности. На конференции GDC 2026 Nvidia заявила, что будущее сулит ещё более впечатляющие достижения.
Источник изображения: Future / CD Projekt Red, Remedy Entertainment, Microsoft На презентации Nvidia Джон Спитцер (John Spitzer), вице-президент Nvidia по разработке и производительности, представил линейный график, отображающий прогресс роста производительности трассировки лучей и трассировки путей в игровых графических процессорах Nvidia. В левом углу графика находится архитектура Pascal, в рамках которой выпускалась легендарная серия видеокарт GTX 1000, выпущенная десять лет назад. Сравнивая её с сегодняшними графическими процессорами Blackwell (RTX 50), можно заметить, что производительность трассировки путей улучшилась в 10 000 раз.
Источник изображения здесь и ниже: Nvidia Во многом этот прогресс обусловлен акцентом на аппаратное ускорение нейронной графики, которое обеспечивается выделенными RT- и тензорными ядрами, работающими с алгоритмами машинного обучения внутри графических процессоров Nvidia. Такие функции, как DLSS, полностью зависят от ИИ. Возможность более точного объединения данных кадров — как в задачах масштабирования изображения, так и при генерации кадров — возможна только благодаря ИИ-моделям, обученным на суперкомпьютерах Nvidia. По словам Спитцера, закон Мура мёртв, поэтому одних только достижений в области аппаратных кремниевых технологий уже недостаточно для создания фотореалистичных изображений — по крайней мере, не на его веку. Nvidia хочет достичь уровня графической детализации, неотличимого от реальной жизни, но для этого потребуется «в сто или тысячу раз большая вычислительная мощность». И именно здесь ИИ становится катализатором. В будущем достижения в области ИИ позволят игровым графическим процессорам достичь в 1 000 000 раз большей производительности трассировки лучей по сравнению с серией GTX 1000. Более новые, быстрые и эффективные аппаратные блоки, по сути, сделают нейронный рендеринг стандартом в будущем, о чём ранее уже заявлял глава Nvidia Дженсен Хуанг (Jensen Huang). Игры будут «выглядеть как фильм», при этом работая плавно благодаря интерполяции множества кадров в реальном времени с помощью ИИ. Всё это не является откровением. Прогресс в игровой графике неизбежен. Есть вероятность, что ожидание этих изменений может оказаться недолгим. Графические процессоры Rubin следующего поколения от Nvidia, запуск которых запланирован на период с 2027 по 2028 год, могут приблизить эту реальность с трассировкой лучей, улучшенной в миллион раз. Список игр, поддерживающих трассировку лучей, быстро растёт. В рамках презентации Спитцер отметил, что одной из последних игр с её поддержкой стала Resident Evil Requiem. Поддержку технологии получат также будущие релизы Pragmata, 007 First Light, Control Resonant, Directive 8020 и Tides of Annihilation. В рамках презентации Спитцер также рассказал о новых технологиях трассировки лучей, таких как ReSTIR (современные алгоритмы пространственно-временной передискретизации) и RTX Mega Geometry. Для их демонстрации Nvidia представила техническое демо игры Witcher IV, сцена из которой содержала более двух триллионов треугольников (полигонов), одновременно отображающих реалистичную растительность и освещение. Microsoft, Meta✴ и OpenAI объединились с AMD и Nvidia для создания быстрого оптического интерконнекта для ИИ-мегакластеров
13.03.2026 [18:28],
Сергей Сурабекянц
Облачные провайдеры Microsoft, Meta✴✴ и OpenAI объединились с разработчиками оборудования AMD, Broadcom и Nvidia для разработки протокольно-независимой технологии масштабируемого межсоединения для кластеров ИИ. Новое соглашение о сотрудничестве (Multi-Source Agreement, MSA) определит универсальную волоконно-оптическую инфраструктуру для масштабируемых межсоединений на коротких расстояниях для кластеров ИИ.
Источник изображений: unsplash.com В телекоммуникационной отрасли MSA — это соглашение о выпуске продуктов, совместимых между различными поставщиками, выступающее в качестве де-факто стандартов и создающее конкурентный рынок для совместимых продуктов. Спецификация, разработанная MSA, определяет форм-факторы устройств и их интерфейс управления. К продуктам, соответствующим MSA, относятся: оптические трансиверы, волоконно-оптические кабели и другие сетевые устройства. MSA в области оптических вычислительных межсоединений (Optical Compute Interconnect, OCI) должно определить открытую спецификацию оптической связи для масштабируемых межсоединений, используемых внутри крупных систем и стоек ИИ, что позволит использовать оптические кабели вместо медных для подключения большего количества ускорителей на высокой скорости и с предсказуемым энергопотреблением. На практике это означает, что консорциум разработает общий физический уровень (Physical Layer, PHY) и унифицированные компоненты для поддержки различных протоколов, таких как UALink для AMD и Broadcom, и NVLink для Nvidia. Технология связи OCI для оптических каналов малой дальности, используемых в стойках ИИ и масштабируемых кластерах, определит общий PHY на основе сигнализации NRZ и мультиплексирования с разделением по длинам волн (Wavelength-Division Multiplexing, WDM), начиная с четырёх длин волн × 50 Гбит/с (200 Гбит/с в каждом направлении) с возможностью масштабирования до 800 Гбит/с на волокно. Ожидается, что со временем количество длин волн будет увеличено, а скорость передачи сигналов возрастёт до 3,2 Тбит/с на волокно. Технология будет поддерживать подключаемые оптические модули, встроенную оптику и интегрированную оптику (Co-Packaged Optics, CPO) непосредственно с вычислительными микросхемами. ![]() Общий PHY позволит различным процессорам и протоколам межсоединений работать на одной и той же волоконно-оптической инфраструктуре и коммутаторах от разных поставщиков, обеспечивая гибкость для крупных компаний, сохраняя при этом конкурентные преимущества протоколов, используемых разработчиками ускорителей ИИ и графических процессоров. Стандартизированная дорожная карта OCI призвана упростить системную интеграцию, снизить риски разработки и сократить циклы развёртывания для новых поколений оборудования ИИ. Хотя группу OCI MSA возглавляют AMD, Broadcom и Microsoft, известные сторонники открытых отраслевых стандартов, это явно не традиционный орган по стандартизации, такой как консорциумы Ultra Ethernet или UALink, что должно заметно повлиять на развитие технологии и ускорить её внедрение:
![]() «Растущая потребность в масштабируемых оптических межсоединениях для поддержки крупных систем ИИ в конце этого десятилетия очевидна, — уверен старший вице-президент по технологиям и инженерии AMD Брайан Амик (Brian Amick). — AMD является одним из основателей и активным сторонником OCI MSA, поскольку она устанавливает открытую спецификацию для отрасли, способствующую развитию надёжной многовендорной экосистемы масштабируемых оптических межсоединений». «Компания Broadcom гордится тем, что использует свою платформу CPO и отраслевые партнёрства для продвижения спецификации OCI, — заявил вице-президент и генеральный директор подразделения оптических систем Broadcom Нир Маргалит (Near Margalit). — OCI-MSA обеспечивает бесшовную интеграцию с существующими электрическими ASIC на базе SerDes, предоставляя при этом чёткий путь к прямой интеграции ASIC, гарантируя, что экосистема останется гибкой и высокопроизводительной». «Nvidia является одним из основателей OCI MSA, призванного установить общий оптический стандарт для глобальных инфраструктур ИИ, — отметил старший вице-президент по сетевым технологиям Nvidia Гилад Шайнер (Gilad Shainer). — Оснастив лучшие в своём классе вычислительные мощности передовой оптикой, OCI MSA может обеспечить масштабируемость и производительность, необходимые для следующей эры сверхинтеллекта». Microsoft, Intel и Nvidia взялись решить две главные проблемы ПК-игр
13.03.2026 [18:16],
Сергей Сурабекянц
Microsoft в партнёрстве с Intel и Nvidia работает над двумя новыми функциями DirectX, направленными на решение проблем, с которыми постоянно сталкиваются геймеры на ПК. Одна из них касается более эффективного запуска функций ИИ внутри игр. Другая — сокращения задержек компиляции шейдеров и длительного времени первой загрузки. В настоящее время Microsoft готовит инструменты DirectX Linear Algebra и DirectX Compute Graph Compiler, которые должны стандартизировать и упростить разработчикам запуск задач ИИ через DirectX вместо использования отдельных методов, специфичных для конкретного поставщика. Эти инструменты будут востребованы для нейронного рендеринга, масштабирования при помощи ИИ, текстурирования и других эффектов. Intel сотрудничает с Microsoft в области поддержки линейной алгебры DirectX, а Nvidia — в стандартизации аппаратного ускорения ИИ через DirectX. Идея заключается в уменьшении дополнительных накладных расходов, возникающих при перераспределении рабочих нагрузок ИИ между различными частями конвейера GPU. Проще говоря, Microsoft добивается прозрачной интеграции ИИ в обычный игровой процесс, что, по мнению компании, должно упростить разработку игр и повысить их производительность. Intel уже сообщила «о поддержке всех последних достижений в экосистеме Windows», включая:
Другой частью сотрудничества является технология Advanced Shader Delivery (ASD). Это новый подход Microsoft к компиляции шейдеров: теперь предварительно скомпилированные шейдеры поставляются вместе с игрой, вместо того чтобы компилироваться при запуске. Это должно снизить задержки при первом запуске игры или при входе в новую локацию. Intel заявила о поддержке ASD в процессорах Lunar Lake и Panther Lake, а Nvidia планирует добавить её для графических процессоров GeForce RTX в конце года. ByteDance нашла обход санкций США — её ИИ будет работать на Nvidia B200 в Малайзии
13.03.2026 [11:25],
Алексей Разин
Для китайских разработчиков ИИ геополитическая ситуация неприятна тем, что передовые американские ускорители им запрещают импортировать не только США, но и власти КНР, а на внутреннем рынке альтернатив им по быстродействию нет. В таких условиях ByteDance намерена эксплуатировать построенный в Малайзии ЦОД, который будет оснащён ускорителями Nvidia B200 с архитектурой Blackwell.
Источник изображения: Nvidia Как отмечает The Wall Street Journal, в интересах ByteDance южноазиатская компания Aolani Cloud строит в Малайзии центр обработки данных, включающий 36 000 ускорителей Nvidia B200, которые нельзя импортировать на территорию КНР из-за американских санкций. В свою очередь, Aolani будет закупать серверные системы у Aivres, которая их производит. Первая из компаний официально входит в число привилегированных партнёров Nvidia, которые в первую очередь получают ускорители для развития ИИ-инфраструктуры. Основанная в 2023 году, Aolani входит в зарегистрированный на Каймановых островах холдинг. С февраля прошлого года она сдаёт в аренду ByteDance малазийские ЦОД на основе ускорителей Nvidia H100. Теперь китайский гигант надеется получить доступ к вычислительным мощностям на базе более современных B200 с архитектурой Blackwell, и для этого уже авансом перевела Aolani некоторую часть суммы, подразумевающей оплату сделки. Для оснащения нового ЦОД в Малайзии потребуется закупить оборудование на сумму $2,5 млрд, как минимум. Уже сейчас в строй введено аппаратное обеспечение на общую сумму около $100 млн. Aolani подчёркивает, что осуществляет свою деятельность в строгом соответствии с американскими правилами экспортного контроля. Компания собирается открыть вычислительные мощности в Южной Корее, Австралии и Европе. Самой ByteDance данная малазийская площадка потребуется для проведения разработок и исследований, а также обслуживания клиентов за пределами Китая. Уже сейчас владелец TikTok около четверти общей выручки получает на внешних рынках. Пять разработанных ByteDance приложений входят в число 50 наиболее популярных в мире по итогам января текущего года. Команды разработчиков ByteDance находятся не только в Китае, но и в Сингапуре и США, причём в последнем из государств штат специалистов китайской компании активно расширяется. Компания планирует использовать в своих целях серверные системы на базе более чем 7000 ускорителей Nvidia B200, которые расположены в Индонезии, так что Малайзия является не единственным местом концентрации обслуживающих её интересы ЦОД. Nvidia вложит в Nebius Аркадия Воложа $2 млрд для строительства дата-центров под нужды ИИ
12.03.2026 [09:38],
Алексей Разин
Известно, что после разделения активов основатель Yandex Аркадий Волож предпочёл сосредоточиться на развитии облачного бизнеса Nebius, который в условиях бума ИИ счёл весьма перспективным. Подобную точку зрения наверняка разделяет и руководство Nvidia, которое договорилось вложить $2 млрд в капитал Nebius.
Источник изображения: Nvidia При этом участие Nvidia в развитии Nebius не ограничится только финансовыми вливаниями, компания поможет облачному провайдеру в строительстве вычислительной инфраструктуры, управлении объектами, оптимизации ЦОД под инференс и разработке соответствующих объектов. Компания Воложа также получит ранний доступ к ускорителям Nvidia нового поколения. Акции Nebius Group на этих новостях выросли в цене на 16 %. К концу десятилетия Nebius рассчитывает ввести в строй ЦОД общей мощностью более 5 ГВт. По словам основателя Nvidia Дженсена Хуанга (Jensen Huang), компания Nebius свою инфраструктуру строит на аппаратных решениях Nvidia, включая самые современные из них. Акции самой Nvidia на информации об этой сделки тоже немного подорожали. Похоже, что $2 млрд становятся стандартной суммой, которую богатеющая в условиях бума ИИ готова вкладывать в стартапы. Буквально неделю назад она объявила о намерениях вложить по $2 млрд в Lumentum и Coherent, в декабре она направила $2 млрд в капитал разработчика систем проектирования чипов Synopsys, а в январе получила долю в CoreWeave за всё те же $2 млрд. На этой неделе Nvidia также договорилась о финансировании ИИ-стартапа Thinking Machines Lab Миры Мурати (Mira Murati) — бывшего технического директора OpenAI, которая в течение нескольких дней возглавляла данный стартап, пока Сэм Альтман (Sam Altman) был отстранён советом директоров от исполнения своих обязанностей. Разумеется, существуют ИИ-стартапы, в которые Nvidia готова вкладываться по-крупному. Во-первых, это OpenAI, в капитал которого компания Хуанга направила $30 млрд. Во-вторых, в конкурирующий Anthropic она готова вложить $10 млрд. Комментируя сделку с Nvidia, Аркадий Волож пояснил: «Nebius с самого первого дня была построена для ИИ — не адаптирована из облака общего назначения, а создана для того, в чём разработчики действительно нуждаются». При поддержке Nvidia она собирается вводить в строй вычислительные мощности для ИИ на многие гигаватты, став одним из крупнейших специализированных облачных провайдеров для разработчиков ИИ. Nvidia выпустила Nemotron 3 Super 120B — открытую LLM для ИИ-агентов с пятикратным приростом скорости
11.03.2026 [21:48],
Николай Хижняк
Компания Nvidia выпустила Nemotron 3 Super — открытую ИИ-модель Mixture-of-Experts (MoE) с поддержкой 120 млрд общих параметров и 12 млрд активных параметров, предназначенную для задач агентного ИИ. Модель использует гибридную архитектуру Mamba-Transformer.
Источник изображений: Nvidia По словам Nvidia, Nemotron 3 Super — это первая модель в серии Nemotron 3, которая объединяет парадигму LatentMoE, слои Multi-Token Prediction и предварительное обучение NVFP4. Компания заявляет, что этот стек повышает точность и ускоряет инференс, а гибридная архитектура Nemotron 3 Super обеспечивает до пяти раз более высокую пропускную способность и до двух раз более высокую точность по сравнению с предыдущей моделью Nemotron Super. Компания также отмечает поддержку контекстного окна в 1 млн токенов, что позволяет агентным ИИ сохранять в памяти полное состояние рабочего процесса и предотвращает отклонение от цели. Nemotron 3 Super подходит для решения сложных задач внутри многоагентной системы. Например, для генерации и отладки кода без сегментации документов, для финансового анализа, где можно загружать в память тысячи страниц отчётов. Модель была обучена на синтетических данных, сгенерированных с использованием моделей логического мышления. Nvidia публикует полную методологию, включая более 10 триллионов токенов наборов данных до и после обучения, 15 сред обучения для обучения с подкреплением и рецепты оценки. Исследователи могут дополнительно использовать платформу Nvidia NeMo для тонкой настройки модели или создания собственной. Nemotron 3 Super поддерживает работу на платформе Nvidia Blackwell в формате NVFP4. Это снижает требования к памяти и ускоряет вывод в четыре раза по сравнению с FP8 на Nvidia Hopper без потери точности. Модель уже доступна для использования. Доступ к Nemotron 3 Super можно получить через build.nvidia.com, Hugging Face, OpenRouter и Perplexity, а среди партнёров по облачным сервисам и инференсу указаны Google Cloud Vertex AI, Oracle Cloud Infrastructure, CoreWeave, Together AI, Baseten, Cloudflare, DeepInfra, Fireworks AI и Modal. Модель также представлена в виде микросервиса Nvidia NIM для развёртывания в локальной среде и облаке. |
|
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |