|
Опрос
|
реклама
Быстрый переход
Alibaba похвалилась выпуском 500 000 ИИ-ускорителей и признала, что они медленнее аналогов Nvidia
20.03.2026 [16:44],
Павел Котов
Руководство китайского технологического гиганта Alibaba подтвердило, что полупроводниковое подразделение компании произвело почти 500 000 чипов, в том числе для ускорителей искусственного интеллекта, но все они отстают от продукции Nvidia.
Источник изображения: alibabagroup.com Входящий в Alibaba производитель полупроводников T-Head недавно провёл конференцию по итогам III квартала 2026 финансового года, в ходе которой его гендиректор Ёнмин Ву (Yongming Wu) сообщил, что компания выпустила почти 470 000 чипов, в том числе трёх моделей, разработанных специально для рабочих нагрузок искусственного интеллекта: XuanTie C908, TH1520 и Pingtouge Zhenwu 810E. Это значит, что Alibaba действительно наладила мощное производство полупроводников — для сравнения, за год выпущены 6 млн чипов Nvidia Blackwell. Но одной только производственной мощностью всех задач решить не получится — китайские ИИ-ускорители от Alibaba T-Head уступают американской продукции, и в компании с этим не спорят. «Учитывая, что наши чипы всё ещё отстают от зарубежных аналогов по производительности в различных аспектах, мы стремимся углубить совместное проектирование с облачной инфраструктурой Alibaba и моделью Qwen для повышения эффективности. <..> Это одно из ключевых отличий и наш подход к проектированию чипов в T-Head, который выделяет нас среди прочих компаний — производителей чипов. Наша основная цель — создать систему ИИ с превосходным соотношением цены и качества», — отметил Ёнмин Ву. Nvidia раскрыла, как DLSS 5 «додумывает» картинку — только 2D-кадр и векторы движения
20.03.2026 [14:29],
Павел Котов
Сотрудник Nvidia Джейкоб Фридман (Jacob Freeman) в недавнем интервью пояснил, по какому принципу работает технология масштабирования с использованием искусственного интеллекта DLSS 5. В качестве исходных данных система принимает двухмерный отрисованный кадр и векторы движения.
Источник изображения: nvidia.com Таким образом, что Nvidia DLSS 5 вообще не берет в расчёт созданные разработчиками трёхмерную геометрию, глубину сцены или данные о материалах. Помимо 2D-изображения и секторов движения, лежащая в основе технологии масштабирования ИИ-модель понимает семантику сцены: идентифицирует волосы, ткань, кожу и условия освещения — и для анализа этих данных ей достаточно всего одного кадра. Она не считывает металличность, шероховатость, карты нормалей и другие основные свойства материалов, хотя по прежним описаниям Nvidia могло сложится впечатление, что DLSS 5 анализирует сцену более глубоко. Это объясняет, почему некоторые примеры работы технологии выглядят непредсказуемо: одном из них у персонажа появились волосы там, где в оригинале их не было; в другом у него вообще изменились черты лица. Хотя Nvidia настаивает, что «базовая геометрия не изменилась», а на демонстрации использовалась «очень ранняя предварительная версия технологии». Есть основания предположить, что у разработчиков довольно ограниченные средства управления DLSS 5. Они могут регулировать её интенсивность, цветокоррекцию, смешивание, контраст, насыщенность, гамму, а также применять маски для исключения указанных объектов из алгоритмов улучшения. Конкретных способов изменить коррекцию черт лица или исключить эффект макияжа разработчики тоже не могут — только уменьшить интенсивность эффекта, наложить маску или отключить алгоритм полностью. Лица же как таковые будут по-прежнему генерироваться ИИ. «Это не инопланетянин»: глава Nvidia призвал отрасль ИИ перестать пугать людей страшилками о технологии
20.03.2026 [09:45],
Алексей Разин
Затянувшаяся история с конфликтом Anthropic и Пентагона по поводу безопасного и этичного использования ИИ в военной сфере не оставила шансов основателю Nvidia Дженсену Хуангу (Jensen Huang) отмолчаться на эту тему. Он призвал руководителей компаний, создающих генеративный ИИ, не «пугать людей страшилками» по поводу последствий его использования.
Источник изображения: Nvidia «Желание предупредить людей о возможностях технологии — это потрясающе. Предупреждать — хорошо, пугать уже хуже, потому что эта технология очень важна для нас», — заявил глава Nvidia с трибуны конференции GTC 2026. По мнению Хуанга, для национальной безопасности США главным риском сейчас являются сами опасения по поводу того, что страна отстаёт от соперников в сфере освоения новых технологий. Даже с учётом отстранения Anthropic от выполнения оборонных контрактов в США, по мнению Хуанга, дела у этой компании в финансовом плане пойдут нормально. Он считает, что к 2030 году выручка Anthropic перевалит за $1 трлн. По его мнению, глава стартапа Дарио Амодеи (Dario Amodei) в своих собственных прогнозах на этот счёт излишне консервативен. Как добавил Хуанг, представителям отрасли следует меньше стращать окружающих по поводу угроз, исходящих от ИИ. «Это не что-то биологическое. Это не инопланетянин. У него нет сознания. Это компьютерная программа. Говорить довольно экстремальные вещи, довольно катастрофичные, для которых нет никаких предпосылок к реализации, — само по себе может приносить больше ущерба, чем думают люди», — пояснил Дженсен Хуанг. Он также призвал власти США не провоцировать Китай к захвату острова Тайвань, на котором сам родился и жил в детстве, пока родители не переехали в США, забрав с собой будущего основателя Nvidia. «Давайте демонстрировать сдержанность, никого ни к чему не подталкивать», — посоветовал глава Nvidia. При этом он призвал снизить концентрацию производства чипов на Тайване за счёт развития полупроводниковой промышленности не только в Южной Корее и Японии, но и в США. В последнем случае нужно действовать максимально быстро, как убеждён основатель Nvidia. Опыт Тайваня в сфере производства передовых чипов, по его словам, «заслуживает нашей дружбы и поддержки». До конца следующего года Amazon купит у Nvidia миллион чипов для ИИ
20.03.2026 [06:49],
Алексей Разин
Опасения некоторых инвесторов относительно назревания классического «пузыря» в сфере искусственного интеллекта то и дело разбиваются заявлениями о новых крупных сделках, демонстрирующих заинтересованность участников рынка в развитии профильной вычислительной инфраструктуры. Amazon до конца следующего года планирует закупить у Nvidia более 1 млн различных чипов для своей облачной инфраструктуры.
Источник изображения: Nvidia Об этом сообщило агентство Reuters со ссылкой на официальное заявление обеих компаний. Финансовая сторона сделки не раскрывается, но Amazon достаточно охотно говорит о том, какие именно чипы Nvidia понадобятся облачному подразделению компании AWS. Помимо 1 млн графических процессоров для ускорения работы систем ИИ, американский облачный гигант закупит у Nvidia полный спектр сопутствующих решений, представленных на этой неделе. По крайней мере, сетевые коммутаторы Spectrum и новые чипы Groq (LPU) для работы с инференсом этому клиенту Nvidia тоже понадобятся в больших количествах. Поставки начнутся в этом году и продолжатся до конца следующего, как минимум. Йен Бак (Ian Buck), вице-президент Nvidia по продуктам для гиперскейлеров и высокопроизводительным вычислениям, заявил следующее: «Инференс — это сложно, невероятно сложно. Чтобы быть лучшим в инференсе, требуется не один чип. Мы в действительности используем все семь чипов». В рамках указанной сделки Nvidia также поставит сетевое оборудование серий Connect X и Spectrum X в центры обработки данных AWS. Это особенно важно, поскольку исторически AWS использовала разработанные на заказ сетевые решения, а потому интеграция компонентов Nvidia потребует аналогичного индивидуального подхода. Как фен помог обойти санкции: топ-менеджеров Supermicro обвинили в контрабанде ИИ-чипов в Китай
20.03.2026 [04:57],
Алексей Разин
До сих пор все инциденты с подозрением американских регуляторов по поводу участия американских граждан в контрабандной поставке ИИ-ускорителей в Китай имели отношение к небольшим компаниям, но на днях обвинение было выдвинуто в адрес лиц, имеющих непосредственное отношение к руководству компании Supermicro.
Источник изображения: Super Micro Computer Как подчёркивает CNBC, обвинительное определение Офиса федерального прокурора США по Южному округу Нью-Йорка содержит упоминания о частных лицах, связанных с неким американским производителем серверного оборудования, но из фамилий и имён обвиняемых становится понятно, что речь идёт именно о Super Micro Computer. Упоминаемый в документе И Шянь Лио (Yih-Shyan Liaw) является сооснователем компании и действующим членом совета директоров. Руэй Цань Чан (Ruei-Tsan Chang) руководит продажами оборудования этой марки на Тайване, а Тин Вэй Сунь (Ting-Wei Sun) является представителем подрядчика Supermicro. По версии американских органов правопорядка, трое обвиняемых организовали нелегальный экспорт серверного оборудования с ускорителями Nvidia в Китай с использованием подставной компании в Юго-Восточной Азии, которая в документах значилась конечным получателем продукции. Ещё одна компания была задействована для переупаковки поставляемых грузов, чтобы скрыть факт их поставки в Китай. Сообщается, что обвиняемые подготовили тысячи неработающих поддельных серверов для проверок, а затем снова использовали эти же «пустышки» во время проверки Министерства торговли США. По словам прокуроров, перед этой проверкой участники схемы с помощью обычного строительного фена сняли и заново наклеили этикетки и наклейки с серийными номерами, после чего переупаковали поддельные серверы в коробки производителя. Обвиняемые, по версии следствия, оказывали давление на инспектирующие органы, а также пытались ввести в заблуждение представителя Министерства торговли США, которому была поручена дополнительная проверка поставок. Торговый представитель Supermicro на Тайване якобы участвовал в манипуляциях документами и пытался привлечь «нужного» аудитора к проверке. Следствие считает, что И Шянь Лио в конце 2024 года пытался организовать поставки ускорителей Nvidia B200 в Китай через подставную компанию. Следователи располагают фрагментами переписки представителя Supermicro с предполагаемыми соучастниками. В 2025 году он торопил поставщиков, стремясь отправить в Китай больше оборудования до вступления в силу новых официальных запретов. Из троих фигурантов дела двое уже арестованы, тайваньский представитель Sipermicro находится в розыске. Акции компании на фоне таких новостей упали в цене на 12 %. Kioxia представила серверный SSD Super High IOPS — он ускорит работу ИИ на чипах Nvidia
19.03.2026 [17:17],
Николай Хижняк
Nvidia и Kioxia работают над новой конструкцией твердотельных накопителей, которые обеспечат бесперебойную работу графических процессоров Nvidia для ИИ во время интенсивных задач обработки данных. Kioxia анонсировала накопитель E3.S CM9, позиционирующийся производителем как SSD со «сверхвысокой производительностью операций ввода-вывода в секунду» (Super High IOPS). Устройство предлагает ёмкость 25,6 Тбайт и способно перезаписывать данные три раза в день в течение всего гарантийного срока. Поставки образцов нового накопителя для оценки клиентами запланированы на конец 2026 года.
Источник изображения: Kioxia Новый формат SSD является частью стратегии Kioxia и Nvidia по внедрению чрезвычайно быстрых накопителей для графических процессоров ИИ. Серия CM9 использует технологию Kioxia XL-Flash, которая рассчитана на достижение более 10 млн операций ввода-вывода в секунду, что примерно в три–четыре раза превышает показатели традиционных SSD для центров обработки данных. Технология XL-Flash изготовлена с использованием флеш-памяти SLC NAND (самого быстрого доступного типа флеш-памяти), которая обеспечивает задержку чтения всего от 3 до 5 микросекунд. Для сравнения, традиционные SSD обычно имеют пиковую производительность от 3 до 4 млн операций ввода-вывода в секунду и задержки чтения в диапазоне от 40 до 100 микросекунд. Новые накопители Kioxia станут частью архитектуры Nvidia Storage-Next, в рамках которой серверы будут использовать эти накопители в сочетании с графическим процессором напрямую, обходя дополнительные задержки, возникающие при передаче данных через центральный процессор. Эта технология призвана компенсировать ограничения существующей памяти HBM, предоставляя графическим процессорам Nvidia для ИИ дополнительный слой кеш-памяти для хранения данных и поддержания работы ядер графического процессора на 100 % без простоев. Подход призван решить проблему масштабируемых моделей ИИ, размеры которых достигают триллионов параметров, а также контекстных окон, поддерживающих ввод миллионов токенов. Как отмечает портал Tom’s Hardware, впервые реализация этой технологии была продемонстрирована на конференции GTC 2026 на примере архитектуры хранения данных BlueField-4 STX. BlueField-4 использует оптимизированный для хранения данных DPU и сетевой адаптер ConnectX-9 SuperNIC, которые, по утверждению Nvidia, обеспечивают до пяти раз большую пропускную способность токена, в четыре раза более высокую энергоэффективность и вдвое большую скорость загрузки страниц по сравнению с традиционными архитектурами хранения данных на базе ЦП. Илон Маск заверил, что SpaceX AI и Tesla продолжат закупать много чипов Nvidia
19.03.2026 [08:27],
Алексей Разин
Активное обсуждение планов Tesla по выпуску своих ИИ-чипов на американских предприятиях Samsung Electronics, по всей видимости, вынудило генерального директора Илона Маска (Elon Musk) сделать важное замечание со страниц социальной сети X. По его словам, SpaceX AI и Tesla продолжат закупать чипы Nvidia в значительных количествах.
Источник изображения: SpaceX Характерно, что новая укрупнённая после объединения SpaceX и xAI компания Илона Маска впервые публично упоминается им под именем «SpaceX AI». Непосредственно стартапу xAI с прошлого года уже принадлежит социальная сеть X, ранее носившая имя Twitter. По сути, SpaceX AI теперь представлена и в аэрокосмической сфере, и в сегменте социальных сетей, и на рынке систем искусственного интеллекта. Илон Маск отдельно пояснил, что разрабатываемый компанией Tesla чип AI5 действительно может использоваться в центрах обработки данных для обучения больших языковых моделей, но первичным его предназначением станут периферийные ИИ-вычисления в составе человекоподобных роботов Optimus и беспилотных такси. В ближайшие несколько недель Маск намерен представить крупное обновление программного обеспечения FSD, отвечающего за автопилот в электромобилях Tesla. Напомним, что в конце этой недели Маск пообещал поделиться подробными данными о судьбе проекта гигантской фабрики по производству ИИ-чипов для нужд Tesla и смежных компаний, принадлежащих ему в той или иной степени. Миллиардер не раз отмечал, что оценивает потребности этих компаний в чипах высокими до степени, не позволяющей рассчитывать на удовлетворение спроса имеющимися контрактными производителями компонентов. Nvidia стала гигантом сетевого оборудования — за квартал она получает как Cisco за год
19.03.2026 [07:04],
Алексей Разин
Ведущую роль Nvidia в качестве поставщика ускорителей для инфраструктуры ИИ сложно оспаривать, но эксперты обращают внимание, что её бизнес по созданию сетевых решений с 2020 года заметно вырос, предлагая практически полный спектр компонентов и технологий, необходимых для построения центров обработки данных. Nvidia в денежном выражении даже затмила в этой сфере таких гигантов, как Cisco.
Источник изображения: Nvidia Представители Zacks Investment пояснили TechCrunch, что Nvidia в сетевом сегменте сейчас за квартал получает столько же выручки, сколько Cisco аккумулирует за целый год. Например, в прошлом квартале выручка Nvidia на направлении сетевых решений достигла $11 млрд, она в годовом сравнении выросла на 267 %, а по итогам всего прошлого фискального года компания выручила в сетевом сегменте более $31 млрд. Nvidia сейчас предлагает широкий спектр сетевых решений для создания инфраструктуры в центрах обработки данных. Интерфейс NVLink используется для скоростного обмена данными между компонентами вычислительных систем на базе компонентов Nvidia. Коммутаторы InfiniBand нужны для передачи информации внутри ЦОД, за Ethernet отвечают решения семейства Spectrum-X, а ещё Nvidia занимается кремниевой фотоникой с высокой степенью интеграции, которая позволяет наладить эффективную передачу данных по оптическим каналам связи. По сути, именно сетевое направление сейчас является вторым в структуре бизнеса Nvidia по величине выручки после ускорителей ИИ, оно также в три раза обходит традиционное для компании игровое. В основу этого бизнеса легли разработки израильской Mellanox, которая была основана в 1999 году, а через одиннадцать лет была поглощена Nvidia за умеренные по нынешним меркам $7 млрд. Тогда подобная сделка заложила основы для эффективного масштабирования бизнеса Nvidia в сегменте ЦОД, поскольку без скоростных интерфейсов развивать подобную инфраструктуру невозможно. Сейчас Nvidia продаёт комплексное решение, сочетающее ускорители вычислений и сетевые компоненты, причём реализацией этого оборудования занимаются её партнёры. На минувшей GTC 2026 компания представила несколько новых сетевых решений, которые вошли в состав платформы Vera Rubin. DLSS 5 шокировала даже сотрудников студий-партнёров Nvidia — разработчики узнали обо всём «одновременно с публикой»
18.03.2026 [21:08],
Дмитрий Рудь
Недавняя демонстрация возможностей интеллектуального масштабирования DLSS 5 на конференции GTC 2026 неприятно удивила не только игроков, но и, похоже, сотрудников студий-партнёров Nvidia. Как передаёт проверенный инсайдер Том Хендерсон (Tom Henderson) с портала Insider Gaming, художники и разработчики из Ubisoft и Capcom не знали о том, что их студии вовлечены в продвижение DLSS 5. «Мы узнали одновременно с публикой», — посетовал один из сотрудников Ubisoft в разговоре с Insider Gaming. Для работников Capcom партнёрство с Nvidia стало ещё большим шоком. По словам сотрудников, Capcom традиционно занимала крайне враждебную позицию по отношению к генеративному ИИ, в том числе при создании Resident Evil Requiem и ещё не анонсированных игр. Теперь некоторые работники Capcom переживают, что анонс DLSS 5 может ознаменовать смену ориентации японского издателя на генеративный ИИ и его внедрение в будущие игры. Ранее игроки раскритиковали DLSS 5 за то, как технология искажает визуальный стиль игр, заменяя его типовой «пластиковой» ИИ-картинкой. Гендиректор Nvidia Дженсен Хуанг (Jensen Huang) скептицизм геймеров не разделяет. Релиз DLSS 5 ожидается осенью. Первыми играми с поддержкой технологии станут Resident Evil Requiem, Starfield, The Elder Scrolls IV: Oblivion Remastered, Assassin’s Creed Shadows, Hogwarts Legacy, Delta Force и Naraka: Bladepoint. Nvidia раскрыла свежие планы — в 2027 году появится Rubin Ultra, а на 2028 год запланирована Feynman
18.03.2026 [14:15],
Павел Котов
Nvidia представила обновлённую дорожную карту оборудования для центров обработки данных. Компания подтвердила, что намерена ежегодно обновлять семейство графических процессоров для искусственного интеллекта и раз в несколько лет радикально менять архитектуру. Изменения коснутся и сопутствующего оборудования.
Источник изображений: Nvidia В 2026 году Nvidia намеревается выпустить новую платформу Vera Rubin на основе центральных процессоров Vera и графических процессоров Rubin. Ими дело, конечно, не ограничится: компания готовит предназначенный для инференса ускоритель (Language Processing Unit — LPU) Groq LP30, сетевой процессор (DPU) BlueField-4, коммутатор межсоединений NVLink 6, обновлённую сетевую инфраструктуру Ethernet Spectrum-X с интегрированной оптикой (CPO) и сетевой адаптер ConnectX 9 1600G SuperNIC. Платформа Vera Rubin интересна не только центральными и графическими процессорами, но и интеграцией LPU Groq в ассортимент оборудования Nvidia — вместо Rubin CPX, который в дорожной карте больше не упоминается. В 2027 году Nvidia наладит выпуск ИИ-ускорителей Rubin Ultra на основе четырёх вычислительных чиплетов и 1 Тбайт памяти HBM4E — они будут значительно быстрее Rubin, намеченных на этот год. Совместно с этими графическими процессорами будут использоваться блоки инференса Groq LP35, которые получат поддержку формата данных NVFP4, а значит, станут работать значительно быстрее. Ещё одним крупным нововведением станет стоечное решение Kyber NVL144, в состав которого войдут 144 ускорителя Rubin Ultra с коммутатором NVLink 7 — ожидается как минимум четырёхкратное повышение производительности по сравнению со стойками Oberon NVL72 на основе 72 ускорителей Blackwell. Если в следующем году Nvidia ускорит решения для ЦОД за счёт увеличения числа графических процессоров на стойку и развёртывания нового LPU с поддержкой NVFP4, то в 2028 году компания готовит радикально новую архитектуру. Она включает центральные процессоры Rosa (сокращённо от Rosalyn), графические процессоры Feynman, сетевые процессоры BlueField-5 и сетевые карты SuperNIC CX10 на инфраструктуре Ethernet Spectrum-X 7-го поколения. Стоечное решение обновится до Kyber CPO — масштабирование систем будет производиться не только за счёт медных кабелей, но и при помощи оптики. В графических процессорах Nvidia Feynman для ЦОД будет использоваться технология многослойной компоновки кристаллов, которая поможет по-новому масштабировать их производительность; с ними, вероятно, будет использоваться обновлённая высокоскоростная память C-HBM4E с повышенной пропускной способностью и объёмом более 1 Тбайт на графический процессор. Выход чипов Rosa будет означать, что компания ускорила переход к новому поколению центральных процессоров с четырёх лет до двух — такого темпа придерживаются признанные лидеры рынка в лице AMD и Intel. Наконец, Feynman впервые будет использовать коммутаторы NVLink с интегрированной оптикой. Они позволят увеличить число ускорителей в стойке формата Oberon до 576 — или до 1152 в стойке Kyber. Intel готовит мощности для упаковки будущих ИИ-чипов Nvidia Feynman
18.03.2026 [12:41],
Алексей Разин
В дни проведения GTC 2026 активизировалось обсуждение возможной причастности Intel к упаковке будущих ИИ-чипов Nvidia поколения Feynman. По имеющейся информации, как сообщает TrendForce со ссылкой на малайзийские и тайваньские источники, Intel готовится использовать свои мощности в Малайзии и технологию EMIB для привлечения заказов Nvidia.
Источник изображения: Intel Премьер-министр Малайзии Датук Сери Анвар (Datuk Seri Anwar) в социальных сетях признался, что глава Intel Лип-Бу Тан (Lip-Bu Tan), чья биография тоже связана с этой страной, поделился председателем правительства планами по расширению производственного комплекса в Малайзии. Он специализируется на тестировании и упаковке процессоров Intel для собственных нужд, но по мере освоения более прогрессивных технологий сможет предложить свои услуги и сторонним заказчикам. Как минимум часть новых производственных линий Intel в Малайзии будет выделена под упаковку чипов с использованием передовых технологий, по данным источников. Intel собирается наладить в Малайзии упаковку передовых чипов с использованием как технологии EMIB, так и Foveros. Первую из них также освоил партнёр компании — Amkor. По сравнению с технологией интеграции чипов на одну подложку, которую сейчас используют подрядчики Nvidia, альтернатива Intel под названием EMIB обеспечивает более низкие затраты без ущерба для характеристик конечной продукции. С помощью EMIB корпорация Intel готова размещать несколько чипов на подложке площадью 120 × 120 мм, включая не менее 12 стеков памяти HBM. Это заметно крупнее используемых сейчас Nvidia подложек типоразмера 100 × 100 мм. Более того, к 2028 году Intel рассчитывает увеличить размер подложки до 120 × 180 мм. В этом случае рядом с вычислительными решениями можно будет разместить уже 24 стека памяти HBM. Технология EMIB-T, которая осваивается Intel, позволит интегрировать на подложку микросхемы памяти поколения HBM4. Всё это формально позволяет Intel претендовать на получение заказов от Nvidia на упаковку будущих ИИ-чипов. Правда, этого заказчика может смутить наличие у Intel планов наладить выпуск собственных конкурентоспособных ускорителей ИИ. Кроме того, сложность описываемых технологий упаковки чипов порождает риски высокого уровня брака и дороговизны соответствующих услуг. Дженсен Хуанг назвал OpenClaw «следующим ChatGPT»
18.03.2026 [10:46],
Алексей Разин
Бум ИИ позволил Nvidia стать одной из крупнейших компаний по величине капитализации, во многом благодаря прозорливости основателя, который много лет назад начал ориентировать GPU на ускорение вычислений. К мнению Дженсена Хуанга (Jensen Huang) теперь прислушиваются многие, и недавно он заявил, что OpenClaw может стать «следующим ChatGPT».
Источник изображения: OpenClaw Как заявил генеральный директор Nvidia в интервью каналу CNBC, популярность приложения OpenClaw обусловлена тем, что меняется способ применения технологий искусственного интеллекта: люди переходят от поиска ответов на вопросы к конкретным действиям. «Теперь это крупнейший, самый популярный, самый успешный проект с открытым исходным кодом в истории человечества. Это определённо следующий ChatGPT», — охарактеризовал OpenClaw основатель Nvidia. OpenClaw является платформой для создания автономных ИИ-агентов, которые способны самостоятельно выполнять последовательность действий с минимальным участием человека. Nvidia достаточно быстро сориентировалась в отношении растущей популярности OpenClaw, предложив ориентированную на корпоративных клиентов версию агента по имени NemoClaw, которая использует специфику платформы Nvidia. Компания стремится сделать подобные решения безопасными, масштабируемыми и пригодными для использования в реальных условиях. Особое внимание уделяется безопасности использования подобных инструментов с открытым исходным кодом в той же корпоративной среде, например. Хуанг впечатлён возможностями таких агентов: «При помощи одной строчки кода вы можете создать своего собственного агента. После этого достаточно попросить его сделать всё, что вам необходимо». В качестве примера глава Nvidia привёл задачу по разработке дизайна кухни. Агент сперва изучает примеры чужих работ, затем знакомится со средствами дизайна, потом начинает предлагать варианты собственного авторства и непрерывно их совершенствует. Подобные решения, по мнению Хуанга, позволят людям совершенствовать свои профессиональные навыки: «Каждый плотник теперь станет архитектором. Каждый сантехник станет архитектором. Мы поднимем возможности каждого на новый уровень». «Они совершенно неправы»: глава Nvidia ответил игрокам на критику DLSS 5
18.03.2026 [10:34],
Дмитрий Рудь
Анонсированное на конференции GTC 2026 интеллектуальное масштабирование DLSS 5 вызвало резкую критику со стороны геймеров, однако гендиректор Nvidia Дженсен Хуанг (Jensen Huang) скептицизм игроков не разделяет. DLSS 5 использует модель нейронного рендеринга в реальном времени, которая насыщает кадры детализацией и фотореалистичным освещением. В глазах геймеров, однако, это преображение больше похоже на ИИ-фильтр. В частности, на данном этапе технология заменяет уникальный художественный стиль игр типовой «пластиковой» ИИ-картинкой с синтетическими лицами персонажей (DLSS 5 уже прозвали «бьютификатором»).
Грейс из Resident Evil Requiem после инъекции DLSS 5 получила более пухлые губы и более выразительные скулы Хуанг на встрече с прессой в рамках GTC 2026 по запросу портала Tom’s Hardware прокомментировал критику игроков в адрес DLSS 5: «Начнём с того, что они совершенно неправы». Как утверждает Хуанг, DLSS 5 объединяет контроль над геометрией, текстурами и всеми другими элементами игры с генеративным ИИ. Иными словами, это «не постобработка на уровне кадра, а генеративный контроль на уровне геометрии».
По словам Хуанга, разработчики получат полный художественный контроль над эффектами масштабирования в DLSS 5 «Всё это находится под контролем — прямым контролем — разработчика игры. Это не просто генеративный ИИ, а генеративный ИИ с контролем контента. Поэтому мы называем его нейронным рендерингом», — объяснил Хуанг. Релиз DLSS 5 ожидается осенью. Первыми играми с поддержкой технологии станут Resident Evil Requiem, Starfield, The Elder Scrolls IV: Oblivion Remastered, Assassin’s Creed Shadows, Hogwarts Legacy, Delta Force и Naraka: Bladepoint. Nvidia возобновила выпуск ускорителей H200, поскольку власти Китая дали добро на их импорт
18.03.2026 [07:35],
Алексей Разин
Как известно, власти США ещё с конца прошлого года пытаются создать условия для поставок ускорителей Nvidia H200 в Китай, но в силу ряда причин непосредственно поставки пока не осуществлялись. Основатель компании Дженсен Хуанг (Jensen Huang) вчера заявил, что Nvidia возобновила выпуск H200 с целью их поставки в Китай, поскольку необходимые экспортные лицензии были получены.
Источник изображения: Nvidia Считается, что выпуск H200 был приостановлен в прошлом году, поскольку за пределами Китая эти ускорители с не самой передовой архитектурой Hopper не так востребованы, а поставлять их в Китай компания на тот момент не могла. К настоящему времени Nvidia не только получила необходимые экспортные лицензии в США, но и набрала некоторое количество заказов в Китае, и всё это позволило ей несколько недель назад возобновить производство ускорителей H200. По словам Хуанга, «цепочки поставок разогреваются». Агентство Reuters со ссылкой на собственные источники также сообщило, что китайские власти разрешили импорт ускорителей Nvidia H200, и это во многом создаёт все необходимые условия для их поставок в страну в сочетании с наличием экспортных лицензий США и заказов со стороны китайских клиентов. По словам главы Nvidia, приобрести H200 желают многие китайские компании. Последним также удалось получить необходимые лицензии от американской стороны, что не менее важно. Наличие одобрения на поставки H200 в Китай глава Nvidia отдельно подтвердил в интервью CNBC, подчеркнув, что соответствующие согласования пройдены как с американской, так и с китайской стороны. Накладываются ли на китайских клиентов Nvidia какие-то дополнительные условия со стороны местных властей, не уточняется. Ранее считалось, что ради возможности закупать американские ускорители H200 им придётся взять обязательства по приобретению ускорителей китайского происхождения в определённых пропорциях. Nvidia готовит для китайского рынка особую версию ИИ-чипов Groq
18.03.2026 [07:01],
Алексей Разин
В прошлом году Nvidia в рамках сделки на сумму $17 млрд получила доступ к разработкам стартапа Groq, и уже в этом месяце представила специализированные чипы LPU для ускорения работы ИИ в задачах инференса. Как отмечают источники, для Китая компания уже готовит адаптированную версию чипов Groq, с учётом существующих в США экспортных ограничений.
Источник изображения: Nvidia Об этом накануне сообщило агентство Reuters со ссылкой на собственные источники. Одновременно глава Nvidia Дженсен Хуанг (Jensen Huang) заявил, что компания возобновила выпуск чипов H200 собственной разработки, которые собирается продавать на китайском рынке. Nvidia удалось получить необходимые для отгрузки H200 китайским клиентам экспортные лицензии США, а китайские органы власти разрешили их импорт в Поднебесную. Среди китайских конкурентов Nvidia немало тех, кто предлагает собственные специализированные чипы для инференса, поэтому возможность поставки адаптированных решений семейства Groq важна для американской компании с точки зрения сохранения своих позиций на китайском рынке. Как поясняет Reuters, адаптация чипов Groq для Китая будет заключаться не в снижении быстродействия, а в сохранении возможности работы с другими системами. Поставки чипов Groq начнутся в мае этого года, для Китая их не будут выпускать отдельно от основных партий. |