Сегодня 05 апреля 2026
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → groq
Быстрый переход

Новая статья: NVIDIA Groq 3: SRAM, дезагрегация, детерминизм

Данные берутся из публикации NVIDIA Groq 3: SRAM, дезагрегация, детерминизм

Nvidia готовит для китайского рынка особую версию ИИ-чипов Groq

В прошлом году Nvidia в рамках сделки на сумму $17 млрд получила доступ к разработкам стартапа Groq, и уже в этом месяце представила специализированные чипы LPU для ускорения работы ИИ в задачах инференса. Как отмечают источники, для Китая компания уже готовит адаптированную версию чипов Groq, с учётом существующих в США экспортных ограничений.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Об этом накануне сообщило агентство Reuters со ссылкой на собственные источники. Одновременно глава Nvidia Дженсен Хуанг (Jensen Huang) заявил, что компания возобновила выпуск чипов H200 собственной разработки, которые собирается продавать на китайском рынке. Nvidia удалось получить необходимые для отгрузки H200 китайским клиентам экспортные лицензии США, а китайские органы власти разрешили их импорт в Поднебесную.

Среди китайских конкурентов Nvidia немало тех, кто предлагает собственные специализированные чипы для инференса, поэтому возможность поставки адаптированных решений семейства Groq важна для американской компании с точки зрения сохранения своих позиций на китайском рынке. Как поясняет Reuters, адаптация чипов Groq для Китая будет заключаться не в снижении быстродействия, а в сохранении возможности работы с другими системами. Поставки чипов Groq начнутся в мае этого года, для Китая их не будут выпускать отдельно от основных партий.

SRAM какой-то: Nvidia представила чип Groq 3 LPU для ускорения инференса ИИ-моделей на уровне токенов

На прошедшей в этом году конференции GTC генеральный директор Nvidia Дженсен Хуанг (Jensen Huang) сообщил, что в этом году платформа Vera Rubin получит расширение. Nvidia использует для этого интеллектуальную собственность, приобретённую у Groq. В состав Rubin вошёл новый чип Nvidia Groq 3 LPU. Компания определяет его как ускоритель инференса. Его задача — выдавать токены в большом объёме и с низкой задержкой.

 Источник изображений: Nvidia

Источник изображений: Nvidia

Платформа Rubin уже включает шесть компонентов, из которых Nvidia собирает стоечные системы и затем масштабирует их до ИИ-фабрик. Это GPU Rubin, CPU Vera, коммутаторы внутрисистемного масштабирования NVLink 6, интеллектуальный сетевой адаптер ConnectX-9, процессор обработки данных BlueField-4 и коммутатор межсистемного масштабирования Spectrum-X с совместно интегрированной оптикой. Groq 3 LPU стал новым элементом этой платформы и ещё одним строительным блоком Rubin при масштабном развёртывании.

Groq 3 LPU отличается от большинства ИИ-ускорителей схемой памяти. Обычно такие системы используют HBM в качестве рабочего уровня памяти. Каждый Groq 3 LPU содержит 500 Мбайт SRAM. Для сравнения, каждый GPU Rubin оснащён 288 Гбайт HBM4. По ёмкости разница велика. По пропускной способности соотношение иное: SRAM обеспечивает до 150 Тбайт/с, а HBM4 — около 22 Тбайт/с. Для ИИ-задач, чувствительных к пропускной способности, рост этого показателя даёт преимущество при инференсе. Именно поэтому Nvidia вводит Groq 3 в состав Rubin.

Стойка Groq 3 LPX включает 256 чипов Groq 3 LPU. Такая система располагает 128 Гбайт SRAM. Её суммарная пропускная способность достигает 40 Пбайт/с. Для объединения чипов внутри стойки предусмотрен выделенный интерфейс внутрисистемного масштабирования. Его пропускная способность составляет 640 Тбайт/с на стойку.

Вице-президент Nvidia по гипермасштабируемым решениям Иэн Бак (Ian Buck) назвал Groq LPX сопроцессором для Rubin. По его словам, он повысит производительность декодирования «на каждом слое ИИ-модели на каждом токене». Nvidia связывает это решение со следующим рубежом ИИ — мультиагентными системами. Речь идёт о сценариях, где нужно обеспечивать интерактивную работу при инференсе моделей с триллионами параметров и окнами контекста в миллионы токенов.

Когда ИИ-агенты всё чаще обмениваются данными друг с другом, а не с человеком в окне чат-бота, меняется и порог приемлемого отклика. Скорость, достаточная для человека, оказывается слишком низкой для ИИ-агента. Бак описывает переход от мира, где разумным считался уровень 100 токенов в секунду, к уровню 1 500 токенов в секунду и выше для межагентного обмена.

Добавление Groq 3 LPU должно усилить позиции Rubin в сегменте низколатентного инференса. В тексте в качестве конкурента названа Cerebras. Компания использует процессоры Wafer-Scale Engine (WSE), выполненные на целой кремниевой пластине, где большие объёмы SRAM объединены с вычислениями для низколатентного инференса на продвинутых моделях. OpenAI также привлекала мощности Cerebras для обслуживания части передовых моделей из-за выгодных характеристик задержки этой платформы.

Иэн Бак также допустил, что появление Groq 3 LPU может сократить роль ускорителя инференса Rubin CPX. Он сказал, что сейчас Nvidia сосредоточена на интеграции стойки Groq 3 LPX с Rubin. Дополнительных подробностей он не привёл. При этом оба чипа рассчитаны на сходное усиление инференса, но Groq LPU не требует большого объёма памяти GDDR7, который нужен каждому модулю Rubin CPX.

Nvidia показала полный стек Vera Rubin — от GPU до сетей для ИИ-фабрик нового поколения

Являясь одним из лидеров в сфере вычислительной инфраструктуры для систем искусственного интеллекта, Nvidia комплексно подходит к развитию собственных платформ, а потому вместе с ускорителями поколения Vera Rubin предложила ряд сопутствующих аппаратных решений.

 Источник изображений: Nvidia

Источник изображений: Nvidia

Как отмечается в корпоративном пресс-релизе, платформа Vera Rubin открывает новые рубежи в развитии агентского искусственного интеллекта. В массовом производстве сейчас находятся семь новых чипов Nvidia, позволяющих эффективно масштабировать так называемые ИИ-фабрики. В число семи аппаратных новинок Nvidia вошли графические процессоры Rubin, центральные процессоры Vera, коммутаторы NVLink 6, сетевые решения ConnectX-9 SuperNIC, специализированные процессоры BlueField-4 и Ethernet-коммутаторы Spectrum-6, а также созданные с помощью разработок одноимённого поглощённого стартапа процессоры Groq для ускорения инференса при работе с ИИ-агентами. В совокупности они работают, как ИИ-суперкомпьютер, как отмечается в материалах Nvidia для прессы на официальном сайте компании, позволяя ускорять создание профильных технологий на всех этапах жизненного цикла ИИ-систем.

Основатель и глава Nvidia Дженсен Хуанг (Jensen Huang) заявил, что с выходом платформы Vera Rubin наступил переломный момент в развитии агентского ИИ, поскольку данная платформа будет способствовать самому масштабному развёртыванию инфраструктуры в истории. Руководители OpenAI и Anthropic прокомментировали анонс Vera Rubin в предсказуемо хвалебных выражениях, подчёркивая значение этого события для всей ИИ-отрасли. Разработчики ИИ-моделей теперь смогут совершенствовать их и делать это быстрее, чем на аппаратных решениях прошлого поколения.

Структура ЦОД теперь строится на готовых модулях, как считают в Nvidia, которые содержат всё необходимое для эффективного масштабирования вычислительных мощностей с учётом постоянного роста сложности решаемых задач. Клиенты могут сочетать готовые модули ЦОД с учётом специфики своей деятельности. Например, в одной стойке Vera Rubin NVL72 находятся 72 графических процессора Rubin и 36 центральных процессоров Vera, соединённых скоростной шиной NVLink 6 и сетевыми контроллерами ConnectX-9 SuperNIC, а также специализированные процессоры BlueField-4, которые разгружают центральные процессоры от задач работы с сетевым трафиком. По сравнению с решениями поколения Blackwell новые системы Vera Rubin справляются с обучением сложных моделей силами в четыре раза меньшего количества GPU. Пропускная способность в пересчёте на ватт потребляемой энергии в задачах инференса у Vera Rubin до десяти раз выше, а затраты на один токен в десять раз ниже. В кластерах стойки NVL72 масштабируются при помощи Quantum-X800 InfiniBand и Spectrum-X Ethernet.

Центральные процессоры Vera, по словам представителей Nvidia, хорошо себя проявляют в задачах обучения с подкреплением и агентских ИИ-нагрузках. Компания может объединять в одной стойке до 256 таких процессоров, оснащённых системой жидкостного охлаждения. С прочими компонентами кластера они могут сообщаться при помощи сетевых решений Spectrum-X. По сравнению с некими традиционными CPU, на которые ссылается Nvidia, её процессоры Vera могут справляться с ИИ-задачами на 50 % быстрее.

Специализированные чипы Groq 3 LPX обеспечивают эффективную работу с агентскими ИИ-нагрузками при минимальных задержках. В сочетании с другими чипами, входящими в состав платформы Vera Rubin, они обеспечивают увеличение пропускной способности в задачах инференса до 35 раз на один мегаватт потребляемой мощности, а потенциал выручки при использовании моделей с триллионом параметров увеличивается в десять раз. В состав одной стойки входит 256 чипов LPU, 128 Гбайт интегрированной на них памяти SRAM, а пропускная способность достигает 640 Тбайт/с. В сочетании с прочими компонентами платформы Vera Rubin, чипы LPU достигают максимальной эффективности как по быстродействию, так и по энергопотреблению, а также использованию ресурсов памяти. Стойки LPX будут доступны клиентам Nvidia со второй половины текущего года.

Стойка BlueField-4 STX специализируется на унификации адресного пространства GPU между элементами кластера. Обработка хранимой в кеше информации в операциях инференса ускоряется до пяти раз, при этом обеспечивается высокая энергоэффективность по сравнению с системами на классической архитектуре. Достигается общий для кластера контекст, обеспечивающий быстрое взаимодействие с ИИ-агентами и более эффективно масштабируемыми ИИ-сервисами.

Отдельная стойка Spectrum-6 SPX отвечает за скоростной обмен данными по интерфейсу Ethernet. Она может содержать не только коммутаторы Spectrum-X Ethernet, но и коммутаторы Nvidia Quantum-X800 InfiniBand в зависимости от потребностей конкретной конфигурации. В исполнении с кремниевой фотоникой и интеграцией на уровне упаковки чипов эффективность передачи информации возрастает в пять раз, а надёжность по сравнению с традиционными подключаемыми решениями увеличивается в десять раз.

OpenAI усомнилась в эффективности ускорителей Nvidia для инференса и всё активнее ищет им альтернативу

Принято считать, что OpenAI и Nvidia являются главными выгодоприобретателями бума искусственного интеллекта, и они поддерживают прочные партнёрские отношения, которые должны быть подкреплены сделкой на сумму $100 млрд. Источники при этом отмечают, что эффективность ускорителей Nvidia в инференсе может не устраивать OpenAI, поэтому она стремится найти им подходящую альтернативу.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Об этом по своим каналам удалось выяснить Reuters, хотя публично OpenAI и Nvidia продолжают выражать крайнюю степень взаимной лояльности. Если верить данным источника, OpenAI хотела бы до 10 % ускорителей в своей вычислительной инфраструктуре заменить на решения сторонних поставщиков, которые лучше проявляли бы себя в задачах инференса — то есть, эффективнее бы работали с уже обученными большими языковыми моделями.

OpenAI даже хотела договориться с Cerebras и Groq о поставках разрабатываемых этими стартапами чипов, но Nvidia решила сработать на опережение, купив в прошлом году последний за $20 млрд. До этого Groq вела переговоры с другими инвесторами о вложении в свой капитал до $14 млрд, но Nvidia предложила больше, обеспечив при этом весьма специфическую структуру сделки. По её условиям, Groq сохранила возможность лицензирования своих разработок другим компаниям, но фактически Nvidia перевела в свой штат основных разработчиков ускорителей из Groq. Фактически, остальным компаниям Groq теперь может предложить только программное обеспечение для облачных систем. Одновременно возникают вопросы по целесообразности сделки, в рамках которой Nvidia предложила направить в капитал OpenAI до $100 млрд. Пока стороны отрицают наличие проблем в этой сфере, хотя Nvidia и подчёркивает, что её обязательства не носят строгого характера.

Сделку с Cerebras компании OpenAI заключить удалось, теперь вторая будет покупать у первой так называемые «царь-ускорители», которые неплохо проявляют себя в задачах инференса. Проблема OpenAI до сих пор заключалась в том, что она сильно зависит от ускорителей Nvidia и AMD, которые используют внешнюю, пусть и очень быструю память HBM, а в инференсе себя лучше проявляют чипы с большим объёмом интегрированной памяти. Таковые как раз предлагают Groq и Cerebras, а также конкурирующая Google. С последней, кстати, смогла договориться Anthropic, поэтому OpenAI пришлось искать альтернативы.

По некоторым данным, OpenAI столкнулась с неэффективностью ускорителей Nvidia при создании ИИ-агента Codex, который помогает разработчикам создавать программный код. Обычные пользователи того же ChatGPT подобных проблем не испытывают, но для программистов OpenAI постарается предложить другие аппаратные решения типа изделий Cerebras, чтобы повысить производительность соответствующих программных инструментов.

Около 90 % сотрудников стартапа Groq перейдут на работу в Nvidia и получат щедрые выплаты

Ранее уже отмечалось, что структура сделки Nvidia по покупке ИИ-стартапа Groq организована таким образом, чтобы создать минимальные сложности с точки зрения быстрого оформления без согласования с антимонопольными органами. Издание Axios выяснило, что по итогам сделки почти 90 % сотрудников Groq перейдут в штат Nvidia и получат приличные выплаты.

 Источник изображения: Groq

Источник изображения: Groq

Материальная сторона сделки характеризуется оценочной капитализацией Groq на уровне $20 млрд, что значительно выше тех $7 млрд, которые были сформированы прошлой осенью по итогам привлечения очередной порции капитала в размере $750 млн. Всего с момента своего основания в 2016 году Groq удалось привлечь около $3,3 млрд венчурного капитала. Сотрудники Groq получают вознаграждение не только в форме денежных средств, но и акций компании. В целом акционеры стартапа получат от Nvidia около 85 % причитающихся им средств сразу, ещё 10 % будут выплачены к середине 2026 года, а оставшиеся деньги они получат до конца того же года.

Следует учитывать, что в штат Nvidia переходят почти 90 % сотрудников Groq, включая генерального директора Джонатана Росса (Johnathan Ross) и президента Санни Мадру (Sunny Madra). Номинально после заключения сделки Groq продолжит существовать в качестве самостоятельной компании под руководством нынешнего финансового директора Саймона Эдвардса (Simon Edwards). Доступ к технологиям Groq компания Nvidia получит на условиях неисключительного лицензирования — прочие клиенты формально смогут ими пользоваться при наличии контрактов.

Переходящие в Nvidia сотрудники Groq получат выплаты в денежной форме за причитающиеся им акции стартапа. Те акции, которые им ещё не выданы, будут оценены, исходя из капитализации в $20 млрд, но в дальнейшем будут выплачены в форме собственных акций Nvidia и в соответствии с определённым графиком. Группа из примерно 50 сотрудников Groq при переходе в Nvidia получит ускоренные выплаты в денежной форме. Остающимся в Groq сотрудникам тоже будут выплачены деньги за причитающиеся акции, а ещё они смогут получать часть прибыли независимой компании.

У сотрудников, которые проработали в Groq менее года, лимит выплат в форме акций будет пересмотрен, чтобы они могли получить некоторые денежные средства с опережением изначального графика. Groq никогда не прибегала к вторичному размещению акций. В целом, условия сделки с Nvidia позволяют акционерам компании заработать достаточно много, а первая при этом избежит регуляторных трудностей с покупкой стартапа.

Сделка Nvidia по покупке Groq устроена таким образом, чтобы избежать претензий антимонопольщиков

Принцип «время — деньги» в случае с бурным развитием сферы искусственного интеллекта как никогда актуален. Чтобы получить конкурентные преимущества, компании стремятся привлечь ценных специалистов и разрабатываемые ими технологии быстрее соперников. Эксперты поясняют, что готовящаяся сделка Nvidia с Groq имеет такую структуру, которая позволит ускорить её заключение без антимонопольных рисков.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Напомним, что Nvidia в силу своего серьёзного веса во многих сегментах рынка привлекает к себе повышенное внимание антимонопольных органов различных стран и регионов. Сделка по покупке Arm, которая могла стать крупнейшей в истории Nvidia, развалилась именно из-за противодействия антимонопольных органов и активистов. Покупка израильской Mellanox почти за $7 млрд, которая состоялась в 2019 году, до сих пор привлекает внимание регуляторов — в Китае, например, на этом основании было начато расследование в отношении Nvidia.

Как поясняет CNBC со ссылкой на отраслевых аналитиков, в условиях стремительного развития сферы ИИ компания Nvidia не может себе позволит тянущиеся годами согласования сделок по поглощению других игроков рынка, а потому структуры таких сделок продумываются особым образом. В случае с Groq официально не названа даже сумма сделки, и только из сторонних источников становится известно, что она близка к $20 млрд.

По условиям сделки, из Groq в Nvidia перейдёт руководство и костяк разработчиков, но при этом разработки первой из компаний вторая будет лицензировать на неисключительных условиях. То есть, прочие клиенты Groq должны номинально сохранить к ним доступ. Более того, облачный бизнес Groq в сделке не участвует, и теоретически данная компания даже сможет конкурировать с Nvidia после сделки.

Как поясняет CNBC, подобные хитрости применяются и другими техногигантами при поглощении ценных стартапов. Сама Nvidia эту тактику уже использовала в сентябре, когда потратила более $900 млн на привлечение специалистов Enfabrica во главе с генеральным директором и лицензирование разработок стартапа. Такие сделки сложно назвать поглощением в классическом толковании, поэтому они и не требуют длительных и непредсказуемых согласований с антимонопольными органами, включая и зарубежные, которые свои возражения могут мотивировать политическими причинами. Ключевой особенностью нового типа сделок становится неисключительность прав на лицензирование технологий компании, которая де-факто поглощается покупателем.

Прочие аналитики признают, что сделка с Groq призвана усилить позиции Nvidia в сегменте аппаратных решений для инференса, поскольку традиционно она доминировала в сегменте обучения больших языковых моделей, но сейчас первый начинает обретать всё большую актуальность, и для Nvidia было важно не упустить активы Groq. Не исключено, что официальными комментариями по поводу сделки основатель Nvidia Дженсен Хуанг (Jensen Huang) поделится в начале января в Лас-Вегасе, где будет проходить выставка CES 2026.

Nvidia договорилась о сделке с Groq на $20 млрд — крупнейшей в своей истории

Компанию Nvidia сложно уличить в частых и крупных поглощениях, если не считать неудавшуюся попытку приобрести Arm, поэтому сделка с ИИ-стартапом Groq на сумму $20 млрд становится крупнейшей в истории покупателя. Представители Nvidia продолжают настаивать, что сделку с Groq нельзя назвать покупкой в полной мере, но это не так важно.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Как поясняет CNBC, за свои $20 млрд Nvidia получает не только квалифицированных специалистов Groq, но и права на использование её разработок, пусть и на условиях неисключительного лицензирования. Кроме того, зарождающийся облачный бизнес Groq продолжит независимое существование. Nvidia намерена интегрировать разрабатываемые Groq процессоры с низкими задержками в собственную архитектуру «ИИ-фабрик». Они будут применяться в задачах инференса и вычислительных нагрузках в масштабе реального времени.

Это уже не первая сделка подобного рода для Nvidia за последние несколько месяцев. В сентябре она потратила более $900 млн для привлечения в свои ряды генерального директора Enfabrica и других специалистов, а также лицензирование технологий этого стартапа. В целом, появление на фоне бума ИИ существенных запасов денежных средств способствовало росту инвестиционной активности Nvidia. В сентябре она договорилась об инвестициях в капитал OpenAI до $100 млрд, но эти взаимоотношения пока не оформлены до конца. В рамках сотрудничества с Intel компания Nvidia также обязалась вложить в её капитал $5 млрд.

Groq в этом году собиралась выручить $500 млн и не планировала искать покупателя на свои технологии, но от предложения Nvidia отказываться не стала. Стартап был основан в 2016 году выходцами из Google, которые были причастны к разработке фирменных процессоров TPU. Три месяца назад Groq удалось привлечь $750 млн, оценив тем самым свою капитализацию в $6,9 млрд. Инвесторами в капитал стартапа являются Samsung, Cisco, а также связанная с Дональдом Трампом-младшим 1789 Capital. Генеральный директор Groq Джонатан Росс (Johnathan Ross) и ряд других сотрудников по условиям договорённости с Nvidia перейдут в штат этой компании. При этом Groq формально продолжит независимую деятельность под управлением своего финансового директора Саймона Эдвардса (Simon Edwards).

Казахстан и OpenAI будут сотрудничать в развитии сферы образовании с использованием ИИ

Министерство искусственного интеллекта и цифрового развития Казахстана, министерство науки и высшего образования Казахстана, «Казахтелеком» и Freedom Holding подписали с OpenAI меморандум о сотрудничестве с целью развития образования и цифровых навыков с использованием ИИ-технологий, сообщается на сайте Министерства искусственного интеллекта и цифрового развития РК.

 Источник изображения: gov.kz

Источник изображения: gov.kz

Согласно меморандуму, OpenAI будет в течение трёх лет ежегодно предоставлять не менее 165 тыс. лицензий педагогам Казахстана на использование ChatGPT Edu — специальной версии ChatGPT для образовательных учреждений. ChatGPT Edu обеспечивает доступ к самым современным моделям OpenAI с высоким уровнем безопасности, защиты данных и административного контроля. ChatGPT Edu может выполнять анализ данных, предоставлять краткое изложение документов и создавать индивидуальных GPT-ассистентов, которые помогут учителям в решении рутинных административных задач.

Также Министерство искусственного интеллекта и цифрового развития Казахстана подписало меморандум о взаимопонимании в области сотрудничества по вопросам ИИ и облачных технологий с компанией Oracle, которая поможет ведомству в оценке возможности развёртывания решений Oracle в качестве пилотной ИИ-инфраструктуры в Казахстане и проведения соответствующих тестирований, изучения потенциала поэтапного развития ЦОД, а также реализации пилотных проектов в области прикладного ИИ. Oracle также обеспечит консультативную поддержку в программах развития кадрового потенциала — специализированное обучение и сертификацию, совместные исследовательские проекты и создание Центра компетенций Oracle в Казахстане.

Кроме того, ведомство подписало меморандум с компанией Groq о развёртывании инфраструктуры Groq в стране и проведении пилотных проектов на базе Alem.AI и Astana Hub. Соглашение также предусматривает создание ЦОД нового поколения для поддержки национальных и региональных программ по развитию высокопроизводительных вычислений (HPC) и ИИ.


window-new
Soft
Hard
Тренды 🔥
Telegram стал помечать пользователей сторонних клиентов, предупреждая о снижении защищённости переписки 54 мин.
Netflix научил собственную ИИ-модель без следов удалять объекты из видео и правдоподобно перестраивать сцену 3 ч.
Microsoft инвестирует в развитие ИИ-инфраструктуры Японии $10 млрд 8 ч.
LinkedIn скрытно собирает данные о ПО, установленном на компьютерах пользователей соцсети 9 ч.
В Google Chrome появится функция, которая ускорит загрузку сайтов и сэкономит сетевой трафик 11 ч.
Новая статья: Grime 2 — истязание на любителя. Рецензия 21 ч.
Новая статья: Gamesblender № 770: релиз DLSS 4.5, Синдзи Миками и авторы Stellar Blade, почти конец Eidos Montreal 22 ч.
Энтузиаст установил Windows 3.1x на компьютер 2025 года — и она заработала c Ryzen 9 9900X и RTX 5060 Ti 04-04 18:58
Microsoft принудительно обновит до Windows 11 25H2 компьютеры с более старыми версиями ОС 04-04 15:10
В руководстве OpenAI провели очередные кадровые перестановки — частично вынужденные 04-04 14:05
Fujitsu планирует выпуск 1,4-нм NPU для ИИ-систем 8 ч.
Владельцы компьютеров Mac с чипами M-серии смогут использовать внешние видеокарты AMD и Nvidia 9 ч.
Американские ИИ-компании не смогут запустить в этом году более 30 % дата-центров из-за дефицита электроэнергии 14 ч.
В условиях дефицита памяти портативная игровая консоль Lenovo Legion Go 2 подорожала до полутора раз 14 ч.
В Китае введут строгий стандарт безопасности для пауэрбанков 14 ч.
NASA впервые разрешило астронавтам взять на борт iPhone в рамках лунной миссии Artemis II 15 ч.
Сразу после старта лунной миссии Трамп предложил сократить бюджет NASA на 23 % 16 ч.
Обновлённый RedMagic 11 Pro показал достойный FPS в играх для ПК класса AAA 04-04 17:02
ИИ на селе: NetApp и NTT протестировали геораспределённое обучение LLM 04-04 15:28
Стартап CavilinQ получил $8,8 млн на разработку квантового интерконнекта для объединения квантовых компьютеров 04-04 14:33