Сегодня 21 декабря 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → h100
Быстрый переход

Несмотря на ограничения США, китайский рынок наводнён ИИ-чипами Nvidia

Несмотря на экспортные ограничения, введённые Вашингтоном, передовые чипы Nvidia для искусственного интеллекта, такие как A100 и H100, легко попадают на китайский рынок и доступны по более низким ценам, чем в США. Расследование Financial Times показало, что небольшие китайские облачные провайдеры предлагают аренду серверов с восемью Nvidia A100 примерно за $6/час, в то время как аналогичные услуги в США стоят около $10/час и более.

 Источник изображения: Mariia Shalabaieva/Unsplash

Источник изображения: Mariia Shalabaieva/Unsplash

Низкие цены на аренду серверов указывают на обилие чипов Nvidia на китайском рынке и на способы обхода американских ограничений, направленных на предотвращение доступа к передовым технологиям. Чипы A100 и H100 являются на сегодня самыми мощными ускорителями ИИ, используемыми для обучения больших языковых моделей (LLM), и несмотря на запрет экспорта A100 в Китай и отсутствие разрешения на продажу H100, чипы остаются доступными для местных стартапов и реселлеров.

Одновременно крупные китайские облачные операторы, такие как Alibaba и ByteDance, предлагают аренду серверов с чипами Nvidia по ценам, в два-три раза превышающим расценки мелких провайдеров. После применения скидок, цены всё равно сопоставимы с ценами Amazon Web Services (AWS), которые варьируются от $15 до $32 за час. Как отметил один из основателей стартапа, «большие игроки вынуждены заботиться о соблюдении норм, и поэтому находятся в невыгодном положении, так как не могут использовать контрабандные чипы».

По оценкам экспертов, в Китае находится более 100 тыс. Nvidia H100. Относительно небольшой размер чипов упрощает их контрабанду через границы, подрывая усилия Вашингтона по сдерживанию развития ИИ в Китае. Глава небольшой китайской облачной компании отметил, что низкие внутренние издержки помогают компенсировать более высокие цены, которые провайдеры платят за контрабанду. «Инженеры дешёвые и электроэнергия дешёвая…», — пояснил он.

Nvidia утверждает, что продаёт чипы «прежде всего официальным партнёрам», гарантируя, что все продажи соответствуют правилам экспортного контроля США. Компания признаёт наличие рынка подержанных ускорителей, но обещает принимать меры в случае выявления нарушений экспортного контроля.

В целом эксперты сомневаются в эффективности американских санкций за пределами США, так как схемы обхода ограничений включают создание подставных компаний в третьих странах, что затрудняет отслеживание конечного получателя. «Трудно полностью обеспечить соблюдение экспортного контроля за пределами границы США», — цитирует Financial Times слова американского эксперта по санкциям. Таким образом, пока Вашингтон пытается ограничить доступ Китая к передовым технологиям, китайские компании продолжают извлекать выгоду из чипов Nvidia.

Bang & Olufsen представил беспроводные наушники Beoplay H100 за $1549

Производитель люксовых аудиоустройств Bang & Olufsen известен использованием дорогих материалов, что делает их продукцию весьма дорогой. Как правило, накладные и внутриканальные наушники бренда стоят дороже аналогов от многих конкурентов, и новинка, представленная на этой неделе, не стала исключением. Вслед за выпущенной ранее моделью Beoplay H95 стоимостью $999, компания анонсировала беспроводные наушники Beoplay H100, которые обойдутся в $1549.

 Источник изображений: Bang & Olufsen

Источник изображений: Bang & Olufsen

В Bang & Olufsen заявили, что Beoplay H95 на сегодняшний день являются «самыми успешными наушниками» компании. Они также отметили, что модель Beoplay H100 получила ряд заметных улучшений по сравнению с предыдущей версией устройства.

Как и большинство наушников бренда, Beoplay H100 изготовлены из материалов премиального уровня, таких как кожа ягнёнка и вязаная ткань. На внешней стороне корпуса наушников расположен сенсорный интерфейс, выполненный из устойчивого к царапинам стекла. В компании отметили, что при создании Beoplay H100 в чёрном, песочном и абрикосовом цветовых вариантах корпуса, разработчики вдохновлялись дизайном изысканных ювелирных украшений. Съёмные амбушюры и внутреннее оголовье позволяют заменить их в случае износа.

В Beoplay H100 используются 40-миллиметровые излучатели, обеспечивающие «чистоту звука и динамические характеристики, которые обычно можно услышать только на высококлассных акустических системах». Поддерживается вывод звука в качестве 24 бит / 96 кГц, технология Dolby Atmos и функция отслеживания положения головы пользователя. В компании утверждают, что эта технология адаптивного аудио, названная EarSense, отслеживает посадку наушников и корректирует настройки звукового профиля в режиме реального времени.

В Beoplay H100 эффективность активного шумоподавления удвоилась по сравнению с моделью Beoplay H95. Этого удалось достичь за счёт использования 10 микрофонов, которые также обеспечивают более качественную работу режима прозрачности. Пользователь может регулировать уровень работы режима прозрачности, проворачивая круглую основу на внешней стороне амбушюр. В компании эту функцию называют TrueTransparency. Есть также режим быстрого прослушивания, который позволяет быстро переключиться на окружающие звуки без необходимости постоянного использования режима прозрачности.

В Bang & Olufsen отметили, что продукты компании создаются таким образом, чтобы покупатели могли обновлять их в течение длительного времени. Это относится не только к съёмному оголовью и амбушюрам, но и к аккумуляторным батареям, динамикам и другим внутренним компонентам. Поддержка аудио высокого разрешения и возможность подключения по Bluetooth к трём устройствам одновременно появятся позднее благодаря обновлению программного обеспечения устройства.

Как и Apple AirPods Max, Beoplay H100 автоматически переходят в режим пониженного энергопотребления, когда не находятся в кейсе, но и не используются по назначению. В таком состоянии наушники могут находиться до 90 дней. Если же хранить наушники в кейсе, они будут полностью отключаться. Что касается автономности, то Beoplay H100 с включённым режимом шумоподавления могут работать до 34 часов. Новинка уже доступна для заказа на сайте производителя.

Сроки поставок ИИ-ускорителей Nvidia H100 сократились до 2–3 месяцев

Cроки поставок ИИ-ускорителей Nvidia H100 сократились с 3–4 до 2–3 месяцев (8–12 недель), сообщает DigiTimes со ссылкой на заявление директора тайваньского офиса компании Dell Теренса Ляо (Terence Liao). ODM-поставщики серверного оборудования отмечают, что дефицит специализированных ускорителей начал снижаться по сравнению с 2023 годом, когда приобрести Nvidia H100 было практически невозможно.

 Источник изображения: Nvidia

Источник изображения: Nvidia

По словам Ляо, несмотря на сокращение сроков выполнения заказов на поставки ИИ-ускорителей, спрос на это оборудование на рынке по-прежнему чрезвычайно высок. И несмотря на высокую стоимость, объёмы закупок ИИ-серверов значительно выше закупок серверного оборудования общего назначения.

Окно поставок в 2–3 месяца — это самый короткий срок поставки ускорителей Nvidia H100 за всё время. Всего шесть месяцев назад он составлял 11 месяцев. Иными словами, клиентам Nvidia приходилось почти год ждать выполнение своего заказа. С начала 2024 года сроки поставок значительно сократились. Сначала они упали до 3–4 месяцев, а теперь до 2–3 месяцев. При таком темпе дефицит ИИ-ускорителей может быть устранён к концу текущего года или даже раньше.

Частично такая динамика может быть связана с самими покупателями ИИ-ускорителей. Как сообщается, некоторые компании, имеющие лишние и нигде не использующиеся H100, перепродают их для компенсации огромных затрат на их приобретение. Также нынешняя ситуация может являться следствием того, что провайдер облачных вычислительных мощностей AWS упростил аренду ИИ-ускорителей Nvidia H100 через облако, что в свою очередь тоже частично помогает снизить на них спрос.

Единственными клиентами Nvidia, которым по-прежнему приходится сталкиваться с проблемами в поставках ИИ-оборудования, являются крупные ИИ-компании вроде OpenAI, которые используют десятки тысяч подобных ускорителей для быстрого и эффективного обучения своих больших языковых ИИ-моделей.

ИИ-ускоритель Intel Gaudi2 оказался на 55 % быстрее Nvidia H100 в тестах Stable Diffusion 3, но есть нюанс

Компания Stability AI, разработчик популярной модели генеративного ИИ Stable Diffusion, сравнила производительность модели Stable Diffusion 3 на популярных ускорителях вычислений для центров обработки данных, включая Nvidia H100 Hopper, A100 Ampere и Intel Gaudi2. По утверждению Stability AI, Intel Gaudi2 продемонстрировал производительность примерно на 56 % выше, чем Nvidia H100.

 Источник изображения: Intel

Источник изображения: Intel

В отличие от H100, который представляет собой суперскалярный графический процессор с тензорными CUDA-ядрами, Gaudi2 специально спроектирован для ускорения генеративного ИИ и больших языковых моделей (LLM). В тестах приняли участие пары кластеров, которые в сумме обеспечивали по 16 тех или ускорителей, а проводились тесты с постоянным размером батча (число тренировочных объектов) в 16 на каждый ускоритель (всего 256). Системы на Intel Gaudi2 оказались способны генерировать 927 изображений в секунду по сравнению с 595 изображениями для ускорителей H100 и 381 изображением в секунду для массива A100.

 Источник изображения: Stability AI

Источник изображения: Stability AI

При увеличении количества кластеров до 32, а числа ускорителей до 256 и размере батча 16 на ускоритель (общий размер 4096), массив Gaudi2 генерирует 12 654 изображения в секунду или 49,4 изображения в секунду на ускоритель, по сравнению с 3992 изображениями в секунду или 15,6 изображениями в секунду на устройство у массива A100 Ampere.

 Источник изображения: Nvidia

Источник изображения: Nvidia

Необходимо отметить, что производительность ускорителей ИИ измерялась с использованием фреймворка PyTorch, а в случае применения оптимизации TensorRT чипы A100 создают изображения до 40 % быстрее, чем Gaudi2. Тем не менее, исследователи Stability AI ожидают, что при дальнейшей оптимизации Gaudi2 превзойдёт A100. Компания полагает, что более быстрый интерконнект и больший объем памяти (96 Гбайт) делают решения Intel вполне конкурентоспособными и планирует использовать ускорители Gaudi2 в Stability Cloud.

 Источник изображения: techpowerup.com

Источник изображения: techpowerup.com

По сообщению Stability AI, в более ранних тестах модели Stable Diffusion XL с использованием фреймворка PyTorch ускоритель Intel Gaudi2 генерирует при 30 шагах изображение размером 1024 × 1024 за 3,2 секунды по сравнению с 3,6 секунды для PyTorch на Nvidia A100 и 2,7 секунды при использовании оптимизации TensorRT на Nvidia А100.

NVIDIA запустила девятый по мощности суперкомпьютер в мире — Eos получил 4608 ИИ-ускорителей H100

NVIDIA официально представила суперкомпьютер Eos, предназначенный для приложений искусственного интеллекта. Он оснащён 576 системами NVIDIA DGX H100, каждая из которых включает 8 ускорителей H100 — всего 4608 единиц. Системы подключены с использованием архитектуры NVIDIA Quantum-2 InfiniBand (400 Гбит/с). Также суперкомпьютер включает 1152 процессора Intel Xeon Platinum 8480C, каждый из которых предлагает 56 ядер.

 Источник изображения: nvidia.com

Источник изображения: nvidia.com

Суперкомпьютер NVIDIA Eos предлагает производительность для ИИ-приложений в 18,4 Эфлопс (FP8), а также обеспечит около 9 Эфлопс в рассчётах FP16 и 275 Пфлопс в FP64. Компания анонсировала его почти год назад и рассказывала подробнее о нём на выставке Supercomputing 2023 в ноябре минувшего года — теперь он готов начать работу. Разработчик отмечает, что Eos способен справиться с самыми большими рабочими нагрузками в области ИИ для обучения больших языковых моделей, рекомендательных алгоритмов, квантового моделирования и многого другого. Суперкомпьютер занимает девятое место в рейтинге TOP500.

Высокую производительность NVIDIA Eos обеспечивают мощные ускорители и интерфейсы компании NVIDIA, а также её ПО, такое как NVIDIA Base Command и NVIDIA AI Enterprise. «Архитектура Eos оптимизирована для рабочих нагрузок ИИ, требующих сверхмалой задержки и высокой пропускной способности соединений внутри кластера ускорителей, что делает её идеальным решением для предприятий, стремящихся масштабировать свои комплексы ИИ. В то время как корпорации и разработчики по всему миру стремятся задействовать возможности ИИ, Eos становится основным ресурсом, который обещает ускорить путь к приложениям на базе ИИ для каждой организации», — отметила NVIDIA.

NVIDIA отгрузила 900 тонн ускорителей H100 в прошлом квартале

Объёмы поставок ускорителей NVIDIA для систем искусственного интеллекта в новостях фигурируют преимущественно в контексте обсуждения дефицита данного вида компонентов, но представители Omdia использовали неожиданный подход для оценки масштабов отгрузки этой продукции NVIDIA — за второй квартал, по их мнению, компания поставила клиентам не менее 900 тонн ускорителей H100.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Как поясняет ресурс Tom’s Hardware, данный показатель увязывается авторами исходной оценки со способностью NVIDIA отгрузить по итогам второго квартала около 300 000 ускорителей H100. Средняя масса такого изделия в сочетании с системой охлаждения достигает 3 кг, по данным первоисточника, что и даёт в итоге 900 тонн. Следует учитывать, что на базе чипов H100 создаются ускорители разных типоразмеров. Плата с разъёмом PCI Express весит 1,2 кг, но масса модуля SXM в открытых источниках не фигурирует, и лишь по приблизительным оценкам можно судить, что она наверняка приближается к 2 кг.

На недавней технологической конференции финансовый директор компании Колетт Кресс (Colette Kress) призналась, что во втором квартале NVIDIA отгрузила примерно равное количество ускорителей H100 и A100, поэтому в массовом выражении последних было выпущено тоже около 900 тонн, если ориентироваться на оценки Omdia. Существуют ещё и адаптированные под условия антикитайских санкций США ускорители A800 и H800, которые не должны отличаться по массе от исходных A100 и H100, но пока сложно судить, учитывались ли они в этой статистике.

Представители NVIDIA не раз за последние недели подчеркнули, что с каждым кварталом компания будет увеличивать объёмы поставок ускорителей, и темпы этой экспансии сейчас во многом зависят от способности подрядчиков выпускать необходимое количество профильной продукции. «Узким местом», например, многими экспертами считается этап тестирования и упаковки чипов силами компании TSMC. С учётом некоторого количества поставленных в первом квартале ускорителей вычислений, по итогам всего года NVIDIA наверняка выпустит более 1 млн одних только H100. Сейчас данный вид деятельности является источником основных доходов для NVIDIA, поэтому она заинтересована в максимально быстрой экспансии.

Tesla запустила суперкомпьютер на 10 тыс. ускорителей NVIDIA H100 — на нём будут учить автопилот

Компания Tesla сообщила о запуске на этой неделе нового суперкомпьютера для решения ресурсоемких задач, связанных с ИИ. В его основе используются 10 тыс. специализированных графических ускорителей NVIDIA H100.

 Источник изображений: HPC Wire

Источник изображений: HPC Wire

Отмечается, что система обеспечивает пиковую производительность в 340 Пфлопс в операциях FP64 для технических вычислений и 39,58 Эфлопс в операциях INT8 для задач ИИ. Таким образом, по производительности FP64 кластер превосходит суперкомпьютер Leonardo, который располагается на четвёртой позиции в нынешнем мировом рейтинге суперкомпьютеров Тор500 с показателем 304 Пфлопс.

Новый суперкомпьютер Tesla с ускорителями NVIDIA H100 является одной из самых мощных платформ в мире. На формирование кластера потрачено около $300 млн. Он подходит не только для обработки алгоритмов ИИ, но и для НРС-задач. Благодаря данной системе компания рассчитывает значительно расширить ресурсы для создания полноценного автопилота.

На фоне сформировавшегося дефицита ускорителей NVIDIA H100 компания хочет диверсифицировать вычислительные мощности. Для этого Tesla ведёт разработку своего собственного проприетарного суперкомпьютера Dojo. В проект планируется инвестировать $1 млрд. Уже к октябрю следующего года Tesla рассчитывает преодолеть барьер в 100 Эфлопс производительности, что более чем в 60 раз мощнее самого производительного суперкомпьютера в мире на сегодняшний день.

Помимо простого аппаратного обеспечения, новая вычислительная инфраструктура предоставит Tesla преимущество в обработке огромных наборов данных, что имеет решающее значение для реальных сценариев обучения ИИ.

Очередь за ускорителями вычислений NVIDIA H100 растянулась до 2024 года

Ажиотажный спрос на ускорители вычислений NVIDIA для систем искусственного интеллекта уже привёл к дефициту данного вида продукции, и старшая карта H100 с архитектурой Hopper востребована в такой степени, что все доступные объёмы таких ускорителей уже распределены до начала следующего года.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

По крайней мере, уверенность в этом в интервью ресурсу Barron’s выразил технический директор стартапа CoreWeave Брайан Вентуро (Brian Venturo), поскольку приближённый к NVIDIA поставщик инфраструктурных решений для ускорения вычислений силами GPU имеет актуальное представление о положении дел на рынке. Как пояснил Брайан Вентуро, ещё в первом квартале текущего года с доступом к нужным объёмам ускорителей проблем не было, но в апреле всё резко изменилось. Сроки исполнения заказов растянулись до конца текущего года, и спрос неожиданно подскочил буквально за одну неделю. Ускорители теперь нужны не только крупным облачным провайдерам, но и исследовательским лабораториям, и крупным предприятиям, которые экспериментируют с внедрением систем искусственного интеллекта.

Как поясняет этот поставщик ускорителей, сейчас желающие получить самую производительную версию в исполнении NVIDIA, которая обозначается H100, вынуждены рассчитывать сроки поставки на первый или второй квартал следующего года. Непосредственно CoreWeave, инвестором которой является сама NVIDIA, сможет возобновить закупку ускорителей серии H100 не ранее второго или третьего квартала следующего года. По словам руководителя компании, решения NVIDIA в этой сфере востребованы в силу наличия развитой экосистемы для разработчиков, универсальности и сопутствующей инфраструктуры передачи информации в виде скоростных решений InfiniBand.

Двойная цена и малые партии: ускорители вычислений NVIDIA можно купить в Китае даже в условиях санкций

С осени прошлого года ускорители вычислений NVIDIA A100 и H100 попали под экспортные ограничения США, в результате чего их стало невозможно купить в Китае по официальным каналам, а NVIDIA пришлось быстро наладить поставки в страну усечённых по производительности ускорителей A800 и H800, которые соответствуют экспортным ограничениям США. Практика показывает, что ускорители A100 и H100 всё равно можно приобрести в Китае, хотя и не на самых выгодных условиях.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

Корреспондентам Reuters удалось побывать на крупном рынке электроники в китайском Шэньчжэне, и по итогам краткого опроса местных продавцов не менее десяти из них предложили потенциальным покупателям ускорители NVIDIA A100 по удвоенной до $20 000 за штуку цене. Кроме того, покупатель в Китае не может рассчитывать на единовременное получение крупной партии таких ускорителей, речь обычно идёт о поставке буквально нескольких экземпляров за раз.

Как поясняют участники цепочки поставок, на китайский рынок попавшие под санкции США ускорители NVIDIA продолжают поставляться либо через посредников в Индии, Сингапуре или на Тайване, либо по «серым» каналам из США, в случае, если какой-то из крупных клиентов NVIDIA просто выбросит на рынок «излишки» заказанных для собственных нужд ускорителей. Подчёркивается, что китайские продавцы не дают никакой гарантийной поддержки для реализуемых по такой схеме ускорителей вычислений.

Поставки ускорителей NVIDIA H100 начались только в марте, поэтому в Китае их найти достаточно сложно, и предложений пока мало. Запрещённые к реализации в КНР ускорители NVIDIA встречаются и на популярных в стране торговых интернет-площадках, но ситуацией нередко пользуются и мошенники, продающие откровенные подделки. По мнению аналитиков 86Research, власти США пока не сильно обеспокоены сохранением поставок ускорителей NVIDIA в Китай мелкими партиями, поскольку они стремятся отрезать к ним доступ для крупных разработчиков. Необходимость платить двойную цену за санкционную продукцию NVIDIA не будет сохраняться в Китае вечно, поскольку некоторое количество китайских стартапов будет вынуждено уйти с рынка, и спрос автоматически снизится.

NVIDIA снова в выигрыше: ИИ-бум поднял цены на ускорители H100 до $40 000

Из-за стремительного роста спроса на аппаратное обеспечение, необходимое для обучения и развёртывания технологий искусственного интеллекта, передовые ускорители вычислений NVIDIA H100 продаются на торговой онлайн-площадке eBay более чем за $40 тыс.

 Источник изображения: NVIDIA

Источник изображения: NVIDIA

На ситуацию обратил внимание пионер игровой индустрии и бывший технологический консультант компании Meta Джон Кармак (John Carmack). В пятницу как минимум восемь ускорителей NVIDIA H100 предлагалась продавцами на eBay по ценам от $39,995 до почти $46 000. Немного ранее некоторые продавцы отпускали их по $36 000 за штуку.

 Источник изображения: eBay

Источник изображения: eBay

Флагманский ускоритель вычислений H100, являющийся наследником модели A100 стоимостью $10 тыс., был представлен NVIDIA в прошлом году.

Разработчики используют H100 для создания так называемых языковых моделей (LLM), являющихся основной для таких ИИ-приложений, как чат-бот ChatGPT от компании OpenAI. Это очень дорогие и энергозатратные системы, способные всего за несколько дней или недель обрабатывать терабайты информации, необходимой для обучения ИИ.

Процесс обучения ИИ-моделей, особенно таких больших как GPT, требует одновременной работы сотен передовых ускорителей NVIDIA. Та же компания Microsoft потратила сотни миллионов долларов на закупку десятков тысяч ускорителей NVIDIA A100 предыдущего поколения, на базе которых проводилось обучение чат-бота ChatGPT для OpenAI.

В ассортименте компании NVIDIA также есть готовые суперкомьютеры DGX, в состав которых входят сразу по восемь ускорителей вычислений. В этом году компания запустила облачный сервис DGX Cloud, позволяющий арендовать доступ к системам DGX A100 за $37 тыс. в месяц.

NVIDIA выпустила специально для Китая ускоритель H800 — аналог Hopper H100, который избегает санкций

Когда осенью прошлого года американские власти сформулировали ограничения по производительности ускорителей вычислений, поставляемых в Китай, компания NVIDIA достаточно быстро выпустила на местный рынок специальный чип A800, который являлся аналогом полноценного A100, но предусматривал ограничение по скорости передачи информации. Теперь очередь дошла и до архитектуры Hopper — китайским клиентам NVIDIA предложила ускорители H800.

 NVIDIA H100 в одном из вариантов исполнения. Источник изображения: NVIDIA

NVIDIA H100 в одном из вариантов исполнения. Источник изображения: NVIDIA

Что именно ограничено на уровне характеристик относительно H100, агентство Reuters не уточняет, но даёт понять, что главным критерием снова стала скорость передачи информации. Осенью были запрещены поставки в Китай ускорителей вычислений NVIDIA, по своей производительности соответствующих A100 и H100, причём в последнем случае сама NVIDIA сохраняет право отгружать их китайским клиентам до сентября текущего года. По всей видимости, это не помешало ей заблаговременно представить адаптированный под новые требования ускоритель H800, у которого ограничена скорость передачи информации.

По словам представителей NVIDIA, ускорители модели H800 уже используются в центрах обработки данных китайских компаний Alibaba Group, Baidu и Tencent Holdings. По данным китайских источников, скорость передачи данных у H800 снижена примерно в два раза относительно полноценного H100. Сотрудники NVIDIA не стали конкретизировать, в чём заключаются отличия, но пояснили, что «семейство продуктов 800 полностью соответствует требованиям правил в области экспортного контроля».


window-new
Soft
Hard
Тренды 🔥
Arm будет добиваться повторного разбирательства нарушений лицензий компанией Qualcomm 2 ч.
Японцы предложили отводить тепло от чипов на материнских платах большими медными заклёпками 3 ч.
Поставки гарнитур VR/MR достигнут почти 10 млн в 2024 году, но Apple Vision Pro занимает лишь 5 % рынка 4 ч.
Первая частная космическая станция появится на два года раньше, но летать на неё будет нельзя 5 ч.
В США выпущены федеральные нормы для автомобилей без руля и педалей 6 ч.
Для невыпущенного суперчипа Tachyum Prodigy выпустили 1600-страничное руководство по оптимизации производительности 7 ч.
Зонд NASA «Паркер» пошёл на рекордное сближение с Солнцем 8 ч.
Qualcomm выиграла в судебном разбирательстве с Arm — нарушений лицензий не было 12 ч.
Американских субсидий на сумму $6,75 млрд удостоятся Samsung, Texas Instruments и Amkor 13 ч.
Apple начала снимать с продажи iPhone SE, iPhone 14 и iPhone 14 Plus в Европе 21 ч.