Сегодня 22 февраля 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → вычисления
Быстрый переход

Microsoft представила Majorana 1 — квантовый процессор из будущего с ещё не открытой физиками частицей

Компания Microsoft объявила о революции в сфере квантовых вычислений. Специалисты компании разработали и воплотили в «железе» абсолютно новый принцип кубитов, который ранее никем не был реализован. В основе квантового процессора Majorana 1 («Майорана 1») задействованы гипотетические частицы — фермионы Майораны. Интересно, что у этой разработки можно обнаружить российские и даже советские корни.

 Источник изображений: Microsoft

Источник изображений: Microsoft

Прежде всего поясним, что фермионы Майораны существуют лишь в теории. Эти частицы ещё не были зарегистрированы в экспериментах, и их обнаружение будет равнозначно получению Нобелевской премии по физике. Пока же это мечта и цель многих учёных. Значит ли это, что Microsoft всех обманула? И да, и нет. В последние годы физики научились создавать квазичастицы, близкие по свойствам к фермионам Майораны. Это облака из сверхохлаждённых электронов, которые называют «модами нуль-энергии».

Идею квантового компьютера на основе майорановских фермионов в 1990-х годах разработал советский, российский, а позднее американский физик Алексей Китаев. Он также помогал Microsoft с продвижением этого направления. Китаев разработал теорию, объясняющую способы получения таких квазичастиц. Они образуются в присутствии топологического проводника — материала, обладающего проводимостью только по поверхности. Для создания кубитов на основе майорановских фермионов был предложен модернизированный классический джозефсоновский переход — структура, состоящая из двух сверхпроводников с изолятором между ними. Однако вместо второго сверхпроводника использовался топологический материал.

В случае с квантовым процессором Microsoft Majorana 1 применялась комбинация арсенида индия и алюминиевых проводов. Кубиты имеют форму буквы H, на каждом её конце в ловушках располагается по одному фермиону Майораны, представленному группой электронов. Такая конструкция обещает простое масштабирование, схожее с изготовлением транзисторов на полупроводниковых кристаллах. В настоящий момент процессор Majorana 1 содержит лишь восемь таких кубитов, однако к 2030 году Microsoft планирует увеличить их число до нескольких сотен, а в перспективе выпустить чип с миллионами кубитов всего за несколько лет, а не десятилетия.

«Мы сделали шаг назад и сказали: "Хорошо, давайте изобретём транзистор для квантовой эпохи. Какими свойствами он должен обладать?" — рассказал Четан Наяк (Chetan Nayak), технический сотрудник Microsoft. — Именно так мы пришли к нашему решению. Именно сочетание, качество и важные детали в новом наборе материалов позволили создать новый тип кубита и, в конечном счёте, всю нашу архитектуру».

Новая квантовая платформа Microsoft требует криогенного охлаждения и взаимодействия с классическими компьютерами для обработки квантовой информации. Казалось бы, в этом нет ничего нового. Прорывом стало использование топологических материалов — так называемых топопроводников (topoconductors), а также работа с квазичастицами майорановских фермионов. В Microsoft смогли разработать архитектуру, способную с высочайшей точностью регистрировать характеристики квазичастиц (определяя один электрон из миллиона) и управлять их состоянием.

Пока нельзя сказать, насколько квазичастицы фермионов Майораны будут полностью соответствовать свойствам гипотетических майорановских фермионов. В идеальном случае эти частицы должны быть чрезвычайно устойчивы к внешним воздействиям и защищены от ошибок — главной проблемы современных квантовых платформ. Если всё пойдёт по плану Microsoft, то уже к середине 2030-х годов у нас появится универсальный, помехоустойчивый квантовый компьютер, который совершит революцию в сфере сложных вычислений.

Российские учёные научили ИИ исправлять ошибки квантовых компьютеров

Чувствительность кубитов к шумам вносит неконтролируемые ошибки в квантовые вычисления, что не позволяет запускать сложные алгоритмы. Чтобы улучшить ситуацию исследователи Университета МИСИС на основе нейросетей создали самообучающуюся систему поиска и исправления ошибок. Разработка сочетает преимущества интеллектуальных и классических алгоритмов, поэтому эффективнее распознаёт ошибки по мере наращивания числа кубитов, что является ключевой задачей.

 Источник изображения: ИИ-генерация DALLE/3DNews

Источник изображения: ИИ-генерация DALL·E/3DNews

«Современные устройства совершают ошибки во многом из-за взаимодействия квантовой системы с её окружением. При этом даже небольшие погрешности критичны при масштабных вычислениях, так как искажение результата накапливается с каждой операцией. Повышение точности — одна из ключевых задач в развитии квантовых технологий», — сообщил директор Института физики и квантовой инженерии НИТУ МИСИС Алексей Фёдоров.

Предложенный учёными метод опирается на архитектуру рекуррентных нейронных сетей, которая анализирует временные ряды данных. Эти ряды извлекаются в процессе периодического измерения вспомогательных кубитов. Что особенно ценно, эта особенность позволяет алгоритму работать с различными кодами коррекции.

Исследователи протестировали алгоритм на семействе циклических кодов коррекции с учётом топологических особенностей квантового процессора на сверхпроводящих кубитах. Результаты исследования опубликованы в журнале Physical Review A (Q1). Также статья доступна на сайте препринтов arXiv. Это её третья редакция.

«Главное преимущество разработки заключается в способности обучаться на данных, полученных с конкретного устройства. Это особенно важно в условиях, когда характер ошибок отличается от теоретически предполагаемых моделей. Кроме того, предложенный алгоритм декодирования не зависит от конкретного кода коррекции, что делает его универсальным и легко масштабируемым», — сообщил автор исследования Илья Симаков, инженер научного проекта лаборатории сверхпроводниковых квантовых технологий НИТУ МИСИС, научный сотрудник Российского квантового центра.

OpenAI завершит разработку и запустит производство своего ИИ-чипа уже в 2025 году — это первый шаг к снижению зависимости от Nvidia

Признанный лидер в сфере ИИ, компания OpenAI, прикладывает серьёзные усилия по снижению зависимости от ускорителей ИИ производства Nvidia. В ближайшие несколько месяцев OpenAI планирует завершить разработку собственного чипа и начать его производство на фабриках TSMC с использованием самых передовых техпроцессов.

 Источник изображения: Samsung

Источник изображения: Samsung

По мнению аналитиков, «OpenAI находится на пути к достижению своей амбициозной цели массового производства на мощностях TSMC в 2026 году». Наиболее ответственным этапом на пути от дизайна к выпуску готовых чипов является Tape-out («тейпаут») — процесс переноса цифрового проекта чипа на фотошаблон для последующего производства. Обычно этот этап обходится в несколько десятков миллионов долларов, а до выпуска первого чипа проходит до шести месяцев. В случае сбоя требуется диагностировать проблему и повторить процесс.

OpenAI рассматривает свой будущий ускоритель ИИ как стратегический инструмент для укрепления переговорных позиций с другими поставщиками чипов. Если первоначальный выпуск пройдёт удачно, OpenAI уже в этом году представит альтернативу чипам Nvidia, которые сейчас занимают более80 % рынка ИИ-ускорителей.

В случае успеха первого чипа инженеры OpenAI планируют разрабатывать все более продвинутые процессоры с более широкими возможностями с каждой новой итерацией. Компания уже стала участником инфраструктурной программы Stargate стоимостью $500 млрд, объявленной президентом США Дональдом Трампом (Donald Trump) в прошлом месяце.

Чип разрабатывается внутренней командой OpenAI во главе с Ричардом Хо (Richard Ho) в сотрудничестве с Broadcom. Хо более года назад перешёл в OpenAI из Google, где руководил программой по созданию специализированных чипов ИИ. Хотя команда Хо за последние месяцы выросла до 40 сотрудников, это количество по прежнему на порядок меньше, чем в масштабных проектах таких технологических гигантов, как Google или Amazon.

Аналитики полагают, что на первом этапе новый ускоритель ИИ от OpenAI будет играть ограниченную роль в инфраструктуре компании. Чтобы создать столь же всеобъемлющую программу по проектированию чипов ИИ, как у Google или Amazon, OpenAI придётся нанять сотни инженеров.

Согласно отраслевым источникам, новый дизайн чипа для амбициозной масштабной программы может обойтись в $500 млн. Эти расходы могут удвоиться, если учитывать необходимость создания программного обеспечения и периферийных устройств. Для сравнения: в 2025 году Meta планирует потратить $60 млрд на ИИ-инфраструктуру, а годовые инвестиции Microsoft в этом направлении составят $80 млрд.

Квантовую телепортацию впервые применили для распределённых квантовых вычислений

Как и классические компьютеры, квантовые вычислители рано или поздно потребуют кластерных конфигураций или распределённых вычислений. Практика показывает, что таким образом проще увеличить вычислительные ресурсы, чем локально масштабировать одну систему. Реализовать передачу квантовых данных можно по классическому каналу, но это обычно приводит к увеличению ошибок. Намного надёжнее было бы телепортировать состояния, благо квантовая физика это допускает.

 Типичный квантовый процессор на ловушках ионов. Источник изображения: NIST

Типичный квантовый процессор на ловушках ионов. Источник изображения: NIST

Сразу уточним, что квантовая телепортация не передаёт энергию и информацию. С её помощью передаётся квантовое состояние, например направление спина электрона или атома (иона). Поскольку до измерения спина (или других квантовых состояний объекта) на передающем конце ничего нельзя знать заранее, для принимающей стороны передача не будет нести смыслового наполнения. Однако если телепортацию включить в вычислительный процесс, то некоторое (бессмысленное при всех прочих условиях) промежуточное состояние, полученное на одной платформе, может быть телепортировано для продолжения вычислений на удалённой платформе.

Ранее квантовая телепортация при выполнении вычислений была реализована в рамках одного «чипа». Учёные из Оксфордского университета (Oxford University) наскоро собрали две разнесённые квантовые платформы на кубитах из ионов, чтобы проверить возможность распределённых вычислений с использованием эффекта квантовой телепортации. «Компьютеры» находились друг от друга на расстоянии двух метров, но могли располагаться в разных комнатах или даже дальше. В конце концов, это лишь вопрос стоимости лабораторного оборудования.

В качестве кубитов были использованы спаренные ионы кальция и стронция — каждая пара в своей ловушке, играющей роль компьютера. В таком кластере ионы кальция служили локальной памятью, а ион стронция работал как передатчик и, на другом конце, как приёмник квантового состояния. Оба иона стронция запутывались фотонами через оптический кабель, после чего вся система начинала работать как единое целое.

До установления запутанного состояния система оставалась в исходном состоянии. Но как только происходило запутывание, ион стронция испускал фотон, что сигнализировало о готовности системы к вычислениям. Представленная установка позволяла реализовать простейшую логическую операцию CZGate (контролируемый Z). Это один из базовых квантовых вентилей (гейтов), поэтому алгоритм для кластерных вычислений в принципе может быть любым.

Эксперименты показали, что точность вычислений при телепортации промежуточного результата от кубита к кубиту составила 70 %, но лишь из-за использования недорогого оборудования для ловушек ионов. С точки зрения одной лишь телепортации точность достигла 97 %. Это ощутимо ниже точности многих современных квантовых платформ, но уже некий результат, с которым можно продолжать работу.

При правильной комбинации операций телепортации возможно воссоздать полный набор логических квантовых элементов. Другими словами, можно создать универсальный квантовый компьютер, способный выполнять любой квантовый алгоритм, просто используя телепортацию. Тем самым термин «врата телепортации» может уверенно перекочевать из научной фантастики в нашу жизнь, пусть и не так, как мечталось.

Google намерена найти «реальные приложения» квантовым вычислениям за пять лет — в Nvidia не согласны

В настоящее время в мире нет единого мнения по поводу того, когда кантовые вычисления станут практичными. Прогнозы варьируются от нескольких лет до десятилетий. Google планирует выпустить коммерческие квантовые вычислительные приложения в течение ближайших пяти лет, сообщил Reuters глава квантового подразделения Google Хартмут Невен (Hartmut Neven). В то же время в Nvidia считают, что до практического использования квантовых систем пройдёт ещё порядка 20 лет.

 Источник изображения: Google

Источник изображения: Google

«Мы оптимистично настроены и считаем, что в течение пяти лет увидим реальные приложения, которые возможны только на квантовых компьютерах», — заявил основатель и руководитель подразделения Google Quantum AI Невен.

Практическое применение квантовых вычислений, о котором говорит Google, связано с материаловедением, включая создание ёмких и долговечных аккумуляторов для электромобилей, разработку новых лекарств и, возможно, альтернативных источников энергии.

Ситуация с квантовыми вычислениями, которые позволят на порядок ускорить обработку данных по сравнению с нынешними суперкомпьютерами, напоминает историю развития искусственного интеллекта. До запуска ИИ-чат-бота ChatGPT в 2022 году технологиями искусственного интеллекта занимались в основном учёные. Они работали над ИИ, совершали открытия и технологические прорывы, чтобы ускорить внедрение, но не имели чёткого понимания, когда ИИ выйдет на стадию коммерческого использования.

Глава Nvidia Дженсен Хуанг (Jensen Huang) в январе на выставке CES 2025 в Лас-Вегасе предсказал, что практическое применение квантовых компьютеров начнётся примерно через 20 лет. После этого прогноза несколько компаний, работающих в сфере квантовых вычислений, потеряли в общей сложности $8 млрд рыночной стоимости.

Google занимается квантовыми вычислениями с 2012 года и уже создала несколько квантовых чипов. В декабре прошлого года компания представила квантовый процессор Willow со 105 сверхпроводящими кубитами.

Канадцы построили фотонный квантовый компьютер и пообещали быстро масштабировать его до миллиона кубитов

Канадский стартап Xanadu, ранее отметившийся совместной работой с Nvidia над квантовыми симуляторами, сообщил о создании вычислительной квантовой системы на фотонах. Квантовое оборудование на фотонах можно использовать при комнатной температуре и размещать в обычных серверных стойках. Создав базовый набор стоек ничто не мешает произвести тысячи таких систем, что уже в ближайшей перспективе позволит изготовить квантовый вычислитель с миллионом кубитов.

 Источник изображения: Nature 2025

Источник изображения: Nature 2025

Сделанное компанией Xanadu Quantum Technologies заявление означает, что имеющий практическую ценность квантовый компьютер не за горами. Сама компания надеется представить квантовый вычислитель с миллионом кубитов уже к 2029 году. Ни одна серьёзная компания в сфере разработки квантовых компьютеров ещё не позволяла себе давать столь смелые обещания. Остаётся надеяться, что Xanadu хотя бы попытается его выполнить.

В опубликованной на днях в журнале Nature работе специалисты Xanadu рассказали, на чём строится работа их системы и как она будет выглядеть. Комплект под названием Aurora представлен четырьмя стандартными серверными стойками, что, безусловно, намного удобнее и практичнее использования криогенных камер для сверхпроводящих кубитов. В одной стойке собраны лазерная система для формирования опорного и модулирующего лучей, а также оптическая система для их распределения и управления ими.

Следует сказать, что квантовые «оптические чипы» Xanadu оперируют физическими состояниями лазерных лучей, учитывая их рекомбинацию и сложение. В конечном итоге результатом вычисления алгоритма будет количество фотонов в лазерном луче на выходе из системы. Однако здесь есть важный нюанс, который Xanadu не акцентирует: хотя сам вычислительный комплекс действительно работает при комнатной температуре, датчики, подсчитывающие фотоны в результирующем луче, охлаждаются до криогенных температур. Для этого в соседней со стойками комнате размещено специальное холодильное оборудование, без которого система функционировать не сможет.

На данный момент в общей сложности в трёх вычислительных стойках задействовано 35 чипов, образующих массив из 12 кубитов для запуска алгоритма. В своей работе Xanadu не раскрывает механизмов коррекции ошибок — самого слабого места квантовых вычислений. Однако компания уверенно заявляет, что её платформа легко масштабируется до миллионов кубитов. В нижней части стоек расположены оптические цепи для связи между стойками, что позволяет соединять тысячи таких модулей. По сравнению с усилиями конкурирующих компаний этот процесс масштабирования выглядит значительно проще.

В Xanadu признают, что предложенное ими решение далеко от совершенства. В частности, в процессе обработки теряется часть света (фотонов), что ведёт к увеличению частоты ошибок. Тем не менее компания обещает совершенствовать платформу и не теряет надежды создать имеющий практическую ценность квантовый компьютер к 2029 году.

Учёные сделали квантовые вычисления точнее, внедрив два кода коррекции ошибок вместо одного

Для квантовых вычислений классические методы коррекции ошибок не подходят. Причина кроется в квантовой механике, которая на базовом уровне не позволяет фиксировать промежуточные результаты для дальнейшего сравнения. Новые методы коррекции ошибок частично справляются с этой задачей, но имеют множество ограничений. Учёные из Австрии смогли реализовать механизм коррекции ошибок с подключением двух разных алгоритмов, чем повысили точность расчётов.

 Источник изображения: Helene Hainzer/

Источник изображения: Helene Hainzer/University of Innsbruck

Промежуточные квантовые состояния кубитов, задействованных в расчётах, нельзя, например, сохранить для проверки чётности. Поэтому из нескольких физических кубитов создают один логический кубит, при этом часть физических кубитов в составе логического кубита запутывают определённым образом. Это позволяет отслеживать ошибки без разрушения цепочки вычислений и корректировать их.

Основная сложность заключается в том, что для разных групп логических элементов (гейтов) требуются различные коды коррекции. Учёные из Университета Инсбрука (University of Innsbruck) разработали методику, позволяющую переключать квантовый компьютер с одного оптимального кода на другой в процессе выполнения вычислений. Это значительно снизило частоту ошибок.

Свою методику исследователи испытали на квантовом компьютере с ловушками ионов. Компьютер состоял из 16 кубитов, из которых были созданы две независимые логические цепи. Каждая цепь обрабатывалась оптимальным для неё кодом коррекции ошибок. Переключение между логическими цепями происходило без возникновения ошибок, что подтвердило возможность использования двух независимых кодов в рамках одного вычислительного цикла.

В перспективе эта методика упростит исправление ошибок при масштабировании вычислений, экономно расходуя физические кубиты, которых никогда не будет много.

Дженсен Хуанг обвалил акции производителей квантовых компьютеров

Акции компаний, работающих в сфере квантовых вычислений, скатились вниз после того, как глава Nvidia Дженсен Хуанг (Jensen Huang) заявил, что ожидания рынка от квантовых вычислений слишком велики. По его мнению, до создания полезного квантового компьютера может пройти 15–30 лет. Точку зрения главы Nvidia разделяют не все эксперты.

 Источник изображений: Nvidia

Источник изображений: Nvidia

«Если бы вы сказали [что осталось ждать] 15 лет до появления полезных квантовых компьютеров, это, вероятно, было бы преуменьшением. Если бы вы сказали 30 лет, то, вероятно преувеличили бы. Но если бы вы выбрали 20 лет, я думаю, многие из нас поверили бы в это», — заявил Хуанг во время беседы с журналистами, отвечая на вопрос о перспективах дальнейшего роста технологий квантовых вычислений.

На этом фоне акции компаний, связанных с квантовыми вычислениями, обвалились. Так ценные бумаги Rigetti Computing подешевели на 40 %, акции IonQ потеряли в цене 37 %, а D-Wave Quantum — более 30 %. Компания Quantum Computing, которая недавно объявила о размещении акций для привлечения $100 млн, подешевела на 37 %.

«Поскольку оценки стали несколько завышенными, мы не увидели сегодняшней коррекции. Широкий консенсус уже давно говорит о том, что до начала массового применения квантовых вычислений ещё много лет, поэтому сегодняшние негативные новости не имеют под собой никакой реальной основы», — считает генеральный директор AXS Investments Грег Бассук (Greg Bassuk).

Генеральный директор D-Wave Quantum Алан Барац (Alan Baratz) уверен, что Дженсен Хуанг ошибается в своих оценках перспектив рынка квантовых вычислений. «Причина, по которой он ошибается, заключается в том, что мы в D-Wave уже сегодня занимаемся коммерцией. Не через 30 лет, не через 20 лет, не через 15 лет, но прямо сейчас, сегодня», — заявил Барац во время беседы с журналистами CNBC. Он также добавил, что разные компании, включая Mastercard и японскую NTT Docomo, «сегодня используют наши квантовые компьютеры в производстве для улучшения своих бизнес-операций». При этом D-Wave продолжает получать минимальную выручку. Продажи компании в последнем квартале упали на 27 % до $1,9 млн относительно аналогичного периода годом ранее.

В конце 2024 года вырос интерес инвесторов к квантовым вычислениям, чему способствовал анонс квантового процессора Google Willow. На этом фоне подскочила стоимость акций многих компаний, работающих в данном сегменте. К примеру, ценные бумаги Rigetti и D-Wave подорожали в сумме на 1449 % и 854 % соответственно.

В России запустили первый 50-кубитный квантовый компьютер на холодных атомах

По сообщению пресс-службы физического факультета МГУ, 19 декабря 2024 года был проведен контрольный эксперимент, подтвердивший работу первого в стране 50-кубитного квантового компьютера. Установка была официально представлена в октябре этого года. Она создана в рамках многолетнего плана под патронажем «Росатома». Платформа подходит для масштабирования и постепенно позволит нарастить число кубитов до 300 и более.

 Источник изображения: Пресс-служба физического факультета МГУ

Источник изображения: Пресс-служба физического факультета МГУ

Создание 50-кубитного квантового компьютера в России позволит в обозримом будущем найти практическое применение вычислителям такого класса. В ближайшее время начнётся отладка платформы для повышения точности выполнения двухкубитных операций.

«На новом этапе важно начать практическое применение квантовых инноваций. Атомная отрасль уже запустила программу пилотных внедрений квантовых вычислений. Мы рассчитываем на синергию в этой области усилий Росатома и научных коллективов страны, включая ЦКТ МГУ имени М.В. Ломоносова», — пояснила директор по цифровизации госкорпорации «Росатом» Екатерина Солнцева, которую цитирует пресс-служба университета.

Анонсированная МГУ платформа представляет собой так называемый оптический стол, большую часть которого занимает лазерная система, используемая для охлаждения и управления состояниями атомов, а также система со сверхвысоким вакуумом и оптическим доступом. Разработчики — специалисты Московского государственного университета имени М. В. Ломоносова и Российского квантового центра — уточняют, что система будет доступна через облако. Пользователям неважно, размещён ли это прототип на открытом стенде или красиво упакованное в корпус изделие. Главное, чтобы компьютер работал.

Кстати, среди ведущих специалистов в области квантовых вычислений нет единого мнения о том, что такое квантовая платформа — вычислитель или симулятор. Происходящие в них процессы представляют собой квантовые явления, которые в полном объёме невозможно воспроизвести на классических компьютерах. Учёные как бы позволяют атомам, помещённым в определённые условия, вести себя так, как будто за ними никто не наблюдает, и затем изучают полученные результаты. Таким образом, задачи поиска новых материалов, разработки лекарств и даже оптимизации логистики решаются практически сами собой, но создание начальных условий и извлечение результатов — это поистине титанический и одновременно изощрённый труд.

Созданный в России вычислитель основан на одиночных нейтральных атомах рубидия, которые захватываются оптическими пинцетами (сфокусированными лазерными лучами). Именно благодаря использованию оптических пинцетов удалось относительно простыми средствами собрать 50-кубитную систему и планировать её расширение до 100 кубитов к 2030 году.

«В настоящий момент в Центре квантовых технологий МГУ мы можем создавать квантовые регистры из 50 атомов, расположенных в упорядоченном массиве, реализовывать операции над одиночными кубитами. <…> Нейтральные атомы в оптических пинцетах — хорошая система с точки зрения перспектив масштабирования, нам более-менее понятно, как дойти от систем из десятков кубитов к сотням и даже тысячам кубитов», — пояснил учёный, чьи слова приводит пресс-служба университета.

Низкопробный софт AMD не даёт раскрыть потенциал ИИ-ускорителей Instinct MI300X и обойти Nvidia, выяснили эксперты

Пятимесячное расследование компании SemiAnalysis показало, что специализированные ИИ-ускорители серии AMD MI300X не раскрывают свой потенциал из-за серьёзных проблем в работе программного обеспечения. Этот факт делает все усилия компании по навязыванию жёсткой конкуренции Nvidia, доминирующей на рынке аппаратного обеспечения для ИИ, бессмысленными.

 Источник изображения: The Decoder

Источник изображения: The Decoder

Исследование показало, что программное обеспечение AMD изобилует ошибками, которые делают обучение моделей ИИ практически невозможным без значительной отладки. Таким образом, пока AMD работает над обеспечением качества и простоты использования своих ускорителей, Nvidia продолжает увеличивать разрыв, развёртывая новые функции, библиотеки и повышая производительность своих решений.

По итогам обширных тестов, включая тесты GEMM и одноузловое обучение, исследователи пришли к выводу, что AMD не в состоянии преодолеть то, что они называют «неприступным рвом CUDA» — сильное преимущество в виде программного обеспечения, которым обладают ускорители Nvidia.

 Источник изображения: SemiAnalysis

Источник изображения: SemiAnalysis

AMD MI300X «на бумаге» выглядят впечатляюще: 1307 Тфлопс в вычислениях FP16 и 192 Гбайт памяти HBM3. Для сравнения, ускорители Nvidia H100 обладают производительностью 989 Тфлопс и имеют только 80 Гбайт памяти. Однако новое поколение ИИ-ускорителей Nvidia H200 с конфигурациями до 141 Гбайт памяти сокращает разрыв в объёме доступного буфера памяти. Кроме того, системы на базе ускорителей AMD также предлагают более низкую общую стоимость владения благодаря более низким ценам на такие системы и более доступной поддержке сетевой инфраструктуры.

 Источник изображения: SemiAnalysis

Источник изображения: SemiAnalysis

Однако эти преимущества мало что значат на практике. По данным SemiAnalysis, сравнение «голых» спецификаций похоже на «сравнение камер, когда просто проверяешь количество мегапикселей у одной и другой». AMD, отмечают аналитики, таким образом «просто играет с цифрами», но её решения не обеспечивают достаточный уровень производительности в реальных задачах.

Исследователи отмечают, что им пришлось напрямую работать с инженерами AMD, чтобы исправить многочисленные ошибки в ПО для получения пригодных для оценки результатов тестов. В то же время системы на базе ускорителей Nvidia работали гладко и без каких-либо дополнительных настроек.

«С OOBE от AMD (опыт, который пользователь получает при получении продукта после распаковки или при запуске установщика и подготовке к первому использованию, так называемый "опыт из коробки" — прим. ред.) очень сложно работать. И для перехода к пригодному к использованию состоянию [оборудования] может потребоваться немало терпения и усилий», — пишут эксперты.

Особенно показательным для SemiAnalysis оказался случай, когда компания TensorWave, крупнейший поставщик облачных решений на базе графических процессоров AMD, была вынуждена предоставить команде инженеров AMD бесплатный доступ к своим графическим процессорам — тому же оборудованию, которое TensorWave приобрела у AMD — только для устранения проблем с программным обеспечением.

Для решения проблем эксперты SemiAnalysis рекомендуют генеральному директору AMD Лизе Су (Lisa Su) более активно инвестировать в разработку и тестирование программного обеспечения. В частности, они предлагают выделить тысячи чипов MI300X для автоматизированного тестирования (аналогичному подходу следует Nvidia для своих ускорителей), упростить сложные переменные среды, одновременно внедрив более эффективные настройки для ускорителей по умолчанию. «Сделайте готовый опыт пригодным к использованию!» — призывают специалисты.

Представители SemiAnalysis в своём отчёте признаются, что желают успеха компании AMD в конкуренции с Nvidia, но отмечают, что «к сожалению, для этого ещё многое предстоит сделать». Без существенных улучшений программного обеспечения AMD рискует ещё больше отстать, поскольку Nvidia готовится к массовому выпуску ускорителей нового поколения Blackwell. Хотя, по сообщениям, этот процесс у Nvidia также проходит не совсем гладко.

Китай заявил, что создал квантовый процессор ничуть не хуже нашумевшего Google Willow

Неделю назад Google сообщила о создании самого мощного в мире квантового процессора Willow с 105 сверхпроводящими кубитами. Этот процессор поддерживает передовую технологию коррекции ошибок, решая одну из самых сложных проблем квантовых вычислений. Прошло всего семь дней, и китайские учёные поведали о создании квантового процессора Zuchongzhi 3.0 («Дзучунжи-3»), который, по их словам, ничем не уступает Google Willow. Китай не отстаёт от США в квантовых технологиях.

 Источник изображения: CCTV

105-кубитовый китайский процессор Zuchongzhi 3.0 («Дзучунжи-3») на сверхпроводящих кубитах. Источник изображения: CCTV

Квантовые вычисления обещают экспоненциальное ускорение расчётов благодаря особенностям квантовой механики, таким как суперпозиция и запутанность квантовых битов — кубитов. Чаще всего речь идёт о симуляциях. Например, квантовые системы (процессоры и компьютеры) могут воспроизводить поведение атомов в кристаллических решётках, позволяя проводить эксперименты «вычисляя ответ» без использования физических образцов. Кроме того, квантовые платформы отлично справляются с задачами оптимизации, где обработка огромного объёма данных заменяется переходом квантовой системы в состояние с минимальной энергией (так называемый квантовый отжиг).

В обоих случаях, будь то вычисления или симуляции, больше всего ресурсов требуется для коррекции ошибок. Один из популярных методов борьбы с ними — поверхностный код, который представляет собой матрицу из физических кубитов. Размер этой матрицы напрямую влияет на точность и скорость выполнения расчётов.

Google утверждает (пока без детальных объяснений), что добилась значительного прорыва в использовании поверхностного кода для коррекции ошибок. В свою очередь, китайские учёные из Университета науки и технологий Китая (USTC) в своей статье, пока ещё не прошедшей рецензирование, заявили, что также совершили прорыв в этом направлении и намерены развивать свои технологии.

Через несколько месяцев процессор Zuchongzhi 3.0 («Дзучунжи-3») может продемонстрировать уровень коррекции ошибок, превосходящий достижения компании Google, если исходить из заявлений китайских исследователей.

Временная глава Intel не верит в успех ИИ-ускорителей Falcon Shores, но это «первый шаг в верном направлении»

Руководство компании Intel не верит, что компания сможет в скором времени составить достойную конкуренцию Nvidia и AMD в сфере ИИ-ускорителей. Во всяком случае, такое впечатление сложилось после недавних комментариев одной из временно исполняющей обязанности руководителя компании Мишель Джонстон Холтхаус (Michell Johnston Holthaus) на 22-й ежегодной глобальной технологической конференции Barclays.

 Источник изображений: Intel

Источник изображений: Intel

Напомним, Intel разрабатывает ускорители вычислений Falcon Shores, в основу которого будет положен графический процессор, заточенный под высокопроизводительные вычислений и задачи ЦОД, а дополнят GPU элементы актуальных ИИ-ускорителей Gaudi. Проект по разработке данного решения получил неожиданную оценку от Холтхаус: «Нам действительно нужно подумать о том, как перейти от Gaudi к нашему первому поколению GPU Falcon Shores. Будет ли новый продукт удивительным? Нет, не будет. Но он станет первым шагом в верном направлении».

Хольтхаус ещё раз подчеркнула новый прагматичный подход Intel к вопросам разработки аппаратных решений для ускорения ИИ, когда затронула тему стратегии развития продуктов: «Если всё бросить и начать создать новый продукт, то его разработка займёт очень много времени. Прежде чем что-то появится потребуется два–три года. Вместо этого я предпочла бы создать что-то в меньших объёмах, научиться чему-то новому, последовательно совершенствуясь, чтобы в конечном итоге добиться поставленных целей».

Врио главы Intel признала устойчивый характер возможностей рынка ИИ, акцентировав текущий интерес индустрии к обучению ИИ-моделей. Однако Хольтхаус также подчеркнула потенциал широких возможностей в других областях: «Очевидно, что ИИ никуда не денется. Очевидно, что обучение [ИИ] сегодня находится центре внимания, но есть возможности развития и на других направлениях, где также отмечаются потребности с точки зрения нового аппаратного обеспечения». По всей видимости она подразумевала инференс — запуск уже обученных нейросетей.

Из сказанного можно сделать вывод, что Falcon Shores не станет для Intel чудесным спасательным кругом, который позволит ей наверстать отставание от Nvidia на рынке GPU-ускорителей. Это в большей степени первая ступень к разработке первоклассного продукта в перспективе. Следующим проектом Intel после Falcon Shores должен стать Jaguar Shores. Его выход ожидается в конце 2025 или начале 2026 года в виде ускорителей ИИ и HPC для центров обработки данных. Однако до его появления компании предстоит проделать немало работы по усовершенствованию не только своего аппаратного, но и программного обеспечения.

Доминирующе положение Nvidia на рынке ИИ во многом обязано её программно-аппаратной архитектуре CUDA, поскольку конкуренты, например, AMD, предлагают сопоставимую аппаратную производительность. Перед Intel стоит очень непростая задача. Ей предстоит обеспечить разработку экосистемного программного обеспечения и «бесшовную» интеграцию своих ускорителей следующего поколения, чтобы Jaguar Shores имел шансы догнать остальную часть рынка.

Квантовый прорыв Google не несёт угрозы биткоину, но только до поры, до времени

Недавнее заявление Google о создании квантового чипа Willow с вычислительной мощностью в 105 кубитов спровоцировало обсуждения по поводу угрозы квантовых технологий для криптографических алгоритмов Bitcoin, таких как Elliptic Curve Digital Signature Algorithm (ECDSA) и Secure Hash Algorithm (SHA-256). Тем не менее, эксперты отмечают, что для реального взлома криптографической защиты биткоина потребуется несколько миллионов кубитов, и такая угроза остаётся весьма отдалённой.

 Источник изображения: Traxer / Unsplash

Источник изображения: Traxer / Unsplash

ECDSA, алгоритм проверки цифровой подписи при помощи криптографии на эллиптических кривых, обеспечивает создание и проверку цифровых подписей, подтверждающих подлинность транзакций и право владельца на управление средствами. SHA-256, алгоритм криптографического хеширования, выполняет ключевую роль в обеспечении целостности данных блокчейна и формирует основу механизма доказательства выполнения работы (Proof-of-Work), позволяя сети надёжно защищать транзакции и подтверждать новые блоки. Эти технологии являются фундаментом криптографической защиты Bitcoin, однако с развитием квантовых вычислений их устойчивость может подвергнуться серьёзным испытаниям.

Аналитики Bernstein подчёркивают, что, несмотря на стремительное развитие квантовых технологий, практическая угроза для криптографических стандартов Bitcoin остаётся весьма отдалённой, поскольку текущие квантовые компьютеры не обладают достаточной мощностью для таких атак. Однако сообщество Bitcoin уже активно обсуждает переход на квантово-устойчивые криптографические алгоритмы, способные заменить существующие стандарты.

Переход на квантово-устойчивую криптографию сопряжён с серьёзными техническими вызовами. Как отмечает разработчик и создатель протокола Bitcoin STAMPS, известный под псевдонимом Mike In Space, квантово-устойчивые цифровые подписи имеют значительно больший размер, что потребует увеличения размера блока и, соответственно, изменений в архитектуре сети. Такая модификация может потребовать хардфорка, который, в случае разногласий внутри сообщества, способен привести к расколу сети. Альтернативным решением может стать мягкий форк, однако он потребует длительного и дорогостоящего процесса перевода средств пользователей на новую систему, что в условиях текущих ограничений по размеру блока может занять годы.

Чарльз Эдвардс (Charles Edwards), основатель Capriole Investments, предостерегает, что угроза квантовых вычислений может стать реальностью уже в ближайшие 5–10 лет. По его оценке, квантовый компьютер с 2500 логическими кубитами будет способен скомпрометировать безопасность алгоритма SHA-256, который играет важную роль в защите блокчейна Bitcoin. Эдвардс подчёркивает необходимость немедленных действий, поскольку согласование квантово-устойчивых криптографических стандартов и их внедрение может занять годы. Задержки в реализации этих мер могут существенно сократить временной запас для защиты сети от новых угроз.

Развитие квантовых вычислений представляет собой угрозу не только для криптовалют, но и для широкого спектра современных технологий. Под угрозой оказываются банковские счета, системы безопасного хранения данных, коммуникационные протоколы и другие решения, которые зависят от криптографических стандартов, таких как RSA, ECDSA и AES. Эта проблема носит глобальный характер, требуя координированных усилий разработчиков, учёных и регуляторов для создания и внедрения квантово-устойчивых алгоритмов, которые помогут минимизировать риски, вызванные стремительной технологической революцией.

Аналитики Bernstein отметили, что снижение цены биткоина после преодоления отметки $100 000 было вызвано рыночными факторами, включая избыточное использование кредитного плеча, что привело к усилению волатильности. Тем не менее, эксперты сохраняют оптимизм, рекомендуя инвесторам «оставаться в длинной позиции». Они подчёркивают, что уровень $95 000–98 000 остаётся привлекательным для долгосрочных вложений, особенно на фоне высокого спроса на ETF и активности корпоративных инвесторов. По их прогнозам, цена биткоина может достичь $200 000 в течение следующих 12 месяцев, что делает текущие уровни привлекательными для стратегических инвесторов.

У Nvidia нашлась ахиллесова пята — треть выручки зависит от настроения трёх клиентов

Компания Nvidia сильно зависит от горстки крупнейших заказчиков, которые активно покупают ускорители вычислений для задач ИИ и в совокупности приносят компании более трети дохода. Это ставит Nvidia в уязвимое положение, хотя в ближайшее время компании и её инвесторам вряд ли стоит беспокоиться — спрос на ИИ-ускорители только растёт.

 Источник изображений: Nvidia

Источник изображений: Nvidia

В квартальном отчёте по форме 10-Q, который компании подают в Комиссию по ценным бумагам и биржам США, Nvidia в очередной раз заявила, что у неё есть ключевые клиенты, которые настолько важны, что заказы каждого из них формируют более 10 % от глобальной выручки Nvidia. При этом компания не раскрывает имена этих клиентов, что логично, поскольку вряд ли бы они хотели, чтобы их инвесторы, сотрудники, критики, активисты и конкуренты узнали, сколько именно денег они тратят на чипы Nvidia.

В отчёте за второй квартал Nvidia указала четырёх крупнейших клиентов, а в последнем квартале упоминается три таких «кита», поскольку один из них сократил закупки. Хотя доподлинно неизвестно, что это за клиенты, Мандип Сингх (Mandeep Singh), руководитель глобального отдела технологических исследований Bloomberg Intelligence, считает, что речь идёт о Microsoft, Meta и, возможно, Super Micro.

Сама Nvidia называет их просто «клиент A», «клиент B» и «клиент C». Сообща они приобрели товаров и услуг на общую сумму 12,6 миллиарда долларов в третьем финансовом квартале, завершившемся в конце октября. Это более трети от общей выручки Nvidia, которая составила 35,1 миллиарда долларов. Также отмечается, что каждый из «китов» приобрёл товаров и услуг Nvidia на сумму от 10 до 11 миллиардов долларов за первые девять месяцев текущего финансового года.

Примечательно, что вклад «китов» в выручку оказался равнозначным: на каждого пришлось по 12 %, что говорит о том, что они, скорее всего, закупили максимальное количество выделенных им чипов, но не столько, сколько им хотелось бы в идеале. Это согласуется с комментариями генерального директора Дженсена Хуанга (Jensen Huang) о том, что Nvidia ограничена в поставках. Компания не может просто производить больше чипов, поскольку она сама их не выпускает, а заказывает производство у TSMC, мощности которой расписаны на годы вперёд.

Поскольку имена крупнейших покупателей чипов Nvidia засекречены, трудно сказать, являются ли они «посредниками», как Super Micro Computer, которая выпускает серверы для центров обработки данных, или конечными пользователями, как Microsoft, Meta или xAI Илона Маска (Elon Musk). Последняя, например, практически из ниоткуда построила мощнейший ИИ-суперкомпьютер всего за три месяца.

Тем не менее полагаться на горстку крупных клиентов весьма рискованно — если кто-то из них, а ещё хуже, все разом, перестанут закупать ИИ-чипы, у Nvidia резко упадёт выручка. К счастью для инвесторов Nvidia, в ближайшее время такое маловероятно.

Аналитик Bloomberg Intelligence Мандип Сингх видит лишь несколько долгосрочных рисков для Nvidia. Во-первых, некоторые крупные клиенты, вероятно, со временем сократят заказы в пользу собственных чипов, что приведёт к уменьшению доли компании на рынке. Одним из таких клиентов является Alphabet, у которой есть собственные ИИ-чипы семейства TPU.

Во-вторых, Nvidia доминирует в области ускорителей для обучения ИИ, но не может похвастаться тем же в сфере чипов для инференса — запуска уже обученных нейросетей. Для инференса не требуются столь мощные чипы, что означает для Nvidia гораздо большую конкуренцию не только со стороны AMD и других прямых соперников, но и со стороны компаний с собственными чипами, таких как Tesla.

В конечном счёте запуск обученных нейросетей станет гораздо более значимым бизнесом, поскольку всё больше предприятий будут использовать ИИ, считает аналитик. «Многие компании пытаются сфокусироваться на возможностях инференса, потому что для этого не нужен самый мощный GPU-ускоритель», — заявил Сингх. Он также отметил, что в долгосрочной перспективе переход на чипы для инференса является «безусловно» большим риском для Nvidia, чем потеря доли рынка чипов для обучения ИИ.

И тем не менее Сингх отмечает, что верит прогнозу Дженсена Хуанга о том, что расходы крупнейших клиентов на ИИ-чипы не прекратятся. Даже если доля Nvidia на рынке ИИ-чипов сократится с нынешних 90 %, компания всё равно сможет ежегодно зарабатывать на этом сотни миллиардов долларов.

«Квантовые жёсткие диски» стали ближе к реальности благодаря разработке австралийских учёных

Учёные из Австралии сообщили о разработке «трёхмерных» топологических кодов коррекции ошибок квантовых вычислений. Предложенная ими схема использует для коррекции меньше физических кубитов в пересчёте на один логический кубит. Новшество обещает приблизить появление «квантовых жёстких дисков» — хранилищ квантовых состояний для вычислений с невообразимым уровнем производительности.

 Источник изображения: ИИ-генерация Кандинский 3.1/3DNews

Источник изображения: ИИ-генерация Кандинский 3.1/3DNews

Как известно, время когерентности кубитов — время удержания запутанных квантовых состояний — очень маленькое по причине их высочайшей нестабильности. И если с физикой бороться предельно сложно, то операции коррекции ошибок могут помочь в проведении безошибочных вычислений. Классические компьютеры это показали с достаточной убедительностью. Но в случае операций с кубитами всё намного сложнее — для них нужны свои коды и механизмы коррекции.

Традиционным методом исправления ошибок в квантовых вычислениях признан так называемый топологический код или поверхностный код, у которого также есть другие названия. Это своего рода таблица или матрица, которая требует физической или схемотехнической реализации логических кубитов из нескольких физических. В идеале для безошибочной работы каждого логического кубита необходимо 1000 физических кубитов, но на таком подходе масштабируемую вычислительную квантовую платформу построить нельзя.

Учёные из Австралии поставили перед собой задачу уйти от традиционного поверхностного кода и создать его трёхмерный аналог, который помог бы облегчить создание квантового вычислителя или симулятора с более эффективной коррекцией ошибок и экономным расходованием физических кубитов. Как недавно они сообщили в журнале Nature Communications, им это удалось.

«Предлагаемая нами квантовая архитектура потребует меньше кубитов для подавления большего количества ошибок, высвободив больше для полезной квантовой обработки», — говорится в заявлении ведущего автора работы Доминика Уильямсона (Dominic Williamson), исследователя из Нано-института и школы физики Университета Сиднея (University of Sydney Nano Institute and School of Physics).

«Этот прогресс имеет решающее значение для разработки масштабируемых квантовых компьютеров, поскольку позволяет создавать более компактные системы квантовой памяти, — сказано в аннотации к работе. — За счёт сокращения физических затрат на кубиты полученные результаты прокладывают путь к созданию более компактного "квантового жёсткого диска" — эффективной системы квантовой памяти, способной надёжно хранить огромные объёмы квантовой информации».


window-new
Soft
Hard
Тренды 🔥
Количество слияний и поглощений в российском IT-секторе в 2024 году выросло на треть 10 мин.
В рекордной краже криптовалюты у ByBit обвинили северокорейских хакеров 10 ч.
OpenAI провела зачистку ChatGPT от аккаунтов из Китая и Северной Кореи, подозреваемых во вредоносной деятельности 10 ч.
«Нам просто нужно больше мощностей»: OpenAI постепенно поборет зависимость от Microsoft 10 ч.
Трамповская криптооттепель: Coinbase удалось малой кровью отделаться от иска Комиссии по ценным бумагам США 11 ч.
Apple выпустила первую бету iOS 18.4, в которой появились «приоритетные уведомления» 13 ч.
Новая статья: Kingdom Come: Deliverance II — ролевое вознесение. Рецензия 24 ч.
Apple отключила сквозное шифрование в iCloud по требованию властей Великобритании 24 ч.
Взрывной платформер Shotgun Cop Man от создателя My Friend Pedro предложит спуститься в ад и арестовать Дьявола — трейлер и демоверсия в Steam 21-02 22:01
Valve заблокировала игру в российском Steam по требованию Роскомнадзора 21-02 20:20
Lenovo сообщила о двузначном росте выручки за III финансовый квартал по всем подразделениям — ISG снова в плюсе благодаря ИИ 14 мин.
Учёные придумали, как дуть на серверы так, чтобы расходы на охлаждение упали на 60 % 39 мин.
В облаке Google Cloud появились инстансы A4X на базе суперускорителей NVIDIA GB200 NVL72 40 мин.
STMicroelectronics представила фотонный чип для 1,6-Тбит/с сетей 47 мин.
Несмотря на риск землетрясений, геотермальную энергию ждёт светлое будущее, считают учёные 2 ч.
Размышляющий ИИ DeepSeek R1 встроят в смартфоны Infinix Note 50 5 ч.
Nvidia признала, что не знает, когда сможет решить все проблемы видеокарт GeForce RTX 5000 7 ч.
Huawei захватила больше половины рынка складных смартфонов в Китае — на втором месте Honor 8 ч.
В Asus разогнали GeForce RTX 5090 до 3,5 ГГц и установили несколько рекордов 9 ч.
Норвежцы представили человекоподобного робота для дома и семьи — он мягкий и обтекаемый 10 ч.