Опрос
|
реклама
Быстрый переход
Китай заявил, что создал квантовый процессор ничуть не хуже нашумевшего Google Willow
18.12.2024 [21:57],
Геннадий Детинич
Неделю назад Google сообщила о создании самого мощного в мире квантового процессора Willow с 105 сверхпроводящими кубитами. Этот процессор поддерживает передовую технологию коррекции ошибок, решая одну из самых сложных проблем квантовых вычислений. Прошло всего семь дней, и китайские учёные поведали о создании квантового процессора Zuchongzhi 3.0 («Дзучунжи-3»), который, по их словам, ничем не уступает Google Willow. Китай не отстаёт от США в квантовых технологиях. Квантовые вычисления обещают экспоненциальное ускорение расчётов благодаря особенностям квантовой механики, таким как суперпозиция и запутанность квантовых битов — кубитов. Чаще всего речь идёт о симуляциях. Например, квантовые системы (процессоры и компьютеры) могут воспроизводить поведение атомов в кристаллических решётках, позволяя проводить эксперименты «вычисляя ответ» без использования физических образцов. Кроме того, квантовые платформы отлично справляются с задачами оптимизации, где обработка огромного объёма данных заменяется переходом квантовой системы в состояние с минимальной энергией (так называемый квантовый отжиг). В обоих случаях, будь то вычисления или симуляции, больше всего ресурсов требуется для коррекции ошибок. Один из популярных методов борьбы с ними — поверхностный код, который представляет собой матрицу из физических кубитов. Размер этой матрицы напрямую влияет на точность и скорость выполнения расчётов. Google утверждает (пока без детальных объяснений), что добилась значительного прорыва в использовании поверхностного кода для коррекции ошибок. В свою очередь, китайские учёные из Университета науки и технологий Китая (USTC) в своей статье, пока ещё не прошедшей рецензирование, заявили, что также совершили прорыв в этом направлении и намерены развивать свои технологии. Через несколько месяцев процессор Zuchongzhi 3.0 («Дзучунжи-3») может продемонстрировать уровень коррекции ошибок, превосходящий достижения компании Google, если исходить из заявлений китайских исследователей. Временная глава Intel не верит в успех ИИ-ускорителей Falcon Shores, но это «первый шаг в верном направлении»
13.12.2024 [17:48],
Николай Хижняк
Руководство компании Intel не верит, что компания сможет в скором времени составить достойную конкуренцию Nvidia и AMD в сфере ИИ-ускорителей. Во всяком случае, такое впечатление сложилось после недавних комментариев одной из временно исполняющей обязанности руководителя компании Мишель Джонстон Холтхаус (Michell Johnston Holthaus) на 22-й ежегодной глобальной технологической конференции Barclays. Напомним, Intel разрабатывает ускорители вычислений Falcon Shores, в основу которого будет положен графический процессор, заточенный под высокопроизводительные вычислений и задачи ЦОД, а дополнят GPU элементы актуальных ИИ-ускорителей Gaudi. Проект по разработке данного решения получил неожиданную оценку от Холтхаус: «Нам действительно нужно подумать о том, как перейти от Gaudi к нашему первому поколению GPU Falcon Shores. Будет ли новый продукт удивительным? Нет, не будет. Но он станет первым шагом в верном направлении». Хольтхаус ещё раз подчеркнула новый прагматичный подход Intel к вопросам разработки аппаратных решений для ускорения ИИ, когда затронула тему стратегии развития продуктов: «Если всё бросить и начать создать новый продукт, то его разработка займёт очень много времени. Прежде чем что-то появится потребуется два–три года. Вместо этого я предпочла бы создать что-то в меньших объёмах, научиться чему-то новому, последовательно совершенствуясь, чтобы в конечном итоге добиться поставленных целей». Врио главы Intel признала устойчивый характер возможностей рынка ИИ, акцентировав текущий интерес индустрии к обучению ИИ-моделей. Однако Хольтхаус также подчеркнула потенциал широких возможностей в других областях: «Очевидно, что ИИ никуда не денется. Очевидно, что обучение [ИИ] сегодня находится центре внимания, но есть возможности развития и на других направлениях, где также отмечаются потребности с точки зрения нового аппаратного обеспечения». По всей видимости она подразумевала инференс — запуск уже обученных нейросетей. Из сказанного можно сделать вывод, что Falcon Shores не станет для Intel чудесным спасательным кругом, который позволит ей наверстать отставание от Nvidia на рынке GPU-ускорителей. Это в большей степени первая ступень к разработке первоклассного продукта в перспективе. Следующим проектом Intel после Falcon Shores должен стать Jaguar Shores. Его выход ожидается в конце 2025 или начале 2026 года в виде ускорителей ИИ и HPC для центров обработки данных. Однако до его появления компании предстоит проделать немало работы по усовершенствованию не только своего аппаратного, но и программного обеспечения. Доминирующе положение Nvidia на рынке ИИ во многом обязано её программно-аппаратной архитектуре CUDA, поскольку конкуренты, например, AMD, предлагают сопоставимую аппаратную производительность. Перед Intel стоит очень непростая задача. Ей предстоит обеспечить разработку экосистемного программного обеспечения и «бесшовную» интеграцию своих ускорителей следующего поколения, чтобы Jaguar Shores имел шансы догнать остальную часть рынка. Квантовый прорыв Google не несёт угрозы биткоину, но только до поры, до времени
11.12.2024 [11:24],
Дмитрий Федоров
Недавнее заявление Google о создании квантового чипа Willow с вычислительной мощностью в 105 кубитов спровоцировало обсуждения по поводу угрозы квантовых технологий для криптографических алгоритмов Bitcoin, таких как Elliptic Curve Digital Signature Algorithm (ECDSA) и Secure Hash Algorithm (SHA-256). Тем не менее, эксперты отмечают, что для реального взлома криптографической защиты биткоина потребуется несколько миллионов кубитов, и такая угроза остаётся весьма отдалённой. ECDSA, алгоритм проверки цифровой подписи при помощи криптографии на эллиптических кривых, обеспечивает создание и проверку цифровых подписей, подтверждающих подлинность транзакций и право владельца на управление средствами. SHA-256, алгоритм криптографического хеширования, выполняет ключевую роль в обеспечении целостности данных блокчейна и формирует основу механизма доказательства выполнения работы (Proof-of-Work), позволяя сети надёжно защищать транзакции и подтверждать новые блоки. Эти технологии являются фундаментом криптографической защиты Bitcoin, однако с развитием квантовых вычислений их устойчивость может подвергнуться серьёзным испытаниям. Аналитики Bernstein подчёркивают, что, несмотря на стремительное развитие квантовых технологий, практическая угроза для криптографических стандартов Bitcoin остаётся весьма отдалённой, поскольку текущие квантовые компьютеры не обладают достаточной мощностью для таких атак. Однако сообщество Bitcoin уже активно обсуждает переход на квантово-устойчивые криптографические алгоритмы, способные заменить существующие стандарты. Переход на квантово-устойчивую криптографию сопряжён с серьёзными техническими вызовами. Как отмечает разработчик и создатель протокола Bitcoin STAMPS, известный под псевдонимом Mike In Space, квантово-устойчивые цифровые подписи имеют значительно больший размер, что потребует увеличения размера блока и, соответственно, изменений в архитектуре сети. Такая модификация может потребовать хардфорка, который, в случае разногласий внутри сообщества, способен привести к расколу сети. Альтернативным решением может стать мягкий форк, однако он потребует длительного и дорогостоящего процесса перевода средств пользователей на новую систему, что в условиях текущих ограничений по размеру блока может занять годы. Чарльз Эдвардс (Charles Edwards), основатель Capriole Investments, предостерегает, что угроза квантовых вычислений может стать реальностью уже в ближайшие 5–10 лет. По его оценке, квантовый компьютер с 2500 логическими кубитами будет способен скомпрометировать безопасность алгоритма SHA-256, который играет важную роль в защите блокчейна Bitcoin. Эдвардс подчёркивает необходимость немедленных действий, поскольку согласование квантово-устойчивых криптографических стандартов и их внедрение может занять годы. Задержки в реализации этих мер могут существенно сократить временной запас для защиты сети от новых угроз. Развитие квантовых вычислений представляет собой угрозу не только для криптовалют, но и для широкого спектра современных технологий. Под угрозой оказываются банковские счета, системы безопасного хранения данных, коммуникационные протоколы и другие решения, которые зависят от криптографических стандартов, таких как RSA, ECDSA и AES. Эта проблема носит глобальный характер, требуя координированных усилий разработчиков, учёных и регуляторов для создания и внедрения квантово-устойчивых алгоритмов, которые помогут минимизировать риски, вызванные стремительной технологической революцией. Аналитики Bernstein отметили, что снижение цены биткоина после преодоления отметки $100 000 было вызвано рыночными факторами, включая избыточное использование кредитного плеча, что привело к усилению волатильности. Тем не менее, эксперты сохраняют оптимизм, рекомендуя инвесторам «оставаться в длинной позиции». Они подчёркивают, что уровень $95 000–98 000 остаётся привлекательным для долгосрочных вложений, особенно на фоне высокого спроса на ETF и активности корпоративных инвесторов. По их прогнозам, цена биткоина может достичь $200 000 в течение следующих 12 месяцев, что делает текущие уровни привлекательными для стратегических инвесторов. У Nvidia нашлась ахиллесова пята — треть выручки зависит от настроения трёх клиентов
22.11.2024 [23:17],
Андрей Созинов
Компания Nvidia сильно зависит от горстки крупнейших заказчиков, которые активно покупают ускорители вычислений для задач ИИ и в совокупности приносят компании более трети дохода. Это ставит Nvidia в уязвимое положение, хотя в ближайшее время компании и её инвесторам вряд ли стоит беспокоиться — спрос на ИИ-ускорители только растёт. В квартальном отчёте по форме 10-Q, который компании подают в Комиссию по ценным бумагам и биржам США, Nvidia в очередной раз заявила, что у неё есть ключевые клиенты, которые настолько важны, что заказы каждого из них формируют более 10 % от глобальной выручки Nvidia. При этом компания не раскрывает имена этих клиентов, что логично, поскольку вряд ли бы они хотели, чтобы их инвесторы, сотрудники, критики, активисты и конкуренты узнали, сколько именно денег они тратят на чипы Nvidia. В отчёте за второй квартал Nvidia указала четырёх крупнейших клиентов, а в последнем квартале упоминается три таких «кита», поскольку один из них сократил закупки. Хотя доподлинно неизвестно, что это за клиенты, Мандип Сингх (Mandeep Singh), руководитель глобального отдела технологических исследований Bloomberg Intelligence, считает, что речь идёт о Microsoft, Meta✴ и, возможно, Super Micro. Сама Nvidia называет их просто «клиент A», «клиент B» и «клиент C». Сообща они приобрели товаров и услуг на общую сумму 12,6 миллиарда долларов в третьем финансовом квартале, завершившемся в конце октября. Это более трети от общей выручки Nvidia, которая составила 35,1 миллиарда долларов. Также отмечается, что каждый из «китов» приобрёл товаров и услуг Nvidia на сумму от 10 до 11 миллиардов долларов за первые девять месяцев текущего финансового года. Примечательно, что вклад «китов» в выручку оказался равнозначным: на каждого пришлось по 12 %, что говорит о том, что они, скорее всего, закупили максимальное количество выделенных им чипов, но не столько, сколько им хотелось бы в идеале. Это согласуется с комментариями генерального директора Дженсена Хуанга (Jensen Huang) о том, что Nvidia ограничена в поставках. Компания не может просто производить больше чипов, поскольку она сама их не выпускает, а заказывает производство у TSMC, мощности которой расписаны на годы вперёд. Поскольку имена крупнейших покупателей чипов Nvidia засекречены, трудно сказать, являются ли они «посредниками», как Super Micro Computer, которая выпускает серверы для центров обработки данных, или конечными пользователями, как Microsoft, Meta✴ или xAI Илона Маска (Elon Musk). Последняя, например, практически из ниоткуда построила мощнейший ИИ-суперкомпьютер всего за три месяца. Тем не менее полагаться на горстку крупных клиентов весьма рискованно — если кто-то из них, а ещё хуже, все разом, перестанут закупать ИИ-чипы, у Nvidia резко упадёт выручка. К счастью для инвесторов Nvidia, в ближайшее время такое маловероятно. Аналитик Bloomberg Intelligence Мандип Сингх видит лишь несколько долгосрочных рисков для Nvidia. Во-первых, некоторые крупные клиенты, вероятно, со временем сократят заказы в пользу собственных чипов, что приведёт к уменьшению доли компании на рынке. Одним из таких клиентов является Alphabet, у которой есть собственные ИИ-чипы семейства TPU. Во-вторых, Nvidia доминирует в области ускорителей для обучения ИИ, но не может похвастаться тем же в сфере чипов для инференса — запуска уже обученных нейросетей. Для инференса не требуются столь мощные чипы, что означает для Nvidia гораздо большую конкуренцию не только со стороны AMD и других прямых соперников, но и со стороны компаний с собственными чипами, таких как Tesla. В конечном счёте запуск обученных нейросетей станет гораздо более значимым бизнесом, поскольку всё больше предприятий будут использовать ИИ, считает аналитик. «Многие компании пытаются сфокусироваться на возможностях инференса, потому что для этого не нужен самый мощный GPU-ускоритель», — заявил Сингх. Он также отметил, что в долгосрочной перспективе переход на чипы для инференса является «безусловно» большим риском для Nvidia, чем потеря доли рынка чипов для обучения ИИ. И тем не менее Сингх отмечает, что верит прогнозу Дженсена Хуанга о том, что расходы крупнейших клиентов на ИИ-чипы не прекратятся. Даже если доля Nvidia на рынке ИИ-чипов сократится с нынешних 90 %, компания всё равно сможет ежегодно зарабатывать на этом сотни миллиардов долларов. «Квантовые жёсткие диски» стали ближе к реальности благодаря разработке австралийских учёных
21.11.2024 [14:34],
Геннадий Детинич
Учёные из Австралии сообщили о разработке «трёхмерных» топологических кодов коррекции ошибок квантовых вычислений. Предложенная ими схема использует для коррекции меньше физических кубитов в пересчёте на один логический кубит. Новшество обещает приблизить появление «квантовых жёстких дисков» — хранилищ квантовых состояний для вычислений с невообразимым уровнем производительности. Как известно, время когерентности кубитов — время удержания запутанных квантовых состояний — очень маленькое по причине их высочайшей нестабильности. И если с физикой бороться предельно сложно, то операции коррекции ошибок могут помочь в проведении безошибочных вычислений. Классические компьютеры это показали с достаточной убедительностью. Но в случае операций с кубитами всё намного сложнее — для них нужны свои коды и механизмы коррекции. Традиционным методом исправления ошибок в квантовых вычислениях признан так называемый топологический код или поверхностный код, у которого также есть другие названия. Это своего рода таблица или матрица, которая требует физической или схемотехнической реализации логических кубитов из нескольких физических. В идеале для безошибочной работы каждого логического кубита необходимо 1000 физических кубитов, но на таком подходе масштабируемую вычислительную квантовую платформу построить нельзя. Учёные из Австралии поставили перед собой задачу уйти от традиционного поверхностного кода и создать его трёхмерный аналог, который помог бы облегчить создание квантового вычислителя или симулятора с более эффективной коррекцией ошибок и экономным расходованием физических кубитов. Как недавно они сообщили в журнале Nature Communications, им это удалось. «Предлагаемая нами квантовая архитектура потребует меньше кубитов для подавления большего количества ошибок, высвободив больше для полезной квантовой обработки», — говорится в заявлении ведущего автора работы Доминика Уильямсона (Dominic Williamson), исследователя из Нано-института и школы физики Университета Сиднея (University of Sydney Nano Institute and School of Physics). «Этот прогресс имеет решающее значение для разработки масштабируемых квантовых компьютеров, поскольку позволяет создавать более компактные системы квантовой памяти, — сказано в аннотации к работе. — За счёт сокращения физических затрат на кубиты полученные результаты прокладывают путь к созданию более компактного "квантового жёсткого диска" — эффективной системы квантовой памяти, способной надёжно хранить огромные объёмы квантовой информации». Создан первый в мире полностью механический кубит
19.11.2024 [13:12],
Геннадий Детинич
Швейцарские учёные впервые придали кубиту осязаемые физические черты. Вместо ионов, атомов и электромагнитных ловушек они предложили кубит на основе резонирующей пьезоэлектрической мембраны. Тем самым учёные значительно повысили время когерентности кубита, в течение которого он дольше остаётся в состоянии суперпозиции. Это открывает возможность проводить с ним квантовые вычисления или использовать его в качестве сверхчувствительного датчика Учёные давно научились транслировать квантовые свойства элементарных частиц и атомов в состояния кубитов для вычислений или измерений. Однако эти методы страдают от высокой вероятности ошибок и крайне малого времени удержания квантовых состояний, что затрудняет свободное манипулирование ими. Было бы заманчиво воспроизвести квантовые состояния на макроскопическом уровне, обучив систему реагировать на изменения на микроуровне. Этого удалось добиться исследователям из Швейцарской высшей технической школы Цюриха (ETH Zürich). Учёные объединили сверхпроводящий кубит и пьезоэлектрический резонатор. Предложенное решение позволило транслировать состояние суперпозиции в резонансные колебания мембраны. По сути, это первый полностью механический кубит, утверждают исследователи. В ходе серии экспериментов они доказали, что устройство способно реагировать на одиночные фотоны. Время когерентности механического (точнее, акустического) кубита значительно превышает время когерентности «бозонных» кубитов и напрямую зависит от типа используемых сверхпроводящих материалов. На следующем этапе учёные намерены проверить предложенный ими механический кубит в составе вычислительных схем квантового компьютера, а также использовать его в качестве сенсора для различных измерений. Nvidia поможет Google в разработке эффективных квантовых процессоров
19.11.2024 [04:30],
Николай Хижняк
Компания Nvidia поможет Alphabet, материнской компании Google, в разработке квантовых процессоров. Согласно заявлению обеих компаний, подразделение Google Quantum AI будет использовать суперкомпьютер Nvidia Eos для ускорения проектирования квантовых компонентов. Идея состоит в том, чтобы на базе суперкомпьютера Nvidia Eos моделировать физические процессоры, необходимые для работы квантовых процессоров, что поможет преодолеть текущие ограничения в разработке по-настоящему эффективных квантовых систем. Квантовые вычисления основаны на принципах использования квантовой механики для создания машин, которые будут намного быстрее, чем современные технологии на основе полупроводников. Однако для массового характера использования таких технологий время пока не пришло. Как сообщает Bloomberg, несмотря на то, что различные компании заявляли о прорывах в области квантовых вычислений, могут потребоваться десятилетия, чтобы на рынке появились действительно крупномасштабные коммерческие проекты, связанные с квантовыми вычислениями. Nvidia, самая дорогая компания в мире, считает, что её аппаратные технологии помогут Google решить одну сложную проблему, связанную с квантовыми вычислениями. По мере того, как квантовые процессоры становятся всё более сложными и мощными, в квантовых вычислениях становится всё сложнее различать фактическую информацию и помехи, известные как шум. «Разработка коммерчески полезных квантовых компьютеров возможна только в том случае, если мы сможем масштабировать квантовое оборудование, контролируя шум. Используя ускоренные вычисления Nvidia, мы изучаем влияние шума на растущую сложность схем квантовых чипов», — прокомментировал Гифре Видал (Guifre Vidal), научный сотрудник Google Quantum AI. Для поиска решений Nvidia предлагает использовать гигантский суперкомпьютер, в котором используются её ИИ-ускорители. С помощью суперкомпьютера будут моделироваться процессы взаимодействия квантовых систем с окружающей средой. Например, многие квантовые чипы необходимо охлаждать до очень низких температур, чтобы они вообще работали. Раньше такие вычисления были чрезвычайно дорогими и отнимали много времени. Nvidia заявляет, что её система будет выдавать результаты расчётов, на которых ранее ушла бы неделя, за считанные минуты, и это обойдётся значительно дешевле. В Китае установили рекорд по времени удержания квантовых состояний
14.11.2024 [11:30],
Геннадий Детинич
Квантовые состояния крайне нестабильны, но обладают невероятными возможностями. То же состояние квантовой запутанности Эйнштейн называл «ужасным» и не мог до конца принять, что запутанные атомы могут «чувствовать» друг друга на разных концах Вселенной. Такие свойства неоценимы для проведения сверхчувствительных измерений и даже для поиска новой физики, но им мешает чрезвычайная краткость времени когерентности, которую преодолели учёные из Китая. На сайте arXiv появилась статья исследователей из Университета науки и технологий Китая, в которой заявляется об удержании квантовых состояний атомов в течение 23 минут, что можно считать абсолютным рекордом. Обычно время когерентности не превышает нескольких миллисекунд, что кратно меньше нового достижения. Статья пока не прошла рецензирование и должна восприниматься с осторожностью. Однако если другие коллективы смогут повторить опыт китайских учёных, то это станет крупным прорывом в разработке квантовых технологий. Эксперимент заключается в охлаждении 10 тыс. атомов иттербия до нескольких тысячных градуса выше абсолютного нуля, которые затем были пойманы в ловушку электромагнитными полями лазерного излучения. В этих условиях квантовыми состояниями атомов можно было очень точно управлять, и исследователи воспользовались этим, чтобы перевести каждый атом в суперпозицию двух состояний с наиболее сильно отличающимися спинами. Точная настройка лазеров — оптических ловушек — позволила удерживать атомы в состоянии суперпозиции 1400 секунд или 23 мин. Этого времени будет достаточно для постановки экспериментов в квантовой физике, для измерений с погрешностью менее квантового предела (это так называемое квантовое превосходство в метрологии), для квантовой компьютерной памяти, наконец. Учёные нашли путь к созданию PCM-памяти, которая потребляет в миллион раз меньше энергии
06.11.2024 [23:59],
Геннадий Детинич
Международная группа учёных обнаружила удивительный эффект в таком полупроводнике, как селенид индия (In2Se3). Под действием тока материал переходил из кристаллической формы в аморфную, затрачивая на это в миллион раз меньше энергии, чем в случае обычной импульсной записи памяти с фазовым переходом (полупроводниковой или на перезаписываемых оптических дисках типа DVD). Открытие обещает обернуться созданием невероятно эффективной компьютерной памяти. Память с фазовым переходом, будь то полупроводниковая или в виде оптических дисков, остаётся достаточно энергоёмкой в моменты записи и стирания, хотя хранить данные она может без потребления энергии. Запись и стирание происходят импульсами, которые буквально плавят материал в ячейке или в слое диска — нагрев в локальной области может достигать 800 °C. Быстрое остывание расплава не позволяет ему восстановить кристаллическую структуру. Аморфное состояние ведёт к высокому сопротивлению току, а кристаллическое — к низкому, что определяет состояние ячейки 0 или 1. С оптическими накопителями всё работает по-другому, но принцип тот же. Проводя опыты в Университете Пенсильвании (UPenn) с проволокой из селенида индия, учёные обнаружили, что материал полностью перешёл в аморфное состояние без воздействия импульсом. По проволоке пропускался небольшой ток, и в один момент он перестал проходить. Анализ показал, что материал приобрёл аморфную структуру. К изучению вопроса подключились учёные из Массачусетского технологического института (MIT), а на анализ образцы были отправлены в Индийский институт науки (IISc). В IISc учёные разработали методологию наблюдения за процессом аморфизации селенида индия буквально по шагам в нанометровом масштабе и в более крупном масштабе. Оказалось, что вступают в работу два свойства селенида индия — пьезоэлектрика и сегнетоэлектрика. Небольшой ток создаёт домен аморфизации в материале, а возникающие напряжения в кристаллической решётке провоцируют что-то вроде эффекта землетрясения на соседних участках, и процесс приобретает лавинообразный характер. Процесс остановится только тогда, когда весь материал станет аморфным. Сделанное открытие может привести к созданию невероятно энергоэффективной памяти с фазовым переходом (). По словам учёных, на аморфизацию ячейки памяти из селенида индия требуется одна миллионная от типичного потребления современной памяти PCM, что преобразит все системы хранения и вычислений. AMD готовит ответ Nvidia в области нейронного рендеринга для видеоигр
30.10.2024 [06:04],
Анжелла Марина
AMD планирует догнать Nvidia в области технологии трассировки лучей в реальном времени, используя нейронные сети. На данный момент Nvidia доминирует на рынке видеокарт благодаря своим передовым технологиям на основе искусственного интеллекта и машинного обучения, таким как DLSS. AMD пока значительно отстаёт, особенно в потребительском сегменте, однако рассчитывает изменить ситуацию в ближайшее время. По информации издания Tom's Hardware, исследования AMD сосредоточены на внедрении трассировки лучей в реальном времени на графических процессорах архитектуры RDNA с помощью нейронных сетей. Разрабатываемая технология направлена на нейронное устранение шумов, возникающих при использовании ограниченного количества лучей в трассировке. Это напоминает подход Nvidia с технологией DLSS 3.5, которая использует восстановление лучей для улучшения изображения при меньшем количестве расчётов. Традиционная трассировка лучей требует огромного количества вычислений — иногда тысячи или десятки тысяч лучей на каждый пиксель, что является стандартом, применяемым в киноиндустрии, где на рендеринг одного кадра могут уходить часы. При трассировке лучей сцена рендерится путём вычисления отражений света, где каждое изменение траектории луча может привести к разной цветовой интерпретации пикселя. Чем больше таких расчётов, тем лучше становится итоговое изображение. Однако для достижения трассировки лучей в реальном времени, что актуально для видеоигр, количество таких расчётов необходимо значительно уменьшить. Но это приведёт к ещё большему появлению шумов в изображениях из-за того, что некоторые лучи часто не достигают определённых пикселей, вызывая неполное освещение сцены. AMD планирует решить этот вопрос с помощью нейронной сети, которая будет устранять эти проблемы и восстанавливать детали сцены, аналогично подходу Nvidia. Собственно инновация AMD заключается в объединении апскейлинга и устранения шума в одной нейронной сети. Как заявляет сама компания, их подход «генерирует высококачественные изображения с устранением шума и суперсемплингом при более высоком разрешении дисплея, чем разрешение рендеринга для трассировки путей в реальном времени». Это позволит выполнять апскейлинг за один проход. Исследования AMD могут привести к созданию новой версии FSR (технология временного масштабирования), которая сможет конкурировать с технологиями Nvidia по производительности и качеству изображения. Однако встаёт вопрос, смогут ли существующие графические процессоры AMD поддерживать нейронные сети для устранения шумов или потребуется новое оборудование? Например, DLSS от Nvidia требует наличия специального ИИ-оборудования на графических процессорах GeForce RTX, а также оптического потокового ускорителя для генерации кадров на GeForce RTX 40-й серии и более поздних моделях. Текущие же графические процессоры AMD в основном не оснащены специальными ускорителями для ИИ, в отличие от Nvidia GeForce RTX, где такие ускорители играют ключевую роль в реализации DLSS. Если AMD сможет реализовать эффективный подход к нейронной трассировке лучей и апскейлингу, это позволит расширить доступ к высококачественной графике на более широком спектре оборудования. Однако учитывая высокие требования к трассировке лучей в современных играх, таких как Alan Wake 2 и Cyberpunk 2077, для достижения высокого уровня качества изображения компании, вероятно, потребуется более мощное оборудование. Открыто самое большое простое число — в нём 41 миллион цифр
22.10.2024 [17:01],
Павел Котов
Бывший инженер-программист Nvidia Люк Дюран (Luke Durant) и проект GIMPS (Great Internet Mersenne Prime Search) нашли самое большое на сегодняшний день известное человеку простое число, для написания которого потребуются 41 млн цифр. GIMPS — это попытка добровольцев по всему миру обнаружить простые числа Мерсенна, которые имеют вид 2n-1. Самое большое простое число, известное человеку на данный момент — это 2136 279 841-1; а обозначается оно как M136279841. Чтобы получить это число, потребуется умножать двойку на себя более 136 млн раз, а из получившегося результата вычесть единицу. До этого шестью годами ранее было найдено поставившее предыдущий рекорд число M82589933. Новое открытие знаменательно тем, что его совершили, использовав графические процессоры в центрах обработки данных. Первым ресурсы графических процессоров задействовал в 2017 году Михай Преда (Mihai Preda) — он «написал программу GpuOwl для проверки чисел Мерсенна на простоту и сделал своё ПО доступным для всех пользователей GIMPS». В 2023 году к GIMPS подключился Люк Дюран, и участники проекта построили инфраструктуру, необходимую для развёртывания программы Преды на нескольких GPU-серверах в облаке. Работа заняла год, но усилия принесли плоды 11 октября, когда ускоритель Nvidia A100 в ирландском Дублине выдал результат M136279841, а подтвердил его расположенный в техасском Сан-Антонио Nvidia H100. Это интересное упражнение для любителей математики и напоминание, что графические процессоры в ЦОД полезны не только в области искусственного интеллекта. Они могут применяться для моделирования, при котором требуется большое количество исходных данных, для криптографии и многого другого. Мощность графических процессоров растёт, и они продолжат помогать в поиске ещё бо́льших простых чисел. Китайцы использовали квантовый компьютер D-Wave Systems для взлома AES-шифрования — у них почти получилось
12.10.2024 [13:19],
Геннадий Детинич
Китайские учёные опубликовали в национальном рецензируемом журнале Chinese Journal of Computers статью, в которой сообщили об эффективных атаках на ряд алгоритмов AES-шифрования. Атаки были проведены с использованием квантового компьютера канадской компании D-Wave Systems. Но основным «ударным» механизмом стал новый математический аппарат, разработанный в Китае. Специалисты оценили угрозу как «реальную и существенную». Шифрование AES с ключами выше определённой длины сегодня считается чрезвычайно защищённым. Но это с точки зрения обычных компьютерных вычислений. Квантовые компьютеры и соответствующие алгоритмы потенциально обещают играючи взламывать ключи AES. Считается, что для этого должно пройти 10, 20 или даже больше лет. Однако есть опасения и признаки того, что всё произойдёт намного раньше — уже через 3-5 лет. Группа китайских учёных из Шанхайского университета в своей новой работе показала, что ряд алгоритмов шифрования, лежащих в основе AES, могут быть скомпрометированы квантовыми компьютерами. Используя квантовый компьютер канадской компании D-Wave Systems учёные провели атаку на алгоритмы Present, Gift-64 и Rectangle, которые относятся к так называемому блочному шифрованию Substitution-Permutation network (подстановочно-перестановочная сеть). Код не был взломан окончательно, как говорится в работе, но команда исследователей была близка к этому как никто и никогда ранее. Сеть SP является частью AES-шифрования, с помощью которого банковский сектор, госструктуры и военные всего мира хранят свои секреты. Даже призрачная угроза в данном случае должна рассматриваться, как реальная. «Это первый случай, когда настоящий квантовый компьютер представляет реальную и существенную угрозу для множества полномасштабных структурированных алгоритмов SPN, используемых сегодня», — говорится в рецензируемой статье. Сам квантовый компьютер D-Wave Systems с трудом можно назвать квантовым. Он использует принцип квантового отжига — работает на поиске энергетических минимумов, что в физике соответствует стремлению атомов к наименьшему энергетическому состоянию. Всё, что осталось после обработки — «прогорания» — данных и есть искомый результат. Учёным нужно было лишь создать математический аппарат для обработки данных в нужном для них направлении. Такой аппарат с привлечением ИИ был создан, но он не универсальный и это затрудняет практическое использование квантовых платформ сегодня, в том числе, для успешного взлома AES-ключей. AMD представила ИИ-ускоритель Instinct MI325X для конкуренции с Nvidia Blackwell и рассказала о ещё более мощном Instinct MI355X
11.10.2024 [08:44],
Анжелла Марина
Компания AMD официально представила флагманский ускоритель вычислений Instinct MI325X, который станет конкурентом для Nvidia Blackwell и уже поступил в производство. Вместе с тем производитель раскрыл подробности об ускорителе следующего поколения — Instinct MI355X на архитектуре CDNA4. В последние годы AMD отмечает значительный рост спроса на свои ИИ-ускорители. При этом серия MI300 пользуется особой популярностью. Однако, как пишет издание Tom's Hardware, MI355X вызывает определённые вопросы по части брендирования, поскольку архитектура CDNA использовалась в MI100, CDNA2 — в MI200, а CDNA3 — в серии MI300. Логично было бы увидеть CDNA4 в ускорителях MI400, но они получат архитектуру следующего поколения. Как бы от ни было, CDNA4 — это новая архитектура, которая представляет собой значительное обновление прежней CDNA3. AMD описала её как «переосмысление с нуля», хотя, по мнению экспертов, это может быть и некоторым преувеличением. Ускоритель MI355X будет производиться по новому 3-нм техпроцессу N3 от TSMC, потребовав серьёзных изменений по сравнению с N5, но основные элементы дизайна могут остаться схожими с CDNA3. Объём памяти HBM3e достигнет 288 Гбайт. Ускоритель будет оснащён 10 вычислительными элементами на один GPU, а производительность достигнет 2,3 петафлопса вычислительной мощности для операций FP16 и 4,6 петафлопса для FP8, что на 77 % больше по сравнению с ускорителем предыдущего поколения. Одним из ключевых нововведений MI355X станет поддержка чисел с плавающей запятой FP4 и FP6, которые удвоят вычислительную мощность по сравнению с FP8, позволив достигнуть 9,2 петафлопса производительности в FP4. Для сравнения, Nvidia Blackwell B200 предлагает до 9 Пфлопс производительности в FP4, а более мощная версия GB200 — 10 Пфлопс. Таким образом, AMD Instinct MI355X может стать серьёзным конкурентом для будущих продуктов Nvidia, в том числе благодаря 288 Гбайт памяти HBM3E — это на 50 % больше, чем у Nvidia Blackwell. При этом оба устройства будут иметь пропускную способность памяти до 8 Тбайт/с на GPU. Как отмечают эксперты, вычислительная мощность и объём памяти — это не единственные ключевые параметры для ИИ-ускорителей. Важным фактором становится масштабируемость систем при использовании большого числа GPU. Пока AMD не раскрыла подробности о возможных изменениях в системе интерконнекта между GPU, что может оказаться важным аспектом в сравнении с Blackwell от Nvidia. Вместе с анонсом Instinct MI355X компания AMD подтвердила, что ускоритель Instinct MI325X официально запущен в производство и поступит в продажу в этом квартале. Основным отличием MI325X от предыдущей модели MI300X стало увеличение объёма памяти со 192 до 256 Гбайт. Что интересно, изначально планировалось оснастить ускоритель 288 Гбайт памяти, но видимо AMD решили ограничиться приростом в 33 % вместо 50 %. Память HBM3E в новинке обеспечивает пропускную способность более 6 Тбайт/с, что на 13 % больше, чем 5,3 Тбайт/с у MI300X. AMD провела сравнительный анализ производительности Instinct MI325X и Nvidia H200. Ускоритель AMD оказался на 20-40 % быстрее конкурента в запуске уже обученных больших языковых моделей, а в обучении нейросетей показал паритет производительности. AMD не раскрыла стоимость своих ИИ-ускорителей, но представители компании заявили, что одной из целей является предоставление преимущества по совокупной стоимости владения (TCO). Это может быть достигнуто либо за счёт лучшей производительности при той же цене, либо за счёт более низкой цены при одинаковой производительности. Как отметил представитель AMD: «Мы являемся деловыми людьми и будем принимать ответственные решения относительно ценообразования». Instinct MI355X планируется к поставкам во второй половине 2025 года. Google снова показала квантовое превосходство — квантовые компьютеры стали ближе к практическому применению
10.10.2024 [09:19],
Дмитрий Федоров
Группа учёных под руководством Google сообщила о прорыве в области квантовых вычислений. Они снова продемонстрировали квантовое превосходство — способность квантового компьютера выполнять вычисления, на которые не способен классический, — но на этот раз сосредоточились на точности вычислений. Также учёные показали, что существуют фазовые переходы в вычислительных процессах, что открывает путь к дальнейшему развитию квантовых технологий. Ещё в 2019 году Google заявляла о достижении квантового превосходства, вызвав бурные споры в научном сообществе. Тогда IBM подвергла сомнению этот результат, утверждая, что классические алгоритмы могут быть оптимизированы для решения аналогичных задач. В новой работе, опубликованной в журнале Nature, учёные описали эксперимент с использованием метода случайной выборки цепей (Random Circuit Sampling, RCS), в ходе которого 67-кубитная система выполнила 32 цикла вычислений. Акцент сделан не на квантовом превосходстве, а на том, что даже при наличии шумов — основного ограничения для квантовых процессоров и главной причины ошибок вычислений — можно добиться вычислительных успехов, которые превосходят возможности классических систем. Это доказывает, что квантовые вычисления приближаются к фазе практического применения. Термин «квантовое превосходство» вызывает определённые споры в научном сообществе. Некоторые исследователи предпочитают использовать термины «квантовая полезность» (Quantum Utility) или «квантовое преимущество» (Quantum Advantage). Последний термин подразумевает не только теоретическое превосходство квантовых устройств, но и их практическую пользу. В отличие от квантового превосходства, которое не связано с реальной полезностью для задач, квантовое преимущество предполагает выполнение задач быстрее и эффективнее, чем на классических компьютерах. Квантовые процессоры, несмотря на их потенциал, остаются чрезвычайно чувствительными к внешним шумам, таким как температурные колебания, магнитные поля или даже космическая радиация. Эти помехи могут существенно снижать точность вычислений. В исследовании Google учёные изучили влияние шума на работу квантовых устройств и провели эксперимент, который позволил исследовать два ключевых фазовых перехода: динамический переход, зависящий от числа циклов, и квантовый фазовый переход, влияющий на уровень ошибок. Результаты показали, что даже в условиях шума квантовые системы эпохи NISQ могут достичь вычислительной сложности, недоступной для классических систем. Метод случайной выборки цепей (RCS), использованный в эксперименте, ранее подвергался критике за свою простоту и кажущуюся бесполезность. Однако Google подчёркивает, что RCS является ключевым методом для перехода к задачам, которые невозможно решить на классических компьютерах. Этот метод оптимизирует квантовые корреляции с использованием операций типа iSWAP, что предотвращает упрощение классических эмуляций. Благодаря этому подходу Google смогла чётко обозначить границы возможностей квантовых систем, стимулируя конкуренцию между квантовыми и классическими вычислительными платформами. В исследовании также рассматриваются перспективы практического использования квантовых процессоров. Одним из первых примеров может стать сертифицированное генерирование по-настоящему случайных чисел, требующее высокой вычислительной сложности и устойчивости к шумам. Серджио Бойксо (Sergio Boixo), руководитель квантовых исследований Google, в своём интервью для Nature отметил: «Если квантовые устройства не смогут продемонстрировать преимущество с помощью RCS, самого простого из примеров использования, то вряд ли они смогут это сделать в других задачах». Работа Google представляет собой значительный вклад в развитие квантовых технологий. Хотя практическое применение квантовых устройств остаётся сложной задачей, такие направления, как сертифицированное генерирование случайных чисел, могут стать первым шагом к их коммерческому использованию. Несмотря на сложности, связанные с шумами, эксперименты Google показывают, что переход от теоретических исследований к практическому применению квантовых устройств становится всё более реальным. Дженсен Хуанг: будущее за рассуждающим ИИ, но для этого необходимо в разы удешевить вычисления
09.10.2024 [21:55],
Дмитрий Федоров
Дженсен Хуанг (Jensen Huang), бессменный руководитель Nvidia, заявил, что будущее ИИ — за системами, способными к рассуждению. Однако для реализации этой концепции необходимо значительно снизить стоимость вычислений. Хуанг подчеркнул, что его компания стремится ежегодно увеличивать производительность чипов в 2–3 раза, сохраняя текущий уровень их стоимости и энергопотребления. В рамках подкаста, организованного Рене Хаасом (Rene Haas), генеральным директором Arm Holdings, Хуанг поделился своим видением развития ИИ. По его словам, следующее поколение интеллектуальных систем сможет отвечать на запросы пользователей, проходя через сотни или даже тысячи шагов анализа собственных выводов. Эта способность к глубокому рассуждению станет ключевым отличием от современных ИИ, таких как ChatGPT, которым, как признался Хуанг, он пользуется ежедневно. Nvidia стремится создать фундамент для такого прорыва и ставит перед собой амбициозную цель: ежегодно повышать производительность своих чипов в 2–3 раза при сохранении прежнего уровня стоимости и энергопотребления. Такой подход призван революционизировать способность ИИ-систем распознавать сложные паттерны и делать осознанные выводы. «Мы способны обеспечить беспрецедентное снижение затрат на интеллектуальные системы. Все мы осознаём ценность этого достижения. При существенном сокращении расходов мы сможем реализовать на этапе инференса такие сложные процессы, как рассуждение», — подчеркнул Хуанг. Nvidia занимает доминирующую позицию на рынке ускорителей для ИИ, контролируя более 90 % этого сегмента рынка. Однако компания не ограничивается только производством чипов. Её стратегия включает в себя разработку компьютеров, программного обеспечения (ПО), ИИ-моделей, сетевых решений и других сервисов. Такая диверсификация направлена на стимулирование более широкого внедрения ИИ в бизнес-процессы различных компаний. Несмотря на лидирующие позиции, Nvidia сталкивается с растущей конкуренцией. Крупные операторы дата-центров, такие как Amazon Web Services (AWS) и Microsoft, разрабатывают собственные альтернативные решения, чтобы ослабить зависимость от продуктов Nvidia. Кроме того, компания AMD, давний соперник Nvidia на рынке игровых чипов, активно выходит на рынок ИИ-ускорителей, что может усилить конкурентное давление на лидера индустрии. |
✴ Входит в перечень общественных объединений и религиозных организаций, в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25.07.2002 № 114-ФЗ «О противодействии экстремистской деятельности»; |