Опрос
|
реклама
Быстрый переход
GeForce RTX 5090 теряет всего 1 % производительности при использовании интерфейса PCIe 4.0 x16, но проблемы могут создать переходники
25.01.2025 [04:06],
Николай Хижняк
Видеокарты GeForce RTX 50-й серии от Nvidia получили поддержку PCIe 5.0. Это означает, что новая графика имеет доступ к интерфейсу, обеспечивающему вдвое большую скорость взаимодействия с CPU по сравнению с PCIe 4.0. Портал TechPowerUp, а также YouTube-канал HardwareCanucks провели тесты новой флагманской карты GeForce RTX 5090 и выяснили, сколько производительности потеряет карта в случае её использования на материнских платах, не поддерживающих интерфейс PCIe 5.0. ![]() Источник изображений: TechPowerUp Как показывает практика, разница в производительности будет едва заметной, если только карта не будет работать в режиме линий x8, x4 или x1. При использовании RTX 5090 с поддержкой PCIe 5.0 в слоте материнской платы PCIe 4.0 x16 разница в быстродействии составит всего 1 процент. Владельцам старых материнских плат с поддержкой только PCIe 3.0 тоже не следует сильно волноваться. Средняя потеря производительности в разрешении 1080p/1440p составляет 4 %, а при использовании разрешения 4K потеря составит 3 %. Если по какой-то причине в ПК для видеокарты отведено меньше свободных линий PCIe, например, из-за ошибки самого пользователя, ограничений материнской платы или из-за использования видеокарты в качестве внешней, то к графикам ниже следует присмотреться более внимательно. Например, при использовании конфигурации PCIe 4.0 x4, что соответствует спецификациям интерфейса OCuLink для внешних видеокарт, в разрешении 1080p карта GeForce RTX 5090 обеспечит только 89 % своей производительности (потеря 11 %), в разрешении 1440p производительность карты составит 90 % (потеря 10 %), а в разрешении 4K — 94 % (потеря 6 %). Следует отметить, что карта стоимостью от $2000 и оснащённая 32 Гбайт видеопамяти явно предназначена не только для игр. Энтузиасты технологий ИИ и машинного обучения, решившие использовать её в качестве внешнего ускорителя через интерфейс OCuLink, вряд ли почувствуют значительную просадку в производительности, но для подтверждения этого заявления всё же необходимы более тщательные тесты с использованием AI/LLM-нагрузок. «В общем и целом, если вы используете платформу с поддержкой интерфейса Gen 4 x16, то можете расслабиться, поскольку вы почти ничего не потеряете с GeForce RTX 5090. А любое отличие от наших графиков и вашими результатами может быть связано с тем, что вы используете более медленный процессор по сравнению с нашим тестовым Ryzen 7 9800X3D. Это же относится к пользователям платформ Alder Lake и Raptor Lake, которые планируют использовать GeForce RTX 5090 в слоте Gen 5 x16, который будет работать только в режиме x8 в случае установки NVMe-накопителя стандарта PCIe 5.0, который съест оставшиеся линии PCIe 5.0. Если вы используете более старые интерфейсы Gen 3 x16 или Gen 4 x4 (или по ошибке установили видеокарту не в тот слот на материнской плате), значительную просадку в производительности вы не увидите, но разница будет», — пишет TechPowerUp. TechPowerUp также напоминает, что утилита GPU-Z позволяет проверить, какую спецификацию интерфейса PCIe использует ваша видеокарта. В утилиту также встроен тест для принудительного использования полной пропускной способности интерфейса. Ещё одна вещь, которую следует упомянуть в контексте данной темы, связана с проблемой совместимости специальных переходников-райзеров PCIe с современными материнскими платами. Согласно HardwareCanucks, чей обзор в значительной степени фокусируется на совместимости интерфейсов PCIe, некоторые материнские платы, при подключении райзера не стандарта PCIe 5.0 к разъёму PCIe 5.0 на материнской плате, могут потребовать ручного переключения в BIOS материнской платы настроек PCIe в режим PCIe 4.0 или даже 3.0. Обозреватели обнаружили, что пользователи могут столкнуться с «синими экранами смерти», ошибками загрузки игр или даже с проблемами загрузки ПК, если в работе райзера имеются какие-либо проблемы. Это может стать действительно серьёзной проблемой, поскольку в продаже практически нет переходников-райзеров стандарта PCIe 5.0, а те, что есть, стоят весьма дорого. Как результат, те, кто использует райзеры стандарта PCIe 4.0 и PCIe 3.0, могут столкнуться с проблемами совместимости. Вышли обзоры GeForce RTX 5090 — наконец-то высокий FPS в 4K, но придётся раскошелиться
23.01.2025 [20:40],
Николай Хижняк
Новая флагманская видеокарта GeForce RTX 5090 появится в продаже 30 января. Компания Nvidia разрешила профильным СМИ и блогерам опубликовать сегодня свои обзоры новинки в эталонном исполнении Founders Edition, рекомендованная цена которой составляет $2000. ![]() Источник изображения: TechPowerUp В основе GeForce RTX 5090 используется графический процессор GB202, построенный на архитектуре Blackwell. В составе GPU присутствуют 92,2 млрд транзисторов. Это больше, чем у AD102, являющегося основой GeForce RTX 4090, с 76,3 млрд транзисторами. Однако количественный прирост последних в составе GB202 объясняется не переходом на новый техпроцесс — для производства GB202, как и других процессоров игровых видеокарт линейки Blackwell, используется всё тот же 5-нм техпроцесс TSMC, что и для производства видеокарт GeForce RTX 40-й серии. ![]() Источник изображения: TechPowerUp Прирост количества транзисторов можно объяснить скорее простым увеличением площади самого GPU. Если у AD102 (Ada Lovelace) она составляет 609 мм², то у GB202 она равна 744 мм², что делает его вторым по размерам GPU для потребительских видеокарт после TU102 поколения Turing с площадью 754 мм². В то же время плотность транзисторов у нового графического процессора GB202 даже ниже, чем у предшественника — 123,9 млн/мм² против 125,3 млн/мм² у AD102. ![]() Источник изображения: TechPowerUp Графический процессор GB202 содержит 21 760 ядер CUDA (на 33 % больше, чем у RTX 4090), 680 текстурных блоков, 192 блока растеризации, 170 SM-блоков, 680 тензорных ядер пятого поколения и 170 RT-ядер четвёртого поколения. Базовая частота GPU составляет 2017 МГц, максимальная заявлена на уровне 2407 МГц. Но, как показывает практика, в играх новинка обеспечивает более высокую частоту. GeForce RTX 4090 выдаёт 2750 МГц, несмотря на заявленные 2520 МГц. Флагман серии Blackwell получил 32 Гбайт новой памяти GDDR7 со скоростью 28 Гбит/с на контакт и поддержкой 512-битного интерфейса. Благодаря этому пропускная способность памяти у RTX 5090 на 78 % выше, чем у предшественника, и составляет 1,79 Тбайт/с. Заявленный показатель энергопотребления карты составляет 575 Вт, что на 27 % (125 Вт) выше, чем у RTX 4090. Nvidia рекомендует использовать с новинкой блок питания мощностью не менее 1000 Вт. GeForce RTX 5090 оснащена одним 16-контактным разъёмом дополнительного питания, интерфейсом PCI Express 5.0 x16, а также внешними разъёмами DisplayPort 2.1b и HDMI 2.1a. Одной из ключевых особенностей видеокарт GeForce RTX 50-й серии является эксклюзивная поддержка мультикадрового генератора (Multi Frame Generation, MFG). В отличие от генератора кадров первого поколения, появившегося с выходом видеокарт GeForce RTX 40-й серии, новый генератор создаёт не один, а три дополнительных кадра на каждый традиционно отрисованный кадр для повышения FPS. Но об этом ниже. GeForce RTX 5090 безусловно является картой, предназначенной для игр в разрешении 4K с максимальными настройками качества и трассировки лучей. Поэтому большинство обзоров этой видеокарты в большей степени сосредоточены именно на этом разрешении. Так, игровые тесты портала TechPowerUp показывают, что по чистой растровой производительности (без RT и DLSS), GeForce RTX 5090 обеспечивает до 35 % больше производительности в сравнении с GeForce RTX 4090. Безусловно это впечатляет, поскольку традиционно прибавка производительности между флагманами Nvidia разных поколений составляла порядка 25 %. И всё же эта прибавка меньше, чем была при переходе от GeForce RTX 3090 Ti к GeForce RTX 4090. Согласно тестам TechPowerUp, разница в производительности между поколениями тогда составила порядка 51 %, а согласно другим обозревателям — ещё больше. Новая GeForce RTX 5090 вдвое быстрее RTX 3090 Ti. Конкурентов у видеокарты нет и не предвидится. Ближайший в лице Radeon RX 7900 XTX отстаёт от неё до 75 %. Только вдумайтесь. Производительность в разрешении 4K
Поскольку от карт AMD новой серии Radeon RX 9070 на архитектуре RDNA 4 ожидается производительность где-то между Radeon RX 7900 XT и RX 7900 GRE, новая RTX 5090 будет как минимум вдвое быстрее самой производительной карты AMD нового поколения. По сравнению со второй самой быстрой видеокартой Nvidia поколения Ada Lovelace, GeForce RTX 4080, преимущество RTX 5090 достигает 72 %. И всё это растровая производительность. Ниже будут представлены результаты игровых тестов в разрешениях 1440p и 1080p, в которых новая карта также является безоговорочным лидером. Но стоит повторить, GeForce RTX 5090 не нужна тем, кто использует мониторы с разрешением ниже 4K. В этом случае лучшим решением будет сначала обновить монитор, а ещё лучше — ПК целиком, и уже затем присматриваться к новому флагману Nvidia. Производительность в разрешении 1440p
Производительность в разрешении 1080p
Nvidia значительно поработала над трассировкой лучей у Blackwell. Уровень потери производительности при включении данной технологии ниже, чем у видеокарт Ada Lovelace. Производительность трассировки лучей (RT) в 1080p, 1440p и 4K
Также компания добавила несколько новых методов оптимизации, которые могут использоваться разработчиками игр. Самым интересным из них является нейронный рендеринг, реализованный через API Microsoft DirectX (Cooperative Vectors). Это гарантирует, что функция будет доступна всем производителям видеокарт и её использование будет зависеть только от мотивации разработчиков игр. Производительность трассировки лучей в разрешении 4K у RTX 5090 на 32 % выше, чем у RTX 4090. Самая быстрая видеокарта AMD, Radeon RX 7900 XTX в 2,5 раза медленнее в этом вопросе. Производительность DLSS 4 c трассировкой лучей / трассировкой пути
![]() Смотреть все изображения (4)
![]() ![]() ![]() Смотреть все изображения (4) С момента своего дебюта в 2018 году технология масштабирования с глубоким обучением (DLSS) от Nvidia эволюционировала уже до четвёртой версии. Её последняя итерация перешла на ИИ-модель типа трансформер, что позволило реализовать ряд новых функций, включая мультикадровую генерацию (Multi Frame Generation, MFG). Последняя позволяет создавать до трёх дополнительных кадров на каждый традиционно отрисованный кадр для повышения FPS. MFG является эксклюзивом видеокарт поколения Blackwell, каким был генератор кадров первого поколения для видеокарт GeForce RTX 40-й серии. Более подробно рассказать об этой технологии — потребуется отдельная статья. Здесь лишь отметим, что на данный момент родная поддержка данной функции реализована только в пяти играх. Одной из них является Cyberpunk 2077. ![]() Работа трассировки лучей, масштабирования, генератора кадров (только Nvidia) на разных видеокартах и объём потребляемой видеопамяти в Cyberpunk 2077 На старте продаж RTX 5090 Nvidia обещает 75 игр с поддержкой этой технологии. Здесь важно отметить, что Multi Frame Generation не является каким-то чудом. Да, она значительно повышает FPS в играх (функция предлагает несколько уровней количества отрисовки дополнительных кадров), но вместе с этим повышается и задержка ввода, поскольку на один реально отрисованный видеокартой кадр игра, поддерживающая MFG, дорисовывает до трёх дополнительных кадров. Как результат, если видеокарта выдаёт свои родные 60 кадров в секунду, но на экране игра демонстрирует 200 кадров в секунду, задержка ввода будет ощущаться как при 60 кадрах в секунду, а не как при 200. Эта функция, скорее всего, не появится на видеокартах прошлых поколений, в отличие от других функций DLSS 4. ![]() Работа мультикадрового генератора в игре Cyberpunk 2077. Источник изображения: YouTube / Jayztwocents Переход от свёрточной нейронной сети (Convolutional Neural Network, CNN) в DLSS 3 к ИИ-модели типа трансформер в составе DLSS 4 также оказал влияние на работу функции масштабирования изображения. Самое важное, что здесь необходимо знать, ИИ-модель типа трансформер обеспечивает значительно более высокое качество выходного изображения при масштабировании по сравнению с CNN. По словам обозревателя TechPowerUp, это действительно видно невооружённым глазом. Качество изображения в режиме DLSS «Качество» становится настолько чётким, что в некоторых случаях превосходит качество родного разрешения. Больше никаких мерцаний или размытых текстур низкого разрешения на горизонте. Тонкие провода на изображении становятся кристально чёткими, даже при исходном разрешении ниже 4K. Однако у этого всего есть своя цена — производительность DLSS с ИИ-моделью типа трансформер примерно на 10 % ниже, чем при использовании CNN. Но конечный результат масштабирования этого стоит. Имеет ли смысл говорить об энергопотреблении видеокарты стоимостью от $2000 и с заявленным TDP 575 Вт? Целевая аудитория этого продукта вряд ли обратит внимание на такую «мелочь». Тем не менее карта в играх потребляет всю заявленную мощность. В некоторых случаях энергопотребление оказывается даже выше, а пики достигают 644 Вт (данные TechPowerUp). В режиме простоя энергопотребление карты составляет 30 Вт с одним монитором и 39 Вт с двумя мониторами. Воспроизведение видео требует 54 Вт. В играх энергопотребление составляет около 587 Вт (561 Вт с включённым RT). Максимальное энергопотребление по данным тестов TechPowerUp составило 601 Вт. Речь только о видеокарте, без учёта потребления процессора, материнской платы и других элементов ПК. ![]() Температуры и шум эталонной GeForce RTX 5090 Founders Edition В эталонном исполнении температура GPU GeForce RTX 5090, согласно тестам, составила 77 градусов Цельсия, а память GDDR7 прогрелась до 94 градусов. При этом шум вентиляторов составил 40,1 дБА — она громче эталонных GeForce RTX 4090 (35,1 дБА) и Radeon RX 7900 XTX (39,2 дБА). Вероятно, кастомные версии RTX 5090 от партнёров Nvidia, оснащённые фирменными кулерами, предложат более низкие температуры и шум. Напомним, толщина эталонной версии RTX 5090 составляет всего два слота расширения, при этом карта оснащена только двумя вентиляторами охлаждения. В составе системы охлаждения также используется новая трёхмерная испарительная камера и термоинтерфейс в виде жидкого металла. Подробнее об этом можно почитать здесь. ![]() Источник изображения: Nvidia Для GeForce RTX 5090 действительно нет альтернатив. AMD в рамках нового поколения видеокарт решила даже не пытаться догнать конкурента и фактически полностью уступила старший сегмент игровых ускорителей для решений Nvidia. Картам AMD не хватает чистой производительности и им нечего противопоставить таким функциям, как мультикадровая генерация DLSS и ИИ-модель масштабирования типа трансформер. Об AMD FSR 4 и её особенностях на данный момент ничего неизвестно. С другой стороны, цена в $2000 за RTX 5090 чрезвычайно высока. Это на $400 больше по сравнению с рекомендованной ценой RTX 4090. Несмотря на это, можно не сомневаться, что весь запас этих карт будет полностью распродан — ничего лучшего просто нет. AMD рассказала, какой будет игровая производительность Ryzen 9 9950X3D и 9900X3D
22.01.2025 [06:10],
Николай Хижняк
Будущий флагманский процессор Ryzen 9 9950X3D предложит «сопоставимый» уровень игровой производительности с Ryzen 7 9800X3D, считающимся лучшим игровым игровым процессором на рынке. Об этом в разговоре с порталом VideoGamer заявил менеджер по развитию продуктов и бизнеса AMD Мартейн Бунстра (Martijn Boonstra). ![]() Источник изображения: AMD По словам Бунстры, AMD ожидает, что Ryzen 9 9950X3D и Ryzen 9 9900X3D «обеспечат в общем смысле аналогичную модели Ryzen 7 9800X3D игровую производительность». «Некоторые игры будут работать лучше (если игровой движок использует больше ядер и потоков), некоторые игры будут работать чуть хуже (если игровой движок лучше работает с конфигурациями из одного кристалла CCD), но в целом опыт будет сопоставимым», — заявил Бунстра. Модель Ryzen 7 9800X3D в значительной степени адаптирована для игрового рынка и завоевала значительную популярность благодаря своей поддержке дополнительного разгона. С момента выпуска Ryzen 7 9800X3D в продажу энтузиасты и оверклокеры смогли разогнать процессор до впечатляющих 7,4 ГГц и добились его стабильной работы на частоте 6,9 ГГц при заявленной AMD максимальной частоте 5,2 ГГц для данного чипа. Если исходить исключительно из заявленных характеристик, то модели Ryzen 9 9950X3D и Ryzen 9 9900X3D выглядят значительно производительнее Ryzen 7 9800X3D. Первый имеет 16 ядер и заявленную частоту до 5,7 ГГц, второй оснащён 12 ядрами и работает на частоте до 5,5 ГГц. Также у старших моделей больше кеш-памяти: у Ryzen 9 9950X3D её 144 Мбайт (L2 + L3), а у Ryzen 9 9900X3D — 140 Мбайт (L2 + L3). Общий объём кеш-памяти у того же Ryzen 7 9800X3D составляет 104 Мбайт. Несмотря на состоявшийся анонс Ryzen 9 9950X3D и Ryzen 9 9900X3D, компания AMD пока не объявляла цены этих процессоров. Производитель пообещал их назвать ближе к выпуску чипов. В продаже новые процессоры должны появиться в первом квартале 2025 года, то есть до конца марта. Arm пообещала разобраться с Qualcomm и существенно ускорить чипы для ПК в 2025 году
17.01.2025 [20:17],
Сергей Сурабекянц
Процессоры для ПК с архитектурой Arm демонстрируют высокую энергоэффективность, но уступают конкурентам в тяжёлых рабочих нагрузках. Старший вице-президент Arm Крис Берджи (Chris Bergey) рассказал PC World на выставке CES 2025 о планах компании по существенному увеличению тактовых частот своих процессорных ядер для повышения производительности. Он также заявил, что иск к Qualcomm о нарушении лицензирования — «всё ещё открытый вопрос, который необходимо решить». ![]() Источник изображений: Arm Два наиболее распространённых типа лицензий Arm — на ядро и на архитектуру. В первом случае клиент покупает право на производство уже разработанного изделия, такого как ЦП Cortex или ГП Mali. Во втором случае лицензия даёт свободу разрабатывать собственные ядра с нуля, лишь сохраняя совместимость с архитектурой Arm. Архитектура Arm RISC обычно считается более энергоэффективной, чем архитектура x86, используемая AMD и Intel, хотя для неё требуется либо создание нативных программ, либо использование эмулятора для запуска приложений x86. Хотя чипы Arm часто более эффективны — с точки зрения работы, выполняемой за такт (инструкций за такт, IPC) или за ватт — они все равно могут отставать по общей производительности. Исключением стал специальный чип Apple M4, продемонстрировавший весьма конкурентоспособную однопоточную производительность. «Мы лидируем в IPC в некоторых продуктах на рынке, — сказал Берджи. — Но мы работаем на более низкой частоте, чем некоторые из этих продуктов. И поэтому я просто предлагаю — вы знаете, IPC, умноженное на частоту, правильно, даёт вам [более высокую] производительность. Мы хотим продолжать предоставлять ядра Arm с самой высокой производительностью, поэтому мы продолжим делать эти инвестиции». ![]() Вторым приоритетом для Arm является ускорение рабочих нагрузок ИИ в собственных разработках, в частности в ЦП и ГП. В будущих процессорах, Arm планирует добавить новые масштабируемые векторные расширения. В графических процессорах Arm будет использовать ИИ для улучшения графики. «В мобильном телефоне вы можете выполнять рендеринг в 1080p, 60 Гц, верно? Но вы также можете выполнять рендеринг в 540p, 30 Гц и использовать ИИ для интерполяции», — уверен Берджи. Он утверждает, что использование ИИ для интерполяции или рендеринга изображения более энергоэффективно, чем прямой рендеринг изображения. По словам Берджи, Arm собирается стать лидером в попытках перенести полную обработку на GPU в мобильной среде. Это станет частью Arm CSS for Client — вычислительной платформы Arm следующего поколения. «По сути, мы упрощаем для людей задачу объединения технологий и делаем это для максимизации производительности, — сказал Берджи. — Так что, если вам нужно максимизировать эту частоту и получить конструкцию на четыре гигагерца, мы сможем предоставить вам этот рецепт для некоторых из последних [производственных] узлов». ![]() Arm традиционно поддерживает стабильные отношения со своими партнёрами по лицензированию. Исключением стало продолжающееся с 2022 года судебное разбирательство с Qualcomm. В октябре прошлого года Arm попыталась аннулировать архитектурное лицензионное соглашение с Qualcomm. Но суд по двум из трёх вопросов вынес решение в пользу Qualcomm. По мнению суда, Qualcomm не нарушила лицензии Arm, получив доступ к архитектуре процессоров поглощённой ею компании Nuvia. Однако присяжные не смогли прийти к выводу о том, нарушила ли сама Nuvia условия своей архитектурной лицензии. По словам Берджи, это оставляет дело между двумя компаниями «неразрешённым». «Это всё ещё открытый вопрос, который необходимо решить между двумя сторонами», — заявил он, отказавшись от дальнейших комментариев. GeForce RTX 5090 показала очень скромную производительность в Cyberpunk 2077 в 4К без DLSS 4 и генератора кадров
17.01.2025 [18:32],
Николай Хижняк
Не секрет, что анонс видеокарт GeForce RTX 50-й серии вызвал смешанные отзывы игрового сообщества. С одной стороны, новая технология масштабирования DLSS 4 с мультикадровым генератором (MFG), который работает только на этих картах, позволяют значительно повысить FPS. С другой стороны, не все оказались довольны тем, что прирост достигается в большей степени не за счёт чистой производительности, а благодаря кадрам, отрисованным с использованием различных технологий ИИ. ![]() Источник изображения: Nvidia YouTube-канал PC Centric опубликовал видео, демонстрирующее работу новой флагманской видеокарты GeForce RTX 5090 в игре Cyberpunk 2077 с технологией трассировки путей (Path Tracing) в разрешении 4K, с включёнными и выключенными спорными ИИ-функциями. При включении DLSS 4 в режиме «Производительность» новый генератор кадров MFG увеличивает количество кадров в секунду в четыре раза, создавая три дополнительных кадра. Благодаря этому RTX 5090 выдаёт в игре порядка 280 FPS. Это весьма впечатляющий результат, особенно если учитывать приемлемую задержку около 52 мс с редкими всплесками. ![]() Источник изображений здесь и ниже :YouTube / PC Centric Переключение DLSS на режим «Качество» снизило кадровую частоту до 230 FPS, однако задержка осталась на прежнем уровне — около 50 мс. Примечательно, что при использовании генератора кадров в режиме 3x или даже 2x разница в задержке между ними была незначительной и составляла около 44 мс. Значительная просадка FPS наблюдалась при полном отключении генератора кадров. При включённом DLSS в режиме «Качество» и отключённом генераторе GeForce RTX 5090 едва смогла выдать 70 FPS. После отключения DLSS новый игровой флагман Nvidia упёрся в 34 кадра в секунду, а задержка при этом выросла до 70 мс. Этот тест показал, что DLSS 4 и MFG действительно обеспечивают невероятную прибавку производительности за счёт отрисовки дополнительных кадров. Как показал пример Cyberpunk 2077, эта прибавка достигается с минимальной деградацией изображения (артефактами). GeForce RTX 5090 также впервые отметилась в графических бенчмарках Geekbench OpenCL и Vulkan. Здесь технология DLSS не играет никакой роли. Если вы хотите понять, какие улучшения в чистой производительности предлагает RTX 5090 по сравнению с RTX 4090, то некоторые сведения можно почерпнуть из этих тестов. Один из обозревателей протестировал RTX 5090 в сочетании с процессором Core i9-12900K, материнской платой Asus ROG Strix Z690 и оперативной памятью DDR4-3600. Результаты тестов Geekbench OpenCL и Vulkan показали, что новый игровой флагман Nvidia действительно является самой быстрой видеокартой в указанных бенчмарках. RTX 5090 превосходит модели GeForce RTX 4090 и Radeon RX 7900 XTX в обоих тестах. В тесте Vulkan новая карта по итогам трёх прогонов показала результаты от 331 525 до 359 742 баллов, превзойдя предшественника на 26–37 % (результат RTX 4090 — 262 487 баллов). Однако в тесте OpenCL разница в производительности оказалась значительно ниже — от 6,7 до 15 %. В первых игровых тестах консольный процессор Ryzen Z2 Go оказался всего на 10 % медленнее Ryzen Z1 Extreme
16.01.2025 [23:35],
Николай Хижняк
YouTube-канал Fps Vn опубликовал результаты первых игровых тестов портативной игровой приставки Lenovo Legion Go S. Устройство, представленное в рамках международной выставки электроники CES 2025, оснащено процессором Ryzen Z2 Go и в одной из версий работает под управлением операционной системой SteamOS. ![]() Источник изображений: YouTube / Fps Vn Процессор Ryzen Z2 Go относится к серии Rembrandt и оснащён четырьмя ядрами Zen 3+ с поддержкой восьми виртуальных потоков. Чип работает на частоте до 4,3 ГГц и имеет 10 Мбайт кэш-памяти. Показатель энергопотребления настраивается в пределах от 15 до 30 Вт. В составе процессора также встроенная графика Radeon 680M на базе архитектуры RDNA 2 с 12 исполнительными блоками. ![]() Источник изображения: AMD Игровую производительность Ryzen Z2 Go в составе Lenovo Legion Go S сравнили с показателями процессора Ryzen Z1 Extreme в основе портативной приставки Asus ROG Ally X. Средой тестирования стали игры Black Myth: Wukong, Cyberpunk 2077 и Ghost of Tsushima Director's Cut. Устройства тестировались в разрешении 720p и 1080p, в режимах 15, 20 и 30 Вт для процессора. Игровые бенчмарки показали, что Ryzen Z2 Go всего на 9–10 % медленнее. И это весьма впечатляющий результат, учитывая, что Ryzen Z2 Go использует более старую архитектуру (Zen 3 против Zen 4 у Ryzen Z1 Extreme), оснащён вдвое меньшим количеством физических ядер (четыре против восьми у Ryzen Z1 Extreme), работает на более низкой частоте (4,3 ГГц против 5,1 ГГц у Ryzen Z1 Extreme) и получил менее производительную графику (RDNA 2 против RDNA 3 у Ryzen Z1 Extreme). Ниже представлена таблица со средним значением FPS, которое обеспечивается обеими приставками в разных режимах и при использовании разного разрешения. ![]() Источник изображения: Tom's Hardware Первой в продаже должна появиться старшая версия Legion Go S под Windows. Она ожидается уже в этом месяце по цене $729,99. В марте должен появиться её менее дорогой вариант по цене $599,99. В свою очередь, модель Legion Go S на SteamOS придётся подождать до мая 2025 года, а стоить она будет $499,99. В обоих версиях приставки используется 8-дюйвый WUXGA-дисплей PureSight с соотношением сторон 16:10, разрешением 1920 × 1200 пикселей и частотой обновления 120 Гц. Консоль предложит до 32 Гбайт ОЗУ и аккумулятор ёмкость 55,5 Вт·ч. Nvidia рассказала, насколько карты GeForce RTX 5000 на самом деле быстрее RTX 4000
15.01.2025 [19:08],
Николай Хижняк
Nvidia опубликовала новые данные о производительности видеокарт GeForce RTX 50-й серии, включая результаты бенчмарков без использования технологии масштабирования DLSS 4, которая обеспечивает значительный прирост производительности по сравнению с видеокартами RTX предыдущего поколения. ![]() Источник изображений: Nvidia Nvidia поделилась информацией о производительности видеокарт GeForce RTX 5090, RTX 5080, RTX 5070 Ti и RTX 5070 в двух новых играх — Resident Evil 4 и Horizon Forbidden West. Первую компания тестировала только с трассировкой лучей (RT) и без использования технологии масштабирования DLSS. Во второй использовалась технология масштабирования DLSS, но не последняя версия DLSS 4 со встроенным мультикадровым генератором (Multi Frame Generation, MLG). Портал ComputerBase скомпилировал результаты, демонстрирующие улучшение производительности в зависимости от увеличения числа шейдерных ядер для каждого класса графических процессоров. Согласно этим данным, GeForce RTX 5090 демонстрирует 33-процентный прирост производительности по сравнению с RTX 4090 в указанных играх (Resident Evil 4 и Horizon Forbidden West). Модель RTX 5080, в свою очередь, на 15 % быстрее, а RTX 5070 Ti и RTX 5070 — примерно на 20 % быстрее своих предшественников поколения Ada Lovelace. Новые графики Nvidia включают и другие игры, но эти результаты не подходят для сравнения, поскольку для новых карт компания использовала настройки с включённым мультикадровым генератором, а модели GeForce RTX 40-й серии его не поддерживают, что делает сравнение некорректным. Результаты чистой растровой производительности новых видеокарт, скорее всего, станут известны после публикации первых независимых обзоров, которые ожидаются 24 января. Низкопробный софт AMD не даёт раскрыть потенциал ИИ-ускорителей Instinct MI300X и обойти Nvidia, выяснили эксперты
23.12.2024 [23:11],
Николай Хижняк
Пятимесячное расследование компании SemiAnalysis показало, что специализированные ИИ-ускорители серии AMD MI300X не раскрывают свой потенциал из-за серьёзных проблем в работе программного обеспечения. Этот факт делает все усилия компании по навязыванию жёсткой конкуренции Nvidia, доминирующей на рынке аппаратного обеспечения для ИИ, бессмысленными. ![]() Источник изображения: The Decoder Исследование показало, что программное обеспечение AMD изобилует ошибками, которые делают обучение моделей ИИ практически невозможным без значительной отладки. Таким образом, пока AMD работает над обеспечением качества и простоты использования своих ускорителей, Nvidia продолжает увеличивать разрыв, развёртывая новые функции, библиотеки и повышая производительность своих решений. По итогам обширных тестов, включая тесты GEMM и одноузловое обучение, исследователи пришли к выводу, что AMD не в состоянии преодолеть то, что они называют «неприступным рвом CUDA» — сильное преимущество в виде программного обеспечения, которым обладают ускорители Nvidia. ![]() Источник изображения: SemiAnalysis AMD MI300X «на бумаге» выглядят впечатляюще: 1307 Тфлопс в вычислениях FP16 и 192 Гбайт памяти HBM3. Для сравнения, ускорители Nvidia H100 обладают производительностью 989 Тфлопс и имеют только 80 Гбайт памяти. Однако новое поколение ИИ-ускорителей Nvidia H200 с конфигурациями до 141 Гбайт памяти сокращает разрыв в объёме доступного буфера памяти. Кроме того, системы на базе ускорителей AMD также предлагают более низкую общую стоимость владения благодаря более низким ценам на такие системы и более доступной поддержке сетевой инфраструктуры. ![]() Источник изображения: SemiAnalysis Однако эти преимущества мало что значат на практике. По данным SemiAnalysis, сравнение «голых» спецификаций похоже на «сравнение камер, когда просто проверяешь количество мегапикселей у одной и другой». AMD, отмечают аналитики, таким образом «просто играет с цифрами», но её решения не обеспечивают достаточный уровень производительности в реальных задачах. Исследователи отмечают, что им пришлось напрямую работать с инженерами AMD, чтобы исправить многочисленные ошибки в ПО для получения пригодных для оценки результатов тестов. В то же время системы на базе ускорителей Nvidia работали гладко и без каких-либо дополнительных настроек. «С OOBE от AMD (опыт, который пользователь получает при получении продукта после распаковки или при запуске установщика и подготовке к первому использованию, так называемый "опыт из коробки" — прим. ред.) очень сложно работать. И для перехода к пригодному к использованию состоянию [оборудования] может потребоваться немало терпения и усилий», — пишут эксперты. Особенно показательным для SemiAnalysis оказался случай, когда компания TensorWave, крупнейший поставщик облачных решений на базе графических процессоров AMD, была вынуждена предоставить команде инженеров AMD бесплатный доступ к своим графическим процессорам — тому же оборудованию, которое TensorWave приобрела у AMD — только для устранения проблем с программным обеспечением. Для решения проблем эксперты SemiAnalysis рекомендуют генеральному директору AMD Лизе Су (Lisa Su) более активно инвестировать в разработку и тестирование программного обеспечения. В частности, они предлагают выделить тысячи чипов MI300X для автоматизированного тестирования (аналогичному подходу следует Nvidia для своих ускорителей), упростить сложные переменные среды, одновременно внедрив более эффективные настройки для ускорителей по умолчанию. «Сделайте готовый опыт пригодным к использованию!» — призывают специалисты. Представители SemiAnalysis в своём отчёте признаются, что желают успеха компании AMD в конкуренции с Nvidia, но отмечают, что «к сожалению, для этого ещё многое предстоит сделать». Без существенных улучшений программного обеспечения AMD рискует ещё больше отстать, поскольку Nvidia готовится к массовому выпуску ускорителей нового поколения Blackwell. Хотя, по сообщениям, этот процесс у Nvidia также проходит не совсем гладко. Вышли обзоры Intel Arc B580 — лучшая видеокарта за свои деньги
12.12.2024 [19:18],
Николай Хижняк
Продажи видеокарты Intel Arc B580 нового поколения Battlemage стартуют уже завтра. Intel разрешила профильным изданиям и блогерам рассказать об этой новинке сегодня, однако в обзорах была представлена только эталонная версия видеокарты — Intel Arc B580 Limited Edition. Публикации обзоров моделей с дополнительным заводским разгоном от партнёров Intel начнут появляться в день старта продаж видеокарты, то есть 13 декабря. ![]() Источник изображений: TechPowerUp Intel Arc B580 относится к решениям среднего уровня. Как и её младшая сестра Arc B570, которая поступит в продажу только 16 января следующего года, она основана на архитектуре Xe2 Battlemage. Эта архитектура также используется в составе интегрированной графики процессоров Intel Lunar Lake для ноутбуков. ![]() Источник изображения: Intel Модель Intel Arc B580 получила графический процессор BGM-G21, производимый по 5-нм техпроцессу. Чип содержит 20 ядер на архитектуре Xe2 (2560 шейдерных движков), 160 текстурных блоков, 80 блоков растеризации, 160 тензорных ядер и 20 ядер для трассировки лучей второго поколения. Intel заявляет, что архитектура Xe2 обеспечивает прирост производительности на 70 % на ядро по сравнению с графикой предыдущего поколения Arc Alchemist. Базовая частота GPU новой карты составляет 1700 МГц, а в режиме Boost она повышается до 2670 МГц. Intel Arc B580 оснащена 12 Гбайт памяти GDDR6 с поддержкой 192-битной шины и пропускной способностью 456 Гбайт/с. В эталонном исполнении карта имеет один 8-контактный разъём для дополнительного питания. Энергопотребление новинки заявлено на уровне 190 Вт. Для работы Arc B580 используются только 8 линий PCIe 4.0. Вместе с ней рекомендуется использовать Resizable BAR. Карта поддерживает аппаратное ускорение AV1, HEVC, AVC, VP9 и XAVC-H. Кроме того, она поддерживает фирменные технологии масштабирования XeSS 2 и генерации кадров XeSS Frame Generation, которые повышают игровую производительность. В оснащение карты входят один HDMI 2.1 и три DisplayPort 2.1. Один из разъёмов DisplayPort 2.1 соответствует стандарту UHBR13.5 (54 Гбит/с), два других — UHBR10 (40 Гбит/с). Intel Arc B580 с рекомендованной ценой $250 позиционируется в качестве решения для игр в разрешении 1080p при максимальных настройках качества и для игр в 1440p при сниженных настройках качества изображения. ![]() Производительность в играх с разрешением 1080p
Первые обзоры видеокарты показывают, что она справляется со своей задачей. По данным TechPowerUp, Arc B580 в эталонном исполнении в играх с разрешением 1080p до 42 % быстрее предшественника Arc A580 поколения Alchemist, на 5 % быстрее конкурента GeForce RTX 4060 и почти на 15 % быстрее AMD Radeon RX 7600. Старшая модель Radeon RX 7600 XT на 4 % медленнее новичка от Intel, но дороже почти на $60. Однако уже GeForce RTX 4060 Ti обеспечивает на 21 % больше кадров в секунду, а Radeon RX 7700 XT — на 33 % быстрее новой Arc B580, но и стоят эти карты около $400. ![]() Производительность в играх с разрешением 1440p
При использовании более высокого разрешения Arc B580 также оказывается быстрее конкурентов. Новинка Intel обгоняет GeForce RTX 4060 в среднем на 8 %, модель Radeon RX 7600 оказывается медленнее новичка на 9 %, модель Arc A770 отстаёт от него на 12 %, а прямой предшественник Arc A580 — на целых 30 %. Однако при игре в разрешении 1440p в любом случае придётся жертвовать либо качеством графики, либо использовать технологию масштабирования. А в некоторых случаях потребуется смириться и с тем, и с другим. По мнению обозревателя TechPowerUp, карту сложно рекомендовать в качестве надёжного выбора для игр в 1440p для не слишком требовательных геймеров. ![]() Относительная производительность трассировки лучей в разрешении 1080p В новой графической архитектуре Xe2 компания Intel улучшила работу трассировки лучей. В этом аспекте Arc B580 безусловно лучше прямых конкурентов от AMD. В разрешении 1080p GeForce RTX 4060 всё ещё имеет преимущество над Arc B580, но как только игры запускаются в разрешении 1440p всё преимущество «зелёных» резко улетучивается, поскольку у них заканчивается выделенная память. Производительность в играх с трассировкой лучей в 1080p
Производительность в играх с трассировкой лучей в 1440p
У GeForce RTX 4060 всего 8 Гбайт видеопамяти против 12 Гбайт у Arc B580. Поэтому Arc B580 в некоторых случаях может даже превзойти гораздо более дорогую GeForce RTX 4060 Ti с 8 Гбайт. Версия GeForce RTX 4060 Ti с 16 Гбайт по-прежнему остаётся далеко впереди, но она почти в два раза дороже (425 долларов против 250 долларов). ![]() Относительная производительность трассировки лучей в разрешении 1440p Переход на новый 5-нм техпроцесс TSMC вкупе с архитектурными изменениями определённо пошёл на пользу серии видеокарт Intel Battlemage. В играх Arc B580 потребляет 185 Вт, что делает её намного более энергоэффективной, чем Arc A770 предыдущего поколения с потреблением 235 Вт. Также новая карта потребляет меньше Radeon RX 7600 XT, которой требуется 198 Вт. Модель Radeon RX 7600 требует на 30 Вт меньше мощности (154 Вт), но это небольшая разница с учётом производительности, которую обеспечивает Arc B580. С другой стороны, GeForce RTX 4060 энергоэффективнее по сравнению с новинкой. «Зелёной» карте в играх требуется всего 128 Вт. Однако обозревателям не очень понравилось энергопотребление карты в простое, а также в неигровых сценариях. При бездействии Arc B580 может потреблять 34 Вт, что обозреватели посчитали чрезмерным для видеокарты, выпущенной в 2024 году. Для сравнения, энергопотребление в простое у GeForce RTX 4060 составляет 14 Вт, у модели Radeon RX 7600 XT — 4 Вт, а у Radeon RX 7600 — всего 2 Вт. Карты Arc Alchemist, выпущенные в 2022 году, имели ту же проблему, и Intel, к сожалению, до сих пор её не исправила. Компания предлагает в качестве решения использовать настройки энергопотребления ASMP, которые изначально отключены у большинства настольных ПК и о которых большинство пользователей, вероятно, вообще никогда не слышало. Для их включения необходимо заходить в BIOS материнской платы. Включение ASMP действительно снижает энергопотребление видеокарты в простое до 7 Вт (при подключении одного монитора), однако при использовании конфигурации из нескольких мониторов или при воспроизведении видео энергопотребление карты по-прежнему остаётся высоким — 31 и 36 Вт соответственно. В эталонном исполнении Arc B580 Limited Edition карта обладает относительно низким уровнем шума около 30 дБА. Некоторые самые доступные варианты GeForce RTX 4060 оснащаются менее качественными кулерами, которые шумят сильнее. Температуры новинки тоже приемлемые — 73 °С для GPU под нагрузкой. Если у видеокарт Arc Alchemist в эталонном исполнении не было функции остановки вентиляторов при низкой или отсутствующей нагрузке на графическую подсистему, то у Battlemage появилась такая особенность. Правда работа этой функции Arc B580 несколько раздражает, поскольку вентиляторы то и дело запускаются каждые несколько секунд. Возможно, речь идёт об ошибке в работе алгоритма управления вентиляторами — ответ на вопрос покажут будущие обновления ПО. В версиях от партнёров, оснащённых ещё более эффективными системами охлаждения, температура GPU и памяти должны быть ещё ниже. ![]() Температуры В целом обозреватели называют Arc B580 отличным решением за свои деньги. В плюсы карты записаны соотношение цены видеокарты и её производительности, поддержка трассировки лучей и технологии генерации кадров XeSS 2, высокая энергоэффективность в играх, функция остановки вентиляторов, низкие рабочие температуры, а также хорошие возможности для аппаратного кодирования и декодирования видео. Из минусов отмечаются высокое энергопотребление в простое (требуется включение режима ASMP в BIOS), программные ошибки в алгоритме работы вентиляторов, использование только восьми линий PCIe 4.0 и необходимость в использовании Resizable BAR. Intel Arc B580 оказалась быстрее GeForce RTX 4060 и прежнего флагмана Intel в тесте 3DMark Time Spy
11.12.2024 [16:24],
Николай Хижняк
Публикации первых полноценных обзоров новой видеокарты Intel Arc B580 серии Battlemage ожидаются в ближайшие дни. Однако некоторым обозревателям уже не терпится поделиться информацией о производительности новинки, поэтому в Сети оказались опубликованы данные о быстродействии карты. Правда, пока только в синтетическом бенчмарке 3DMark. ![]() Источник изображения: Intel В графическом тесте 3DMark Time Spy видеокарта Intel Arc B580 показала результат в 14 719 баллов. Обозреватель поделился графиком сравнения производительности новинки с видеокартами GeForce RTX 4060 от Nvidia, а также Intel Arc A770 и A750 предыдущего поколения Arc Alchemist. Результат Arc B580 в этом синтетическом тесте оказался выше, чем у перечисленных моделей. ![]() Источник изображения: Chiphell Intel Arc B580 показала производительность на 31 % выше в 3DMark Time Spy, чем GeForce RTX 4060, а также на 10 % и 19 % выше, чем Intel Arc A770 и A750 соответственно. К сожалению, обозреватель не стал сравнивать B580 с моделью A580, которая формально является её прямым предшественником. Тесты проводились на системе с процессором Intel Core i9-14900KF. Следует отметить, что видеокарты Intel нередко демонстрируют очень хорошую производительность в синтетических бенчмарках, особенно на базе DirectX 12, таких как 3DMark Time Spy. Однако высокая производительность в синтетических тестах не всегда означает столь же высокую игровую производительность. В реальных условиях (например, в играх) разница в производительности между B580 и RTX 4060 будет значительно ниже заявленных 31 %. Даже сама Intel в своих рекламных материалах указывает, что Arc B580 примерно на 10 % быстрее GeForce RTX 4060 в играх при разрешении 1440p. А разница в 1080p между картами может быть ещё меньше. Asus ROG Phone 9 Pro — самый мощный смартфон в мире по версии AnTuTu
03.12.2024 [01:14],
Николай Хижняк
Разработчики мобильного бенчмарка AnTuTu опубликовали рейтинг самых производительных флагманских Android-смартфонов ноября. Список возглавил игровой смартфон Asus ROG Phone 9 Pro, в основе которого используется процессор Snapdragon 8 Elite. Средний результат испытаний ROG Phone 9 Pro в AnTuTu в течение ноября составил 2 932 124 балла. ![]() Источник изображения: Asus За последние два месяца в продаже появилось несколько флагманских смартфонов на базе процессоров Snapdragon 8 Elite и Dimensity 9400. Вскоре после выпуска этих чипов разработчики AnTuTu опубликовали октябрьский рейтинг самых производительных Android-смартфонов, который возглавила модель смартфона OnePlus 13 с новым чипом Qualcomm. Однако уже спустя месяц устройство опустилось на пятую строчку рейтинга. На втором месте в списке самых производительных флагманских смартфонов по итогам ноября по версии AnTuTu оказался Vivo X200 Pro на базе Dimensity 9400, показавший средний результат в 2 860 505 баллов. Разница между первым и вторым местом невелика, но заметна и вполне объяснима. ROG Phone 9 Pro оснащён более эффективной системой охлаждения по сравнению с предшественником, которая позволяет процессору обеспечивать стабильно высокую производительность под тяжёлыми нагрузками. На третьем месте расположился Oppo Find X8 Pro, опять же на базе новейшего флагманского процессора MediaTek. Устройство показало в AnTuTu средний результат 2 847 249 баллов. На четвёртом идёт флагманский смартфон iQOO 13 на базе Snapdragon 8 Elite с 2 846 310 баллами. Следом за OnePlus 13, расположившимся на пятом месте рейтинга самых производительных флагманских смартфонов, идут Find X8 и Vivo X200. Примечательно, что в ноябрьский рейтинг не попал ни один из смартфонов новой серии RedMagic 10. Возможно, его тестировали не слишком часто, и он не дотянул до критериев, согласно которым составляются рейтинги AnTuTu. В сегменте самых производительных Android-смартфонов среднего сегмента рейтинг AnTuTu возглавил Realme GT Neo6 SE. На втором месте оказался OnePlus Ace 3V. Оба устройства оснащены процессорами с Snapdragon 7+ Gen 3. Первый набрал 1 409 226 баллов, а второй — 1 406 565 баллов. На третьем расположился Redmi K70E на базе MediaTek Dimensity 8300 Ultra c 1 349 642 баллами, а на четвёртом и пятом — Realme GT Neo5 SE и Redmi Note 12 Turbo на базе Snapdragon 7+ Gen 2. Десятку замыкает iQOO Z9 на базе Snapdragon 7 Gen 3. Следует напомнить, что ежемесячный рейтинг производительности смартфонов по версии AnTuTu формируется с учётом нескольких факторов. Во-первых, все модели должны пройти как минимум 1000 тестов за месяц. Результаты у той или иной модели могут варьироваться в зависимости от конфигурации смартфона, потому финальный ежемесячный рейтинг может меняться даже с участием одних и тех же аппаратов. Android-флагманы на Snapdragon 8 Elite удивили временем автономной работы
20.11.2024 [19:44],
Сергей Сурабекянц
Высокая производительность новейшего чипа Snapdragon 8 Elite была ожидаема, что подтвердили первые же тесты. Но похоже, что одним из его самых больших преимуществ для будущих Android-флагманов на новом чипе Qualcomm может оказаться существенно возросшая продолжительность автономной работы. Первые тесты показали, что прирост времени работы от батареи оказался значительно выше, чем можно было предположить. ![]() Источник изображения: Qualcomm Тестирование автономности проводилось при помощи смартфонов Asus ROG Phone 9 Pro и OnePlus 13. Оба устройства получили более ёмкие аккумуляторы, чем их предшественники — 5800 мА·ч и 6000 мА·ч соответственно. Однако автономность телефонов возросла намного больше, чем можно было предположить на основе прироста ёмкости батарей. У аккумулятора Asus ROG Phone 9 Pro ёмкость выросла на 5,4 % по сравнению с предшественником, который располагал батареей на 5500 мА·ч. Однако при сравнении времени автономной работы в тесте PCMark продолжительность работы от одной зарядки выросла с чуть более 11 часов до почти 14,5 часов, то есть почти на 30 %. Аккумулятор OnePlus 13 имеет на 11 % большую ёмкость, чем батарея OnePlus 12, при этом новинка на Snapdragon 8 Elite во время тестирования продержалась почти 17,5 часов по сравнению с 12,2 часами у OnePlus 12, то есть на 42 % дольше. Нужно отметить, что в тесте использовалась китайская версия OnePlus 13, а целевой регион OnePlus 12 не сообщается. Сама компания Qualcomm анонсировала экономию энергии Snapdragon 8 Elite в районе 27 %. Как бы то ни было, налицо существенный рост продолжительности работы и очевидно, что Snapdragon 8 Elite играет в этом не последнюю роль. Можно предположить, что и другие устройства на базе этого чипсета продемонстрируют похожее увеличение автономности. AMD показала, как Ryzen AI 300 разносит Intel Lunar Lake в играх — без уловок не обошлось
14.11.2024 [23:12],
Николай Хижняк
Компания AMD похвасталась в своём официальном блоге невероятной игровой производительностью своих мобильных процессоров Ryzen AI 300. Компания утверждает, что её чипы в среднем на 75 % быстрее процессоров Intel Lunar Lake. На деле дела обстоят несколько иначе. ![]() Источник изображений: AMD Данные AMD основаны на 16 игровых тестах в разрешении 1080p при использовании средних настроек качества графики. В них компания сравнивает Ryzen AI 9 HX 370 со встроенной графикой Radeon 890M и процессор Intel Core Ultra 7 258V с графикой Arc 140V. Как заявляет AMD, в среднем Ryzen AI 9 HX 370 демонстрирует 75-процентное преимущество над Core Ultra 7 258V. Например, в Black Ops 6 чип «красных» обеспечивает 99 кадров в секунду, в то время как «синий» конкурент — лишь 48 кадров в секунду. Звучит замечательно, пока не обратишь внимание на детали проведённых тестов. Для своего процессора AMD использует все возможные программные ускорители производительности. В частности, это технологии масштабирования и генерации кадров в FSR 3, а в играх без поддержки FSR 3 в качестве замены применяется генерация кадров на основе драйвера AFMF 2. Программный пакет HYPR-RX, позволяющий использовать технологии Anti-Lag, AMD Fluid Motion Frames 2 (AFMF2), Radeon Super Resolution (RSR), Radeon Boost и/или FidelityFX Super Resolution (FSR) также использовался в играх с его поддержкой. Технологии RSR и AFMF2 работают через драйверы AMD, обеспечивая генерацию кадров и пространственное масштабирование (FSR1) для игр, которые не имеют собственной поддержки масштабирования/генерации кадров, в то время как Radeon Boost динамически снижает разрешение рендеринга в отдельных сценах. Для тестирования процессора Intel компания AMD использовала только технологию масштабирования Intel XeSS, а также FSR — там, где XeSS не поддерживался. Cледует указать на то, что XeSS не обладает технологией генерации кадров, что автоматически ставит AMD в более выгодное предложение. Также из прошлых тестов известно, что FSR всё-таки лучше работает на видеокартах AMD, чем на решениях конкурентов, несмотря на универсальную поддержку. AMD также показала чистую производительность обоих процессоров без использования каких-либо апскейлеров или генераторов кадров. В таких условиях оснащённый встроенной графика Radeon 890M процессор AMD обеспечивал почти такую же производительность, как и Core Ultra 7 258V с графикой Arc 140V. Чип Intel оказался даже быстрее Ryzen AI 9 HX 370 в некоторых играх, включая CoD: Black Ops 6 и Hitman 3. Однако AMD не предоставила точные данные о частоте кадров, показав лишь гистограмму, из-за чего невозможно чётко определить, насколько 258V быстрее или медленнее HX 370. Как и в случае с любыми внутренними тестами заявление AMD о 75-процентном превосходстве стоит воспринимать с определённой долей скепсиса. AMD свой публикацией в первую очередь рекламирует потенциальное повышение быстродействия на 75 % за счет использования программных методов для снижения нагрузки на графику и повышения производительности. Но без этого программного обеспечения собственные цифры AMD показывают, что её Ryzen AI 9 HX 370 работает наравне с Intel Core Ultra 7 258V. Это в основном соответствует результатам независимым обзоров. Как отметил портал Tom’s Hardware, в его тестах без использования технологий программного ускорения чип Intel в разрешении 720p был в среднем на 6,7 % быстрее процессора AMD, а при использовании разрешения 1080p — на 5,5 % быстрее. Вышли обзоры MacBook Pro на M4: впечатляющая производительность и отличный дисплей с нанотекстурой
07.11.2024 [19:57],
Сергей Сурабекянц
В прошлом месяце Apple анонсировала новые 14-и 16-дюймовые модели MacBook Pro на чипах последнего поколения M4, M4 Pro и M4 Max. Новинки получили порты Thunderbolt 5, обновлённые дисплеи и камеры, а также некоторые другие улучшения. За дополнительные $150 доступен дисплей с нанотекстурой. Сегодня были опубликованы первые обзоры журналистов на новые MacBook Pro на чипах серии M4. Мы постарались обобщить мнения авторов этих обзоров. ![]() Источник изображений: https://www.macrumors.com/roundup/macbook-pro/ Появление дисплея с нанотекстурой вызвало массовое одобрение поклонников Apple. По словам Брайана Хитера (Brian Heater) из TechCrunch, «глянцевые дисплеи на Mac — одна из тех вещей, на которые мы жаловались много лет, а многие из нас были просто измотаны отказом Apple предложить альтернативу». Он однозначно советует не экономить и приобрести дисплей с нанотекстурой, особенно если требуется работать на улице при дневном свете. Сам Хитер планирует отныне использовать устройства Apple только с такими дисплеями. Антонио Дж. Ди Бенедетто (Antonio G. Di Benedetto) из The Verge полностью поддерживает своего коллегу: «Что касается моих правок на дисплее с нанотекстурой, я знаю, что глянцевые экраны имеют немного более глубокий контраст, но мне нравится не беспокоиться о бликах. Я не занимаюсь монтажом исключительно в темной комнате с закрытым контрольным монитором, и мне нравится гибкость работы в местах с неидеальными условиями освещения. Удобство нанотекстуры намного перевешивает любые незначительные технические преимущества глянцевого дисплея». По словам Джейсона Снелла (Jason Snell) из Six Colors, «использование дисплея с нанотекстурой немного странно — отражения просто останавливаются на краю экрана, как по волшебству». По его мнению дисплей «работает невероятно хорошо», причём наличие нанотекстуры практически не заметно при нормальных условиях освещения. Однако, Снелл отметил «некоторое некритичное снижение контрастности». ![]() Ди Бенедетто довольно высоко оценил прирост производительности чипа M4, отметив, что он всё же уступает «в изнурительных рабочих нагрузках» своим «старшим братьям» M4 Pro и M4 Max. По словам Ди Бенедетто, в стандартном многоядерном тесте Cinebench процессор M4 показал себя примерно на 64 процента лучше, чем M3 и смог поддерживать 41-процентную разницу с M3 в процессе длительного 30-минутного цикла того же бенчмарка. Одноядерная производительность в Cinebench и Geekbench также была более чем на 20 процентов лучше. Керри Ван (Kerry Wan) из ZDNet принял как должное, что M4 MacBook Pro превосходит своих предшественников, а также некоторые из последних машин Windows, работающих на чипсетах Qualcomm Snapdragon X Elite и Intel Core Ultra. «Довольно впечатляюще видеть, как M4 MacBook Pro за 1599 долларов опережает 16-дюймовый MacBook Pro с чипом M1 Pro, за который я заплатил почти 3000 долларов» — добавил он. Лэнс Уланофф (Lance Ulanoff) из TechRadar подтвердил, что результаты тестов соответствуют производительности M4, которую он видел на iPad Pro 13 дюймов, а показатели Geekbench 6.3 заметно превосходят показатели M3 на MacBook Air. Он считает, что расширение ОЗУ до 16 Гбайт и более также вносит вклад в общее повышение производительности, особенно в области ИИ и графически интенсивных операций, таких как трассировка лучей. Уланофф отметил достойную производительность нового чипа в современных играх — в Shadow of the Tomb Raider частота кадров уверенно держалась между 42 и 62 кадрами в секунду без разрывов и пропущенных кадров. Автор также обратил внимание, что M4 Max теперь является самым быстрым чипом Apple в базе данных Geekbench 6. ![]() Авторы обзоров отдельно отметили значительно улучшенную веб-камеру. По мнению Ди Бенедетто, «у Apple есть история поставок разочаровывающих веб-камер, даже на её Studio Display за 1599 долларов, который стоит столько же, сколько M4 MacBook Pro и только что выпущенный iPad Mini». Поэтому он с особым тщанием тестировал 12-мегапиксельную камеру в новом MacBook Pro. По его мнению, она имеет высокую контрастность, успешно справляется с контровым светом, а программное обеспечение Center Stage «достаточно хорошо удерживает вас в кадре, не будучи чрезмерно агрессивным при перекадрировании». Ди Бенедетто подверг критике функцию Desk View, которая использует обрезку и программные исправления, чтобы показать вид сверху на стол пользователя. По его мнению, изображение «искажено и имеет низкое разрешение, и есть множество лучших способов показать и рассказать во время видеозвонка — включая использование вашего iPhone и собственной функции Continuity Camera от Apple». По мнению Девиндры Хардавар (Devindra Hardawar) из Engadget, обновление веб-камеры MacBook Pro до 12 мегапикселей «является большим шагом вперёд по сравнению с предыдущей камерой». Она отметила, что наличие камеры с высоким разрешением «обеспечивает полноценную работу функции Center Stage, которая удерживает пользователя в фокусе даже во время перемещений по комнате». «Я ненавидела предыдущие веб-камеры Apple — я помню, насколько посредственными были её старые веб-камеры. Новые модели обеспечивают намного более чёткое изображение с более точными цветами. Они также поддерживают Desk View (выше), полезную функцию Apple для демонстрации объектов под вашим экраном» — добавила Хардавар. ![]() В завершение — видеоматериалы с распаковкой и первыми впечатлениями о новых MacBook Pro: Ryzen 7 9800X3D разогнали до 6,9 ГГц и добились более 1000 FPS в Counter-Strike 2 и Valorant
07.11.2024 [16:02],
Николай Хижняк
Глава китайского отдела Asus Тони Ю (Tony Yu) опубликовал в социальной сети Bilibili видео с тестами нового игрового процессора Ryzen 7 9800X3D. Чип разогнали под жидким азотом до частоты 6,9 ГГц, благодаря чему система обеспечила более 1000 кадров в секунду в различных соревновательных играх. ![]() Источник изображений: Bilibili Новый Ryzen 7 9800X3D и без разгона обеспечивает невероятный уровень игровой производительности, обгоняя всех своих предшественников, а также актуальных конкурентов, о чём свидетельствуют первые обзоры чипа. Однако под экстремальным разгоном процессор демонстрирует настоящие чудеса. В ходе эксперимента Ryzen 7 9800X3D разогнали до частот 6,7–6,9 ГГц. Для этой цели также использовалась материнская плата Asus ROG Crosshair X670E Gene. В тесте многопоточной производительности Cinebench R23 после экстремального разгона чип набрал 30 513 баллов (при частоте около 6,75 ГГц), превзойдя более чем на 30 % свой результат в том же тесте при использовании автоматической функции разгона AMD PBO. Напомним, что Ryzen 7 9800X3D стал первым процессором из серии X3D, официально поддерживающим разгон. В тестовой системе также использовалась флагманская видеокарта Nvidia GeForce RTX 4090 и 32 Гбайт оперативной памяти DDR4-6000 (CL30). Несмотря на экстремальный разгон пиковое энергопотребление процессора в тесте под нагрузкой составило около 200 Вт. Это на 80 Вт выше номинального TDP и гораздо ниже пиковых значений процессоров Intel последних поколений. В играх же разогнанный Ryzen 7 9800X3D потреблял гораздо меньше. В Counter-Strike 2 разогнанный Ryzen 7 9800X3D обеспечил 1262,9 кадра в секунду в разрешении 1080p и максимальных настройках качества графики. Примерно столько же показал разогнанный Intel Core i9-14900K. Но для достижения более 1300 кадров в секунду Core i9-14900K пришлось разогнать до 8 ГГц. При этом чип Intel потреблял значительно больше Ryzen 7 9800X3D, находившегося в диапазоне энергопотребления около 100 Вт. В Valorant процессор Ryzen 7 9800X3D обеспечил более 2000 кадров в секунду в меню выбора персонажа и свыше 1500 кадров в секунду непосредственно в игровом матче. Средний показатель FPS составил около 1100. Здесь использовались те же игровые настройки (1080p, максимальное качество изображения). Наиболее любопытным стало то, что в разгоне до 6,9 ГГц энергопотребление чипа составило около 100 Вт. С учётом того, что большинство соревновательных игр запускаются именно в разрешении 1080p, Ryzen 7 9800X3D способен обеспечивать невероятный уровень частоты кадров, что делает его идеальным решением для систем с видеокартами нового поколения, а также для самых передовых игровых мониторов с частотой обновления 600 Гц и выше, которые уже находятся в разработке. По словам Тони Ю, Ryzen 7 9800X3D без проблем обеспечивает от 500 до 900 кадров в секунду в соревновательных играх без разгона. |