Опрос
|
реклама
Быстрый переход
Встроенная графика AMD догнала GeForce RTX 4070 — вышли обзоры Ryzen AI Max+ 395 с мощнейшим iGPU Radeon 8060S
19.02.2025 [09:59],
Николай Хижняк
Компания AMD разрешила публикацию обзоров новых мобильных процессоров Ryzen AI 300 Max с кодовым названием Strix Halo. Поскольку решений на базе этих чипов пока выпущено не так много, большинство обозревателей оценили производительность Ryzen AI 300 Max в составе 13-дюймового игрового планшета Asus ROG Flow Z13. ![]() Источник изображения: AMD Ryzen AI 300 Max представляют собой большие APU с двумя чиплетами с вычислительными ядрами (CCD), а также огромным кристаллом ввода-вывода (I/O Die). В последнем размещена мощная встроенная графика, насчитывающая до 40 вычислительных блоков (CU), а также ИИ-ускоритель (NPU) XDNA2 с производительностью 50 TOPS (триллионов операций в секунду). ![]() В отличие от мобильных процессоров Ryzen 9000HX (Fire Range), некоторые модели которых оснащены дополнительной кеш-памятью 3D V-Cache, чипы Ryzen AI 300 Max не получили дополнительный кеш. Однако по информации главы китайского отдела Asus Тони Ю (Tony Yu), блоки CCD процессоров Ryzen AI 300 Max имеют ряды TSV (сквозных кремниевых переходных отверстий), что технически открывает возможность оснащения этих чипов слоем кеш-памяти 3D V-Cache. Ходят слухи, что серия X3D запланирована для преемника Ryzen AI 300 Max. Тем не менее, наличие TSV у Ryzen AI 300 Max говорит о том, что их кремний уже готов к такой конфигурации кеша. В серию Ryzen AI 300 Max входят три модели процессоров, предлагающие 8, 12 или 16 ядер Zen 5 и поддержку от 16 до 32 потоков. Тактовая частота этих чипов достигает 5,1 ГГц. Процессоры Ryzen AI 300 Max не ограничиваются низким уровнем TDP, характерным для мобильных чипов. Уровень энергопотребления может быть настроен производителем в диапазоне от 45 до 120 Вт, что делает их подходящими как для мощных ноутбуков, так и для компактных, но производительных настольных компьютеров. Наиболее примечательной особенностью Ryzen AI 300 Max является мощная встроенная графика. Флагманский 16-ядерный Ryzen AI Max+ 395, который используется в составе игрового планшета Asus ROG Flow Z13, оснащён графикой Radeon 8060S на базе 40 CU с архитектурой RDNA 3.5. Как показывают тесты, iGPU обеспечивает производительность на уровне дискретной мобильной видеокарты GeForce RTX 4070 и оставляет далеко позади встроенную графику Radeon 890M чипов AMD Strix Point (Ryzen AI 300) и Arc 140V в составе Intel Lunar Lake (Core Ultra 200). В то же время Radeon 8060S в некоторых тестах оказалась значительно медленнее встроенной графики процессоров Apple M4 Max. Согласно данным портала Notebookcheck, графика Radeon 8060S с 40 CU в составе планшета Asus ROG Flow Z13 продемонстрировала результат 10 200 баллов в тесте 3DMark Time Spy. Это ставит Radeon 8060S в один ряд с мобильной GeForce RTX 4070 в составе 14-дюймовых ноутбуков, таких как ROG Zephyrus G14, — её результат составляет 10 300 баллов. По сравнению с предыдущим поколением Asus ROG Flow Z13, предлагающим видеокарту RTX 4070 с TDP 65 Вт, преимущество Radeon 8060S составляет около 5 %. Ноутбуки с RTX 4070 для которой производитель выделил значительно больший запас TDP, графика GeForce оказывается быстрее новичка от AMD. Например, Razer Blade 14 с RTX 4070 с TDP 140 Вт демонстрирует в том же тесте 3DMark Time Spy результат выше 13 000 баллов. В тесте Steel Nomad Radeon 8060S показывает менее впечатляющие результаты. Она всё ещё быстрее других встроенных графических решений AMD и Intel, но уступает не только ноутбукам с RTX 4070, но и системам с RTX 4060 с увеличенным TDP (110 Вт). Radeon 8060S уверенно противостоит 20-ядерному iGPU процессора Apple M4 Pro в тесте 3DMark Wild Life, но значительно уступает 40-ядерному iGPU в составе Apple M4 Max и 38-ядерному iGPU в составе Apple M3 Max. Оба чипа Apple обгоняют решение AMD на 64 % и 94 % соответственно. Игровая производительность Radeon 8060S впечатляет. Хотя в сравнении с 65-Вт RTX 4070 решение AMD уступает, iGPU Radeon оказывается быстрее дискретных RTX 4050 и маломощных вариантов RTX 4060. Как отмечает Notebookcheck, производительность Radeon 8060S находится на уровне Radeon RX 7600M XT с 32 вычислительными блоками архитектуры RDNA 3. Wacom обновила Intuos Pro после 12 лет «затишья», сделав его тоньше и удобнее
13.02.2025 [06:24],
Анжелла Марина
Компания Wacom провела крупнейшее обновление линейки Intuos Pro с момента её дебюта в 2013 году. Новая версия графического планшета стала компактнее, удобнее и получила настраиваемые механические регуляторы. В отличие от моделей Cintiq или One, планшеты этой серии не оснащены встроенным дисплеем, что делает их более мобильными. ![]() Источник изображения: Wacom Одним из главных изменений, как информирует The Verge, стало перемещение пользовательских элементов управления с боковых панелей на верхнюю часть планшета. Это позволило уменьшить габариты и сделать устройство более удобным для использования, в том числе людей, которые предпочитают работать левой рукой. Сенсорное колесо было заменено тактильными механическими регуляторами, обеспечивающими более точное управление. ![]() Источник изображения: Wacom Новая линейка Intuos Pro будет доступна в трёх размерах — Small, Medium и Large. Каждая модель стала меньше, чем её предшественник, но при этом имеет большую активную область. Например, модель Medium 2025 года имеет размеры 11,5 x 8,1 дюйма по сравнению с 13,2 x 8,5 у версии 2017 года, при этом активная область составляет 10,4 x 5,8 дюйма по сравнению с 8,7 x 5,8 у предыдущей модели. Толщина планшетов также уменьшилась. Все Intuos Pro работают с устройствами под управлением Windows 10 или macOS 13 и более поздних версий. Они поддерживают как проводное подключение USB-C к USB-A, так и беспроводное через Bluetooth 5.3, обеспечивающее до 16 часов автономной работы при полной зарядке. Пользователи могут переключаться между USB и Bluetooth с помощью переключателя на боковой панели планшета, что позволяет подключать его к двум устройствам одновременно. В комплект поставки входит настраиваемый стилус Wacom Pro Pen 3, который также поставляется с планшетами Wacom Cintiq Pro и Movink. Стилус имеет регулируемую толщину и кнопки. Новые Intuos Pro также совместимы со стилусами Wacom Pro Pen предыдущего поколения и EMR-стилусами от Pilot, Dr Grip, LAMY и Staedtler. Представителю The Verge уже удалось протестировать предсерийный образец планшета. «Новый дизайн оказался очень удобен по сравнению со старой компоновкой расположения кнопок и колёс прокрутки по бокам, где моё запястье могло случайно что-то активировать. И мне не потребовалось много времени, чтобы привыкнуть к превосходному тактильному механическому циферблату», — высказал журналист свои первые впечатления. Полноценный обзор будет опубликован позже, после тестирования финальной версии продукта. Цена планшета Wacom Intuos Pro версии Small составит $249,95, Medium $379,95 и Large $499,95. Учёные из России и Китая ускорили научные вычисления на обычных видеокартах Nvidia в 800 раз
30.01.2025 [12:18],
Геннадий Детинич
Наложенные на Россию и Китай ограничения в поставках передовых чипов Nvidia заставили искать пути повышения эффективности расчётов на неподсанкционных продуктах компании — на её простых и повсеместно доступных графических процессорах. Применив методы обратного проектирования и глубоко изучив архитектуру графических процессоров Nvidia, учёные создали алгоритм, который после оптимизации работает в 800 раз быстрее. ![]() Источник изображения: Nvidia Анализом и разработкой занималась совместная группа учёных из университета МГУ-ППИ в Шэньчжэн (MSU-BIT University), который создан в 2014 году совместно Московским государственным университетом имени М.В. Ломоносова и Пекинским политехническим институтом. Фактически исследователи провели реверс-инжиниринг архитектуры Nvidia, поддерживающей среду CUDA. Подробно о проделанной работе было рассказано в статье в китайском журнале Journal of Computational Mechanics. «Эта эффективная вычислительная производительность позволяет исследователям сократить расчёты, которые обычно занимают дни, до нескольких часов — или даже минут — с использованием обычного графического процессора домашнего уровня, что является значительным достижением в исследованиях PD [перидинамики]», — сообщают авторы в статье. На основе улучшенного алгоритма учёные создали фреймворк PD-General для расчётов в сфере перидинамики. Это относится к области механики сплошных сред и ориентировано на оценку материалов на неоднородную деформацию, особенно на трещины. Иными словами, созданы условия для условного 800-кратного ускорения расчётов в сфере критического материаловедения, что особенно важно для аэрокосмической отрасли. Китайские учёные и раньше раскрывали возможности графических чипов Nvidia, показав, например, что заявление Google о квантовом превосходстве разбивается о шесть ускорителей Nvidia. У чипов компании есть скрытый потенциал, который зачастую не раскрывается, поскольку современные требования к оптимизации снизились. Не исключено, что если бы у России и Китая не было ограничений на закупки самых передовых ускорителей Nvidia, эта работа никогда бы не появилась. Другое дело, что теперь под санкции могут попасть едва ли не все решения Nvidia, что может иметь далеко идущие последствия. Nvidia убрала мониторинг Hot Spot у видеокарт серии GeForce RTX 50
24.01.2025 [06:12],
Николай Хижняк
Компания Nvidia много говорила об эволюционных решениях в дизайне своих систем охлаждения для видеокарт, которые в конечном итоге привели к созданию эталонной версии GeForce RTX 5090 Founders Edition. Однако об одном изменении компания умолчала. Его обнаружили обозреватели. ![]() Источник изображения: TechPowerUp Согласно Wizzard, обозревателю портала TechPowerUp, а также создателю утилиты GPU-Z, компания Nvidia отключила мониторинг самой горячей точки видеокарты (Hot Spot) в графических чипах GeForce RTX 5090. Другие обозреватели также заметили, что данные, считываемые программой GPU-Z, показывают для Hot Spot постоянную температуру 255 градусов Цельсия, что, разумеется, является неправильной информацией. Причина такого решения со стороны Nvidia остаётся неизвестной. «У видеокарт Blackwell Nvidia убрала мониторинг Hot Spot. Вы по-прежнему можете считать данные о температуре GPU и чипов памяти. Хотя вокруг темы Hot Spot всегда было множество споров, эта функция была полезна для проверки правильности установки кулера или водоблока на видеокарту», — пишет Wizzard в своём обзоре эталонной версии GeForce RTX 5090. В разговоре с порталом VideoCardz Wizzard подтвердил, что мониторинг Hot Spot недоступен на всех картах GeForce RTX 50-й серии, а не только у GeForce RTX 5090. В перспективе этот показатель также будет удалён из утилиты GPU-Z. ![]() Текущая версия программы GPU-Z показывает неправильную информацию о температуре Hot Spot. Источник изображения: The FPS Review Обозреватели, которые хотят получить самую последнюю версию программы GPU-Z, могут обратиться к Wizzard за свежей бета-версией приложения, в которой уже отсутствует система мониторинга GPU Hot Spot. Выпуск стабильной версии GPU-Z ожидается на следующей неделе, ближе к выходу модели видеокарты GeForce RTX 5080. Следует пояснить, что GPU Hot Spot — это не просто один температурный сенсор. Скорее это комбинированная информация, считываемая датчиками на кристалле графического чипа и показывающая температуру самого горячего ядра GPU. Работа функции контролируется BIOS видеокарты. Не исключено, что в будущем система мониторинга Hot Spot вернётся, но на данный момент Nvidia перекрыла доступ к этим данным. Удаление объектов и фона в Microsoft Paint стало доступным всем пользователям Windows 11
15.01.2025 [17:57],
Павел Котов
Для продвижения компьютеров класса Copilot+ PC компания Microsoft выпустила множество интересных функций на базе генеративного искусственного интеллекта, в том числе несколько инструментов для редактирования изображений в Paint. Теперь эти новые инструменты работают не только на машинах с маркировкой Copilot+PC, оснащённых процессорами Snapdragon X, а также последними чипами Intel и AMD, но и на более старых компьютерах. ![]() Источник изображения: windowslatest.com Пользователи обновлённой Windows 11 теперь могут открыть Paint, и в нём должна появиться возможность удалять объекты или фон с изображений при помощи алгоритмов генеративного ИИ. Эти функции дебютировали в предварительных версиях Windows 11 ещё прошлой осенью, но теперь они доступны для пользователей стабильной версии ОС. Под выделенным фрагментом изображения теперь появляются всплывающие кнопки «Генеративное стирание» (Generative erase) и «Удалить фон» (Remove background). Когда пользователь нажимает «Генеративное стирание» и выбирает объект, Paint пытается стереть его и заполнить освободившееся место в соответствии с фоном, используя малую языковую модель. Можно также нажать на значок «Генеративное стирание» в левой части окна, провести кистью по нужной области и нажать «Применить». Если выбрать «Удаление фона», система изолирует нужный пользователю объект и помещает его на белый фон. Первоначально функции Copilot+ были доступны только на компьютерах с чипами Snapdragon X, недавно к ним присоединились Intel Core Ultra 200 и AMD Ryzen AI 300. Но «Генеративное стирание» и «Удаление фона» работают и на более старых системах, в том числе с чипами Intel Core 13 поколения. Удаление фона с картинки происходит почти мгновенно, а вот на стирание изображения человека или транспортного средства уходят примерно полминуты. Отмечаются некоторые трудности со сложными фонами и картинками высокого разрешения. Функции работают лучше, чем справляется средний пользователь ПК с обычными ластиком или размытием, но некоторые артефакты всё равно остаются. На новых чипах с нейропроцессорами функция может работать быстрее и качественнее. Adobe добавила в Photoshop функцию совместного редактирования в режиме реального времени
15.01.2025 [04:31],
Анжелла Марина
Adobe объявила о запуске бета-версии функции Live Co-Editing в графическом редакторе Photoshop, которая позволит нескольким пользователям одновременно работать над одним и тем же изображением в режиме реального времени, подобно тому, как это реализовано в Google Docs, но только для текстовых документов. ![]() Источник изображения: Adobe По словам представителей Adobe, функция особенно актуальна для образовательных целей и профессиональной работы с изображениями, а вдохновением для её создания послужили отзывы и пожелания пользователей. Как отмечает PCMag, Live Co-Editing выводит совместную работу на новый уровень и в чём-то похож на инструменты Shared Libraries и Share for Review, позволяющие добавлять комментарии к изображениям. Однако новая функция позволит редактировать изображения участникам команды синхронно. При нажатии на кнопку Share, в появившейся панели будет доступна опция Turn on Live Co-Editing. Как и в Google Docs и Microsoft Word, иконки с аватарами пользователей, работающих над файлом, будут отображаться в верхней части документа, а маркер с именем будет указывать на место, где в данный момент работает конкретный пользователь. ![]() Источник изображения: Adobe Пока неизвестно, как именно функция будет справляться с задержками или другими техническими аспектами. Также Adobe не раскрывает деталей о сроках полноценного релиза и количестве пользователей, которые будут допущены к тестированию. Однако, как показывает опыт предыдущих обновлений, на выпуск окончательной версии может уйти несколько месяцев. Чтобы принять участие в тестировании, желающим нужно заполнить форму на сайте Adobe, указав email, связанный с учётной записью Creative Cloud. Moore Threads выпустила профессиональную видеокарту MTT X300 на мощном китайском GPU
30.12.2024 [15:21],
Анжелла Марина
Китайский производитель графических процессоров Moore Threads представил профессиональную видеокарту MTT X300, ориентированную на задачи визуализации, такие как CAD, BIM, GIS и редактирование видео. В основе новинки лежит графический процессор X300 с архитектурой MUSA второго поколения, включающий 4096 ядер MUSA и обеспечивающий вычислительную мощность 14,4 Тфлопс в FP32. ![]() Источник изображения: Moore Threads / @Olrak29_ on X MTT X300 использует интерфейс PCIe 5.0 x16 и предлагает достаточно разнообразные возможности подключения дисплеев: имеется три порта DisplayPort 1.4a и один HDMI 2.1, поддерживающие разрешение до 7680 × 4320 пикселей. Новинка обладает энергопотреблением (TGP) 255 Вт. При этом, как отмечает издание TechPowerUp, несмотря на позиционирование X300 в качестве новой модели, эта видеокарта, по сути, является аналогом игровой видеокарты Moore Threads MTT S80, но с изменённой прошивкой и иным набором драйверов. Видеокарта оснащена 16 Гбайт памяти GDDR6 с 256-битной шиной, обеспечивая пропускную способность памяти 448 Гбайт/с, поддерживает аппаратное ускорение декодирования для различных кодеков, включая AV1, H.264, H.265, VP8, VP9, AVS, AVS2, MPEG4 и MPEG2, а также аппаратное кодирование для AV1, H.264 и H.265. Учитывая профессиональное применение, X300 может одновременно обрабатывать до 36 потоков видео при разрешении 1080p и 30 кадрах в секунду (FPS) для операций кодирования и декодирования, а также поддерживает вывод изображения на четыре дисплея с разрешением до 8K. Примечательно, что Moore Threads разработала драйверы для всех основных архитектур, включая x86, Arm и даже LoongArch, стремясь сделать свой продукт универсальным решением для различных профессиональных задач и охватить максимально широкий спектр платформ. Хотя конкретная цена и дата начала продаж MTT X300 ещё не объявлена, её характеристики и возможности указывают на то, что она вполне может стать конкурентоспособным решением для профессионалов, работающих с графикой и видео. У Intel уже «почти готова» графика Xe3, хотя только вчера вышли первые видеокарты на Xe2
04.12.2024 [23:48],
Николай Хижняк
Заслуженный исследователь Intel Том Петерсен (Tom Petersen), фактически ставший лицом графического направления компании, принял участие в подкасте The Full Nerd, где рассказал о запуске новой серии настольных видеокарт Battlemage на архитектуре Xe2. В состав серии пока входят только две модели ускорителей — Arc B580 и Arc B570. Не вдаваясь в детали, Петерсен не исключил возможности появления ещё более скоростной графики на базе архитектуры Xe2 в будущем. ![]() Источник изображения: VideoCardz В настоящее время компания сосредоточена на предстоящем старте продаж первой модели серии Battlemage — Arc B580, которая станет доступна с 13 декабря. Младшая модель Arc B570 поступит в продажу 16 января 2025 года. В более широком плане Петерсен дал понять, что Intel не намерена сворачивать развитие направления Arc Graphics. По его словам, компания почти завершила разработку архитектуры Xe3 и уже приступила к работе над её преемником. Он отметил, что Xe3 находится на последней стадии разработки — её сейчас тестируют команды по программному обеспечению Intel, в то время как аппаратные инженеры сосредоточены на следующем поколении графической архитектуры. «Я хотел бы сообщить, что наша следующая разработка называется Xe3. Она придёт на смену Xe2. И, да, всё верно, она практически завершена. Теперь командам по программному обеспечению предстоит много работы над Xe3. А командам по аппаратному обеспечению нужно заняться следующим проектом. Это наш ритм работы, и мы должны ему следовать», — заявил Том Петерсен в ходе подкаста The Full Nerd. Разумеется, Петерсен несколько упростил текущее положение дел, так как командам по программному и аппаратному обеспечению ещё предстоит много работы над устранением возможных ошибок в архитектурах Xe2 и Xe3 соответственно после выпуска серии видеокарт Battlemage и начала производства чипов на базе Xe3. Однако главный вывод заключается в том, что Intel не намерена снижать темп и продолжит развивать направление по производству видеокарт. В рамках подкаста Петерсен напомнил, что новые видеокарты Intel запускаются с интервалом более одного года. Учитывая запланированный выход первой видеокарты серии Battlemage в декабре, первых решений на базе Xe3 стоит ожидать не ранее 2026 года. ![]() Источник изображения: Intel Ещё до выпуска первого поколения графики Arc (Alchemist на архитектуре Xe) Intel объявила о масштабных планах развития своего графического направления. Компания заявила, что в перспективе выпустит графику Arc Battlemage (Xe2), затем Arc Celestial (Xe3) и Arc Druid (предположительно Xe4). Intel также обещала выйти в сегмент видеокарт «ультра-энтузиаст» (самые производительные игровые решения), однако серия Battlemage пока не дотягивает даже до сегмента «энтузиаст», находясь ступенью ниже. В лучшем случае Arc B580 сможет предложить производительность немного выше GeForce RTX 4060 от Nvidia. Память GDDR6 подешевела до $18 за 8 Гбайт — видеокарты следующего поколения могут получить много видеопамяти
09.10.2024 [19:13],
Дмитрий Федоров
Видеопамять GDDR6 показала беспрецедентное снижение цен. Стоимость чипа GDDR6 объёмом 8 Гбит упала на 33 % по сравнению с ценой, зафиксированной в начале июня текущего года. Эта тенденция может кардинально повлиять на ценообразование и доступность графических ускорителей нового поколения. ![]() Источник изображения: MSI По данным ресурса DRAMeXchange от 30 сентября 2024 года, цена на модули памяти GDDR6 снизилась до $2,289 за модуль на 8 Гбит (1 Гбайт). Это эквивалентно стоимости $18 за 8 Гбайт памяти GDDR6, что на треть меньше цены, зафиксированной в июне. Столь резкое падение цены GDDR6 связано с последствиями перехода Ethereum на алгоритм Proof of Stake в сентябре 2022 года, что спровоцировало избыток видеокарт на рынке и массовую ликвидацию GPU, ранее задействованных в майнинг-фермах Ethereum. Текущее 33-% снижение цен особенно примечательно на фоне относительной стабилизации рынка GPU во второй половине 2023 года. Несмотря на то что рынок справился с избытком предложения новых и бывших в употреблении видеокарт предыдущего поколения, цены на GDDR6 продолжили падение. Эта тенденция согласуется с общим удешевлением оперативной памяти и накопителей (SSD и HDD), наблюдаемым с 2020 года. Однако без дополнительных исследований невозможно точно определить, является ли это результатом прогресса в технологиях производства, падения спроса после пандемии или комбинацией этих факторов. Анализ динамики цен GDDR6 выявляет парадоксальную ситуацию на рынке, когда более низкие цены не ассоциируются с меньшей волатильностью. С февраля 2022 по июнь 2023 года средняя цена модулей памяти GDDR6 ёмкостью 8 Гбит упала с $12,96 до $3,36, демонстрируя долгосрочную тенденцию на снижение. Однако свежие данные показывают усиление краткосрочной волатильности: в рамках недельных торгов цены колеблются от $1,3 до $2,95 при среднем значении $2,289. Отношение максимума к минимуму достигло 2,27, что значительно превышает ранее наблюдаемые диапазоны в 1,3–1,6 раза. Это противоречит обычной рыночной логике и может распространиться на грядущую память GDDR7. Анализируя ценовые тренды, важно отметить, что на момент начала продаж GDDR6 была на 70 % дороже GDDR5, а DDR5 при выходе на рынок стоила примерно вдвое больше DDR4. Учитывая эти данные, можно предположить, что цена GDDR7 вряд ли превысит $5–6 за 1 Гбайт. Это резко контрастирует с ситуацией в сфере логических микросхем, где стоимость транзистора практически перестала снижаться после достижения 7-нм техпроцесса, что указывает на замедление действия закона Мура для логических чипов. Снижение цен на GDDR6 и потенциально доступные цены на GDDR7 могут привести к следующим изменениям на рынке GPU:
Появление недорогих чипов памяти GDDR7 объёмом 16, 24 и, в перспективе, 32 Гбит может ускорить эти тенденции и трансформировать индустрию GPU. Потенциальное удешевление видеопамяти способно привести к появлению более доступных и мощных графических решений, что может стимулировать инновации и расширить возможности как для производителей, так и для потребителей. Важно отметить, что эти данные отражают текущую ситуацию и не могут полностью описывать долгосрочные тенденции рынка. Предполагается, что цены на модули объёмом 16 Гбит (используемые в картах GeForce RTX 40-й серии) и 8 Гбит следуют схожим тенденциям, однако для подтверждения этой гипотезы требуется дополнительный анализ данных. AMD выпустила серверную видеокарту Radeon Pro V710, которую нельзя купить — только арендовать в Microsoft Azure
08.10.2024 [14:39],
Николай Хижняк
Компания AMD представила профессиональный графический ускоритель Radeon Pro V710, созданный эксклюзивно для размещения в центрах обработки данных Microsoft Azure. Приобрести новинку не получится — его мощности можно будет только арендовать для вычислений, работы с ИИ и других задач. ![]() Источник изображений: AMD Radeon Pro V710 разработан для работы по моделям «рабочее место как услуга» и «рабочая станция как услуга», облачного гейминга, а также задач ИИ и машинного обучения. Возможность использования указанных ускорителей будет доступна эксклюзивно через облачные сервера Microsoft Azure, где клиентам на правах аренды будет предлагаться от 1/6 до 1x мощности указанного ускорителя и до 24 Гбайт видеопамяти, хотя сама видеокарта получила в общей сложности 28 Гбайт памяти. ![]() В основе Radeon Pro V710 используется графический процессор Navi 32 с 54 исполнительными блоками графической архитектуры RDNA 3. Аналогичная конфигурация GPU используется в игровой видеокарте Radeon RX 7700 XT. Однако специализированный ускоритель Radeon Pro V710 получил 28 Гбайт памяти GDDR6 вместо 12 Гбайт, которые присутствуют у модели RX 7700 XT. Максимальная пропускная способность памяти у Radeon Pro V710 заявлена на уровне 448 Гбайт/с. Radeon Pro V710 поддерживает технологию R-IOV, которая позволяет изолировать память между виртуальными машинами, что даёт возможность нескольким клиентам одновременно использовать одну и ту же видеокарту. Карта также поддерживает аппаратное ускорение трассировки лучей, кодирования и декодирования AV1, HEVC (H.265) и AVC (H.264). Кроме того, она имеет поддержку программного обеспечения AMD ROCm. Последнее вместе с аппаратным ИИ-ускорителями для эффективного умножения матриц обеспечивают повышение вычислительной производительности для машинного обучения. ![]() Источник изображения: VideoCardz Толщина видеокарты составляет один слот расширения, она оснащена пассивной системой охлаждения — за обдув будут отвечать корпусные вентиляторы самого сервера. По сравнению с игровой Radeon RX 7700 XT у Radeon Pro V710 вдвое больше памяти, более высокая пропускная способность памяти, но её GPU обладает частотой на 500 МГц ниже, чем у игрового решения. Кроме того, заявленный TDP специализированного ускорителя составляет 158 Вт, что на 35 % ниже, чем у игрового варианта. Imagination отказалась от нейропроцессоров в пользу совершенствования GPU под нужды ИИ
25.08.2024 [22:00],
Анжелла Марина
Британский разработчик чипов Imagination Technologies на фоне получения $100 млн инвестиций меняет свою стратегию в сфере искусственного интеллекта, отказываясь от использования отдельных нейропроцессоров (NPU) и внедряя ИИ-функции в графические процессоры (GPU). ![]() Источник изображения: imaginationtech.com По данным Tom's Hardware со ссылкой на источник, это стратегическое решение было принято в течение последних 18 месяцев из-за сложностей с собственным разработанным ранее программным стеком, который не успевал за быстро меняющимися потребностями клиентов в области искусственного интеллекта. Создание ИИ-функциональности, способной раскрыть все возможности нейропроцессора от Imagination Technologiesоказалось было затруднено. Компания переключила внимание на GPU, которые по своей природе многопоточны и хорошо подходят для задач, требующих эффективной параллельной обработки данных. Imagination Technologies считает, что GPU можно усовершенствовать дополнительными вычислительными возможностями для ИИ, что сделает их подходящими для периферийных приложений, особенно в устройствах с уже существующими GPU, таких как смартфоны. Напомним, что Imagination Technologies, работающая на рынке около 40 лет, приобрела известность благодаря графическим процессорам PowerVR Kyro для ПК и IP-ядрам GPU PowerVR, используемым Apple, Intel и другими компаниями. Теперь же в рамках новой стратегии компания сотрудничает с UXL Foundation над разработкой SYCL — открытой платформой, конкурирующей с программно-аппаратной архитектурой параллельных вычислений CUDA от Nvidia. Такой подход отвечает потребностям клиентов, которые уже используют GPU для обработки графики и задач искусственного интеллекта. ![]() Источник изображения: imaginationtech.com Получение инвестиций в размере $100 млн от Fortress Investment Group, вероятно, связано с новой стратегией Imagination Technologies. Компания уверена, что GPU на данный момент являются лучшим решением для удовлетворения потребностей клиентов в области ИИ, прекратив разработку отдельных нейронных ускорителей. Тем не менее, Imagination не исключает возможности возвращения к разработке специализированных нейропроцессоров в будущем, если развитие программного обеспечения для ИИ изменит ситуацию. AMD становится компанией-разработчиком ПО, меняя приоритеты
09.07.2024 [04:20],
Анжелла Марина
Компания AMD объявила о масштабной трансформации своей бизнес-модели, смещая приоритет с разработки аппаратного обеспечения на создание программных решений, API и искусственного интеллекта. Таким образом компания станет больше похожа на Nvidia, которая давно сместила акцент на ПО. ![]() Источник изображения: AMD На недавней встрече с журналистами в Барселоне руководство AMD, включая исполнительного вице-президента Фила Гвидо (Phil Guido) и главного коммерческого директора Джека Хюня (Jack Huynh), поделилось новым видением будущего компании. Главным сюрпризом стало заявление о кардинальном изменении подхода AMD к разработке технологий, сообщает издание TechPowerUp. По словам представителей компании, AMD увеличило количество инженеров, работающих над программным обеспечением, и полностью пересматривает свою стратегию. «Старая AMD гналась за скоростью и производительностью. Новая AMD ставит на первое место искусственный интеллект и сначала будет создавать программное обеспечение, а затем процессоры в соответствии с архитектурой этого ПО», — заявили в компании. Целью этого шага является устранение главной проблемы AMD — недостаточного взаимодействие с экосистемой разработчиков программного обеспечения. Несмотря на конкурентоспособные процессоры и графические карты, компания занимает лишь четверть рынка серверных процессоров и шестую часть рынка игровых графических процессоров. Например, графические процессоры Radeon обладают возможностями тесселяции, опережающими NVIDIA на два поколения, но эти возможности оставались невостребованными разработчиками, пока Microsoft не стандартизировала их в API DirectX 11, аналогичная ситуация возникла с Mantle, спецификацией низкоуровневого API, разработанной AMD, и DirectX 12. В данном случае фактором успеха Nvidia стал акцент на программное обеспечение и взаимодействие с разработчиками. Существует также несколько подобных примеров, когда передовые ускорители AMD в различных продуктах компании не были должным образом использованы сообществом разработчиков программного обеспечения из-за их приверженности оборудованию в первую очередь. Теперь AMD планирует сначала общаться с разработчиками программного обеспечения, чтобы понять их потребности, и только потом создавать под них процессоры. Также планируется делиться своими долгосрочными планами с партнёрами, среди которых Microsoft, Adobe и OpenAI, чтобы те могли заранее подготовить свои продукты к использованию новых функций на оборудовании AMD. Одновременно компания работает над созданием унифицированной архитектуры для своих CPU и GPU, что упростит разработку программного обеспечения. По мнению экспертов, этот шаг может значительно усилить позиции AMD на рынке и сделать её более похожей на таких сильных конкурентов, как Nvidia и Intel, которые уже давно придерживаются подхода «сначала программное обеспечение». Франция готовит обвинения против Nvidia из-за доминирования на рынке GPU и ИИ-ускорителей
01.07.2024 [20:55],
Анжелла Марина
Французский антимонопольный регулятор планирует предъявить обвинения Nvidia — компанию подозревают в антиконкурентной практике ведения бизнеса. Это станет первым случаем правоприменительных действий против крупнейшего производителя компьютерных чипов. ![]() Источник изображения: Mariia Shalabaieva / Unsplash По данным Reuters, ссылающегося на информированные источники, французский надзорный комитет готовится выдвинуть обвинения против компании Nvidia, лидера в производстве графических процессоров и ускорителей вычислений для искусственного интеллекта. Этому предшествовали рейды в сентябре прошлого года, направленные на расследование деятельности Nvidia в секторе поставок графических процессоров. Расследование является частью более широкого изучения конкуренции в сфере облачных вычислений. При этом особое внимание регуляторов привлёк резкий рост спроса на чипы Nvidia после выпуска ChatGPT, что вызвало озабоченность как в Европе, так и в США. Французский регулятор в своём недавнем отчёте в целом указал на риски злоупотреблений со стороны поставщиков чипов. Особую обеспокоенность вызывает зависимость отрасли от проприетарного программного обеспечения Nvidia CUDA — многие системы используют только этот софт и замены ему нет. Кроме того, регулятор выразил беспокойство по поводу недавних инвестиций Nvidia в поставщиков облачных услуг, ориентированных на искусственный интеллект, таких как CoreWeave. В случае, если нарушения французских антимонопольных правил, Nvidia может грозить штраф до 10 % от глобального годового оборота. Однако компания может избежать штрафа, пойдя на уступки. Параллельно с европейскими расследованиями, Министерство юстиции США также ведёт расследование в отношении Nvidia, разделяя контроль над крупными технологическими компаниями с Федеральной торговой комиссией. Nvidia и французский регулятор пока воздерживаются от комментариев по данному вопросу. Qualcomm раскрыла детали о графике Adreno X1 в чипах Snapdragon X и сравнила её с Intel Xe
13.06.2024 [18:13],
Николай Хижняк
Менее чем за неделю до старта продаж Windows-ноутбуков на базе новых Arm-процессоров серии Snapdragon X, разработавшая их компания Qualcomm поделилась деталями об архитектуре данных процессоров, в том числе и об их встроенной графике Adreno X1. ![]() Источник изображений: Qualcomm В названии Adreno X1 цифра «1» указывает на принадлежность к первому поколению компьютерной графики Qualcomm. Таким образом, последующие поколения графики получат названия Adreno X2, Adreno X3 и т.д. В самой максимальной конфигурации, X1-85, цифра «8» указывает на уровень GPU, а «5» — артикул. Графический процессор Adreno X1 содержит до шести ядер, объединяющих до 1536 шейдерных ALU для операций FP32, способных обрабатывать до 96 текселей за цикл. В пике производительность GPU составляет 4,6 Тфлопс, он может обрабатывать до 72 ГТ/с (гигатекселей в секунду). Графический процессор Adreno X1 поддерживает все современные API включая DirectX 12.1 с Shader Model 6.7, DirectX 11, Vulkan 1.3 и OpenCL 3.0. В своей презентации Qualcomm приводит примеры игровой производительности для старшей версии GPU — X1-85 — в составе своего референсного ноутбука. Компания сравнивает результаты с показателями встроенной графики Intel Xe в чипе Core Ultra 7 155H с восемью графическими ядрами, который использовался в ноутбуке Acer Swift Go 14. В четырёх из девяти игровых тестов при разрешении 1080p ускоритель Qualcomm оказывается быстрее. На другом слайде компания утверждает, что GPU X1-85 обеспечивает до 67 % более высокую производительность по сравнению с конкурирующими решениями при одинаковом уровне энергопотребления, а пиковой производительности конкурента ускоритель Qualcomm достигает при энергопотреблении на 62 % ниже. Qualcomm также представила Adreno Control Panel — фирменное приложение для настройки графики, игровых оптимизаций, а также обновлений драйверов. Компания обещает ежемесячно выпускать для него свежие обновления. По функциональности и задачам это приложение похоже на то, что предлагают другие производители видеокарт. Официальные продажи ноутбуков с процессорами Qualcomm Snapdragon X начнутся с 18 июня. Однако некоторые производители уже предлагают оформить предзаказы на эти новинки. Nvidia в прошлом году захватила 98 % рынка графических процессоров для ЦОД — поставки достигли 3,76 млн единиц
11.06.2024 [19:58],
Сергей Сурабекянц
Недавний бум искусственного интеллекта озолотил Nvidia. В 2023 году компания поставила 3,76 миллиона графических процессоров для ЦОД, что на миллион больше, чем годом ранее, показав рост продаж на 42 %. Выручка Nvidia за 2023 год достигла $60,9 млрд, на 126 % превысив аналогичный показатель 2022 года. ![]() Источник изображений: Nvidia По результатам 2023 года Nvidia захватила 98 % рынка графических процессоров для центров обработки данных и 88 % рынка графических процессоров для настольных ПК. Такие результаты компания продемонстрировала несмотря на нехватку в 2023 году производственных мощностей TSMC, выпускающей чипы для Nvidia, и невзирая на запрет США на экспорт передовых чипов Nvidia в Китай. Однако Nvidia не может почивать на лаврах: AMD готовит выпуск гораздо более энергоэффективных чипов, чем полупроводниковый хит сезона Nvidia H100, потребляющий до 700 Вт, а Intel продвигает процессор Gaudi 3 AI, который будет стоить $15 000 — вдвое дешевле, чем H100. В гонку аппаратного обеспечения для ЦОД присоединяются и другие компании. Microsoft представила ускоритель искусственного интеллекта Maia 100, который она планирует использовать в своём анонсированном ЦОД стоимостью $100 млрд. Amazon производит специальные чипы для AWS, а Google планирует использовать собственные серверные процессоры для ЦОД уже в следующем году. Однако, по утверждению Nvidia, все эти чипы пока менее производительны, чем её графические процессоры применительно к ускорению работы искусственного интеллекта. Nvidia также подчёркивает гибкость архитектуры своих графических процессоров. Таким образом, несмотря на появляющиеся альтернативы, ИИ-ускорители компании в ближайшем будущем сохранят свои лидирующие позиции. |