Теги → ati
Быстрый переход

Intel создаёт группу по разработке дискретных GPU и нанимает Раджу Кодури

В четверг вечером корпорация Intel объявила о создании Core and Visual Computing Group, подразделения по разработке дискретных графических процессоров для игровых ПК, а также ускорителей вычислений для суперкомпьютеров и различных перспективных приложений. Новую группу возглавит известный специалист Раджа Кодури (Raja Koduri), успевший поработать в ATI, Apple и AMD Radeon Technologies Group. Сам факт того, что в Intel решили вернуться к созданию дискретных графических процессоров в третий раз, говорит о том, что компания существенно меняет стратегию на нескольких рынках.

«Раджа является одним из самых опытных, новаторских и уважаемых визионеров в области графических и системных архитектур в индустрии и ещё одним примером того, как лучшие таланты присоединяются к Intel — сказал Мурти Рендучинтала (Murthy Renduchintala), президент группы Client and Internet of Things Business & Systems Architecture Group (CISA). «У нас есть захватывающие планы по активному расширению наших вычислительных и графических возможностей с использованием нашего всеобъемлющего портфеля интеллектуальной собственности. С Раджей во главе Core and Visual Computing Group мы добавим в наш портфель непревзойдённые возможности, продвинем нашу стратегию в области вычислений и графики и, впоследствии, станем движущей силой революции обработки данных».

Раджа Кодури

Раджа Кодури

Intel возвращается на рынок дискретных GPU

Принимая во внимание характер анонса, трудно ожидать, что Intel раскроет перспективный план по разработке графических и вычислительных технологий, который будет реализовываться под руководством господина Кодури. Тем не менее, пресс-релиз Intel раскрывает ряд деталей о характере будущих решений компании.

Ключевой задачей Раджи Кодури в Intel станет создание семейства высокопроизводительных дискретных графических решений для различных приложений. Данные решения будут базироваться на унификации различных архитектур и интеллектуальной собственности Intel, а конечные продукты будут использоваться для обработки графики, суперкомпьютерных вычислений, искусственного интеллекта и ряда других перспективных направлений.

Хотя задача господина Кодури кажется однозначной, её исполнение означает существенный сдвиг в стратегии Intel по целому ряду направлений, а потому есть смысл вспомнить подходы Intel к разработке GPU и суперкомпьютерным ускорителям.

Intel 740 и графические адаптеры стоимостью похода в кафе

Глядя на взрывной рост популярности графических ускорителей для игровых ПК в 1990-х годах прошлого века, в Intel осознали, что подобные микросхемы могут стать новым рынком сбыта, а потому корпорация должна выпустить собственный графический процессор. Поскольку у Intel не было собственной команды разработчиков графических адаптеров, то для работы над проектом Auburn компания решила объединить усилия с другими игроками рынка — Real3D (изначально подразделение General Electric, затем — Lockheed Martin) и Chips and Technologies.

Графическая карта на базе Intel 740. Фото Wikipedia.org

Графическая карта на базе Intel 740. Фото Wikipedia.org

Auburn появился на свет в начале 1998 года под именем Intel 740, а его главной особенностью стало использование инновационной по тем временам шины AGP. В теории AGP позволяла хранить текстуры в системной памяти, тем самым снижая требования к объёму оперативной памяти на графическом адаптере и его себестоимость. На практике хранить текстуры в системной памяти было невыгодно с точки зрения производительности, драйверы Intel 740 оказались очень несовершенны, а конкуренция со стороны традиционных разработчиков графических адаптеров столь серьёзной, что в Intel приняли решение прекратить продажи i740 осенью 1999 года. Чуть позже Intel попыталась выпустить ещё один дискретный графический процессор (Intel 752), но не смогла сделать его сколько-то массовым.

Неудачи i740 и i752 показали Intel, что компания не может выдержать конкуренции с ATI и NVIDIA на рынке видеокарт. Однако имеющиеся на тот момент возможности полупроводникового гиганта в области интеграции, производства и продаж подсказали Intel, что она в состоянии создавать дешевые интегрированные графические решения для недорогих ПК. Таким образом, в недрах Intel родилось подразделение под руководством Тома Пиаццы (Tom Piazza), которое занималось разработкой графических процессоров Graphics & Media Accelerator (GMA), чья стоимость для конечных пользователей была равна цене похода в кафе. Поскольку Intel жёстко ограничивала развитие своих встроенных GPU транзисторным бюджетом, размерами на кристалле и устаревшими технологическими процессами производства, GMA имели довольно скромные возможности и посредственную репутацию.  

Микросхема Intel 740 на материнской плате

Микросхема Intel 740 на материнской плате

Через несколько лет в Intel пожалели о таком подходе, но до того времени недорогая графика Intel стала весьма популярной среди желающих снизить себестоимость производителей ПК.

Intel Larrabee: x86 от игрового ПК до суперкомпьютера

Шло время, в начале 2000-х годов в отрасли заговорили о том, что GPU можно использовать для определённых вычислений общего назначения в суперкомпьютерах, получив преимущество от их «параллельности». Помимо GPU, на рынке появлялись гетерогенные (Niagara/Sun UltraSPARC T1) и гомогенные (Cell BE) многоядерные процессоры, также направленные в т. ч. на суперкомпьютеры. Разумеется, как GPU, так и многоядерные CPU представляли прямую угрозу для Intel. Помимо этого, несмотря на то, что интегрированные GPU Intel использовались в огромном количестве недорогих ПК, рынок дорогих дискретных GPU рос, равно как средняя стоимость графических карт. Таким образом, в 2005 году руководство Intel приняло решение возобновить работу над дискретными графическими процессорами, но при этом не пытаться улучшить архитектуру GMA до уровня дискретных GPU ATI и NVIDIA, а создать нечто иное. Впоследствии это стало проектом Larrabee.

Intel Xeon Phi

Intel Xeon Phi

Основные требования к разрабатываемой GPU-архитектуре были просты: большое количество вычислительных ядер общего назначения на базе архитектуры x86, высокая тактовая частота, максимальное количество операций с плавающей запятой в секунду (TFLOPS), минимальное количество специфических для GPU блоков. Учитывая требования и многоцелевой характер будущего продукта, изначально проект получил название SMAC (Simple, Massive Array of Cores — простой огромный массив ядер). В руководстве Intel считали, что «гибкие» высокочастотные x86-ядра смогут выполнять те же задачи, что и специализированное аппаратное обеспечение в GPU с приемлемой скоростью, их количество даст возможность максимизировать вычислительную мощность для суперкомпьютеров, а совместимость с x86 облегчит работу HPC-программистов, привыкших к Intel Xeon.

Карты Xeon Phi

Карты Intel Xeon Phi

По словам разработчиков, для эмуляции аппаратных возможностей GPU на 62-ядерном графическом процессоре Larrabee запускали операционную систему FreeBSD и программу DirectXGfx. Последняя не только позволяла играть в DirectX 11-игры (разумеется, на обычной Windows-системе), но и добавлять Larrabee новые возможности. К сожалению, такой подход не позволил Larrabee показывать конкурентоспособную производительность в сравнении с AMD Radeon и NVIDIA GeForce, что и послужило причиной отказа Intel от выпуска Larrabee в качестве GPU. Тем не менее, архитектура Larrabee была использована для сопроцессоров, а потом и процессоров Xeon Phi, призванных конкурировать с ускорителями NVIDIA Tesla. Глядя на пиковую производительность топовых Xeon Phi 7290 (3,5 FP64 TFLOPS) и NVIDIA Tesla P100 (4 – 4,6 FP64 TFLOPS для PCIe карты, 4,7 – 5,3 FP64 TFLOPS для NVLink ускорителя), довольно очевидно, что сегодняшний Xeon Phi на базе x86 не может противостоять GPU на основе ядер с современной проприетарной архитектурой. Можно констатировать, что на сегодняшний день Larrabee не преуспел ни в одной из своих изначальных задач: он не стал быстрым GPU и едва ли может конкурировать с NVIDIA на рынке суперкомпьютеров.

HD и Iris Graphics: гадкий утёнок превращается в лебедя

Larrabee был не единственным графическим проектом Intel, стартовавшим в середине 2000-х годов. Как несложно вспомнить, операционные системы и графические интерфейсы становились всё более требовательными к ресурсам GPU с появлением Apple Mac OS X (2000), Microsoft Windows Vista (2006), Apple iPhone OS (2007) и других. В какой-то момент Intel не смогла убедить Apple использовать её микросхемы в своих мобильных устройствах вследствие того, что у компании не было сколько-то мощных встроенных GPU. Кроме того, Стив Джобс (Steve Jobs) настоятельно требовал от Пола Отеллини (Paul Otellini, исполнительный директор Intel c 2005 по 2013 год) увеличить производительность интегрированных графических процессоров (iGPU), поскольку использование дискретных GPU становилось всё более проблематичным в мобильных ПК.

Проигрыш многомиллионного контракта, а также настойчивые требования важного партнёра сделали своё дело: в 2007 году господин Отеллини объявил о планах увеличить производительность встроенных GPU в 10 раз к 2010 году. Именно в этот момент настал золотой час группы Тома Пиаццы, некогда разработавшей Intel 740.

Прогресс в развитии iGPU Intel в последние годы

Прогресс в развитии iGPU Intel в последние годы

Получив финансирование, транзисторный бюджет, достаточное место на кристалле, а затем и передовые технологии производства (вследствие перемещения iGPU в процессор), команда смогла разработать графическое решение, которое превосходило производительность iGPU образца 2007 года в 25 раз. В последующие годы производительность интегрированных графических процессоров Intel росла не только благодаря улучшениям в области архитектуры, но и появлению более мощных версий этих iGPU c большим количеством исполнительных устройств (EU, execution units). Так, если наиболее мощное графическое ядро класса GT3 в процессоре поколения Haswell обладало 40 EU, то CPU поколения Skylake уже могут похвастаться iGPU класса GT4 с 72 EU. Как показала практика партнёрства Intel c AMD в области интеграции дискретного Radeon в один корпус с процессором Kaby Lake, Intel готова идти ещё дальше, чтобы представить своим пользователям более высокую производительность.

Intel Core с графикой AMD Radeon

Intel Core с графикой AMD Radeon

Раджа Кодури в Intel: чего ожидать?

Принятие на работу ключевого сотрудника конкурента, с которым только что был заключен контракт на поставку важного компонента, говорит о том, насколько специалист уровня господина Кодури необходим Intel.

Как видно, в отличие от начала 2000-х годов, в Intel более не считают графические ускорители уделом любителей игр и развлечений. Быстрая эволюция iGPU компании последних лет подтверждает это. Судя по всему, Intel готова инвестировать в графические процессоры, а потому Раджа Кодури получит все необходимые ему ресурсы. Сам факт принятия на работу специалиста такого уровня говорит об очень серьёзных намерениях.

Примечательно, что в Intel говорят об унификации архитектур и интеллектуальной собственности на фоне того, что Xeon Phi на базе x86 не может конкурировать с NVIDIA Tesla в том, что касается производительности. Неизвестно, означает ли фраза Intel об унификации, что компания планирует отказаться от x86-ядер в решениях для суперкомпьютеров, однако едва ли это стало бы удивительным развитием событий.

AMD Radeon Vega Frontier Edition

AMD Radeon Vega Frontier Edition

Пожалуй, самый главный вопрос, на который пока нет ответа, это то, когда именно Intel планирует выпустить свой новый дискретный GPU. В случае, если у компании нет уже готовой архитектуры, способной масштабироваться от небольшого iGPU для ноутбука до дискретного графического процессора размером 550 мм2 и более, то работа над дискретным GPU Intel потребует нескольких лет. Таким образом, едва ли мы увидим плоды деятельности Раджи Кодури ранее 2022 года. Если же текущая (Gen 9.5) или будущая (Gen 10, Gen 11) графическая архитектура Intel (чья разработка уже завершена) способна масштабироваться и показывать производительность сравнимую с будущими решениями AMD и NVIDIA, мы вполне можем рассчитывать увидеть дискретный GPU компании уже в 2019–2020 году (но не раньше, иначе в партнёрстве Intel c AMD не было бы смысла).

Стоит помнить, что поскольку в описании рабочих задач господина Кодури значится не только проектирование нового GPU, но и унификация различных архитектур и интеллектуальной собственности Intel, очень вероятно, что мы увидим несколько поколений продукции для разных приложений, прежде чем поставленная Intel задача будет выполнена.

AMD подала иск против MediaTek, LG, Vizio и Sigma за нарушение патентных прав

Advanced Micro Devices направила иск в Комиссию по международной торговле США (U.S. International Trade Commission, ITC) к ряду компаний, обвинив их в нарушении своих патентов, касающихся графических процессоров. AMD попросила ITC изучить жалобу и запретить ввоз и продажу продуктов, базирующихся на микросхемах, которые неправомерно используют интеллектуальную собственность (intellectual property, IP) корпорации. В исковом заявлении AMD утверждает, что ряд продуктов LG Electronics, MediaTek, Sigma Designs и Vizio нарушают три патента, два из которых первоначально были получены ATI Technologies (которую AMD приобрела в 2006 году) в начале прошлого десятилетия, а один был получен самой AMD.

Указанные патенты охватывают основные аспекты работы современных графических процессоров, такие как унифицированные шейдеры (7,796,133), графическая подсистема с параллельными конвейерами исполнения (7,633,506), а также архитектуру графического процессора, использующего унифицированные шейдеры (8,760,454). Кроме того, в иске упоминается патентная заявка (которая станет патентом в ближайшее время), описывающая архитектуру GPU с унифицированным шейдерами (14/614,967), которая также была нарушена двумя ответчиками, по словам AMD.

Хотя LG, MediaTek, Sigma и Vizio разрабатывают собственные микросхемы и/или используют процессоры, разработанные друг другом или третьими компаниями, все они лицензируют графические технологии у сторонних компаний вроде ARM Holdings или Imagination Technologies. Таким образом, вместо того, чтобы обвинять ARM в неправомерном использовании патентов, AMD судится с LG, MediaTek, Sigma и Vizio. Бизнес-модель ARM не предусматривает продажу каких-либо устройств, но компания может лицензировать весь спектр технологий для создания таковых, причём между ARM и AMD подписан ряд соглашений.

Микросхема AMD

Микросхема AMD

Одним из устройств, которые якобы используют интеллектуальную собственность AMD, в компании называют SoC MediaTek Helio P10. Микросхема используется некоторыми смартфонами LG (например, LG X Power). Данная SoC имеет графическую подсистему ARM Mali T860MP2, которая была разработана ARM, но не MediaTek.

Ещё одной упомянутой в иске микросхемой является Sigma SX7 (STV7701) для телевизоров сверхвысокой чёткости с поддержкой HDR. Данная SoC использует графическую подсистему на базе четырёх кластеров ARM. В AMD говорят, что претензии корпорации не ограничиваются двумя чипами, одним смартфоном и парой телевизоров (в том числе LG 49UH6500 и Vizio E43U-D2), но включают в себя самые различные бытовые электронные устройства (планшеты, носимую электронику и т. д.).

AMD утверждает, что вышеупомянутые SoC и продукты на их основе не только нарушают патентное законодательство в отношении самой компании, но и наносят ущерб законным лицензиатам AMD. Попутно AMD пришлось сделать интересное раскрытие информации: Samsung и GlobalFoundries имеют лицензии на IP AMD (включая три вышеупомянутых патента), а также на технологии, охваченные заявкой.

Так, Samsung имеет право использовать упомянутую интеллектуальную собственность в своих мобильных SoC семейства Exynos (вплоть до 10-нм Exynos 8 Octa 8895 с «графикой» ARM Mali), в то время как GlobalFoundries имеет право на производство соответствующих микросхем.

Микросхема AMD

Микросхема AMD

В попытке найти новые источники доходов и увеличить общую рентабельность, AMD объявила о планах по монетизации своего портфеля патентов в конце 2014 года. В рамках данной программы, компания подписала договор о совместной разработке серверных SoC с компанией Tianjin Haiguang Advanced Technology Investment Co., Ltd (THATIC), которая является инвестиционным подразделением Китайской академии наук.

По-видимому, кроме поиска партнёров, AMD приняла решение лицензировать патенты разработчикам, которые уже поставляют устройства на базе технологий, созданных третьими компаниями (в иске упоминается IP ARM). AMD говорит, что ей уже удалось заставить Samsung и LG соблюдать её права в области интеллектуальной собственности в ряде случаев, а новые претензии против последней являются продолжением предыдущих усилий.

В своей жалобе AMD просит ITC прекратить противоправные действия (cease and desist order). Это касается импорта и продажи в США продукции, нарушающей патентное законодательство (limited exclusion order). Если комиссия придёт к выводу о том, что ответчики нелегально используют интеллектуальную собственность AMD, то запрет может коснуться нескольких семейств продукции LG и Vizio.

Микросхема AMD

Микросхема AMD

Advanced Micro Devices не та компания, адвокаты которой часто ведут публичные тяжбы против других игроков на рынке. В 2005 году корпорация подала в суд на Intel, обвиняя её в многочисленных проступках, которые вредили бизнесу AMD в 1990-х и в начале 2000-х. Тогда стороны договорились о единоразовой выплате со стороны Intel в 2009 году, и это было наиболее заметным появлением AMD в суде в прошлом десятилетии. В отличие от подобных процессов, тяжбы против Samsung и LG в последние годы остались незамеченными.

AMD Radeon

AMD Radeon

Судебный процесс против MediaTek, LG, Sigma и Vizio едва ли привлечёт столько внимания, сколько тяжба между AMD и Intel почти декаду назад. Безусловно, процесс против LG и MediaTek будет значимым. Тем не менее, остаётся большой вопрос — планирует ли AMD привлечь к ответственности других игроков, которые используют графические технологии, созданные третьими компаниями (например, ARM, ImgTec, DMP), но не платят AMD за интеллектуальную собственность.  

AMD: «Мы выпустим отличные GPU и увеличим долю на рынке!»

Лиза Су (Lisa Su), исполнительный директор Advanced Micro Devices, заявила во время интервью на выставке Consumer Electronics Show, что компания имеет ряд «отличных» графических процессоров в планах на этот год. Новые GPU помогут компании увеличить свою долю на рынке графических адаптеров, отбив её у корпорации NVIDIA.

Результаты деятельности AMD в 2014 году на рынке графических процессоров довольно неоднородны. С одной стороны, AMD удалось выпустить видеокарту AMD Radeon R9 295X2 на базе двух микросхем Hawaii, которая стала самым высокопроизводительным игровым решением на рынке. Кроме того, компания смогла укрепить позиции на рынке профессиональных графических карт. С другой стороны, AMD не выпустила никаких новых GPU, за исключением чипа с кодовым названием Тonga, который почти не увеличивает производительность по сравнению с предыдущим поколением Radeon R9 280-й серии на основе графических процессоров Tahiti.

AMD Radeon

AMD Radeon

В отличие от конкурента, компания NVIDIA выпустила два новых графических чипа и четыре новых графических решения только для настольного рынка, существенно увеличив продажи своих GPU. Как следствие, AMD проиграла часть доли рынка NVIDIA во второй половине 2014 года. Тем не менее, компания не теряет оптимизма и планирует вернуть потерянную долю назад.

«Когда я смотрю на 2015-й, я вижу отличные продукты в перспективном плане, о которых мы будем говорить позже в этом году», — сказала Лиза Су на тринадцатом ежегодном технологическом форуме JP Morgan на выставке CES. «Я рассматриваю новые продукты как возможность увеличить долю рынка в указанный период времени».

Вполне естественно, что глава AMD не раскрывает каких-либо конкретных сведений о планах компании. Из неофициальных источников известно, что AMD готовит, по крайней мере, одну новую графическую карту серии Radeon R9 для энтузиастов, которая не только значительно повысит производительность по сравнению с существующими графическими адаптерами, но и будет первым GPU в отрасли, который будет использовать широкополосную многослойную память с высокой пропускной способностью (stacked high-bandwidth memory, HBM). Известно, что SK Hynix начнёт массовое производство памяти HBM в первом квартале 2015 года.

AMD Radeon R9 290X

AMD Radeon R9 290X

Хорошей новостью является подтверждение планов по выпуску множества продуктов, так что можно надеяться на анонс компанией несколько новых GPU.

«Вы увидите наши новые графические решения в этом году; как правило, мы держим в тайне любые подробности, пока мы не будем готовы к выпуску новинок на рынок», — сказала госпожа Су.

Учитывая тот факт, что многие графические чипы в семействе продукции AMD для настольных и портативных компьютеров присутствуют на рынке вот уже более двух лет, для компании важно представить новые графические процессоры в этом году. К сожалению, совершенно непонятно, сколько именно новых GPU и сколько новых решений на их основе планируется вывести на рынок в ближайшие кварталы.

Принимая во внимание, что AMD планирует представить свои графические процессоры на базе пост-GCN архитектуры только в 2016 году, GPU AMD этого года будут продолжать использовать текущую технологию GCN. Судя по всему, новые Radeon будут основываться на архитектуре GCN 1.2, поддерживать пару-тройку усовершенствований, касающихся трёхмерной графики, а также расширенные мультимедийные функции. Среди прочего новые GPU могут включить в себя аппаратные кодеры/декодеры для видео сверх чёткого разрешения (ultra-high-definition, UHD), такие как H.265/HEVC, VP9, ​​H.264 для 4K и т.д., новые блоки для улучшения качества проигрывания видео и другие улучшения.

AMD Radeon

AMD Radeon

Положительным фактором для AMD является то, что руководству компании известно, чего ожидать от NVIDIA в 2015 году, а также то, что следующее поколение GPU от главного конкурента (известные под кодовым названием Pascal) стоит ожидать не раньше следующего года. Очевидно, что NVIDIA может обновить свой ​​модельный ряд в конце 2015, используя имеющиеся чипы на базе архитектуры Maxwell, которые всё еще могут преподнести ряд сюрпризов. Тем не менее, очевидно, что у AMD на сегодняшний день куда лучшее понимание того, что ожидать от своего конкурента, чем это было в прошлом году.

Микросхемы для следующей консоли Nintendо разработают в США

В отличие от своих основных конкурентов на рынке игровых консолей, корпораций Microsoft и Sony, Nintendo производит практически все научно-исследовательские и опытно-конструкторские разработки (НИОКР; англ. Research and Development, R&D) в Японии. Однако всё может измениться в случае со следующим поколением консолей Nintendo, чипы для которой, судя по всему, разработают в США.

Система-на-чипе игровой консоли Nintendo Wii U. Фото - IFixIt

Система на чипе игровой консоли Nintendo Wii U. Фото IFixIt

Традиционно все ключевые разработки аппаратных технологий для игровых консолей Nintendo производились в Киото, Япония, в подразделении Nintendo Integrated Research & Development Department (NIRD). Так, в NIRD разработали консоли Nintendo 64, GameCube, Wii и Wii U. Другое подразделение Nintendo в Киото занималось разработкой мобильных консолей, таких как DS, DSi, 3DS и т.д. Тем не менее, целый ряд программных технологий, включая наборы для разработки ПО (software development kit, SDK) и разного рода инструментарий, разрабатывался в центре Nintendo Technology Development (NTD), который базируется в Редмонде, штат Вашингтон. Судя по ряду сообщений, роль NTD будет существенно меняться.

В последние месяцы NTD начала нанимать специалистов по аппаратному обеспечению. Одна из позиций — ведущий архитектор графических подсистем в группе по разработке систем на чипе — чьё описаний было опубликовано на LinkedIn, привлекла внимание журналистов GameSpot.

От ведущего архитектора графических подсистем, который уже принят на работу в Nintendo, компания ожидала хорошего знания современных графических архитектур и способности применить эти знания для определения направления разработки будущих графических подсистем Nintendo. В обязанности кандидата входила оценка современных аппаратных графических решений по критериям производительности, энергопотребления и стоимости реализации в кремнии. Кроме того, ведущий архитектор графических подсистем должен был выступать в роли архитектурного евангелиста для других подразделений Nintendo, что ещё раз подтверждает тот факт, что NTD будет разрабатывать ключевые технологии для консолей Nintendo следующих поколений.

В то время как Nintendo создавала практически все ключевые технологии для своих игровых платформ в Японии, довольно очевидно, что в настоящее время все наиболее продвинутые микросхемы разрабатываются в США. Более того, даже базируясь на микропроцессорах IBM Power и графических подсистемах ATI (AMD), которые создавались в США и Канаде, консоли Wii и Wii U существенно отставали от конкурентов как по производительности, так и по функциональности. Более того, довольно сложные архитектуры консолей Wii и Wii U, вкупе с отсутствием качественной поддержки разработчиков программного обеспечения, заставляли многих производителей игр отказываться от определенных проектов для платформ. В свою очередь, это заставляло Nintendo полагаться исключительно на собственные игры для продвижения консолей.

Как Microsoft, так и Sony, разрабатывали системы на чипе для своих консолей Xbox One и PlayStation 4 в основном в США. Обе консоли обладают высокой производительностью, а также простой архитектурой с точки зрения разработчика ПО.

Как известно, после невероятных трудностей с запуском PlayStation 3 в массовое производство, а также существенных проблем, которые доставила архитектура микропроцессора Cell создателям игр, Sony приняла решение существенно поменять команду разработчиков чипов для консолей нового поколения. В 2008 году Sony Computer Entertainment наняла американского разработчика Марка Черни (Mark Cerny) для создания платформ PlayStation Vita и PlayStation 4. Господин Черни отказался от использования целого ряда проприетарных технологий (например, процессоров Cell и графических подсистем, разработанных самой Sony) в пользу стандартных ARM, PowerVR, x86 и Radeon, а также максимально упростил архитектуру PS Vita и PS4, чтобы упростить и ускорить создание игр. По признаниям многих производителей ПО, архитектура PlayStation 4 практически идеальна для разработки новых игр.

Хотя Nintendo ещё только предстоит подтвердить факт того, что ключевые микросхемы (центральный и графический процессоры, или же система на чипе) будут разработаны в NTD, в США, такое решение выглядит очень логичным. Однако мало найти «своего» Марка Черни. Nintendo следует поменять саму парадигму создания микросхем для игровых консолей. Пытаясь сэкономить максимум на разработке и производстве, Nintendo традиционно создавала посредственные решения, не обладающие достаточной производительностью и функциональностью для игр будущих поколений. Как следствие, платформы компании теряли популярность среди создателей игр, а затем и игроков. Судя по всему, разработчикам из Nintendo Technology Development придётся решать эту проблему в ближайшие годы.

Интервью с Эриком Демерсом, бывшим инженером и техническим директором ATI/AMD

В феврале сообщество ПК-энтузиастов было встревожено вестью о том, что Эрик Демерс (Eric Demers) покинул AMD — многие восприняли это как весьма печальную весть. Вслед за тем возникли предположения: на какой пост мог уйти человек, который был ведущим технологом и вице-президентом графического подразделения AMD?

Вполне логично, что ушёл он в Qualcomm, которая приобрела в январе 2009 года Imageon IP, мобильную графику компании ATI. В настоящее время Qualcomm использует в своих процессорах Snapdragon графику Adreno — интересно, что это название является анаграммой Radeon. Мобильный рынок в настоящее время предлагает потребителям всё больше и больше возможностей, спрос растёт, ставя новые сложные задачи перед производителями, которым необходимо сохранить энергоэффективность, одновременно предоставив отличный уровень производительности и функциональности. Огромное поле для деятельности тому, кто создавал оборудование для множества игровых систем за последние 15 лет. Эрик Демерс ответил на несколько вопросов ресурсу Rage3D, с которыми довольно интересно ознакомиться.

Эрик Демерс тайно вынашивает планы мирового господства? (Шуточная подпись к фотографии от сотрудников Rage3D)

Ваша последняя должность в AMD называлась «главный технолог по графике и вице-президент» — была ли помехой столь ответственная роль руководителя для применения ваших инженерных знаний?

На самом деле сложно сравнивать. Чисто с технической точки зрения нижний инженерный пост сложно превзойти по степени погружения — специалист погружается в технические проблемы и решает их на низком уровне. Для технического директора уровень абстракции гораздо выше. Руководителю необходимо иметь гораздо более широкое видение, но при этом приходится жертвовать уровнем погружения в детали. Но при этом моя роль являлась гораздо более технической, чем роль любого другого руководителя такого уровня в компании (большая часть из которых заняты преимущественно исполнительными вопросами и управлением), но не столь сильно, как у рядовых сотрудников. С другой стороны, технический директор получает больше контроля и может задавать долгосрочные пути развития. В этом и ценность такого руководителя — он помогает установить долгосрочные пути технического развития компании или группы, которую представляет.

Какой работой в ATI/AMD вы больше всего гордитесь?

Сложно сказать. Проекты вроде Nintendo GameCube/Wii и ускоритель R300, вне сомнения, выдающиеся. Но в то же время, некоторые инженеры и команды, которым я помог вырасти и развиться в потрясающе важных сотрудников, — тоже большой предмет гордости. Создание процессов и планов, развитие которых потребует годы, — тоже потенциальные фавориты. В целом, мне сложно сделать один выбор. Спросите меня снова через год, и я скажу, какой из них прошёл фильтры времени.

Какой ваш любимый продукт, над которым вы работали (если он был выпущен)?

В моей карьере, вероятно, работа в ArtX (над 3D-чипом t&l и GameCube). Это было особенное время, с небольшой группой друзей, где мы работали не покладая рук и делали отличные вещи. Речь не столько о продуктах, а скорее об атмосфере, в которой мы работали. Это будет всегда особое время для меня.

Tahiti, ядро серии карт AMD Radeon HD 7900

О какой модели или инженерном решении вы жалеете?

Их так много!  Реальность такова, что когда делаешь массу решений, после этого можно всегда вернуться и сказать: «здесь можно было бы сделать получше» или «вместо этого мы должны сделать то». В любом относительно сложном проекте вроде проектирования GPU всегда можно найти вещи, которые можно было сделать гораздо лучше. Самые плохие решения те, которые задерживали продукты. Вроде выбора процесса, который не дал ожидаемых результатов со временем или выбора компаний, библиотеки которых не готовы, или многие другие решения подобного рода. Везде можно найти точки, где единственное решение может привести к большой разнице.

Какое выдающееся собственное инженерное или конструкторское решение, пришедшее в один момент, во время работы с ATI/AMD вы можете вспомнить с удовольствием?

Когда я был рядовым сотрудником, такие моменты, конечно, были. Например, создание неких искусных схем для тех или иных целей. За последние 10 лет можно вспомнить создание пиксельных шейдеров для R300 с Марком Литером (Mark Leather), где мы сделали немало удачных вещей; или секвенсор в шейдерном ядре R600. Многие из решений затем вылились в патенты. Нужно внимательней вспомнить, но таких особенно удачных решений было, по меньшей мере, 20 или 30. На уровне технического директора сложно выделить такие вещи, ибо большая часть времени тратится на коллективные усилия и контроль разработки; здесь сложнее найти «моменты».

Мой новый рабочий телефон ТАКОЙ большой! (Шуточная подпись к фотографии от сотрудников Rage3D)

Насколько ограничивают бизнес-требования и ограничения при разработке и выводе нового впечатляющего проекта?

Они устанавливают некие условные рамки для работы. До известной степени они остаются гибкими, но при этом являются вызовами при разработке; на самом деле, проектирование без каких-либо ограничений — менее интересное занятие! Необходимо тесно работать с командами по выводу продукта, дабы определить, где присутствует гибкость, и какие границы можно раздвинуть для вывода продукта в срок и удовлетворения бизнес-нужд. И по-настоящему успешный продукт с точки зрения бизнеса более всего удовлетворяет.

ATI R300

Когда вы работали над проектом ускорителя R300, вы представляли себе, что когда-то GPU Radeon станут настолько мощными, каковыми они сегодня являются?

Нет! Мы все знаем, что удвоение транзисторов каждые 18 месяцем может привести к появлению невероятных вещей. Но редко над этим думаешь. И никогда не думаешь в точности, что случится за срок в 10 лет. Это не столь уж сложно представить — за 10 лет можно ожидать 100-кратного прироста производительности, и я полагаю, мы добились этого, по крайней мере, в области шейдеров. Но очевидно, что система не масштабируется равномерно во всех своих частях — узкие места смещаются. Но в целом, сегодня потрясающе видеть, как небольшие портативные устройства обеспечивают производительность, которая требовала энергопотребления в 100 Вт в больших компьютерах всего несколько лет назад. И если смотреть вперёд, потрясает ещё больше, чего мы можем добиться в области индивидуальных вычислительных решений! По-настоящему персональное вычислительное окружение, обеспечиваемое превосходной графикой и параллельными расчётами в вашем кармане!

Материалы по теме:

Источник:

AMD желала купить NVIDIA вместо ATI

Как сообщает издание Forbes со ссылкой на анонимного информатора из бывших сотрудников Advanced Micro Devices, компания из Саннивэйла вела переговоры с NVIDIA о поглощении перед покупкой ATI в 2006 году. Как и многие в процессорной индустрии, лидеры AMD тогда полагали, что последовательный переход на более совершенные технологические нормы позволит интегрировать в чипы компании новые возможности, которые обеспечат эффективное противостояние с Intel.

 

 

Поэтому исполнительный директор AMD Гектор Руис (Hector Ruiz) решил выйти на графический рынок, опередив в этом отношении Intel. В отличие от CPU, которые обычно построены вокруг нескольких очень мощных ядер, GPU нацелены на одновременную обработку множества относительно простых одинаковых задач. Объединение CPU и GPU позволило бы AMD представить на рынке нечто, к чему Intel не была готова.

Для этого первой целью AMD стало поглощение NVIDIA. Но глава калифорнийского графического гиганта Дженсен Хуанг (Jen-Hsun Huang), как сообщает бывший сотрудник AMD, настаивал на том, что он должен стать главой новой объединённой компании. Именно это стало причиной срыва сделки: господин Руис решил сделать выбор в пользу приобретения ATI в июле 2006 года за сумму в $5,4 млрд.

Поглощение, однако, вылилось в проблемы: NVIDIA представила неожиданно сильные продукты, расширив свою долю рынка, а AMD с большим трудом и с огромной задержкой, давшей большую фору Intel, смогла интегрировать графику в свои процессоры. В то время как AMD активно отвоёвывает графический рынок, NVIDIA делает ставку на мобильные чипы Tegra. Большим достижением стало то, что Microsoft назвала NVIDIA одним из трёх основных партнёров в платформе Windows 8 ARM. Сегодня рыночная стоимость NVIDIA составляет 9,7 млрд, а AMD стоит лишь $5,2 млрд.

Если эти сведения имеют под собой основания, то, думается, объединение AMD c NVIDIA могло быть гораздо более счастливым: компания под руководством Дженсена Хуанга точно не упустила бы мобильный рынок.

Материалы по теме:

Источник:

Quanta обвиняет AMD в высоком уровне брака старых графических чипов

Крупнейший контрактный производитель ноутбуков компания Quanta обвинила AMD в высоком уровне брака графических процессоров ATI Radeon, которые AMD отгружала ранее. Quanta утверждает, что бракованные графические чипы существенно повлияли на её прибыльность, и потому требует компенсации от AMD.

«Quanta получила серьёзный убыток в отношении предполагаемых доходов и прибыли», — говорится в судебном иске компании. Новостное агентство Bloomberg сообщает, что Quanta требует суда присяжных и возмещения убытков, по данным судебных документов. Сама AMD отказывается признавать, что графические адаптеры ATI Radeon, которые Quanta использовала в производстве ноутбуков NEC, могли вызвать негативные последствия.

 

 

«AMD оспаривает утверждения, озвученные в жалобе Quanta, и полагает, что они не имеют основания. AMD не получала от других клиентов сообщения о проблематичных чипах, которые Quanta использовала, и которые AMD уже не продаёт. В действительности, Quanta сама подтвердила AMD, что она без подобных проблем использовала идентичные чипы в больших объёмах для других компьютерных платформ, которые она производила для NEC», — сказал Митчел Сильверман (Michael Silvermanm), корпоративный представитель AMD.

Здесь уместно вспомнить, что в 2008 году обнаружился брак в массово использующемся чипсете NVIDIA, который выходил из строя из-за некачественного материала упаковки. Тогда компания потеряла сотни миллионов долларов, выплачивая компенсации своим партнёрам, столкнувшимся с высоким уровнем возврата ноутбуков.

Материалы по теме:

Источник:

Еще один повод модернизировать ПК: Battlefield 3 против видеокарт

Высокобюджетный шутер от первого лица Battlefield 3 выгодно отличается от многих других игр тем, что его основной платформой является ПК. Специалисты из студии EA Digital Illusions CE уже успели получить высокие оценки своего продукта от ведущих игровых изданий. Причём именно ПК-версия получила максимальный балл.

Сегодня мы постараемся разобраться, какой графический адаптер необходим пользователю для максимально комфортной игры при разных настройках качества графики. Еще раз, речь пойдет именно о производительности видеокарты в системе, а не о производительности отдельных ее компонентов.

Поскольку Battlefield 3 является сиквелом игры «Battlefield 2» (2005 год), то предложим вниманию читателей два скриншота, наглядно демонстрирующие качественный скачок в графике.

 

Еще один повод модернизировать ПК: Battlefield 3 против видеокарт
Еще один повод модернизировать ПК: Battlefield 3 против видеокарт

 

Традиционно перед началом тестирования познакомимся с качеством картинки в Battlefield 3, а также обратим внимание на эффекты физики, использующие Havok Physics. Поражать красотой виртуального мира призван новый движок Frostbite 2.0, поддерживающий DirectX 11 и DirectX 10. Благодаря использованию тесселяции, разработчики обеспечили высокий уровень детализации ландшафта.

В игре используется четыре предустановки качества картинки.

 

Пора менять видеокарту: игра Battlefield 3 подскажет

 

Переключение между режимами происходит быстро и не требует перезапуска игры.

 

Battlefield 3 и против графических адаптеров

 

100%

 

Сцена в городе.

 

Battlefield 3 и против графических адаптеров

 

Пожалуй, единственное, что можно сразу отметить, так это игру теней. Минимальное качество графики не блещет мягкими тенями, а сразу выдает себя ступенчатым и жестким происхождением теней.

Сцена «народное творчество».

 

Battlefield 3 и против графических адаптеров

 

Качество текстур остается практически неизменным с переходом от минимального качества к ультракачеству. А вот освещение и тени совершенно разные.

Сцена «коллеги по цеху».

 

Battlefield 3 и против графических адаптеров

 

В целом, картинка в ультракачестве более мягкая и приятна глазу.

Несколько слов о движке Havok Physics.

 

Battlefield 3 и против графических адаптеров

 

Легко заметить, что разрушается только определенная часть парапета.

Еще немного разрушений, но уже в вагоне метро. Разрушению подлежат только спинки кресел. Стол, чемоданы, подлокотники и нижняя часть кресла не разрушаемы.

 

Еще один повод модернизировать ПК: Battlefield 3 против видеокарт

 

Вывеска с дырками от пуль не подчиняется законам физики и не пробивается из оружия. Остаются только следы от пуль.

 

Battlefield 3 и против графических адаптеров
Battlefield 3 и против графических адаптеров

 

Следы от пуль на мостовой

 

Battlefield 3 и против графических адаптеров
Battlefield 3 и против графических адаптеров

 

Данный эффект сложно отнести к заслугам физического движка Havok, но реализовано хорошо и добавляет реализма игре.

По нашим данным, поддержка технологии NVIDIA 3D Vision появится в игре уже в этом году, но не в первом патче к Battlefield 3. Хотя в драйверах GeForce 285.62 WHQL профиль под Battlefield 3 уже есть.

В качестве основы тестового стенда мы использовали материнскую плату MSI P67A-GD65, оперативную память Kingston HyperX 2 x 4 Гбайт (KHX1600C9D3X2K2/8GX), блок питания IKONIK Vulcan 1200 Вт и процессор Core i7-2600K, разогнанный до частоты 5,0 ГГц для наиболее комфортной работы графических адаптеров. Управлялся тестовый стенд операционной системой Windows 7 Ultimate x64.

 

Еще один повод модернизировать ПК: Battlefield 3 против видеокарт

 

Сотрудники торговой площадки PCshop Group предоставили нам для проведения тестирования графические адаптеры с поддержкой DirectX 11. Кроме того, для наглядности в тесты включены результаты нескольких видеокарт прошлого поколения.

Специально под игру Battlefield 3 компании NVIDIA и AMD выпустили драйверы: GeForce 285.62 WHQL и Catalyst 11.10 Preview 3 соответственно.

 

Тестовый стенд

 

Тестирование проходило в следующих режимах:

  • Минимальное качество графики, 1920х1080;
  • Среднее качество графики, 1920х1080;
  • Высокое качество графики, 1920х1080;
  • Ультракачество графики, 1920х1080.

 

Еще один повод модернизировать ПК: Battlefield 3 против видеокарт

 

В таком режиме практически все видеокарты способны подарить игроку высокое значение FPS. Хотя модели GeForce 9800 GT и Radeon HD 6670 находятся на грани фола. Ну а 512 Мбайт локальной памяти явно маловато для игры Battlefield 3, что и доказывает на деле GeForce GT 440.

 

Еще один повод модернизировать ПК: Battlefield 3 против видеокарт

 

При настройках на среднее качество графики на скамейке запасных оказываются старички на базе GPU G80/G92. Рядом с ними расположились современные решения - Radeon HD 6670, Radeon HD 6750 и GeForce GT 440 512 Мбайт.

 

Еще один повод модернизировать ПК: Battlefield 3 против видеокарт

 

Еще больше нагрузки на вычислительные резервы испытуемых. Обеспечить приемлемый уровень производительности могут решения от Radeon HD 6790 с одной стороны и от GeForce GTX 460 со стороны NVIDIA.

 

Еще один повод модернизировать ПК: Battlefield 3 против видеокарт

 

Самая красивая картинка и самые большие потери. Справиться с игрой на таком уровне графики могут только старшие видеокарты серии GeForce GTX и представители линейки Radeon HD 6900.

В клубе ««пожирателей FPS» появилась новая игра, которая займет достойное место рядом с Crysis 2 (DX11) и Metro 2033. Владельцы флагманских графических адаптеров смогут снова оценить всю радость владения такими отнюдь не дешевыми решениями. А остальным мы можем посоветовать снижать настройки качества графики и разрешение экрана, либо модернизировать графическую подсистему своего ПК.  

Материалы по теме:

Computex 2011: видеокарта Triplex Radeon HD 6950 Х2 в голубом

Редкий гость в нашей новостной ленте компания Triplex сумела создать неплохой новостной повод в рамках выставки Computex 2011. Этот азиатский производитель продемонстрировал на своем стенде прототип графического адаптера на базе двух чипов Cayman PRO с 1408x2 потоковыми процессорами.

 

Computex 2011: видеокарта Triplex Radeon HD 6950 Х2 в голубом

 

Журналисты с ресурса VR-Zone сообщают, что диковинка может комплектоваться 2 или 4 Гбайт локальной памяти стандарта GDDR5. Логично предположить, что для организации совместной работы двух CPU Cayman PRO используется мост Lucid Hydra.

За охлаждение видеокарты Radeon HD 6950 Х2 отвечает уникальный по дизайну двухслотовый кулер активного типа, который облачен в кожух голубого цвета. На заднюю панель выведены два разъёма DVI, порт HDMI и два DisplayPort.

Коллеги сомневаются, что необычная видеокарта от Triplex попадет в розницу.

Материалы по теме:

Источник:

PowerStrip: 3.89.672: тонкая настройка видеокарты

Вышло обновление популярного твикера видеокарт. Особенностью программы является поддержка огромного количества видеокарт от разных производителей. Программа дает доступ к более чем 500 настройкам аппаратного обеспечения, включая инструменты коррекции цвета, установки времени и т.д.

 

 

Модуль для работы с приложениями позволяет активировать заданные ранее настройки изображения, гамма-коррекции и пр. при запуске определенного приложения и возвращаться к обычным настройкам при его закрытии.

Последняя версия исправляет некоторые ошибки.

Разработчик: EnTech Taiwan
Распространяется: shareware, 29,95 долл.
Операционная система: Windows All
Размер 1,4 Мбайт
Скачать можно отсюда.

Материалы по теме:

Источник:

Gigabyte GeForce GT 430 Turbo Cache: назад в 2004 год

С появлением серии видеокарт GeForce 6 в обиход вошло понятие Turbo Cache. Модель GeForce 6200 с поддержкой этой технологии позволяла использовать часть системной памяти для своих нужд. Такой прием наделил отделы маркетинга производителей графических адаптеров новым инструментом: на розничной коробке можно было указывать максимально допустимый объем памяти в рамках Turbo Cache, а не реальный объем локальной памяти видеокарты. Встретить «увеличитель памяти» можно в некоторых моделях семейств GeForce 7/8/9/200. Как оказалось, и в семействе видеокарт GeForce 400 есть место для технологии Turbo Cache.

Компания Gigabyte представила очередной видеоускоритель, построенный на базе 40-нм чипа GF108 с архитектурой Fermi. Новинка получила название GV-N430TC-1GI и на первый взгляд особо не выделяется среди аналогичных решений.

Gigabyte GeForce GT 430 Turbo Cache: назад в 2004 год
GV-N430TC-1GI

Описание технических характеристик выявляет поддержку технологии Turbo Cache, объем локальной памяти равный 512 Мбайт со 64-битным интерфейсом. Хотя на российском сайте Gigabyte упоминается о 128-битной шине.

Gigabyte GeForce GT 430 Turbo Cache: назад в 2004 год
GV-N430TC-1GI

Перед покупкой видеокарты Gigabyte GV-N430TC-1GI все же рекомендуем уточнить разрядность интерфейса памяти и помнить, что физически на PCB присутствует только 512 Мбайт локальной памяти.

Материалы по теме:

Источник:

PowerStrip: 3.88: тонкая настройка видеокарты

Вышло обновление популярного твикера видеокарт. Особенностью программы является поддержка огромного количества видеокарт от разных производителей. Программа дает доступ к более чем 500 настройкам аппаратного обеспечения, включая инструменты коррекции цвета, установки времени и т.д.

 

 

Модуль для работы с приложениями позволяет активировать заданные ранее настройки изображения, гамма-коррекции и пр. при запуске определенного приложения и возвращаться к обычным настройкам при его закрытии.

Последняя версия исправляет некоторые ошибки.

Разработчик: EnTech Taiwan
Распространяется: shareware, 29,95 долл.
Операционная система: Windows All
Размер 1,34 Мбайт
Скачать можно отсюда.

Материалы по теме:

Источник:

Характеристики видеокарт AMD Barts PRO и Barts XT

В семействе Radeon HD 6000 самыми производительными одночиповыми графическими адаптерами станут решения, построенные на базе GPU Cayman. Ядро Barts окажется на ступеньку ниже и, судя по содержанию этой заметки, может дать жизнь видеокартам Radeon HD 6850/6870. А под обличием Radeon HD 6770 на рынок может выйти Radeon HD 5770. Узнать технические характеристики видеоускорителей AMD Barts нам поможет китайский форум ChipHell.com.

Пользователь dragon007, который зарегистрировался на форуме ChipHell.com 15-го сентября, разместил один слайд из презентации AMD.

Barts

Видеокарта AMD Barts PRO позиционируется компанией из Саннивейла как средство борьбы с GeForce GTX 460 768 Мб. Она получит 800 потоковых процессоров, 40 текстурных блоков (TMU) и 32 блока растеризации (ROP). На борту расположится 1 Гб локальной памяти стандарта GDDR5, которая благодаря 256-битной шине будет соединятся с GPU. Графический процессор получит возможность работать на частотах 700 или 725 МГц, а память на частоте 1000 МГц (4000 МГц QDR). Уровень теплового пакета AMD Barts PRO не превысит 150 Вт.

Отличительной чертой старшего графического адаптера AMD Barts XT станет увеличенное число функциональных блоков: с 800 потоковых процессоров до 960 и с 40 текстурных блоков до 48. Объем и разрядность памяти останутся без изменений. Частота GPU составит 850 МГц, а частота памяти 1050 МГц (4200 МГц QDR). Удержаться в рамках энергопотребления AMD Barts PRO уже не получится. По этой причине в слайде указано, что TDP AMD Barts XT будет превышать 150 Вт. Несложно догадаться какому решению зеленого гиганта будет противостоять флагман серии Barts.  

Материалы по теме:

Источник:

AMD официально избавляется от бренда ATI

Рано или поздно это должно было случиться: AMD ликвидировала имя ATI полностью и собрала все бренды ATI (Radeon и FirePro) под своим основным именем AMD. В рамках новой схемы именования новые графические продукты, которые будут представлены AMD (к примеру, готовящаяся к выходу линейка Radeon HD 6000), не будут иметь никаких упоминаний об ATI ни в логотипе, ни в названии, ни в маркетинговых материалах. После объединения AMD и ATI многие журналисты уже давно именовали ускорители компании как AMD Radeon и AMD FirePro. Теперь это вполне официальные имена.

 

Логоти ATI

 

Производитель объясняет этот шаг эволюцией названий в своём портфеле предложений и сокращением маркетинговых издержек благодаря продвижению лишь одного основного бренда — AMD. Также компания отмечает, что провела широкое исследование мнений графически осведомлённых пользователей в США, Великобритании, Германии, Китае, Японии, Бразилии и России. В результате данного опроса стало ясно, что за время, прошедшее после объединения ATI и AMD, людей, предпочитающих имя AMD, стало втрое больше; также стало ясно, что люди уделяют внимание, в первую очередь, именам Radeon и FirePro. В целом результаты показали, что уже пришло время похоронить имя ATI.

 

AMD избавляется от имени ATI

 

AMD считает, что сейчас самое время совершить данный шаг, потому что ускорители Radeon пользуются огромной популярностью и занимают огромную часть рынка. Одновременно AMD представила и новые логотипы видеокарт, которые почти полностью идентичны предшествующим за исключением изменённого имени.

 

AMD избавляется от имени ATI

 

В целом на потребительском рынке процессоров, чипсетов и платформ AMD собирается и далее продвигать разделение в рамках имён Vision. Несмотря на то, что логотипы отдельных продуктов и процессоров по-прежнему будут существовать, логотипы Vision должны отражать, на что способен тот или иной ноутбук/компьютер, построенный на платформе AMD.

 

AMD избавляется от имени ATI

 

Избавление от имени ATI будет происходить достаточно мягко. Переименование не затронет существующих на рынке продуктов, а начнётся с серии Radeon HD 6000 и нового поколения профессиональных карт FirePro. Более того, поначалу партнёры смогут выбирать между двумя видами логотипов — с именем AMD и без него.

 

AMD избавляется от имени ATI

Материалы по теме:

Источник:

Продажи видеокарт ATI нового поколения начнутся в ноябре

AMD сохраняет сведения о своих новых графических продуктах в полной тайне. Между тем, тайваньский ресурс DigiTimes сообщает со ссылкой на производителей графических ускорителей о том, что появление на полках магазинов первых видеокарт ATI Radeon нового поколения, известных пока под кодовым именем Southern Islands, следует ожидать уже в ноябре.

Логотип ATI Radeon

При этом, как сообщается, официально карты будут представлены компанией AMD в октябре. К тому же, для сохранения и увеличения своей доли рынка AMD, по слухам, планирует в ближайшее время снизить цены на свои видеокарты сери ATI Radeon HD 5000. Это также позволит освободить место для появления Southern Islands.

Изначально компания AMD планировала выпускать новое поколение своих видеокарт с кодовым именем Northern Islands c соблюдением 32-нм техпроцесса, однако Taiwan Semiconductor Manufacturing Company (TSMC) пропустила освоение 32-нм норм, занявшись сразу работой над 28-нм техпроцессом. В ответ и AMD скорректировала свои планы и решила пока остаться на проверенном 40-нм техпроцессе, изменив кодовое имя продукта на Southern Islands.

AMD никак не прокомментировала данные слухи.

Материалы по теме:

Источник: