Сегодня 21 ноября 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Видеокарты

Современные графические процессоры

Современный рынок видеосистем является, пожалуй, наиболее динамичным сегментом компьютерного рынка - пожалуй, и дня не проходит без сообщения о какой-либо новинке (или событии). Основные вендоры без устали "шлифуют" свои технологии, как на дрожжах растут вычислительные мощности графических процессоров, регулярно обновляется их архитектура. А раз анонсы новых решений сыплются как из рога изобилия, то многие из тех, кто не имеет возможности (или желания) регулярно отслеживать события, происходящие в настоящее время на рынке компьютерной графики, уверены, что там царит самый настоящий хаос, и разобраться в ситуации "простому смертному" никак не возможно. Отчасти они правы: сегодня в магазинах можно встретить немалое количество различных реализаций видеокарт, полученных путем самых причудливых комбинаций разных типов графических чипов и видеопамяти, их рабочих частот и разрядности шин памяти. Но так ли все страшно, как кажется на первый взгляд? Попробуем разобраться и разложить все "по полочкам".

В преддверии революции...

Практически весь 2006 год прошел под знаком ожесточенной борьбы между NVIDIA и ATI за благосклонность (и, разумеется, кошелек) покупателей, причем частенько это были не только гонки новых технологий и вычислительных мощностей, но и ценовые "войны". Весь год оба производителя пожинали плоды представленных еще в 2005 году архитектур NVIDIA G70 и ATI R520, по очереди выпуская доработанные, ускоренные или наоборот, "обрезанные" варианты своих базовых решений. В январе 2006 года ATI анонсировала графический процессор R580, представлявший собой усовершенствованный вариант чипа R520. R580, в отличие от своего предшественника, оказался чрезвычайно удачным и вывел компанию в технологические лидеры. Ответ NVIDIA не заставил себя ждать, и в марте появился наследник G70, графический процессор G71, восстановивший паритет по производительности с конкурентом. Далее последовал очередной "раунд" противостояния: в начале лета NVIDIA на базе G71 выпустила двухпроцессорную графическую карту GeForce 7950 GX2, на что ATI практически сразу ответила анонсом Radeon X1950 XTX. Так или иначе, почти до самого конца 2006 года сохранялся примерный паритет производительности флагманских решений ATI и NVIDIA, когда... Впрочем, обо всем по порядку.

Графические процессоры NVIDIA линейки G7x

Архитектуру графического процессора (GPU) G70, выпущенного компанией NVIDIA в середине лета 2005 года, не являлась принципиально новой - она стала всего лишь очередным этапом эволюции архитектуры предыдущего семейства NV4x (о чем явно свидетельствует и первоначальное кодовое обозначение чипа - NV47). Как и предшественник, G70 базируется на все том же наборе шейдеров Shader Model 3.0 (SM 3.0), его базовая версия располагает 24 пиксельными процессорами (или 6 процессорами квадов, обрабатывающих за один такт 6 пикселей) и 8 - вершинными (по одному текстурному блоку на каждом процессоре). Объем адресуемой памяти типа GDDR3 может достигать 1 Гб. Ширина шины памяти составляет 256 бит (4-х канальный 64-битный контроллер). Благодаря оптимизации питания и энергопотребления чипа, выполненного по 0,11 мкм техпроцессу и содержащего чуть более 300 миллионов транзисторов, типовое потребление видеокарт на его базе не превышало 110 Ватт. На базе процессора G70 была выпущена видеокарта GeForce 7800 GTX (рабочая частота чипа - 430 МГц/рабочая частота памяти - 1200 МГц), объем памяти GDDR3 256 Мб, но чуть позже появился и ее вариант с 512 мегабайтами памяти и несколько повышенными рабочими частотами. Процессор G70 устанавливается также и в более скромную карту GeForce 7800 GT, отличающуюся от GTX не только пониженными до 400/1000 МГц рабочими частотами, но и урезанным числом конвейеров (20 пиксельных и 7 вершинных) рендеринга. Впрочем, все Hi-End видеокарты на базе видеопроцессора G70 постепенно становятся достоянием истории, вытесняемые более современными решениями, в частности, G71 - 90-нанометровой "реинкарнацией" G70. G71 состоит из 279 миллионов транзисторов, что гораздо меньше, чем у G70, хотя основные архитектурные решения обоих чипов одинаковы. Увеличение производительности G71 по отношению к G70 определяется заметно возросшей тактовой частотой: ядро работает на частоте 650 МГц (пиксельные процессоры и блендинг) и 700 МГц (вершинные процессоры). Именно такие рабочие частоты процессора в видеокарте GeForce 7900 GTX. Объем установленной памяти типа GDDR3 составляет 512 Мб, а ее рабочая частота - 1,6 ГГц. Потребляет видеокарта энергии заметно меньше, чем GeForce 7800 - порядка 85-90 Ватт. Более низкими рабочими частотами отличается видеокарта GeForce 7900 GT (450 МГц/1,32 ГГц), оснащенная 256 Мб памяти GDDR3, тем не менее, ее производительность гораздо выше, чем у предыдущего Hi-End решения GeForce 7800 GTX. Настоящим апофеозом "выжимания всех соков" из архитектуры G7х стал выпуск двухпроцессорной видеокарты NVIDIA GeForce 7950 GX2, представляющей собой фактически две видеокарты GeForce 7900GTX, объединенных в один ускоритель по методу SLI. Платой за компактность служат пониженные частоты работы как памяти (для каждого из видеочипов по 512 Мб), так и самих GPU - 1,2 ГГц и 500 МГц соответственно. Для экстремальных геймеров, которым производительности GeForce 7950 GX2 может и не хватить, предусмотрена возможность объединить две такие карты по схеме Quad-SLI.
 NVIDIA GeForce 7950 GX2
Видеокарты NVIDIA GeForce 7950 GX2 в режиме Quad-SLI
"Урезанной" версией базового G70 стали видеопроцессоры G72 и G73 (официальные наименования GeForce 7300 и GeForce 7600) - первые графические чипы NVIDIA, выпускаемыми по 0,09 мкм технологии. В отличие от Hi-End чипов, интерфейс памяти у них всего лишь 128 битный (двухканальный 64-битный контроллер). Mainstream-решение G73 имеет 12 пиксельных и 5 вершинных процессоров, по одному текстурному блоку на каждом. Таким образом, он является практически "половинкой" (если не считать 5 вершинных шейдеров вместо 4) от G71. В карте GeForce 7600 GT GPU G73 работает на частоте 560 МГц, а эффективная частота памяти GDDR3 (устанавливается 256 Мб) составляет 1,4 ГГц. По сравнению с Hi-End решениями, GeForce 7600 GT потребляет очень мало энергии (около 40-60 Ватт), что позволяет существенно уменьшить габариты системы охлаждения. Более того, некоторые производители выпускают бесшумные видеокарты этого типа с пассивным (на базе тепловых трубок) охлаждением. Те процессоры G73, которые не прошли отбор по частоте для GeForce 7600 GT, используются в GeForce 7600 GS, работающем на пониженных частотах (400/800 МГц). Кроме того, в GeForce 7600 GS используется память типа DDR2, эффективность которой гораздо ниже, чем GDDR3. Являясь "урезанной" версией процессора G71, чип G73 и сам подвергся еще большей "урезке" - в основе бюджетного GeForce 7300 GT (350/667 МГц) лежит чип G73, в котором из 12 пиксельных блоков включены только 8, плюс к этому отключен и один вершинный блок (всего осталось 4). Видимо, NVIDIA полностью перешла на "безотходное" производство. Для Low-End сегмента рынка дискретных видеокарт позиционируется чип G72. Это предельно "урезанная" версия в семействе G7x, в которой осталось лишь по 4 пиксельных процессора и текстурных блока, а также всего 3 вершинных процессора. Во всем остальном, правда, G72 не отличается от решений более высоких ценовых диапазонов. Чип G72 используется в бюджетных видеокартах GeForce 7300 GS (550/700 МГц) и GeForce 7300 LE (450/600 МГц). Обе они поддерживают технологию TurboCache, задействующую часть системной памяти под фрейм-буфер. Интересно, что G72 планируется NVIDIA как своеобразный полигон по "обкатке" на нем нового 65-нм техпроцесса. Обновленный чип должен появиться уже в марте-апреле текущего года (он получит кодовое обозначение G78), после чего ожидается перевод на новый техпроцесс всех остальных продуктов компании.

Графические процессоры ATI линейки R5xx

Ответом компании ATI на появление графического процессора NVIDIA G70 стал GPU R520, увидевший свет чуть ли не на полгода позже своего конкурента. Изготовленный по 90-нм техпроцессу, он имел 16 пиксельных процессоров (4 процессора квада) с 16 текстурными блоками и 8 вершинных процессора. Новая кольцевая внутренняя 512-битная шина памяти RingBus, обеспечивала стабильную работу чипа на достаточно высоких тактовых частотах, а программируемый восьмиканальный 256-битный (8х32) контроллер памяти поддерживает все современные типы видеопамяти. Но самым главным отличием процессоров семейства R5хх от предыдущих GPU ATI стала долгожданная поддержка шейдеров SM 3.0. Несмотря на наличие у R520 всего 16 пиксельных процессоров против 24 у G70, общее число транзисторов в нем превысило 320 миллионов, что не могло не сказаться на уровне энергопотребления чипа - оно превысило 100 Вт. И графическая карта ATI Radeon X1800 XT, выполненная на базе R520 (625/1500 МГц), и ее более доступный вариант Radeon X1800 XL (500/1000 МГц), изрядно греются, несмотря на "монстрообразные" системы их охлаждения, занимающие по два слота. Менее производительная версия R520 - RV530 имеет три пиксельных квада (12 пиксельных процессоров), 5 вершинных процессора и всего 4 текстурных блока. Шина RingBus "похудела" вдвое, поэтому и внешний интерфейс памяти у RV530 только 128-битный. Чип поддерживает до 512 мегабайт GDDR3 (или DDR1/2) памяти. Mainsteram-карты Radeon X1600 XT обладают тактовой частотой ядра 590 МГц и тактовой частотой памяти 1,38 ГГц. Карты на чипе Radeon X1600 PRO поддерживают частоту ядра 500 МГц, частоту памяти - 780 МГц. Несмотря на достаточно высокие рабочие частоты (по сравнению с конкурирующей линейкой NVIDIA GeForce 7600), производительность видеокарт серии Radeon X1600 оказалась несколько хуже, чем у конкурентов - сказалась не совсем оправданное "усечение" RV530 в части текстурных блоков. Самую нижнюю строчку в линейке R5xx занимает чип RV515, содержащий всего лишь 4 пиксельных (с 4 текстурными блоками) и 2 вершинных процессора. Шинная архитектура RingBus в нем, к сожалению, не поддерживаются, но интерфейс памяти - 128 битный (при этом возможны и 64- или даже 32-битные конфигурации памяти). 90-нанометровый RV515 является одним из самых компактных и "холодных" современных чипов - он состоит из 105 миллионов транзисторов. Семейство массовых и относительно недорогих карты ATI Radeon X1300 включает в себя Radeon X1300 Pro (600/800 МГц) и "просто" Radeon X1300 (450/500 МГц). Сверхбюджетные варианты Radeon X1300 HM поддерживают технологию HyperMemory и имеют тактовую частоту ядра 450 МГц, а памяти - до 1 ГГц. Своеобразной "работой над ошибками" чипа R520 стал R580, выпущенный в самом начале 2006 года и по сегодняшний день являющийся флагманским решением ATI (а теперь уже - и AMD). Единственным существенным отличием от предыдущего решения является втрое увеличенное число пиксельных процессоров (число вершинных процессоров и текстурных блоков осталось прежним) - их стало 48. Естественно, что и количество транзисторов в чипе также резко возросло - до 384 млн., а энергопотребление составило рекордную (на момент выпуска) величину порядка 120 Вт. "Полноценный" R580 стал базовым для линейки видеокарт Radeon X1900, отличающихся друг от друга рабочими частотами, и лишь только Radeon X1900 GT был основан на урезанной (с 36 пиксельными блоками и 12 текстурными) версии R580. Чуть позже компания ATI слегка "подновила" R580, усовершенствовав его контроллер памяти, который стал способен работать сразу с тремя типами памяти - DDR2, GDDR3 и перспективной (но, пока еще, слишком дорогой) GDDR4. На его базе была создана очередная линейки видеокарт Radeon X1950. "Топовая" карта Radeon X1950 XTX (650/2000 МГц) оснащена 512 Мб производительной памяти GDDR4. Существуют также еще и "CrossFire"-разновидности карт Radeon X1900/Х1950, единственным отличием которых от варианта "XTX" являются выходные разъемы - вместо двух стандартных разъемов DVI и TV-out на них установлены DVI и специальный "CrossFire" разъемы. Графические процессоры среднего уровня RV560 и RV570, выполненные по нормам 0,08 мкм техпроцесса являются "урезанными" (с разной степенью "урезанности") версиями R580 и "венчают" собой семейство чипов R5xx. Благодаря более тонкому техпроцессу чипы стали несколько меньше по размеру и их производство обходится дешевле. RV570 состоит из 330 миллионов транзисторов, он имеет 36 пиксельных (12 текстурных блоков) и 8 вершинных процессоров, интерфейс памяти - 256-битный. RV560, несмотря на то, что имеет такое же количество транзисторов, как и RV570, может "похвастать" всего лишь 24 пиксельными процессорами (8 текстурных блоков). Количество вершинных процессоров у обоих чипов одинаково. В отличие от RV570, интерфейс памяти RV560 128-битный.
 Radeon X1650 XT
Видеокарта Radeon X1650 XT от PowerColor - очередной "народный хит"?

На базе RV570 созданы видеокарты Radeon X1950 Pro (580/1400 МГц) и его "младший брат" Radeon X1950 GT (500/1200 МГц), а на базе RV560 - Radeon X1650 XT (600/1400 МГц). Все эти карты оснащены 256 мегабайтами памяти GDDR3. Radeon X1650 XT занял место над бывшим X1600 XT, который теперь просто переименовали в Radeon X1650 Pro - в надежде, видимо, что особо доверчивые покупатели "купятся" на новый индекс карты. Грустно все это...

...вперед, в светлое завтра!

C выходом Windows Vista, неотъемлемой составной частью которой является принципиально новый интерфейс прикладного программирования (API) DirectX 10, также известный как WGF 2.0 (Windows Graphics Foundation), нас ожидают воистину революционные изменения в индустрии графических процессоров. Наиболее важное новшество графического стандарта от Microsoft - движок Direct 3D 10 с единой (унифицированной) архитектурой шейдеров в рамках Shader Model 4.0 (SM4.0). Суть ее в том, что унифицированные шейдеры, по мере надобности, могут выступать в роли как вершинных, так и пиксельных шейдеров. Кроме того, вводятся и новые компоненты рендеринга - так называемые геометрические шейдеры (Geometry Shader). Они работают с "геометрией" не на уровне отдельных вершин (как в случае с вершинными шейдерами), а на уровне полностью сформированных графических примитивов, что позволяет изменять объекты от кадра к кадру, а также существенно увеличивает скорость и реалистичность рендеринга. Хотя в унифицированной архитектуре само понятие "геометрические шейдеры", конечно, достаточно условно. Использование нового API позволит существенно снизить зависимость графических процессоров от центрального процессора, упростит (за счет максимальной унификации) программирование пиксельных и вершинных шейдеров, а также даст возможность создавать новые геометрические эффекты непосредственно в самом шейдере. Однако новый интерфейс несет с собой и новые проблемы - DirectX 10-й версии обратно не совместим с 9-й, а посему при запуске разом ставших "старыми" многих современных игр в среде новой операционной системы Windows Vista могут возникнуть многочисленные проблемы, вплоть до отказа игры запускаться. Это связано не только с изрядной "сыростью" самого DirectX 10, но и с отсутствием ряда необходимых компонентов внутри самой новой ОС. Их придется найти, скачать и установить самостоятельно. И наоборот - по заявлению одного из разработчиков этого интерфейса из компании Microsoft Фила Тейлора (Phil Taylor), DirectX 10 будет эксклюзивной прерогативой Windows Vista, а посему для "заточенных" под нее новейших игр более "древние" версии Windows попросту не подойдут. Таким образом, ближайшее время обещает стать "веселым" во всех отношениях.

Графические процессоры NVIDIA линейки G8x

8 ноября 2006 года компания NVIDIA нанесла очередной удар своему извечному конкуренту, выпустив первую в мире видеокарту GeForce 8800 (на базе GPU G80) с полной поддержкой DirectX 10, Shader Model 4 и абсолютно новой, революционной архитектурой. Ответ ATI/AMD в виде видеокарт на чипе R600 ожидается не раньше второго квартала 2007 года. Тем самым NVIDIA с выпуском флагманского графического решения, поддерживающего DirectX 10, опередила своего основного (и единственного) конкурента почти на полгода. Основу G80 составляют 8 универсальных вычислительных блоков (шейдерных процессоров), каждый из которых единовременно может заниматься одним делом, например, исполнять часть вершинного, или пиксельного, или геометрического шейдера. Каждый такой блок состоит из 16 скалярных потоковых процессоров (Streaming Processor) и 4 текстурных блоков, а также кэша первого уровня, в котором хранятся как текстуры, так и любые другие данные, запрошенные процессором. Таким образом, всего в G80 имеется 128 SP и 32 TMU. Ширина шины памяти составляет 384 бит (6 независимых контроллеров шириной по 64 бита каждый), поддерживается память как GDDR3, так и GDDR4. Промежуточная (между стандартными значениями 256 и 512 бит) разрядность шины памяти объясняет и нестандартный объем локальной памяти, поддерживаемой чипом - 768 мегабайт. В целом же организация подсистемы доступа к памяти не претерпела значительных изменений по сравнению с G7х. Стоит отметить, что вышеописанная организация нового процессора позволяет произвольно отключать любые шейдерные блоки, а также отдельные контроллеры памяти в случае производственных дефектов для получения "урезанных" решений, продающихся по более низкой цене. В G80 NVIDIA представляет ряд новых (и улучшенных старых) технологий:
  • GigaThread позволяет распределять шейдерные блоки в качестве вершинных, геометрических или пиксельных шейдеров в соответствии с нагрузкой;
  • Lumenex Engine реализует выборку и фильтрацию текстур, а также полноэкранное сглаживание изображения без потерь качества и скорости рендеринга;
  • Quantum Effects отвечает за обработку "физики" средствами самого графического процессора;
  • PureVideo HD обеспечивает повышение качества видеопотока высокого разрешения, защищенного технологией AACS;
  • Extreme High Definition Gaming (XHD) улучшает качество трехмерных игр на широкоэкранных мониторах в разрешениях до 2560х1600.
80-нм чип G80 содержит 681 (!) миллион транзисторов. И это при том, что все "наружные" интерфейсы (RAMDAC и TDMS-трансмиттеры, а также HDMI и HDTV-выходы) вынесены во внешний дополнительный чип-компаньон NVIO. Для сравнения, количество транзисторов в суперсовременном четырехъядерном настольном CPU Intel Core 2 Quad (Kentsfield) почти на 100 миллионов меньше и составляет "всего лишь" 582 миллионов. Штатная рабочая частота ядра G80 составляет 575 МГц, однако его шейдерные процессоры работают на гораздо более высокой частоте - 1350 МГц. С этой точки зрения архитектура G80 напоминает архитектуру Intel NetBurst, где частота работы ALU в два раза превышает базовую. Естественно, что сразу возникают вопросы о тепловыделении чипа и о способах отвода тепла от него. Видеокарты на базе G80 в режиме максимальной нагрузки потребляют от 140 до 180 Ватт (в разных источниках разные оценки), что, учитывая размер и сложность чипа, показатель более чем достойный. Тем не менее, все более актуальным становится вопрос о дополнении (или даже полной замене) традиционных воздушных кулеров гораздо более эффективными системами водяного охлаждения. На момент анонса в состав семейства GeForce 8800 вошли две графические карты - флагманская GeForce 8800 GTX и чуть менее производительная, но и гораздо более дешевая GeForce 8800 GTS. Первая из них, GeForce 8800 GTX, работает на штатной частоте G80 (напомню, это - 575/1350 ГГц), объем установленной видеопамяти GDDR3, работающей на частоте 1,8 ГГц, составляет 768 Мб. Несколько скромнее характеристики карты GeForce 8800 GTS (500/1200/1800 МГц). Она оснащается 320 или 640 мегабайтами памяти GDDR3, ширина шины памяти "урезана" до 320 бит. Количество универсальных потоковых процессоров у нее уменьшено до 96, а текстурных блоков - до 24 (всего - 6 шейдерных процессоров).
 MSI GeForce 8800 GTS
Видеокарта MSI GeForce 8800 GTS 320 Mb OverClocked Edition - доступный Hi-End
Во второй половине 2007 года NVIDIA планирует выпустить 65-нм видеочип G90, который (по аналогии с парой G70-G71) будет иметь схожую с G80 архитектуру, но работать на более высоких частотах и, вероятно, реально (а не теоретически, как G80) поддерживать память типа GDDR4. Также не исключено, что в результате переработки дизайна видеочип G90 сможет обзавестись полноценной 512-битной шиной памяти. На выставке CeBIT 2007 (которая вот-вот должна начаться) будут продемонстрированы первые образцы, а уже в апреле 2007 года в продаже должны появиться видеокарты серии GeForce 8600 и GeForce 8300 среднего и нижнего ценового диапазона на базе 80-нм чипов G84 и G86 соответственно ("урезанные" версии G80). G84 будет иметь 64 потоковых процессора (4 шейдерных процессора) и 128-битную шину памяти. Бюджетные G86 ограничатся всего парой шейдерных процессоров (32 SP). Таким образом, карты на базе G84 могут представлять собой "половинку" (а G86 - "четвертинку") GeForce 8800 GTX и предлагаться за пропорционально меньшую цену, что можно считать неплохим вариантом (особенно на фоне запредельной стоимости флагмана). Родство архитектуры GPU предполагает и родство поддерживаемых ими технологий, так что практически все перспективные наработки NVIDIA из арсенала G80 перекочуют в его "обрезки" без изменений. По предварительным данным, видеокарты серии GeForce 8600 будут оснащаться 256 Мб памяти типа GDDR3 (128-битная шина памяти). Однако не исключено и появление чуть позже их вариантов с 512 Мб памяти. По аналогии с нынешней серией GeForce 7600, GeForce 8600 будут выпускаться в вариантах GT и GS, различающихся частотами: GeForce 8600 GT будет работать на 650/1800 МГц, а GeForce 8600 GS - 550/1400 МГц. Интерфейс памяти видеокарт серии GeForce 8300 также 128-битный, а частоты ядра/памяти составят 500/1200 МГц для версии GT и 500/1000 МГц для GeForce 8300 GS.

Графические процессоры AMD линейки R6xx

Следует отметить, что NVIDIA не является пионером в области продвижения на рынок видеорешений с поддержкой DirectX 10 - первый графический чип с унифицированной архитектурой, известный под именем Xenos (кодовое название R500, включал в себя 48 унифицированных шейдерных процессоров), был представлен компанией ATI в составе игровой консоли Microsoft Xbox 360. Однако c платформой "Wintel" дело обстоит гораздо сложнее - официальный анонс видеочипа AMD R600, полностью поддерживающего спецификаций DirectX 10 и призванного составить конкуренцию G80 от NVIDIA, ожидается не раньше конца первого - начала второго квартала 2007 года. Судя по предварительной информации, скупо просачивающейся из стана AMD/ATI, каждый из 64 унифицированных шейдерных процессора R600 (который, помимо этого, будет иметь 32 TMU и 16 блоков растеризации) с архитектурой SIMD (Single Instruction - Multiple Data stream Processing, один поток команд - много потоков данных), архитектура каждого из которых обеспечивает выполнение до 4 шейдерных операций за такт. Таким образом, AMD демонстрирует несколько отличный от NVIDIA подход к созданию ускорителя трехмерной графики высокого уровня. Внутренняя кольцевая шина RingBus видеочипа R600 имеет эффективную разрядность 1024 бита, а внешняя шина памяти стала 512-битной, так что пропускная способность памяти будет гораздо шире, чем у решений NVIDIA. С другой стороны, говорить о каком-то преимуществе R600 над G80 пока преждевременно, так как все узлы R600 работают на частоте ядра, то есть в пределах от 700 до 800 МГц. Видеокарты на базе чипа R600 получат официальное обозначение Radeon X2900 и будут существовать в нескольких вариантах: с памятью типа GDDR4 и GDDR3. Наиболее распространенной станет версия с 1 Гб памяти. Эффективная частота модулей памяти GDDR3 достигнет 1800 МГц, а GDDR4 - 2200 ГГц. Существующая ревизия R600 позволяет графическому ядру работать на частоте 750 МГц в составе видеокарты Radeon X2900 XTX с памятью типа GDDR4 (объемом 1 Гб), и на частоте 600 МГц - в составе видеокарты Radeon X2900 XT с памятью типа GDDR-3. Разрядность шины памяти в обоих случаях составит 512 бит. Старшие видеокарты Radeon X2900 могут потреблять до 230 Вт, что, вообще-то не так уж и страшно, как кажется на первый взгляд. Они соответствует требованиям не только перспективного стандарта PCI Express 2.0, но и текущего - как известно, предел мощности слота PCI Express x16 составляет 75 Вт, плюс установленная на них пара дополнительных разъемов питания, обеспечивающих по 75 Вт каждый, дают нам искомые 225 Вт. Но над эффективным (и, что не менее важно - малошумным) охлаждением этих "термоядерных реакторов", инженерам AMD придется потрудиться.
 Radeon X2900 XTX
Radeon X2900 XTX - длинный, горячий и безумно дорогой?
Третий вариант видеокарты на основе R600 будет иметь суффикс XL. Видеокарты Radeon X2900 XL позиционируются в основном на нужды OEM сектора, и при сохранении частотного потенциала XT, будут довольствоваться уменьшенным количеством шейдерных блоков. Самая "слабая" версия R600 (и, тем самым, наиболее привлекательная для массового потребителя) традиционно будет иметь суффикс GT в названии, такой же "усеченный" GPU, как и XL, но оснащаться она будет только 256 Мб памяти типа GDDR-3. Вполне возможно, что и разрядность ее шины памяти также будет "уполовинена". Кроме того, в планах AMD присутствует и экстремальное решение: двухчиповая видеокарта Radeon X2900 XTX2, которая может найти применение не только в системах с поддержкой Quad CrossFire, но и в решениях для ускорения специализированных вычислений типа FireStream. Все видеокарты серии Radeon X2900 будут поддерживать CrossFire без так называемой "мастер-карты". Судя по всему, они возьмут известный со времен Radeon X1950 Pro и Radeon X1650 XT принцип обмена данными через специальные мостики. О видеочипах RV610 и RV630, упрощенных вариантах R600, ждать которые следует не раньше июня-июля текущего года, сегодня известно еще меньше, чем о флагмане. Судя по всему, оба они будут представлять собой урезанные версии R600, выполненные по 65 нм техпроцессу. Массовый RV630 будет иметь 128-битную шину памяти, предусмотрена поддержка памяти как GDDR3, так и GDDR4 (что, по экономическим соображениям, достаточно сомнительно). Графическое решение начального уровня RV610 ограничится 64-битной шиной памяти для 128 Мб или 256 Мб памяти типа GDDR2. Видеочип RV610 в конце апреля даст жизнь графическим платам семейства Radeon X2200, а продукты на базе RV630 (которые появятся месяцем позже) получат обозначение Radeon X2400. Образцы видеокарт на базе чипов RV630 и RV610 могут быть продемонстрированы уже на грядущей CeBIT 2007. Основные характеристики современных графических процессоров и видеокарт на их базе приведены в таблице:

Графическая карта
Ядро
Технология, мкм
Количество транзисторов, млн
Количество конвейеров
Частота чипа*, МГц
Частота памяти*, МГц
Объем памяти, Мбайт
Разрядность шины памяти, бит
Интерфейс
пиксельных
вершинных
текстурных блоков
NVIDIA
GeForce 8800 GTX
G80
0,08
681
128
32
575
1800
768
384
PCI-E
GeForce 8800 GTS
G80
0,08
681
96
24
500
1600
640/320
320
PCI-E
GeForce 8600 GT**
G84
0,08
~300
64
16
650
1800
256
128
PCI-E
GeForce 8600 GS**
G84
0,08
~300
64
16
550
1400
256
128
PCI-E
GeForce 8300GT**
G86
0,08
~170
32
8
500
1200
256
128
PCI-E
GeForce 8300GS**
G86
0,08
~170
24
8
500
1000
256
128
PCI-E
GeForce 7950 GTX2
2xG71
0,09
2x279
2x24
2x8
2x24
500
1200
2x512
2x256
PCI-E
GeForce 7950 GT
G71
0,09
279
24
8
24
550
1400
256
256
PCI-E
GeForce 7900 GTX
G71
0,09
279
24
8
24
650
1600
512
256
PCI-E
GeForce 7900 GT
G71
0,09
279
24
8
24
450
1320
256
256
PCI-E
GeForce 7900 GS
G71
0,09
279
20
7
20
450
1320
256
256
PCI-E
GeForce 7800 GTX
G70
0,11
302
24
8
24
430/550
1200/1700
256/512
256
PCI-E
GeForce 7800 GT
G70
0,11
302
20
8
20
400
1000
256
256
PCI-E
GeForce 7800 GS
G70
0,11
302
16
8
16
400
1000
256
256
AGP
GeForce 7600 GT
G73
0,09
178
12
5
12
500
1400
256
128
PCI-E
GeForce 7600 GS
G73
0,09
178
12
5
12
400
800
256
128
PCI-E
GeForce 7300 GT
G73
0,09
178
8
4
8
350
667
128/256
128
PCI-E
GeForce 7300 GS
G72
0,09
112
4
3
4
550
700
64/128/256
64
PCI-E
GeForce 7300 LE
G72
0,09
112
4
3
4
450
600
64/128/256
64
PCI-E
ATI/AMD
Radeon X2900 XTX2**
R600
0,08
2x720
2x48
575
2000
2x512
2x256
PCI-E
Radeon X2900 XTX**
R600
0,08
720
64
32
750
2200
1000
512
PCI-E
Radeon X2900 XT**
R600
0,08
720
64
32
600
1800
512
512
PCI-E
Radeon X2900 XL**
R600
0,08
720
48
600
1800
512
512
PCI-E
Radeon X2900 GT**
R600
0,08
720
48
600
1400
256
256
PCI-E
Radeon X2400 XT**
RV630
0,065
32
650
1600
256
128
PCI-E
Radeon X2400 Pro**
RV630
0,065
32
550
1400
256
128
PCI-E
Radeon X2200 XT**
RV610
0,065
16
650
1400
256
128
PCI-E
Radeon X2200 Pro**
RV610
0,065
16
500
1400
128/256
128
PCI-E
Radeon X2200 LE**
RV610
0,065
16
500
800
128
128
PCI-E
Radeon X1950 XT
R580
0,09
384
48
8
16
625
1800
256
256
PCI-E
Radeon X1950 Pro
RV570
0,08
330
36
8
12
580
1400
256
256
PCI-E
Radeon X1950 GT
RV570
0,08
330
36
8
12
500
1200
256
256
PCI-E
Radeon X1900 XTX
R580
0,09
384
48
8
16
650
1550
256/512
256
PCI-E
Radeon X1900 XT
R580
0,09
384
48
8
16
625
1450
512
256
PCI-E
Radeon X1900 GT
R580
0,09
384
36
8
12
575
1200
256
256
PCI-E
Radeon X1800 XT
R520
0,09
321
16
8
16
625
1500
256/512
256
PCI-E
Radeon X1800 XL
R520
0,09
321
16
8
16
500
1000
256
256
PCI-E
Radeon X1800 GTO
R520
0,09
321
12
8
12
500
1000
256
256
PCI-E
Radeon X1650 XT
RV560
0,08
330
24
8
8
600
1390
256
128
PCI-E
Radeon X1650 Pro
RV530
0,09
157
12
5
4
600
1390
128/256
128
PCI-E/AGP
Radeon X1600 XT
RV530
0,09
157
12
5
4
590
1380
128/256
128
PCI-E/AGP
Radeon X1600 Pro
RV530
0,09
157
12
5
4
500
780
128/256
128
PCI-E/AGP
Radeon X1300 XT
RV530
0,09
157
12
5
4
500
780
128/256
128
PCI-E/AGP
Radeon X1300 Pro
RV515
0,09
105
4
2
4
600
800
256
64/128
PCI-E/AGP
Radeon X1300
RV515
0,09
105
4
2
4
450
500
128/256
64/128
PCI-E/AGP
Radeon X1300 HM
RV515
0,09
105
4
2
4
450
1000
32/64/128
32/64/128
PCI-E
* - приведены типовые значения частот, рекомендованные производителями.
** - данные ориентировочные
 
 
Если Вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Вечерний 3DNews
Каждый будний вечер мы рассылаем сводку новостей без белиберды и рекламы. Две минуты на чтение — и вы в курсе главных событий.

window-new
Soft
Hard
Тренды 🔥
GTA наоборот: полицейская песочница The Precinct с «дозой нуара 80-х» не выйдет в 2024 году 20 мин.
D-Link предложила устранить уязвимость маршрутизаторов покупкой новых 58 мин.
Valve ужесточила правила продажи сезонных абонементов в Steam и начнёт следить за выполнением обещаний разработчиков 2 ч.
Австралия представила беспрецедентный законопроект о полном запрете соцсетей для детей до 16 лет 3 ч.
Биткоин приближается к $100 000 — курс первой криптовалюты установил новый рекорд 3 ч.
В открытых лобби Warhammer 40,000: Space Marine 2 запретят играть с модами, но есть и хорошие новости 4 ч.
Apple попросила суд отклонить антимонопольный иск Минюста США 4 ч.
Битва за Chrome: Google рассказала об ужасных последствиях отчуждения браузера для США и инноваций 4 ч.
ИИ помог Google выявить 26 уязвимостей в открытом ПО, включая двадцатилетнюю 6 ч.
Власти США попытаются отнять самый популярный браузер у Google через суд 6 ч.