Оригинал материала: https://3dnews.ru/628971

GeForce GTX 690 – два GPU без компромиссов

Технические характеристики. Внешний вид

Прошло немногим больше месяца с момента выхода GeForce GTX 680, и вот NVIDIA представляет карту на архитектуре Kepler с двумя процессорами GK104.

Подробный обзор этой архитектуры вы можете прочитать в статье про GTX 680. А если вкратце, Kepler представляет собой апгрейд архитектуры Fermi, которую NVIDIA использовала в сериях GeForce 400 и GeForce 500. В ядре произошел ряд оптимизаций, но главное изменение состоит в увеличении числа вычислительных блоков: в GK104 втрое больше ядер CUDA и вдвое больше текстурных модулей по сравнению с чипом GF110 (GeForce GTX 580). С другой стороны, GeForce GTX 680 в некоторых отношениях уступает GTX 580: шина памяти «сузилась» с 384 до 256 бит, количество ROP снизилось с 48 до 32, а планировщики потоковых мультипроцессоров перешли от динамического планирования к статическому, что существенно снизило производительность в неграфических вычислениях.

GK104 производится по техпроцессу 28 нм, и умеренное (по сравнению с оным в ядре Tahiti из Radeon HD 7950/7970) число транзисторов позволило установить базовую тактовую частоту GPU 1006 МГц. Память в GTX 680 работает на эффективной тактовой частоте 6008 МГц. Кроме того, NVIDIA внедрила технологию динамического разгона GPU Boost, которая автоматически повышает частоту GPU в зависимости от энергопотребления и температуры. В дополнение к базовой частоте в спецификациях GTX 680 и 690 указана Boost Clock – средняя частота, которой достигает автоматический разгон в большинстве приложений.

#Технические характеристики

GeForce GTX 680 по совокупности тестов опережает основного конкурента, Radeon HD 7970, хотя полный триумф и не состоялся. Но, что не менее важно, GTX 680 потребляет значительно меньше энергии и обходится двумя шестиконтактными разъемами дополнительного питания. Очевидно, что на базе GK104 должна получиться хорошая двухпроцессорная видеокарта. GTX 690 было проще сделать, чем GTX 590, еще и по той причине, что на одной плате легче развести две 256-битные шины памяти вместе с микросхемами, чем две 384-битные. В свое время, чтобы GTX 590 не взрывался в компьютере, NVIDIA пришлось пойти на существенный компромисс в спецификациях. Если GPU и память в GTX 580 работают на частотах 770 и 4004 МГц, то в GTX 590 частоты снижены до 607 и 3414 МГц соответственно. Более того, в GTX 590 заблокировано управление напряжением питания GPU. Правда, отдельные производители преодолели эти ограничения, и в результате появились такие монстры, как ASUS MARS II с трехслотовой системой охлаждения.

На этот раз двухпроцессорная карта претендует на полноценную замену двух GeForce GTX 680. Да, базовая частота чипов уменьшена с 1006 до 915 МГц, но Boost Clock отличается не так сильно: 1058 и 1019 – разница меньше четырех процентов. Видеопамять работает на такой же частоте, 6008 МГц.

GTX 690 потребляет гораздо меньше энергии, чем пара GeForce GTX 680: 300 Вт против 195 Вт х 2. При этом два восьмиконтактных разъема вместе с питанием от шины PCI-E устанавливают предел энергопотребления в 375 Вт.

Как и GTX 680, GTX 690 работает с шиной PCI-E 3.0. И более того, справляется с этим лучше, чем GTX 680. Последний официально может работать в режиме PCI-E 3.0 только в системах с процессорами Ivy Bridge, и наиболее досадным исключением стала платформа Sandy Bridge-E с чипсетом X79. Без «хакерских» манипуляций с реестром GTX 680 работает на ней только в режиме PCI-E 2.0. Неизвестно, устранят ли эту проблему в будущем, а вот GTX 690 уже сейчас поддерживает PCI-E 3.0 на X79 благодаря мосту PLX PEX8747, заместившему чип NF200, который использовался в этом качестве на плате GTX 590. Он может одновременно работать с PCI-E 2-й и 3-й версий. Независимо от платформы, графические процессоры всегда общаются между собой по PCI-E 3.0

GTX 690 позиционируется как эквивалент двух GTX 680 не только по производительности, но и по цене. Рекомендованная розничная стоимость составляет $999 (у GTX 680 – $499). Это самый дорогой референсный GeForce в истории. Мировые продажи GTX 690 уже начались, но в российской рознице его пока не видно. Что и не удивительно: фабрика TSMC еще не наладила производство GK104 в достаточном объеме, и подавляющая часть чипов идет на GTX 680. Более того, NVIDIA будет распространять карты GTX 690 лишь через нескольких партнеров. И логично предположить, что, когда они проникнут в Россию, розничные продавцы задерут цены гораздо выше рекомендованной тысячи баксов.

#Конструкция

Предыдущие двухпроцессорные карты NVIDIA по дизайну мало отличались от остальной линейки. В этот раз из флагманской модели сделали предмет компьютерной роскоши. Кожух системы охлаждения почти целиком выполнен из металла. Оправа кулера – магниевый сплав, радиаторы GPU покрыты хромированными алюминиевыми пластинами с плексигласовыми окошками. Только узкие пластины на продольных гранях карты пластиковые. В длину GTX 690 на один дюйм больше, чем GTX 680, – 11 дюймов.

На верхней грани красуется логотип GeForce, вырезанный лазером, да еще и в пластике с эффектом soft-touch. Он светится в темноте зеленым светом. Известно, что NVIDIA не разрешает партнерам клеить на корпус GTX 690 фирменные стикеры. Позволено только делать отметки на печатной плате.

Дизайн системы охлаждения в целом повторяет то, что мы видели на GeForce GTX 590: графические процессоры охлаждаются двумя отдельными радиаторами с медной испарительной камерой. В центре находится крупный вентилятор, разгоняющий воздух по сторонам. Как следствие, часть «выхлопа» из видеокарты попадает внутрь корпуса компьютера. NVIDIA утверждает, что материал крыльчатки кулера и угол наклона лепестков подобраны таким образом, чтобы минимизировать шум.

Микросхемы памяти и элементы питания платы охлаждаются с помощью массивной алюминиевой рамы. В отличие от GTX 590, на GTX 690 все навесные элементы платы уместились под рамой, нет никаких вырезов для высоких конденсаторов. От вентилятора к концам платы идут ребра, направляющие воздушный поток. Пластин на задней стороне платы нет.

Порты на задней панели тоже расположены немного не так, как у GTX 590: один из выходов DVI больше не стоит в середине планки, преграждая путь воздушному потоку, а смещен в сторону.

#Плата

GTX 690 построен на 10-слойной плате. Все микросхемы памяти поместились на передней поверхности.

Как и GeForce GTX 590, GTX 690 комплектуется микросхемами памяти Samsung (GTX 680 – Hynix). Номинальная частота такая же, как и у GTX 680: 6 ГГц, маркировка — K4G20325FD-FC03.

Система питания платы включает пять фаз для каждого GPU. У GTX 680 только четыре фазы – еще одно неожиданное преимущество GTX 690. Питанием GPU управляют два контроллера ON Semiconductor NCP4206, доселе нам не встречавшиеся. Для памяти каждого GPU отведена одна фаза, управляется контроллером Anpec APL 3516C. Все конденсаторы на плате GTX 690 твердотельные (на GTX 680 имеются и стандартные «банки» с жидким электролитом).

Тестирование. Выводы

#Методика тестирования

Конфигурация тестового стенда
CPU Intel Core i7-3960X @ 4,6 ГГц (100x46)
Материнская плата ASUS P9X79 Pro
Оперативная память DDR3 Kingston HyperX 4x2 Гбайт @ 1600 МГц, 9-9-9
ПЗУ Intel SSD 520 240 Гбайт
Блок питания IKONIK Vulcan, 1200 Вт
Охлаждение CPU Thermalright Silver Arrow
Корпус CoolerMaster Test Bench V1.0
Операционная система Windows 7 Ultimate X64 Service Pack 1
ПО для карт AMD AMD Catalyst 12.4 + Catalyst Application Profiles 12.4 CAP 1
ПО для карт NVIDIA 301.11
Настройки AMD Catalyst Control Center 
Antialiasing Use application settings
Anisotropic Filtering Use application settings
Tesselation Use application settings
Catalyst A.I., Texture Filtering Quality Quality, Enable Surface Format Optimization
Mipmap Detail Level Quality
Wait for V-Sync Off, unless application specifies
Anti-Aliasing Mode Multi-sample AA
Direct3D Settings, Enable Geomery Instancing On
Triple buffernig Off
Настройки NVIDIA Control Panel 
Ambient Occlusion Off
Anisotropic Filtering Application-controlled
Antialiasing – Gamma correction On
Antialiasing – Mode Application-controlled
Antialiasing – Settings Application-controlled
Antialiasing – Transparency Off
CUDA – GPUs All
Maximum pre-rendered frames 3
Multi-display/mixed-GPU acceleration Multiple display performance mode
Power management mode Adaptive
Texture filtering – Anisitropic sample optimization Off
Texture filtering – Negative LOD bias Allow
Texture filtering – Quality Quality
Texture filtering – Trilinear optimization On
Threaded optimization Auto
Triple buffering Off
Vertical sync Use the 3D application settings
Программа API Настройки Режим тестирования Разрешение
3DMark 2011 DirectX 11 Профили Performance, Extreme    
Unigine Heaven 2 DirectX 11 Макс. качество, DirectX 11, тесселяция в режиме Extreme AF 16x, MSAA 4x 1920х1080 / 2560х1440
Crysis Warhead + Framebuffer Crysis Warhead Benchmarking Tool DirectX 10 Frost flythrough. Макс. настройки, DirectX 10 AF 16x, MSAA 4x 1920х1080 / 2560х1440
Metro 2033 + Metro 2033 Benchmark DirectX 11 Макс. настройки, DirectX 11, DOF, тесселяция, NVIDIA PhysX выкл. AF 16x, MSAA 4x 1920х1080 / 2560х1440
DiRT 3 + Adrenaline Racing Benchmark Tool DirectX 11 Aspen, 8 машин. Макс. качество, DirectX 11 AF, AA 4х 1920х1080 / 2560х1440
Crysis 2 + Adrenaline Crysis 2 Benchmark Tool DirectX 11 Central Park. Макс. качество, DirectX 11, текстуры высокого разрешения AF 16x, Post MSAA + Edge AA 1920х1080 / 2560х1440
Battlefield 3 + FRAPS DirectX 11 Начало миссии Going Hunting. Макс. качество AF 16x, MSAA 4x 1920х1080 / 2560х1440
Batman: Arkham City. Встроенный бенчмарк DirectX 11 Макс. качество AF, MSAA 4x 1920х1080 / 2560х1440
The Elder Scrolls 5: Skyrim + FRAPS DirectX 9 Город Whiterun. Макс. качество AF 16x, MSAA 4x 1920х1080 / 2560х1440
Call of Duty: Modern Warfare 3 + FRAPS DirectX 9 Миссия Return to Sender. Макс. качество AF, MSAA 4x 1920х1080 / 2560х1440

В тестировании приняли участие следующие конфигурации:

  • NVIDIA GeForce GTX 690 (915/6008 МГц, 4 Гбайт)
  • 2 x NVIDIA GeForce GTX 680 (1006/6008 МГц, 2 Гбайт)
  • 2 x AMD Radeon HD 7970 (925/5500 МГц, 3 Гбайт)
  • NVIDIA GeForce GTX 680 (1006/6008, 2 Гбайт)
  • AMD Radeon HD 7970 (925/5500 МГц, 3 Гбайт)
  • NVIDIA GeForce GTX 590 (607/3414 МГц, 3 Гбайт)
  • AMD Radeon HD 6990 (880/5000 МГц, 4 Гбайт)

#Разгон, температура, энергопотребление

С появлением технологии GPU Boost разгон видеокарт на GPU NVIDIA выглядит по-другому. GPU Boost сама выполняет динамический разгон процессора, увеличивая частоту и напряжение питания, если есть резерв по энергопотреблению и температуре. У GeForce GTX 680 частота повышается с шагом 13 МГц с 1006 до 1110 МГц (девять состояний, включая базовую частоту), а напряжение – с 1,062 до 1,175 В. Видеокарта редко работает на базовой частоте даже в самых ресурсоемких играх. Так что часть работы за оверклокера уже выполнена заранее. 

Для того чтобы добиться большего, есть два пути. Во-первых, можно поднять лимит мощности карты (Power Target) вплоть до 132%. В таком случае GPU Boost будет работать агрессивнее, устанавливая более высокие рабочие частоты при равной нагрузке. Во-вторых, можно сделать прибавку к базовой частоте GPU, и тогда вся таблица частот, по которой работает GPU Boost, сдвинется вверх на столько же мегагерц. Напряжение питания вручную регулировать нельзя. Когда мы тестировали GTX 680, то списали этот недостаток на софт для оверклокинга, но теперь ясно, что NVIDIA просто заблокировала управление напряжением. То ли оно оказалось несовместимым с GPU Boost, то ли просто от греха подальше.  

Эксперименты с разгоном GTX 680 нас несколько разочаровали. Базовую частоту удалось увеличить лишь с 1006 до 1086 МГц. Хотя при этом резерва мощности карты и охлаждения на полных оборотах оказалось достаточно, чтобы GPU Boost по-прежнему использовал все девять шагов таблицы, увеличивая рабочую частоту вплоть до 1191 МГц. В результате прибавка к производительности от разгона была невелика.

С GeForce GTX 690 ситуация немного другая. У него не только больший разрыв между Base Clock и Boost Clock по сравнению с GTX 680, но и более «длинная» таблица частот – 13 шагов, включая начальный. Автоматический разгон может увеличить частоту GPU уже не на 104, а максимум на 156 МГц, с 915 до 1071 МГц (но напряжение при этом больше 1,175 В все равно не повышается). В результате даже в штатном режиме GTX 690 может дотянуться до частот, сравнимых с оными у GTX 680, и при этом имеет возможность откатиться к более низкой базовой частоте при высоком энергопотреблении и температуре. Наблюдения за частотой во время бенчмарков показали, что в большинстве задач GTX 690 легко достигает максимальных частот в 1071 МГц на обоих GPU. В особо тяжелых тестах один из процессоров мог отступать на шаг ниже, до 1058 МГц.

Базовую частоту процессоров GTX 690 с сохранением стабильной работы удалось поднять до точно такого же уровня, как у GTX 680, – 1085 МГц, что само по себе является большим достижением для «двухголовой» карты. Но самое удивительное — GPU Boost по-прежнему использовал верхние шаги таблицы, временами повышая рабочую частоту обоих GPU аж до 1241 МГц! GTX 680 в разгоне достигал только 1191 МГц.

На этом, однако, сюрпризы не закончились. Память на GTX 680 нам удалось разогнать до 1732 (6928) МГц, немного недобрав до рекордной эффективной частоты в 7 ГГц. Но GTX 690 намного превзошел этот рекорд: 1902 (7608) МГц! Это, видимо, заслуга чипов Samsung.

У GTX 690 есть еще пара мелких улучшений по сравнению с GTX 680: возможность увеличить лимит мощности уже не на 32, а на 35%, а обороты кулера – не до 85, а до 95%. В результате процессоры разогнанной карты под нагрузкой нагреваются на 10 °C меньше, чем в штатном режиме. Шум вентилятора при этом сильный, но терпимый. Что более интересно, рабочие температуры у GTX 680 и GTX 690 практически совпадают. Процессор Radeon HD 7970 под нагрузкой имеет меньшую температуру. А обе «двухголовые» карты предыдущего поколения, GTX 590 и Radeon HD 6990, греются сильнее.

По энергопотреблению GTX 690 также выглядит привлекательнее, чем две GTX 680: пиковая мощность систем различается на 15 Вт. Пара Radeon HD 7970 еще более прожорлива, чем в GTX 580 SLI: разница с GTX 690 составляет 104 Вт! GTX 590 и HD 6990 по энергопотреблению тоже приближаются к двум HD 7970. Также примечательно, что в 2D-режиме GTX 690 потребляет энергии не больше, чем GTX 680.

В общем, по части разгона и «физики» мы в восторге от GTX 690. Не хватает, пожалуй, только функции отключения второго GPU в простое, как это сделано у AMD. В таком случае энергопотребление удалось бы снизить еще сильнее.

GeForce GTX 690 против GeForce GTX 680 SLI

Главное, что нас интересует в производительности GTX 690, – как он соотносится с парой GTX 680 в SLI-конфигурации.

3DMark 2011

По результатам 3DMark, разница в пользу двух GTX 680 все-таки есть.

Игровые тесты + Unigine Heaven

А в большинстве игровых тестов GTX 690 практически не уступает SLI-системе. Заметное преимущество последняя имеет только в DiRT 3. Более того, GTX 690 даже оказался существенно быстрее в одной из игр – Call of Duty: MW3.

Оверклокинг GTX 690 оказывает гораздо больший эффект, чем в случае c GTX 680. Да, в CoD: MW3 и Skyrim практически нет прибавки к частоте смены кадров, но во всех остальных играх прирост производительности зачастую не просто большой, а колоссальный. Агрессивная работа GPU Boost и невероятный разгон памяти показали себя во всей красе.

Да, частота смены кадров в Crysis 2 у всех карт прилипла к отметке 100 FPS, потому что игра устанавливает такое ограничение. В этом случае мы можем лишь утверждать, что обе конфигурации обеспечивают в Crysis 2 не меньше 100 FPS даже в разрешении 2560х1440.

GeForce GTX 690 против Radeon HD 7970 CrossFireX, синтетические тесты

А теперь сравним GTX 690 с самым главным соперником – парой Radeon HD 7970 в режиме CrossFireX, а также с однопроцессорными картами. Посмотрим, насколько хорошо работают SLI и CrossFireX в наших бенчмарках.

3DMark 2011

  • GTX 690 в обоих режимах значительно уступает HD 7970 CF по общему баллу, но превосходит по Graphics Score.
  • В результате разгона GTX 690 получает колоссальное преимущество по Graphics Score.
  • Если не считать проблем GTX 690 с общим баллом, которые можно списать на очередной глюк 3DMark 2011, как SLI, так и CF отлично работают в этом тесте.

Unigine Heaven 2

  • В режиме 1920x1080 GTX 690 заметно быстрее, чем HD 7970 CF.
  • В режиме 2560х1440 разница между GTX 690 и HD 7970 CF уже не превышает пары FPS.
  • SLI и CF увеличивают производительность по сравнению с однопроцессорными картами одинаково успешно.

GeForce GTX 690 против Radeon HD 7970 CrossFireX, игровые тесты

Crysis Warhead (DirectX 10)

  • Пара Radeon HD 7970 опережает GTX 690 в обоих разрешениях. Этот тест требователен к пропускной способности памяти, и 384-битная шина Radeon HD 7970 оказалась решающим фактором.
  • При разгоне GTX 690 берет реванш.
  • Как SLI, так и CF обеспечивают почти двукратный прирост производительности по сравнению с однопроцессорными картами.

Metro 2033 (DirectX 11)

  • Система HD 7970 CF одерживает безоговорочную победу над GeForce GTX 690.
  • Разгон GTX 690 позволяет лишь уравнять очки, но не превзойти соперника.
  • Прирост производительности при использовании CrossFireX в точности двукратный. Редкий случай! SLI не дает такого большого бонуса, потому GTX 690 и проиграл.

DiRT 3 (DirectX 11)

  • GTX 690 заметно быстрее пары HD 7970 в разрешении 2560х1440, но в 1920х1080 разница несущественна.
  • CrossFireX работает немного более эффективно, чем SLI.

Crysis 2 (DirectX 11)

  • В Crysis 2 есть ограничение в 100 FPS, поэтому можно утверждать лишь то, что оба соперника его достигли.
  • Но если взглянуть на результаты GTX 680 и Radeon HD 7970 в режиме 2560х1440, то видно, что CrossFireX в этом тесте сработал более успешно, чем SLI.

Battlefield 3 (DirectX 11)

  • Между GTX 690 и HD 7970 CF нет значимой разницы в разрешении 2560х1440, но в 1920х1080 GTX 690 все-таки быстрее.
  • Как в случае с SLI, так и с CrossFireX мы имеем почти двукратный прирост производительности по сравнению с одиночными GPU.

Batman: Arkham City (DirectX 11)

  • Прискорбно, но в этой игре CrossFireX не только не дает прибавки к производительности, но и снижает FPS в разрешении 1920х1080.
  • Масштабирование при использовании SLI далеко от 100%, но GeForce GTX 690, разумеется, все равно становится лидером теста.

The Elder Scrolls 5: Skyrim (DirectX 9)

  • GTX 690 быстрее, чем пара Radeon HD 7970.
  • Тем не менее результаты новых двухпроцессорных систем вместе с примкнувшим к ним GTX 690 различаются мало. Похоже, что движок Skyrim просто не может полностью использовать такую вычислительную мощность. Поэтому технология SLI позволила GTX 690 лишь подтянуть результат в разрешении 2560х1440 на пять-шесть FPS.
  • Radeon HD 7970 изначально был гораздо медленнее, чем GTX 680, поэтому и эффект от CrossFireX оказался сильнее.

Call of Duty: Modern Warfare 3 (DirectX 9)

  • GTX 690 значительно превосходит Radeon HD 7970 CF в обоих разрешениях.
  • И технология SLI здесь сработала более эффективно, чем CrossFireX. Даже GTX 590 в разрешении 1920х1080 подбирается к результатам HD 7970 CF.

Выводы 

NVIDIA действительно сделала двухпроцессорную видеокарту, которая с успехом заменяет два GeForce GTX 680. Если нужно собрать SLI-конфигурацию, то решительно нет причин покупать отдельные карты. GTX 690 практически не уступает двум GTX 680 по производительности, а энергии потребляет гораздо меньше. Но что самое удивительное, процессоры GTX 690 еще и нагреваются не больше, чем в GTX 680, при этом обладают точно таким же разгонным потенциалом. Более того, разгон GTX 690 более эффективен, потому что GPU Boost имеет больший частотный потолок. Видеопамять так и вовсе разгоняется до эффективной частоты гораздо выше 7 ГГц. Вот уж чего не привыкли ожидать от двухпроцессорных карт, так это превосходства над однопроцессорными в оверклокинге. Кроме того, для настоящих, так сказать, энтузиастов появилась возможность объединить две GTX 690 в системе Quad-SLI.

Пара Radeon HD 7970 в режиме CrossFireX – серьезный конкурент для GeForce GTX 690, но в большинстве игр, которые мы используем как бенчмарки, либо наблюдается паритет двух конфигураций, либо NVIDIA побеждает. Radeon HD 7970 имеет больший потенциал для разгона и в соревновании с разогнанным GTX 690 может взять реванш, но энергопотребление такой системы даже без разгона весьма велико: по прожорливости связка «Радеонов» значительно превосходит GeForce GTX 690. Посмотрим, удастся ли AMD сделать столь же совершенную двухпроцессорную карту на базе чипов Tahiti.

За инновации и дизайн


Оригинал материала: https://3dnews.ru/628971