Обзор видеокарты ZOTAC GeForce GTX480. Обзор видеокарты ZOTAC GeForce GTX480 ⇡ Тестовые приложения и режимы тестирования

Еще недавно гремели первые представления серии видеокарт на NVIDIA и GTX 470, основанные на тестировании официальных семплов NVIDIA, но только сейчас такие графические ускорители начали появляться на прилавках магазинов. Конечно, сохраняется интрига равнозначности семплов и серийных образцов. Особенно это подкрепляется решением производителя даже во флагмане линейки, модели NVIDIA , использовать немного урезанную версию чипа GF100 (GPU на основе дизайна Fermi). Но постараемся рассказать обо всем по порядку.

Сама архитектура Fermi, используемая в Графических процессорах (видеокартах) NVIDIA и GTX470, была объявлена ещё в сентябре 2009 года и только через полгода пользователи смогли воспользоваться ее преимуществами. Заявленная стоимость видеокарт архитектуры GF100 должна составлять $500 на или $350 на GTX 470, что немного выше, чем у одночиповых флагманов от AMD, хотя на нашем рынке эти видеокарты явно будет еще дороже. Стоит отметить, что наблюдаемые у компании AMD проблемы производства GPU по 40-нм техпроцессу TSMC не позволяют ей предоставить рынку должное количество высокопроизводительных продуктов с поддержкой DirectX 11. Учитывая оставленную компанией NVIDIA возможность отключения проблемных частей GPU у всей линейки, ведь даже «топовые» чипы не используют весь потенциал GF100, можно надеяться на более полноценное обеспечение рынка видеокартами на и GTX470.

Компания NVIDIA определила архитектуру Fermi как вычислительную по своей сути, что отодвигает традиционную роль GPU по ускорению 3D-графики в играх на второй план. Архитектура Fermi является последовательным развитием линейки Tesla - вычислительных карт, которые используются в требовательных к производительности системах. Этот факт подтверждает поддержка памяти с коррекцией ошибок (ECC) и усиленная производительность вычислений с двойной точностью. Потенциальный прирост от параллельного выполнения некоторых технических задач просто огромен, а инвестиции NVIDIA в разработку программного обеспечения обусловили значительный отрыв от AMD и Intel на этом растущем рынке.

NVIDIA Fermi (GF100)

Планируемые возможности новой видеокарты должны были удвоить производительный потенциал флагманской модели на GF100 по сравнению с видеокартой на основе GT200, такой как GTX285. Но теория не всегда воплощается в практический результат.

Сам чип GF100 имеет 512 ядер CUDA (четыре кластера Graphics Processing Clusters , каждый содержит четыре мультипроцессора Streaming Multiprocessors , и каждый из них содержит 32 ядра CUDA). Но в оставили всего 480 ядер CUDA, что на 32 ядра меньше чем в оригинальной архитектуре GF100. Такое упрощение было сделано путем отключения одного мультипроцессора SM у GF100, видимо по причине невозможности получения в достаточном объеме полноценных графических процессоров.

В свою очередь каждый мультипроцессор SM также содержит собственные текстурные блоки и движок PolyMorph (логика с фиксированными функциями, обеспечивающая повышенную производительность расчёта геометрии). Следовательно, получил 60 из 64 текстурных блоков и 15 движков PolyMorph.

В той части конвейера GF100, которая независима от кластеров GPC, отключений блоков для NVIDIA не производилось. Здесь остались все шесть разделов ROP. Каждый раздел способен выдавать восемь 32-битных целочисленных пикселей одновременно, то есть мы получаем 48 пикселей за такт. Полноценный GF100 со всеми разделами ROP поддерживает 384-разрядный интерфейс памяти GDDR5 (то есть по 64-битному интерфейсу на раздел). Графический процессор поддерживает как раз такую конфигурацию, а 256 МБ памяти на интерфейс дают нам в сумме 1,5 ГБ памяти GDDR5 (пропускная способность составляет 177 ГБ/с, если учесть тактовую частоту 924 МГц).

Все эти сокращения в рабочих мощностях исходного чипа являются следствием проблем с выходом годных кристаллов у NVIDIA, но необходимость представления новых решений на рынок Hi-End ускорителей заставила «выбросить» в продажу хотя бы урезанные версии графического процессора GF100 с архитектурой Fermi. Но каков бы ни был результат, он есть и его стоит протестировать и описать.

К нам в тестовую лабораторию попала уже серийная видеокарта , с очень характерным для этого производителя дизайном коробки.

Упаковка видеокарты оформлена в черном и желтом цветах. На лицевой стороне картонной коробки указана модель видеокарты, объём памяти, ее тип и пропускная способность шины памяти. Есть упоминания и о поддержке фирменной технологий NVIDIA PhysX и наличии разъема HDMI. В правом верхнем углу производитель обращает внимание на поддержку фирменных технологий: NVIDIA CUDA, NVIDIA PureVideo HD, NVIDIA SLI.

На обратной стороне коробки поместился небольшой обзор возможностей данной видеокарты. Описаны преимущества использования технологий: NVIDIA 3D Vision Surround и PhysX.

Внутри разместилась сама видеокарта и дополнительные компоненты поставки. Вместе с графическим ускорителем можно получить следующее:

  • Переходник питания видеокарты с двух шестиконтактных разъемов на один восьмиконтактный PCI Express;
  • Переходник питания видеокарты с двух MULEX разъемов на один шестиконтактный PCI Express;
  • Переходник с DVI на VGA;
  • Переходник с Mini-HDMI на HDMI;
  • Инструкцию пользователя;
  • Диск с ПО и драйверами;
  • Демонстрационный диск, описывающий все новые возможности этой видеокарты.

Хочется отметить, что идущие в комплекте поставки переходники питания явно заставят пользователя использовать достаточно мощный блок питания с соответствующими разъемами для подключения видеокарты. Это может вызвать некоторые проблемы при подборе конфигурации. В целом комплектация должна полноценно восполнить все нюансы установки данной видеокарты в современный системный блок.

Печатная плата

Сама видеокарта выполнена на темном текстолите, лицевая сторона которого закрыта системой охлаждения с кожухом из темного пластика. Напомним, что данная видеокарта поддерживает шину PCI Express 2.0 x16, совместима с DirectX 11 Shader Model 5.0 и OpenGL 3.2, а также поддерживает технологии NVIDIA PureVideo HD Technology, NVIDIA 3D Vision Surround, NVIDIA PhysX Technology, NVIDIA CUDA Technology и NVIDIA SLI Technology.

Обратная сторона печатной платы видеокарты выглядит значительно скромнее. Здесь только можно отметить чип системы питания GPU - ШИМ контроллер CHL8266 использующий шесть фаз. На каждую фазу питания приходится по три транзистора (один в верхнем плече и два в нижнем). Такой подход позволяет лучше отводить тепло от элементов подсистемы питания. Второй чип uP6210AG уже хорошо знаком нашим читателям по другим видеокартам на основе графических процессоров от NVIDIA. Он предоставляет две фазы питания для микросхем памяти данной видеокарты. Таким образом, суммарно получаем 6+2-фазную систему питания видеокарты.

Заглянув под систему охлаждения можно сразу констатировать факт полной идентичности данной видеокарты с ее «референсным» вариантом. Видеокарта использует печатную плату длиной 267 мм (10,5″), то есть примерно на сантиметр короче ускорителей на Radeon HD 5870, это может помочь ей поместиться практически в любой современный корпус.

Для дополнительного питания (помимо шины PCI Express) требуется подключение одной шестиконтактной и одной восьмиконтактной вилок. NVIDIA заявляет, что такая карта имеет тепловой пакет (TDP) 250 Вт, что существенно меньше, чем Radeon HD 5970, которая едва умещается в потолок 300 Вт, установленный группой PCI-SIG. Поэтому для «топового» решения NVIDIA рекомендует блок питания мощностью 600 Вт или выше.

Плата занимает на задней панели корпуса два слота. Для достаточно объемной системы охлаждения пользователю придется освободить место и внутри корпуса.

На интерфейсную панель выведены: два порта DVI и один mini-HDMI. Плюс второй слот полностью займет выпускная решетка, обеспечивающая выдув нагретого воздуха из системного блока.

Система охлаждения

Рассмотрим поближе систему охлаждения видеокарты. Она полностью повторяет «референсный» вариант и инженеры компании NVIDIA явно старались сделать ее максимально эффективной, но в виду прожорливости видеокарты результирующая температура компонентов все равно остается на достаточно высоком уровне.

Пять тепловых трубок, дополнительный теплоотводящий кожух и аэродинамическая конструкция самой турбины сумарно впечатляют своей максимальной продуманностью. Это явно самая эффективная конструкция системы охлаждения из всех моделей эталонного дизайна, которые мы встречали раньше. Нагнетаемый боковой турбиной воздух проходит через алюминиевый радиатор, пронизанный пятью медными трубками, и выходит наружу корпуса.

Уникальной особенностью этой конструкции можно назвать расположение одной из сторон радиатора непосредственно на поверхности кожуха карты, что явно улучшает теплоотвод, но в виду хорошего нагрева системы охлаждения взявшись за эту часть видеокарты можно обжечься.

Заметным новшеством здесь можно назвать дополнительную пластину радиатора, отводящую тепло от поверхности GPU и микросхем памяти. Общая пластина закрывает верхнюю часть платы видеокарты и обеспечивает теплоотвод через специальный термоинтерфейс от микросхем памяти и транзисторов системы питания.

Перейдем к тестированию системы охлаждения. При максимальной нагрузке температура GPU составила впечатляющие 101 °С, что для этого графического процессора не считается критической температурой. При этом система охлаждения работала на 92% и создавала ощутимый уровень шума.

А в простое (2D-режим) кулер работает на 44% от своей максимальной мощности. В таком режиме его работа тоже заметна на общем шумовом фоне. Система охлаждения, установленная на данной видеокарте, обеспечивает нормальную эффективность, но потребности GPU видеокарты явно заставляют ее постараться для обеспечения приемлемых температур. Шумность системы охлаждения явно зависит от нагрузки на видеокарту, и назвать ее тихой никак нельзя.

Что ж, а теперь перейдем к детальному изучению технических характеристик видеокарты. Для начала приведем краткую характеристику в виде таблицы:

Установленный здесь графический процессор NVIDIA имеет маркировку GF100-375-A3.

Частотная схема работы видеокарты и прочие характеристики выглядят так:

Данный образец полностью повторяет все характеристики «референсной» версии ускорителя на NVIDIA . Графический процессор на ZT-40101-10P работает с частотой 701 МГц, а шейдерные домены на частоте 1401 МГц соответственно. Видеопамять получила 924 МГц реальной или 3696 МГц эффективной частоты.

На тестируемой видеокарте применены микросхемы памяти GDDR5 производства компании SAMSUNG, суммарным объемом 1536 MБ. Маркировка K4G10325FE-HC04 указывает на то, что данные чипы обеспечивают время выборки 0,4 нс, что соответствует реальной частоте 1250 МГц или 5000 МГц эффективной и обеспечивает весомый запас для разгона.

Тестирование

Процессор Intel Core 2 Quad Q9550 (LGA775, 2,83 ГГц, L2 12 МБ) @3,8 ГГц
Материнские платы NForce 790i-Supreme (LGA775, nForce 790i Ultra SLI, DDR3, ATX)
GIGABYTE GA-EP45T-DS3R (LGA775, Intel P45, DDR3, ATX)
Кулеры Noctua NH-U12P (LGA775, 54,33 CFM, 12,6-19,8 дБ)
Thermalright SI-128 (LGA775) + VIZO Starlet UVLED120 (62,7 CFM, 31,1 дБ)
Дополнительное охлаждение VIZO Propeller PCL-201 (+1 slot, 16,0-28,3 CFM, 20 дБ)
Оперативная память 2x DDR3-1333 1024 MБ Kingston PC3-10600 (KVR1333D3N9/1G)
Жесткие диски Hitachi Deskstar HDS721616PLA380 (160 ГБ, 16 МБ, SATA-300)
Блоки питания Seasonic M12D-850 (850 Вт, 120 мм, 20 дБ)
Seasonic SS-650JT (650 Вт, 120 мм, 39,1 дБ)
Корпус Spire SwordFin SP9007B (Full Tower) + Coolink SWiF 1202 (120×120x25, 53 CFM, 24 дБ)
Монитор Samsung SyncMaster 757MB (DynaFlat, 2048×1536@60 Гц, MPR II, TCO’99)

При тестировании стало видно, что видеокарта подтверждает статус мощнейшего на сегодняшний день одночипового графического ускорителя. Новинка на GPU от NVIDIA явно немного опережает по быстродействию своих конкурентов на чипах AMD, но учитывая ее энергопотребление и рабочую температуру, что влечет и повышенную шумность, а также посмотрев на ценник, нельзя ее однозначно назвать сбалансированным решением. Кроме того, возникают сомнение в возможности на основе NVIDIA создать двучиповую версию, которая сможет «переплюнуть» по производительности двучиповый графический ускоритель на Radeon HD 5970.

Разгон

Разгон данной видеокарты тоже нельзя назвать выдающимся. Память на видеокарте нам разогнать почти не удалось, хотя сами чипы явно работают медленнее их номинальной частоты. Но сам GPU с напряжением равным 1,05 В удалось разогнать до 770 МГц, а температура ядра при этом составляла 87 °С. Но во время разгона видеокарта находится в иных условиях, чем при тесте эффективности системы охлаждения, в частности боковая панель корпуса была снята и возле видеокарты устанавливается 120 мм вентилятор, который немного улучшает условия охлаждения, а сам кулер постоянно работал на 100% скорости вращения. Имея программный механизм управления напряжением питания, мы продолжили эксперименты. При подаче 1,075 В GPU удалось разогнать до 784 МГц, а температура увеличилась до 91°С. Наилучшего результата удалось достичь при 1,1 В, когда GPU удалось разогнать до 790 МГц, но теперь его температура при нагрузке увеличивалась до 99°С

Давайте посмотрим, как ручное ускорение отразилось на производительности:

Тестовый пакет

Стандартные частоты

Разогнанная видеокарта

Прирост производительности, %

3DMark Score
SM2.0 Score
HDR/SM3.0 Score
Performance

Serious Sam 2, Maximum Quality, AA4x/AF16x, fps

1600×1200
2048×1536

Prey, Maximum Quality, AA4x/AF16x, fps

1600×1200
2048×1536

Call Of Juarez, Maximum Quality, NO AA/AF, fps

1280×1024
1600×1200
2048×1536

Call Of Juarez, Maximum Quality, AA4x/AF16x, fps

1280×1024
1600×1200
2048×1536

Crysis, Maximum Quality, NO AA/AF, fps

1280×1024
1600×1200
2048×1536

Crysis, Maximum Quality, AA4x/AF16x, fps

1280×1024
1600×1200
2048×1536

Crysis Warhead, Maximum Quality, NO AA/AF, fps

1280×1024
1600×1200

Crysis Warhead, Maximum Quality, AA4x/AF16x, fps

1280×1024
1600×1200

Far Cry 2, Maximum Quality, NO AA/AF, fps

1280×1024
1600×1200
2048×1536

Far Cry 2, Maximum Quality, AA4x/AF16x, fps

1280×1024
1600×1200
2048×1536

Прирост от разгона слабоват, а учитывая предельные температуры работы видеокарты даже без разгона, целесообразность последнего становится сомнительной, ведь придется хорошо постараться над повышением эффективности охлаждения GPU. Да и при номинальных частотах это «топовое» решение вполне может обеспечить достойную игровую производительность даже для требовательного пользователя.

Итоги

Видеокарты на графическом процессоре NVIDIA , в том числе и протестированная ZT-40101-10P, получились очень производительными одночиповыми решениями. Причем используемый в них GPU GF100 с архитектурой Fermi изначально имел 512 потоковых ядер, но в результате некоторых проблем с получением нужного количества чипов при производстве, «топовые» видеокарты на нем используют всего 480 ядер. Но за счет достаточно высоких рабочих частот ускорители на всё равно оказались в целом быстрее одночиповых карт конкурента на Radeon HD 5870, хотя лидером рынка пока еще остается двухчиповое решение от AMD – Radeon HD 5970.

Однако, если по производительности одночиповые «топовой» видеокарты на GPU от NVIDIA превосходят соответствующие решения на чипах от AMD, то энергопотребление это явно не «конек» карт на NVIDIA . Конечно, для многих энтузиастов это не станет критерием выбора, но в ряде случаев стоит задуматься и над этим аспектом, ведь увеличение энергопотребления приводит не только к некоторому увеличению счетов за электроэнергию. Фактически вся потребленная графическим ускорителем энергия развеивается в виде тепла, которое нужно быстро отводить во избежание перегрева и выхода из строя высокотехнологичных компонентов, что в свою очередь ведет к усложнению системы охлаждения и повышению ее шумности.

Более полугода назад на рынке видеоадаптеров появились видеокарты ATI Radeon 5ххх Series. Они принесли с собой аппаратную поддержку DirectX 11 и Shader Model 5.0, тесселяцию, а так же много других "вкусностей" для любителей поиграть в видеоигры. К сожалению (или к счастью…), соперник в лице NVIDIA не смог вовремя предоставить конкурента, и посему, AMD (точнее, её подразделение ATI, занимающееся разработкой графических чипов) пожинала все плоды успеха, в буквальном смысле слова "наводнив" рынок видеокартами с поддержкой DirectX 11.

Компания NVIDIA, которая никогда не скупилась на PR своих продуктов, не подвела и в этот раз, намеренно прикармливая энтузиастов крошками с барского стола разработчиков NVIDIA GF100, основанном на микроархитектуре Fermi. Впервые мы услышали некие подробности о строении чипов GF100 немногим больше шести месяцев назад. С тех пор в глубине тайных лабораторий корпорации NVIDIA создавался конкурент пятитысячной серии видеокарт ATI Radeon, который воистину таки обязан просто был оправдать все данные ранее обещания. И вот, свершилось чудо! Месяц назад под салюты и фанфары аналитиков видеокарты GTX 480 и GTX 470 были пущены в свободное плавание по мировому рынку. Оправдали они свое «долгое ожидание» или нет?

реклама

Строение и архитектура NVIDIA GF100

На сегодняшний день на рынке присутствуют только два видеоадаптера от NVIDIA с поддержкой DirectX 11. Они и должны задавать ход всему движению новой линейки. Самой "старшей" картой на данный момент является GTX 480.

"Мечты сбываются..." Кажется, именно так пел Юрий Антонов. Но, как оказалось, «и не сбываются». Изначально предполагалось, что GTX 480 будет нести в себе 512 "высокопроизводительных ядер CUDA", но по каким-то причинам NVIDIA не смогла реализовать свой план на 100%. В итоге мы можем наблюдать у GTX 480 уменьшение их числа с 512 до 480 процессоров.

Думаю, что не буду далеким от истины если скажу, что анонса новых видеокарт на базе микроархитектуры Fermi компанией NVIDIA ждали все: как поклонники брэнда, равно и сочувствующие компании-конкуренту AMD/ATi.

Спустя 6 месяцев после анонса и выпуска на рынок компанией AMD своих очень удачных решений по соотношению цена/производительность, основанных на базе 40 нм чипов Cypress c поддержкой нового API Microsoft D 3D 11, компания NVIDIA , наконец-то, смогла порадовать IT -общественность выпуском своих первых двух DX 11 решений верхнего ценового диапазона - старшую видеокарту GeForce GTX 480 и ее «младшую сестру» — GeFor ce GTX 470, основанных на чипе под кодовым обозначением GF100.

Еще задолго до анонса собственно самих видеокарт на базе GF 100, осенью 2009 г., компания NVIDIA впервые представила свою новую прогрессивную архитектуру Fermi, которая, по обещаниям NVIDIA, должна была стать основой для самых высокопроизводительных в миреоднопроцессорных видеоадаптеров и принести много интересных новшеств. Для того, чтобы соответствовать требованиям и спецификациям нового API, NVIDIA проделала большую работу над значительным увеличением пиковой геометрической производительности и внедрением эффективной реализации такого важного нововведения DX11, как аппаратная тесселяция, а также, среди прочих, были обещаны повышение производительности видеокарт на основе GF100 в приложениях, связанными с интенсивным расчетом физических эффектов, улучшение реализации «тяжелых» игровых режимов в сравнении с предыдущими поколениями за счет качественной переработки блоков ROP.

У каждого из нас от этого анонса были свои ожидания: кто-то желал обострения конкуренции и снижения цен на 5ххх серию от AMD, другим было просто интересно узнать, что на этот раз предложит один из сильнейших игроков рынка графики и как изменится в этот раз расстановка сил на рынке 3D -видеоадаптеров, ну а фанатеющей братии из обоих лагерей надо было доказать друг другу свою правоту, что Fermi в любом случае будет ужасным провалом/оглушительным успехом. :)

Не стану скрывать, что автор этих строк тоже долго ждал выхода новых решений от NVIDIA. Моя уже бывшая GTX 285, в целом удовлетворяла мои игровые запросы и потребности, и хотя ранее побывавшие в моем системном блоке Radeon HD5870 и HD5850 оставили весьма неплохое впечатление, знание о том, что «зелено-черные» тоже должны вот-вот выпустить нечто такое, что заставит трепетать душу энтузиаста и любителя скоротать иногда вечер-другой за любимой игрой в максимальном качестве, заставило меня запастись терпением и ждать до концавыхода новых видеокарт от NVIDIА. Которые обязательно должны быть быстрее продуктов конкурента, ведь так было на протяжении последних 4-5 лет, не так ли? :)

Однако, нужно помнить о том, что Fermi надолго задержался.

В IT-индустрии, где ее основные игроки так или иначе равняются друг на друга и стараются изо всех сил не отставать от конкурентов в циклах освоения новых технологий и выпуска новых продуктов, этот анонс GeFor ce GTX 400 выглядит явным образом как опоздание, в то время, как основной конкурент NVIDIA - компания AMD/ATi начиная с сентября 2009 г. анонсировала один за другим свои DX11 продукты, которые оставались все эти 6 месяцев лидерами по производительности и технологиям буквально во всех ценовых сегментах.

О причинах задержки и выпуска новых решений много говорилось все это время, они известны всем, и не все было в силах NVIDIA изменить это. Очевидно, что компания TSMC — основной контрактный производитель по выпуску графических процессоров для NVIDIA и AMD, не смогла обеспечить должный уровень выхода годных чипов, основанных на 40 нм техпроцессе. Причем, от этого пострадали оба чипмейкера. Из-за проблем с 40 нм техпроцессом, и AMD не могла продолжительное время после анонса удовлетворить высокий спрос на HD5xx и воспользоваться шансом получить больше прибыли от продаж новинок в отсутствии конкуренции со стороны NVIDIA. Вследствие этих проблем с техпроцессом, все мы стали свидетелями недавнего поднятия цен включительно на 3D-видеокарты предыдущих поколений, в то время как мы привыкли видеть только снижение цен на эти продукты по мере насыщения рынка и их морального устаревания.

Тем не менее для нас, потребителей, это все лирика, и факт остается фактом: Fermi значительно опоздал, в то время как его конкурент уже насытил рынок в полной мере DX11 видеокартами на любой вкус и кошелек. Принимая во внимание эту задержку, многие потребители вполне обоснованно возлагали немалые требования к новичку NVIDIA, надеясь, что этот продукт должен предложить более высокую производительность, лучшего соотношения цена/производительность, лучших потребительских качеств.

Именно эти вопросы мы попытаемся рассмотреть в настоящем обзоре GTX 480 и в ходе практических тестов выяснить, что может ожидать потенциального покупателя GTX 480, на что ему придется рассчитывать и с чем придется столкнуться.

Итак: каков он, этот GTX 480? Стоило ли его столько ждать? Выполнила ли на практике NVIDIA свои обещания о преимуществах GF100, и стала ли GTX 480 самой быстрой одночиповой видеокартой или она НЕ быстрей своего конкурента HD5870? Можно ли считать GTX 480 удачной видеокартой или это провал NVIDIA? Это все-таки видеокарта или это, скорей, ускорительвычислений, как говорят некоторые? Стоит ли рассматривать в качестве кандидата на апгрейд эту видеокарту?

Для лучшего понимания, что есть GTX 480, было решено протестировать эту видеокарту в игровых и синтетических бенчмарках, противопоставив результаты тестов GTX 480 результатам своего конкурента — HD5870, а также прошлого одночипового флагмана NVIDIA — GTX 285. Были проверены на практике теплошумовой режим GTX 480, ее разгонный потенциал. Как дополнение, также было решено исследовать процессорозависимость в некоторых игровых бенчмарках. Для полноты картины было решено добавить сохранившиеся результаты тестирования HD5850.

Тестовый стенд выглядел следующим образом:

Для GTX 480 использовались бета-драйверы GeForce 197.75, для GTX 285 — GeForce 196.75 и для HD5870 и 5850 — Catalyst 10.3 WHQL и Catalyst 9.12 WHQL соответственно.

Настройки драйвера — дефолт, все настройки менялись в меню игр.

Также для остальных компонентов системного блока — чипсета матплаты, звуковой карты использовались самые последние драйверы, версия библиотек DirectX — февраль 2010 г.

Все видеокарты тестировались на Windows 7 Ultimate 64 бит с последними обновлениями, доступными на момент тестирования.

Для уменьшения или исключения процессорозависимости, центральный процессор был разогнан до 4200 Мгц при напряжении на ядре 1.33v., SMT и Turbo включены, оперативная память функционировала на частоте 1600 Мгц при таймингах 8-8-8-22-1N и напряжении 1.64v.

Фотографии внешнего вида тестируемых видеокарт:

Видеокарта Zotac GeForce GTX 480 1536 Mb :




Ейбудутпротивостоять Sapphire Radeon HD5870 иОЕМ— версия GeForce GTX 285 :


Теплошумоваяэргономика GTX 480

С тем, чтобы проверить температурные режимы видеокарты и уровень шума, издаваемый вентилятором СО в режиме простоя и нагрузке в одиночном и SLI-режимах, использовался MSI Afterburner 1.6.0 beta 5.

Без нагрузки, две видеокарты в закрытом корпусе системного блока и при температуре окружающей среды в 23-24 гр. продемонстрировали следующие температуры:


Через 15 минут после включения компьютера, температура верхней карты стабилизировалась на отметке 50 гр, а нижней — 46 гр. Вентиляторы СО при этом работали на 44% своих оборотов, что является субъективно бесшумным режимом. При серфинге в Интернете, печатании в Word, температура видеочипов, процессора и остальных компонентов, как и обороты кулеров СО видеокарт продолжали оставаться на этом же уровне.

Для прогрева и создания нагрузки на видеокарты для начала было решено воспользоваться многократным прогоном подтеста Firefly Forest из тестового пакета 3D Mark 2006 в максимально доступном разрешении 1920х1200 с активацией полноэкранного сглаживания 8хFSAA и анизотропной фильтрации.

Температуры видеочипов и обороты кулеров после 8 циклов прогона оказались следующими:

Пиковая температура самой горячей — верхней карты, достигла 91 гр., нижняя видеокарта прогрелась до пиковых 88 гр. Вентиляторы СО при этом сохраняли обороты на отметке 65-70%, что субъективно является невысоким уровнем шума, но одновременно следует сказать, что шум СО отчетливо слышен на фоне остальных вентиляторов, установленных в системном блоке. Температура центрального процессора при этом достигала 55-56 гр. Другое дело, что во время прогона этого теста температура в комнате ощутимо повысилась, и от системного блока стал исходить горячий воздух.

А вот что получилось с температурами и шумом после часовой игры в METRO 2033 DX11.

Уже примерно через 5 минут кулеры СО видеокарт достигли отметки 80% оборотов и стали отчетливо слышными через наушники, а еще через 10 минут в комнате с компьютером, в которой было открыто окно, стало жарко и появился характерный запах сильно разогретого пластика.

Как когда-то в случае GTX 280, я пытался выставить фиксированные 70% оборотов в MSI AB, с тем, чтобы получить приемлемые температуры и шум, однако после 15-минутной игры в METRO 2033 температура верхней карты ушла за 100 гр.

При выставлении кулера в 100% оборотов, температуры видеочипов и окружения резко падают, вплоть до 64-66 гр. и, как выяснилось впоследствии, в тестах с разгоном до 830/1660, не заходят за отметку 70 гр. Но шум от 100% оборотов вентиляторов на двух видеокартах оказался труднопереносимым.

На основании того, с чем я столкнулся в одной из игр, из-за опасения вывести из строя видеокарт, прогрев Furmark-ом в режиме SLI не стал пробоваться.

Справедливости ради следует отметить, что в автоматическом режиме управления, во всех играх и бенчмарках кулеры видеокарт ни разу не заходили за 80% оборотов и тем более не достигали 100%, как у некоторых обозревателей, но эти 80%, издаваемые двумя видеокартами, нельзя признать комфортным уровнем шума. Правильней будет назвать это шумом, несовместимым с нервной системой обычного человека.

Были проверены и температурный и шумовые режимы в случае нахождения одной видеокарты в системном блоке.

Во время замеров, температура в комнате составляла примерно 21 гр.

В простое, одиночная карта продемонстрировала следующие показатели:

Результат получасовой игры в METRO 2033:

Также были проверены температурные режимы во время прогона Furmark v 1.8.2:


Очевидно, что в случае физического нахождения одной видеокарты в системном блоке, температуры и шум, издаваемый СО находятся на более низком уровне, позволяя без особого ущерба для слуха и здоровья остальных компонентов системного блока использовать GTX 480. Конечно же, при условии невысокой температуры окружающей среды и хорошо вентилируемого корпуса.

Если же использовать две видеокарты GTX 480 в режиме SLI, уровень шума и температурный могут принести немало разочарования владельца такого тандема.

Решением этой проблемы может стать установка альтернативной СО, образцы которых уже стали появляться на рынке, а также установка производительной СВО.

Производительность GTX 480в DX 9.0/DX 10 бенчмарках и играх

Первой будет протестирована производительность GTX 480 в синтетических бенчмарках. Было решено выбрать 3D Mark Vantage в пресетах Performance и Extreme , как наиболее актуальный из бенчмарков подобного рода для подопытных видеокарт, а также 3D Mark 2006 в разрешении 1920х1200 с активацией полноэкранного сглаживания 8хFSAA и анизотропной фильтрации. Считаю, что 06 марк утратил былую актуальность для сравнения теоретической производительности видеокарт, потому было решено, что уместней будет протестировать карты именно с такими настройками.


Одиночная GTX 480 оказывается медленней в этом тесте своего конкурента HD 5870 в пресете Performance и идет наравне в пресете Extreme .

При активации технологий SLI /CFX картина меняется — на этот раз GTX 480 SLI становится быстрей HD 5870 CFX в обоих пресетах.

Одиночная GTX 480 быстрей в этом тесте как одиночки конкурента, так и в MultiGPU .

Call of Juarez

В этом бенчмарке в предыдущих поколениях видеокарт безраздельно «рулили» Radeon -ы, как и в первой части самой игры. Однако GTX 480 удалось ощутимо подтянуть производительность в этом бенчмарке и даже превзойти конкурента на его собственном поле. Счет 1:1. :)

S.T.A.L.K.E.R:Call of Pripyat DX10

Аналогично: в прошлом поколении видеокарты Radeon были значительно быстрее конкурента в этой и прошлой версии игры. И сама игра вышла под эгидой AMD . Помнится сильное снижение производительности на GTX 280 SLI в этой игре при активации полноэкранного сглаживания, теперь GTX 480 в этой игре в лидерах.

Поскольку в бенчмарке 4 разных теста, показано среднеарифметическое значение минимального/среднего и максимального FPS .

Crysis


В бенчмарке игры, в одиночном режиме, GTX 480 проигрывает своему конкуренту HD 5870, но вырывается вперед в SLI .

Отдельно стоит упомянуть впечатления автора от реальной игры на SLI . При активации из меню игры сглаживания 16xQAA и таких опций, как TAA , HQ и АО из драйвера, средний фреймрейт оставался на весьма высоком уровне — порядка 50-55 FPS на уровне Contact . Ну и что, скажете вы? Примечательно то, что о таких режимах качества на GTX 285 SLI не приходилось мечтать, фреймрейт проваливался до не очень комфортных 25-30 фпс и даже ниже в определенных сценах игры. Это позволяет сделать вывод, что в одном из самых тяжелых и качественных режимов в этой по-прежнему тяжелой игре для подавляющего числа компьютеров,у GTX 480 SLI имеется порядка двухкратного превосходства перед своим предшественником, что не может не радовать. С роликом и со скриншотами игры вы можете ознакомиться

Far Cry 2

Игра известна своей предрасположенностью к видеокартам NVIDIA , хотя в своей 5ххх серии AMD очень хорошо подтянулись в этой игре, значительно опережая видеокарты на базе GT 200. С выходом GTX 480 лидерство в этой игре вернулось к NVIDIA , причем опять с серьезным отрывом.

Специально были использованы сглаживания 4хMSAA и 8хMSAA , чтобы показать, как себя чувствует GTX 480 при активации более качественных режимов. Напомню, что в предыдущем поколении видеокарт NVIDIA падение от активации 8хMSAA достигало внушительных величин. Теперь, в этой игре, как и в Crysis , падение небольшое и оставляет фреймрейт на весьма комфортном уровне.

HAWX DX10

В меню игры не включалась опция DX 10.1, дабы поставить все видеокарты в равное положение и не обидеть GTX 285. Играется на всем без проблем, а GTX 480 быстрее всех.

Just Cause 2


В этот раз, для объективного выявления способностей GTX 480 на фоне остальных участников тестирования, в меню игры отключались опции, реализуемые через CUDA и которые не доступны на видеокартах R аdeon : симуляция воды GPU и размытие фона.

Resident Evil 5

Игра умеет использовать многоядерность, а также имела склонность к видеокартам на чипе NVIDIA.

Производительность достаточно высока на всех тестируемых видеокартах и в нее вполне можно играть на одной GTX 285/HD 5850/HD 5870 с активацией сверхкачественных режимов.

World in Conflict


DX 11 игровые бенчмарки

S.T.A.L.K.E.R.: Call of Pripyat DX11

Повторяется картина из DX 10 теста, здесь GTX 480 тоже быстрее.

METRO 2033 DX11

Так как игра не имеет встроенного или отдельного бенчмарка, было решено последовать примеру тестирования GTX 480 Jordan на fcenter .ru и замерить при помощи FRAPS средние значения FPS на уровне «Погоня», где Артем едет на железнодорожной дрезине по тоннелю с двумя товарищами по несчастью. Продолжительность замера FPS составляла примерно 180 сек, делались три последовательных прогона, во время которых в одних и тех же сценах выполнялись определенные действия, на основании результатов и высчитывался средний FPS. Игра очень ресурсоемка и с активированными DX11 опциями является очень трудной задачей для всех участников тестирования.

Все же следует отметить, что при активации сверхвысоких настроек в DX 11 и режима сглаживания ААА, на GTX 480 игра идет заметно комфортней, чем на видеокартах конкурента. Средний фреймрейт и игровой комфорт явно выше, а при активации сглаживания 4xMSAA на GTX 480 SLI все еще удается поиграть, хотя и с трудом, в то же время на HD 5870 CFX этот режим неиграбелен совсем.

Качество картинки отдельно не исследовалась, хотя известно, что на видеокартах NVIDIA имеется замыливание изображения при активации ААА сглаживания.

С роликами из игры на GTX 480 SLI в режиме 4xMSAA DX 11 и одиночной в режиме ААА, вы можете ознакомиться

DiRT2 DX11


Игра не требовательна к ресурсам видеоподсистемы, играется хорошо на всех видеокартах, а GTX 480 немного быстрей.

Результат GTX 480 c 8xMSAA :

Unigine Heaven benchmark v 1.0


Показан средний FPS из результата прогона теста. Тест очень тяжелый для первого поколения DX 11 видеокарт, однако, в сценах с интенсивной тесселяцией (облет камерой шипастого дракона, полет над мостовой) фреймрейт на GTX 480 SLI поразительно стабильный и практически не падает. На одиночке средний FPS во всех сценах приемлем.

Превосходство над конкурентом достигает двух раз в таких сценах.

Смотрим на поведение 480 с активацией 8хMSAA .

Unigine Heaven benchmark v 2.0


Картина аналогичина, GTX 480 весьма мускулист в этом тесте и ярко блестит на фоне своего конкурента. Тут уже мы можем оценить минимальный, средний и макс. FPS на видеокартах-конкурентах.

Опять смотрим на производительность GTX 480 в сверхтяжелом режиме с 8хMSAA .

Игровые бенчмарки с опциями, релизуемые через CUDA

К моему сожалению, количество подобных бенчмарков ограничено и потому я смог протестировать наших участников тестов только в 3-х нижеследующих приложениях.

Существуют еще 2 бенчмарка с PhysX , но в одном из них, StarTales benchmark , при активации PhysX из драйвера на GTX 480, я наблюдал артефакты изображения, чего не было на GTX 285, потому было решено отказаться от этого теста. Причем, даже после того, как впоследствии повторно была переустановлена операционная система, проблема повторилась.

Batman: Arkham Asylum

Игра является единственной в своем роде и классе с наиболее яркой и полной демонстрацией красот и возможностей PhysX . По мнению автора, эту игру вообще не стоит запускать на другой видеокарте, кроме NVIDIA ; или если в качестве графического ускорителя стоит ATi Radeon , то следует озаботиться наличием дополнительной видеокарты NVIDIA в качестве ускорителя физических эффектов. Иначе многое теряется, игра смотрится и даже играется совершенно иначе без PhysX .

HD 5870 в этом тесте не участвует, целью теста было выявить насколько выросла производительность GTX 480 по сравнению с предшественником с активной опцией физики. А разница по результату теста достигла 2-х раз по среднему FPS . Неплохо! Очевидно, что нет смысла держать для этой игры дополнительную видеокарту для PhysX , имея в качестве основной GTX 480, потому что ее одной будет достаточно для комфортной игры..

В то же время я столкнулся с неработоспособностью SLI в этой игре. Результат одиночки и двух карт одинаков.

Cryostasis PhysX Tech Demo


Здесь прирост у 480 в сравнении с предком тоже имеется, хотя уже не такой большой, как в Вatman .

Вероятно, что причина этому — недостаточная оптимизированность драйвера для этой игры и бенчмарка.

Just Cause 2 с активированными CUDA опциями

Тут Radeon не участвует по той же причине отсутствия опций, доступных на NVIDIA .

Отрыв 480 от GTX 285 мал.

Такова картина по результатам игровых и синтетических бенчмарков.

Чтобы было наглядней, каково место GTX 480 на фоне остальных испытуемых в сегодняшних тестах, предлагаю ознакомиться со сводными диаграммами преимущества или отставания GTX 480 перед остальными участниками тестирования.


По результатам сегодняшних тестов в DX 9.0/DX 10, одиночная GTX 480 обходит такую же одиночную HD 5870 на величины от 4% до 37%, средняя величина превосходства в этих API — 16.5%.

В MultiGPU средняя величина превосходства составляет уже 23%.

В DX 11в одиночке средний отрыв составил 42.4%, в MultiGPU имеем 48.2%.

Общий же отрыв одиночной 480 от 5870 по итогам всех тестов составляет 24.3%, в MultiGPU — 31%.

Несмотря на сухие цифры и проценты тестов и анализа, обязательно надо иметь в виду, что это тестирование, точней возможности бенчмарков, неспособны рассказать всю правду об истинных возможностях GTX 480. Взять, к примеру, тот же Crysis .. да, в одиночке GTX 480 умудрилась проиграть HD 5870 в бенчмарке игры, но в реальной игре, с активированными eye candy , GTX 480 SLI становится бескомпромиссной связкой, этаким непобедимым чудовищем, которое крушит и ломает все на своем пути. И отрыв от конкурента в сравнимых настройках качества уже становится очень ощутимым.

То же самое касается и других игр. Итоговые цифры FRAPS —a опять не могут передать реальную картину, как играется в этой игре на той или иной видеокарте.

Теперь давайте посмотрим на диаграмму масштабирования SLI на примере GTX 480 и сравнение с технологиейMultiGPU у конкурента.

По результатам тестов GTX 480 SLI масштабируется в среднем на 80%, в то время как CrossFireX — на 72%. Считаю, что для первых драйверов GeForce для GTX 480 это очень неплохо и отмечаю возросшую масштабируемость CFX со времен моего первого знакомства с HD 5870 CFX .

Разгон

Поскольку у меня было ограничено время на тестирование HD 5870, мне не удалось успеть прогнать тесты HD 5870 и в разгоне.

Потому предлагаю вашему вниманию несколько тестов GTX 480 SLI в разгоне для понимания того, сколько производительности можно получить дополнительно, разогнав GTX 480 до определенных частот.

Тестовые экземпляры GTX 480 с первой попытки разогнались без каких-либо проблем с дефолтных 701/1402/974 Мгц до 800/1600/975 Мгц.

Обороты кулера при этом были установлены на отметку 100% оборотов.

Результаты замеров в тестах:



Попытки разогнать видеокарты выше этих значений позволили добиться максимально стабильных частот 830/1660 Мгц без поднятия напряжения на чипе, с поднятием напряжения видеокарта проходила синтетические бенчмарки и некоторые игровые бенчмарки на частоте 845/1690 Мгц. Отмечу, что попытки пройти тесты в разгоне свыше 800/1600 Мгц на автоматическом управлении оборотами кулера не увенчались успехом.

Процессорозависимость

Для определения процессорозависимости в играх на GTX 480 в одиночном и SLI-режиме, было решено воспользоваться несколькими игровыми бенчмарками на разных графических движках.

На этот раз решено было отказаться от синтетических бенчмарков, которые, как известно, хорошо отзываются на увеличение частоты центрального процессора. Наш объект исследования - как ведет себя в играх GTX 480 с процессором на определенной частоте, другими словами, какой частоты центрального процессора ей будет достаточно.

Для сравнения, были выбраны частоты 3000, 3600 и 4200 Мгц.

GTX 480 SLI


Как и следовало ожидать, столь мощная связка видеокарт, как GTX 480 в режиме SLI демонстрирует прирост от разгона центрального процессора, величина которого колеблется от игры к игре.

GTX 480 в одиночном режиме

И, наконец, Resident Evil 5 в обоих режимах:

В случае одиночной видеокарты, к некоторому моему удивлению, прироста от разгона процессора наблюдается только в бенчмарке Crysis, где зафиксирован рост минимального FPS.

В остальных играх, прироста либо нет, либо он мал.

Вместо заключения

Ну что ж, время подводить итоги. Прежде всего попытаюсь дать ответ на вопросы, которые ставил себе в начале этого обзора.

Без сомнений, GTX 480 по праву принадлежит звание самой быстрой однопроцессорной видеокарты.

Не могу согласиться с теми, которые говорят, что она затачивалась больше под внеграфические вычисления, а ее игровая составляющая изначально слаба.

Это настоящая видеокарта, с полноценной и эффективной поддержкой возможностей нового API DX 11, весьма шустрой в самом главном нововведении DX 11, как аппаратная тесселяция и с неплохой прибавкой в производительности в DX 9.0/DX 10 приложениях относительно своего предшественника. На основании результатов тестов в Heaven Benchmark , а также в существующих DX 11 играх, можно предположить с высокой долей вероятности, что в будущих играх с интенсивным использованием тесселяции, GTX 480 покажет себя с лучшей стороны. Возможности GTX 480 тем более проявляются при работе в SLI и в тяжелых режимах, демонстрируя отличную производительность и стабильность фреймрейта. Здесь хорошо видна работа NVIDIA над ошибками в прошлых поколениях. Разница между тем что было и что есть весьма заметна.

Что касается степени удачности этого продукта, здесь однозначную оценку мне дать трудно.

С одной стороны имеем большой потенциал на будущее, дальнейшее развитие интересных и полезных вещи как CUDA , PhysX , 3D Vision и 3D Vision Surround , брутальную мощь вкупе с очень неплохими разгонными возможностями, но с другой стороны, большой ложкой дегтя в бочку с достоинствами GTX 480 являются, очень высокое тепловыделение, потребление и некомфортный шум от референсной СО. Увы, таковой оказалась плата за высокую производительность и технологичность в этот раз. К тому же цены на постсоветском пространстве на этот продукт все еще остаются на весьма высоком уровне, что также не может способствовать становлению этого продукта популярным и любимым.

Также нельзя не учитывать опоздание с выводом на рынок DX 11 решений NVIDIA , в то время как конкурент уже более полугода как вовсю продает свои удачнейшие продукты с поддержкой DX 11 во всех сегментах рынка.

Разочарование от долгого ожидания Fermi могло бы быть скрашено большим и безоговорочным отрывом в производительности от решений конкурента, однако HD 5970 все еще остается королем 3D графики (кроме отдельных ситуаций), а перспективы выхода на рынок двухпроцессорного «убийцы HD 5970″ очень туманны.

В общем, полагаю, что каждый должен сам дать свои оценки этому продукту. В конце концов любой из нас, оценивая и рассматривая Fermi в качестве кандидата на апгрейд, будет концентрироваться на тех моментах, которые ему более всего интересны.

Кто-то легко может решить проблему шума и большого тепловыделения путем установки альтернативных СО или при помощи производительной СВО, кого-то этот шум с температурами совсем не волнует,наслаждаясь высочайшей производительностью и наличие приятных бонусов в виде 3D Vision , аппаратного ускорения физических эффектов PhysX и поддержкой CUDA. Кого-то не остановит даже астрономическая цена видеокарт и дополнительные затраты на СВО.. в общем, вам решать что вам нужно.

У меня лично есть предчувствие, что у объекта сегодняшнего обзора в его нынешнем виде и воплощении не совсем очевидные и ясные перспективы пребывания на рынке. Что-то надо делать с такими аппетитами и горячим нравом чипа.И чем быстрей, тем лучше.

ALSTER

Выражаю благодарность компании Accent Electronic и лично Александру Мирошникову за предоставленное на тестирование оборудование, а также NeoForce и CoIE за помощь в подготовке материала.

Продолжительное время компания NVIDIA была лидером рынка графических ускорителей, всегда оставаясь первой в сфере инноваций и внедрения новых технологий. Но судьба нового поколения видеокарт оказалась не столь радужна, ведь уже полгода как на рынке доступны видеоадаптеры семейства Radeon с поддержкой нового DirectX 11, а соответствующие модели GeForce только появились. И дело тут не только в том, что калифорнийская компания проиграла AMD в гонке освоения нового 40-нм технологического процесса производства, но и в высокой планке, которую изначально поставили себе инженеры NVIDIA, принявшиеся за разработку качественно новой архитектуры Fermi, оптимизированной под будущие 3D-приложения. И насколько им это удалось, мы уже можем оценить на практике.

Архитектура GF100

Если последние решения AMD на базе Cypress являются развитием предыдущего поколения видеокарт, то NVIDIA подошла к процессу создания новой архитектуры более радикально, исходя из требований последнего API и его возможностей. Новый GPU получил название GF100. Аббревиатура GF указывает, что графический (Graphics) чип базируется на архитектуре Fermi.


Аналогично предшественникам на базе G80 и GT200 в основе нового GPU лежат несколько кластеров GPC (Graphics Processing Cluster), состоящих из группы потоковых мультипроцессоров (Streaming Multiprocessors). Полноценный чип включает четыре кластера по четыре мультипроцессора, каждый из которых в свою очередь содержит 32 CUDA-ядра. В итоге мы имеем 512 вычислительных блоков (CUDA cores). Но не случайно мы использовали слово «полноценный», ведь итоговый вариант GF100, на котором базируется топовый нынче графический ускоритель GeForce GTX 480, содержит лишь 480 активных CUDA-ядер, лишившись целого мультипроцессорного блока. А младшему GeForce GTX 470 достались уже 448 потоковых процессоров.


Кроме 32 CUDA-ядер мультипроцессор содержит блок целочисленных вычислений и блок для вычислений с плавающей запятой. Сложные операции выполняются блоками специальных фукций SFU (Special Function Units). Еще 16 блоков LD/ST служат для загрузки и хранения данных.


SM-блок имеет общую кэш-память первого уровня объемом 64 КБ и четыре текстурных блока. Всего в GF100 получается 64 текстурных модуля, но с учетом того, что вместо 16 мультипроцессоров у старшей карты осталось активных 15, то и число соответствующих блоков уменьшилось до 60. На фоне GT200 это немного, так как у предшественника их было 80. Но производительность новых текстурных блоков значительно возрасла. Согласно данным NVIDIA выборка текстур осуществляется чуть ли не в 1,5 раза быстрее чем у GT200.

Управляет потоками данных в GF100 специальный диспетчер GigaThread, распределяя потоки (варпы) по мультипроцессорам, внутри которых управление осуществляется соответствующими планировщиками Warp Scheduler и диспетчерами Instruction Dispatch. Каждый мультипроцессор имеет по два таких блока, благодаря чему может выполнять два варпа (32 потока) за такт.

Каждый мультипроцессор имеет 64 килобайт памяти, которая в зависимости от задач (графические или неграфические расчеты) может быть сконфигурирована в двух режимах: 48 КБ общей памяти и 16 КБ кэш-памяти первого уровня, или 16 КБ общей памяти и 48 КБ L1-кэша. Общая кэш-память второго уровня объемом 768 килобайт обеспечивает обмен данными между всеми блоками GPU. Унифицированная структура L2-кэша более гибкая, чем применявшаяся ранее «раздельная», и позволяет эффективнее использовать общий объем памяти в зависимости от потребностей конкретных задач и вычислительных блоков.


Кроме того, кластеры GPC дополнительно к четырем мультипроцессорным массивам имеют свои движки растеризации — Raster Engine, позволяющие параллельно с четырьмя специальными блоками PolyMorph Engine, отвечающими за тесселяцию и выборку вершин, поднять скорость обработки геометрии.


Претерпели изменения и блоки ROP, увеличена производительность при сглаживании методом мультисемплинга MSAA 8x. В качестве конкретных цифр приводится в пример игра H.A.W.X., в которой разница между режимом 4x MSAA и 8x MSAA на GeForce GTX 480 составляет не более 10%, в то время как на GeForce GTX 285 это около 50%. Также появился новый режим сглаживания 32x CSAA (Coverage Sampling Antialiasing), который обеспечивает сглаживание и полупрозрачных текстур, причем производительность при 32x CSAA почти не отличается от таковой в 8x MSAA.

Шина доступа к памяти, равная 384 битам, реализована за счет шести 64-битных контроллеров. У младшего GeForce GTX 470 отключен один контроллер. В качестве памяти используются чипы стандарта GDDR5. У старшей модели GeForce GTX 480 ее рабочая частота 3696 (QDR) МГц, у младшей — 3348 МГц. Топовый видеоадаптер оснащается объемом в 1536 МБ, а GeForce GTX 470 — 1280 МБ.

Видеоадаптер Radeon HD 5870 GeForce GTX 480 GeForce GTX 470 GeForce GTX 295 GeForce GTX 285 GeForce GTX 275
Ядро RV870 GF100 GF100 GT200b х 2 GT200b GT200b
Количество транзисторов, млн. шт 2154 3200 3200 1400 x 2 1400 1400
Техпроцесс, нм 40 40 40 55 55 55
Площадь ядра, кв. мм 334 530 530 487 x 2 487 487
Количество потоковых процессоров 1600 480 448 240 x 2 240 240
Количество текстурных блоков 80 60 56 80 x 2 80 80
Количество блоков рендеринга 32 48 40 28 x 2 32 28
Частота ядра, МГц 850 701 607 576 648 633
Частота шейдерного домена, МГц 850 1401 1215 1242 1476 1404
Шина памяти, бит 256 384 320 448 x 2 512 448
Тип памяти GDDR5 GDDR5 GDDR5 GDDR3 GDDR3 GDDR3
Частота памяти, МГц 4800 3696 3348 1998 2484 2268
Объём памяти, МБ 1024 1536 1280 896 x 2 1024 896
Поддерживаемая версия DirectX 11 11 11 10 10 10
Интерфейс PCIe 2.1 PCIe 2.0 PCIe 2.0 PCIe 2.0 PCIe 2.0 PCIe 2.0
Заявленная максимальная потребляемая мощность, Вт 188 250 215 289 183 219

Все более актуальными становятся в последнее время неграфические расчеты на GPU. Использование таких API, как CUDA и DirectCompute, расширяют функционал и возможности видеоадаптеров. Причем, подобного рода задачи становятся все более востребованными и для игровых приложений. Недавно вышедший проект Just Cause 2 использует для более реалистичной симуляции водной поверхности CUDA (что является эксклюзивным бонусом для владельцев видеокарт GeForce), в «Метро 2033 » для реалистичных эффектов постобработки под DirectX 11 используется DirectCompute. Мы уж не говорим о физическом движке NVIDIA PhysX, на базе которого реализуются реалистичная физика тканей, жидкости и дыма. Справедливости ради, надо отметить, что выдающихся проектов в числе использующих технологию PhysX немного, а тех, где подобные эффекты выглядят впечатляюще — еще меньше. Архитектура нового чипа изначально проектировалась под возможности выполнения неграфических расчетов с быстрым переключением задач. В частности, благодаря упоминавшемуся выше разделению общей памяти мультипроцессорных блоков под такие задачи выделяется 48 КБ в качестве кэша первого уровня.

Что же касается тех улучшений, которые несет игрокам DirectX 11, то GF100 готов к ним во всеоружии. Неслучайно большой акцент инженеры NVIDIA сделали на увеличении производительности при обработке геометрии. Одним из главных преимуществ нового API с точки зрения повышения конечного качества картинки является поддержка тесселяции. С помощью этого метода обработки увеличивается число полигонов на конечной модели. Фактически, таким способом модель просто сглаживается, избавляясь от «угловатости». Добиться более высокой детализации позволяет дополнительное наложение карт смещения (displacement maps). Использование этих двух методов позволяет работать с простыми начальными геометрическими моделями, а уже после применения тесселяции, т.е. разбиения на дополнительные треугольники, и смещения координат их вершин можно получить модель со сложной геометрией. Кстати, благодаря displacement maps возможно будет реализовать изменения геометрии объектов в режиме реального времени, например, получить настоящие дырки от пуль на поверхностях.


Именно с учетом всех этих новых возможностей DirectX 11 и проектировался GF100, что должно дать значительное преимущество над конкурентами в новых игровых проектах. В частности, NVIDIA говорит о восьмикратном преимуществе в специализированном тесте Microsoft subd11 tessellation test над Radeon HD 5870. В более приближенном к жизни Stone Giant Benchmark разница уже менее 90%, а в Unigine Heaven DX11 benchmark — это еще более скромные цифры. Результаты в синтетических тестах впечатляют, но в жизни все не так радужно, тем более, что проектов, где бы использовалась качественная тесселяция, пока не так уж и много.

Кроме традиционной растеризации Fermi предлагает использование метода трассировки лучей для построения изображения. На данный момент GF100 самый производительный чип, способный выполнять построение 3D-изображения с помощью алгоритмов трассировки лучей, поскольку его архитектура изначально оптимизировалась под такие возможности. Впрочем, производительности новых видеоадаптеров все равно не хватит для полноценного рендеринга в режиме реального времени. В NVIDIA это отлично понимают и предлагают комбинированный метод рендеринга с использованием стандартной растеризации и ray tracing. О какой-то практической реализации пока что говорить не приходится, и примеры такого подхода можно увидеть лишь на скриншотах, демонстрирующих работу такого метода с использованием специальной технологии NVIDIA OptiX.


Последние видеоадаптеры AMD могут выводить изображение сразу на три монитора, а специальные Eyefinity Edition-версии на шесть. Своеобразным ответом на это со стороны калифорнийской компании стала возможностей создания мультимониторной конфигурации (на базе трех дисплеев) для 3D-режима. Реализовать новую технологию 3D Vision Surround возможно лишь на SLI системе из двух или трех видеокарт новой серии. Учитывая рост системных требований при включении 3D-режима, такой подход вполне понятен — одна карта просто не в состоянии обеспечить нормальную производительность в современных играх на трех мониторах с разрешением до 1920х1080.


Подытоживая все вышесказанное, можно отметить, что чип GF100 получился прогрессивным и явно нацеленным на новые приложения под DirectX 11. NVIDIA привыкла быть лидером в разработке одночиповых видеоадаптеров, и новое поколение GeForce теоретически должно было повторить судьбу успешной серии GeForce 8800, но вышло совсем по-другому. Возникшие проблемы с реализацией в кремнии чрезвычайно сложного чипа, состоящего из более чем трех миллиардов транзисторов, привели к неслыханному доселе событию, когда в серийное производство пошла топовая видеокарта с отключенными вычислительными блоками. Изначальный вариант GF100 c 512 потоковыми процессорами так и не увидел свет. Собственно, это и не очень удивительно, если вспомнить, что у TSMC (производящей чипы для обоих графических гигантов) были некоторые проблемы и с более простым RV870 (2,15 млрд. транзисторов). Да и новый 40-нм техпроцесс у NVIDIA не задался даже в бюджетном сегменте. Не случайно же GeForce GT 220 и GeForce GT 240 обладали невысокими рабочими частотами на фоне предшественников, что вызывало некоторые опасения и в отношении будущих high-end видеокарт. При этом еще и сам выпуск новых моделей припозднился на полгода, когда AMD уже успела выпустить новые решения под DirectX 11 во всех ценовых сегментах. А огромный уровень энергопотребления и тепловыделения GeForce GTX 480 успел стать хорошей темой для шуток, что на самом деле не очень то и смешно, ведь потребление старшей карты достигает 250 Вт, в то время как ее основной конкурент Radeon HD 5870 ограничивается пиковым значением в 188 Вт. В такой ситуации основным преимуществом GeForce GTX 480 может стать высокий уровень производительности. И оправдает ли новый флагман NVIDIA возложенные на него надежды, мы как раз и постараемся выяснить в нашем тестировании.
Zotac GeForce GTX 480 (ZT-40101-10P)

Перейдем, наконец-то, к практическому изучению конкретного экземпляра GeForce GTX 480. В руки нам попала карта от компании Zotac, которая поставляется в довольно компактной упаковке с окошком на лицевой стороне, через которое частично видно сам видеоадаптер.


Поставляется данный экземпляр вместе со следующим набором аксессуаров:
  • переходник DVI/D-Sub;
  • переходник mini-HDMI/HDMI;
  • мостик SLI
  • диск с драйверами;
  • диск с дополнительным ПО;
  • инструкция по установке.
В качестве небольшого бонуса с картой идет диск с программами, использующими аппаратное ускорение с помощью технологии CUDA, в частности, утилиты для конвертирования и редактирования видеофайлов как Badaboom, vReveal и Super LoiLoScope. К сожалению, это 30-дневные trial-версии. Срок действия BitDefender Internet Security, который также включен в данный набор «ускоряемых» с помощью GPU программ, ограничен 90 днями.


Очень забавная наклейка с предупреждением о необходимости дать видеокарте остыть перед ее извлечением из системы находится внутри коробки. Похоже, тепловыделение GeForce GTX 480 действительно нешуточное, иначе бы обошлось без таких памяток пользователю.

Новый флагманский видеоадаптер по размерам вышел не больше старых моделей. Длина платы 27 см, что немного короче чем у Radeon HD 5870 . Если ранее старшие адаптеры NVIDIA были с двух сторон «облачены» радиаторами, то новая система охлаждения не предусматривает дополнительной пластины-радиатора с обратной стороны платы, да и микросхемы памяти на заднюю сторону платы уже не вынесены. Сам же кулер выполнен по типу турбины, бросаются в глаза четыре толстые тепловые трубки выглядывающие сбоку.




Видеокарта оснащена двумя выходами DVI и одним разъёмом HDMI с позолоченными контактами. В верхней части платы находятся шести- и восьмиконтактные гнезда для подключения дополнительного питания и два разъема MIO, позволяющие объединять видеокарты в режимах SLI или 3-Way SLI.


Система охлаждения состоит из большого радиатора графического чипа и пластины-радиатора для силовых элементов и микросхем памяти, к которой крепится радиальный вентилятор (довольно скромных размеров, кстати). Верхний кожух фиксируется на защелках и легко снимается.



В основе радиатора GPU пять толстых тепловых трубок диаметром 6 мм. Основание выполнено по технологии прямого контакта, т.е. сами трубки и являются основанием теплосъемника. Они приплюснуты и уложены подогнанные под их форму желобки. В избытке нанесен серый клейкий термоинтерфейс, что исключает возможность появления завоздушин.



Ребристая металлическая пластина, занимающая значительную часть внешней части конструкции, не относится к кожуху, а является частью системы охлаждения — к ней крепятся пластины радиатора. Соответственно, и нагрев ее будет довольно высокий, что лишний раз оправдывает памятку NVIDIA о необходимости быть осторожным перед извлечением видеокарты. Зато такой конструктивный элемент помогает увеличить общую площадь рассеивания.

Взглянем на плату, которая скрывается под системой охлаждения.


Схема питания ядра реализована по шестифазной схеме, памяти GDDR5 — по двухфазной.

Как и в предыдущих продуктах NVIDIA, кристалл закрыт теплораспределительной крышкой, чтобы предотвратить его повреждение и увеличить площадь контакта с теплосъемником системы охлаждения. На GeForce GTX 480 устанавливается чип с маркировкой GF100-375-A3.


Объем видеопамяти в 1,5 ГБ набран 12 микросхемами Samsung K4G10325FE-HC04. Эти GDDR5 чипы, согласно их спецификациям, рассчитаны на частоту в 5 ГГц, так что теоретически имеется еще довольно большой «запас» для разгона с учетом номинальной частоты памяти 3,7 ГГц у GeForce GTX 480. На деле все вышло совсем иначе, но об этом чуть ниже.


Рабочие частоты модели Zotac полностью соответствуют эталонным: ядро работает на 701 МГц, шейдерные блоки на 1401 МГц, а память GDDR5 на 3696 (924x4) МГц.


При отсутствии нагрузки частоты снижаются до 51/101/270 МГц (ядро/шейдерный домен/память) или до промежуточных значений. Регулируется и напряжение на GPU, поднимаясь до уровня 1,0 В только в 3D-приложениях.



Таким образом, достигается существенное снижение энергопотребления и тепловыделения чипа. И хотя пользователя уже не раз стращали пугающими цифрами температур и уровнем шума, но в 2D-режиме все не так плохо. Температура чипа держится в пределах 50 °С при довольно невысоком уровне шума. Но все резко меняется, как только запускается мощное 3D-приложение.

После 12-минутного прогона стресс-теста Fur Rendering Benchmark в разрешении 1680х1050 графический чип достиг температуры 96 °С, а вентилятор системы охлаждения в автоматическом режиме управления раскрутился до 92% от своего максимума (это чуть менее 4000 об/мин), создавая нестерпимый гул.


Ну а как же дело обстоит в реальных играх? После пятикратного прогона демки Ambush из Crysis Warhead Benchmarking Tool в разрешении 1920х1200 при максимальных настройках качества со сглаживанием AA4x чип достиг температуры в 92 °С. Но, что более важно, обороты вентилятора не превысили уже 75%. Нельзя сказать, что и такой режим комфортен для слуха, но вполне терпим, и, чисто субъективно, не намного больше чем у Radeon HD 5870 в автоматическом режиме управления кулером.


Температуры довольно высокие, но NVIDIA уже не раз рапортовала, что плата спроектирована из расчета на работу в таких высоких температурных режимах и что все компоненты рассчитаны на подобные условия. И если за долговечность видеокарты (по крайней мере в течение гарантийного срока) пользователь может не волноваться, то вопрос охлаждения других компонентов внутри системного блока встает очень остро. И хотя 90 °С на ядре для нас не новинка, старые продукты и конкуренты легко достигают таких значений в стресс-тестах, но с ролью «обогревателя» именно новый видеоадаптер справляется на ура, выделяя тепла больше всех. Карта отлично прогревает воздух внутри корпуса, а после нескольких часов интенсивной работы в помещении появляется и специфичный запах. Данный продукт явно не для тех, кто озабочен вопросами глобального потепления. И тем, кто нацелен на покупку данного продукта, мы бы рекомендовали присмотреться к корпусам с большим вентилятором на боковой стенке, например к Cooler Master HAF 932. Вот только от шума родной СО видеокарты это вас все равно не избавит… Честно говоря, лучше бы сделали плату на пару сантиметров больше, чтобы на эти же пару сантиметров увеличить сам радиатор.

И немного слов о разгоне. Для данной цели можно использовать последнюю версию утилиты MSI Afterburner, которая позволяет даже управлять напряжением на ядре, но с учетом его тепловыделения о вольтмоде с воздушным охлаждением и думать не стоит. Кстати, в новых видеокартах основной является теперь частота шейдерного домена, а остальные блоки работают на пониженном множителе относительно частоты шейдеров. Так что для управления доступна частота шейдерных блоков, равная в номинале 1401 МГц, а значение в 701 МГц для ядра повышается соответственно изменению первого параметра без возможности раздельной регулировки. Говоря о частотных особенностях надо упомянуть, что мультипроцессорные блоки в GPU не полностью работают на частоте «шейдерного домена», PolyMorph Engine вместе с Raster Engine функционируют на вдвое меньшей частоте.


Установив максимальные обороты турбины, мы достигли частот ядра в 775/1550 МГц. Относительно номинала это почти +11%. При дальнейшем повышении частот, родной системы охлаждения катастрофически не хватало, но потенциал у GF100 еще был. Хотя и наши частоты оказались полностью стабильными лишь первые шесть часов. После того, как пару раз зависло одно приложение, мы дали карте время немного остыть, и без проблем закончили все тесты. Как видим, именно охлаждение является сдерживающим фактором в деле раскрытия потенциала такого огнедышащего монстра, как GF100. Разгон памяти оказался на удивление низким, не смотря на ее номинал. Все чего удалось достичь — 3800 МГц (950 МГц), более высокие значения приводили к крайней нестабильности.

При таком разгоне сохранялась полная стабильность в Fur Rendering Benchmark (до момента возникновения описанных выше проблем спустя шесть часов интенсивной работы).


За 12-минут такого стресс-теста ядро прогрелось до 99 °С при максимальных оборотах вентилятора системы охлаждения. В реальных игровых приложениях, температура была заметно ниже и не достигала и 90 °С.

В качестве конкурента для рассматриваемого GeForce GTX 480 мы взяли самую мощную одночиповую видеокарту компании AMD — Radeon HD 5870. Модель от Gigabyte является полной копией референса, поэтому подробно останавливаться на ней мы не будем, тем более что данный продукт в деталях был рассмотрен ранее на страницах нашего сайта.


Комплект поставки включает:
  • переходник DVI/D-Sub;
  • два переходника питания molex-PCI-E;
  • мостик CrossFire;
  • диск с драйверами;
  • инструкции по установке.



Рабочие частота стандартны — 850/4800 МГц для ядра и памяти. В 2D частоты снижаются до 157/1200 МГц.


В стресс-тесте Fur Rendering Benchmark ядро прогрелось до 87 °С. Обороты вентилятора достигли 40%, но, несмотря на низкое значение, это уже означает довольно высокий уровень шума. Турбины у видеокарт AMD громче аналогичных систем охлаждения у NVIDIA, просто они никогда не работают на максимальных значениях, поэтому и оказываются на деле тише.


После прогона пятикратного теста Ambush из Crysis Warhead Benchmarking Tool в разрешении 1920х1200 температура не поднялась выше 79 °С.


С помощью утилиты MSI Afterburner ядро удалось разогнать до стабильных 960 МГц при поднятии напряжения с номинальных 1,15 В до 1,3 В. Память GDDR5 заработала на 5452 МГц (1363 МГц), что тоже отличный результат. С учетом вольтмода для стабильной работы пришлось зафиксировать обороты кулера на максимуме.


Рев турбины при этом нестерпимый, и в повседневной жизни такой разгон можно будет использовать лишь при более мощной системе охлаждения, но и в случае с GeForce GTX 480 мы тоже говорим о возможности использования разгона только с более мощным охлаждением. Зато мы получаем возможность сравнить потенциал обеих видеокарт при повышенных частотах.Тестовый стенд

Конфигурация тестового стенда следующая:

  • процессор: Core 2 Quad Q9550 (2,83@3,95 ГГц, 465 МГц FSB);
  • кулер: Thermalright Ultra-120 eXtreme;
  • материнская плата: ASUS Rampage Formula (Intel X48 Express);
  • память: OCZ OCZ2FXE12004GK (2x2GB, DDR2-1200@1162 МГц при таймингах 5-5-5-15);
  • звуковая карта: Creative Audigy 4 (SB0610);
  • жесткий диск: WD3200AAKS (320 ГБ, SATA II);
  • блок питания: Seasonic SS-850HT (850 Вт);
  • операционная система: Windows 7 Ultimate x64;
  • драйверы видеокарт: ATI Catalyst 10.3, NVIDIA ForceWare 197.41.
В операционной системе были отключены User Account Control и Superfetch, а также визуальные эффекты интерфейса. Файл подкачки фиксировался на 1 ГБ. Настройки драйверов видеокарт не изменялись.

В игровых приложениях тестирование проводилось в разрешениях 1680x1050 и 1920x1200 при максимальных настройках качества. Дополнительные тесты при активации сглаживания проводились только в тех приложениях, которые изначально его поддерживают, без принудительного форсирования через драйверы. Методика тестирования описана в одной из прошлых статей. Дублировать мы ее не будем, отметим лишь, что в число прогонов встроенного теста производительности в Colin McRae: DiRT 2 увеличено до 4 раз во всех режимах. Добавлена игра Метро 2033 , нюансы тестирования в ней описаны непосредственно перед результатами.


По среднему fps новичок GTX 480 немного уступает Radeon HD 5870, удерживая позицию лидера по минимальному fps. Впрочем, разница между обоими соперниками минимальна.




В более тяжелых режимах и высоких разрешениях GeForce GTX 480 немного сдает позиции, и отставание от конкурента достигает 7% в 1920х1200. Довольно неплохо масштабируется производительность GF100 даже несмотря на крошечный разгон памяти. Прирост от разгона достигает почти 11 % — столько же, насколько увеличена частота ядра.

The Chronicles of Riddick: Assault on Dark Athena



Снова в номинальных режимах ситуация неоднозначна. Radeon HD 5870 демонстрирует более высокий средний fps, но минимальный показатель лучше у GeForce GTX 480. С разгоном карта AMD уже обходит соперника по обоим параметрам, что с учетом большего разгонного потенциала вполне ожидаемо.

Call of Juarez: Bound in Blood



В обоих разрешениях результаты почти не отличаются. В данном случае производительность уперлась в процессор, что и стало причиной таких однообразных графиков. Но все равно заметно явное преимущество Radeon над соперником — минимальный fps выше почти на 6%.

Batman: Arkham Asylum


Для начала рассмотрим результаты тестирования в этом приложении без использования NVIDIA PhysX.



Минимальная частота кадров во всех режимах равна примерно 90 кадрам в секунду, в данном случае, возможно, снова производительность «уперлась» в вычислительные возможности процессора. По среднеигровому показателю лидером является GeForce GTX 480. Больший разгонный потенциал помогает Radeon HD 5870 выйти на первое место с разгоном.



При активации физического движка система с видеокартами Radeon демонстрирует очень низкую производительность и мощность самого видеоадаптера тут уже ничего не решает, fps зависит больше от CPU. GeForce GTX 480 демонстрирует высокую частоту кадров, достаточную для комфортной игры даже в самом высоком разрешении. Конечно, в таком режиме более актуально было бы сравнить новичка с предшественниками на базе GT200, и подобное сравнение на нашем сайте еще будет, но в будущих материалах.

Call of Duty: Modern Warfare 2





Вот наконец-то первое приложение, где преимущество GeForce GTX 480 над конкурентом весьма очевидное и без использования каких-либо PhysX. В простом режиме разница между видеоадаптерами небольшая и отставание карты AMD порядка 5%. Но стоит включить сглаживание, как производительность Radeon HD 5870 значительно падает, особенно снижается минимальный fps, и по этому параметру новичок обходит соперника на внушительные 40-45%.

Borderlands


Прежде чем переходить к результатам, отметим, что в родном тесте производительности Borderlands у всех карт GeForce имеется довольно большой разброс по минимальной частоте кадров, которая может колебаться от 25 до 32 кадров во всех 7 прогонах. Среднее значение составляет около 29 fps на всех моделях, начиная от GeForce GTX 260. У Radeon результаты тоже разнятся, но диапазон этого «разброса» значительно меньше, что дает среднее значение выше — 31 кадр. Но с учетом такой особенности этого теста, когда минимальный fps остается неизменным и не зависит от потенциала видеокарты, не стоит обращать большое внимание на данный параметр, хотя мы его и приводим. Довольно точное впечатление об уровне производительности в этой игре дает именно средний показатель.



Игра предпочитает GeForce, в чем мы уже имели возможность убедиться в тестировании видеокарт серии Radeon HD 5700 , так что преимущество GeForce GTX 480 не является неожиданностью. Отметим минимальное изменение средней частоты кадров по достижении рубежа в 80 fps. Прирост от разгона в разрешении 1680х1050 для GeForce менее 1%, в то время как в 1920х1200 мы выигрываем от повышения частот уже 3% (что тоже немного). Да и для Radeon прирост от повышения частот тоже небольшой. В этом приложении вновь общая производительность явно сдерживается потенциалом нашего процессора.

Divinity 2: Ego Draconis (Кровь драконов)



Очень внушительное преимущество GeForce GTX 480 над соперником — 10% по среднему fps и более 20% по минимальному показателю. И снова память не сильно сдерживает потенциал новичка при разгоне. Несмотря на крошечное изменение частоты GDDR5 на 2,7% (при разгоне GPU на 10,6 %), выигрыш в производительности от разгона составляет 9%.






На поле боя 3DMark Vantage новый GeForce GTX 480 терпит поражение в низком разрешении, а 1680х1050 уже не уступает Radeon HD 5870. Разгон помогает карте AMD быть лидером во всех режимах.



Игра известна совей процессорозависимостью, и даже в разрешении 1680х1050 на таких мощных видеокартах «ограничителем» вновь стал CPU, хотя в номинальном режиме небольшое отставание Radeon от новичка все же заметно.

При включении сглаживания разница между видеоадаптерами становится более явной, достигая 17% по среднему показателю. И Radeon HD 5870 не может догнать соперника даже с разгоном.


В самом высоком разрешении разница между тестируемыми видеоадаптерами еще больше. При включении AA4x преимущество GeForce GTX 480 достигает 19% и по минимальному и по среднему fps. Компенсировать такой разрыв сопернику AMD разгон не помогает.

Far Cry 2





Еще одна уверенная победа GeForce GTX 480. Преимущество над соперником в обоих разрешениях без сглаживания равно 10-13%, а при включении AA4x достигает уже внушительных 30% по среднему показателю и 60% по минимальному. Повышение частот Radeon HD 5870 до 960/5452 МГц помогает достичь уровня новичка на номинальных частотах только лишь в простых режимах, компенсировать огромнейшее отставание при активном сглаживании никакой разгон не поможет.

Tom Clancy"s H.A.W.X.






В этой игре обычно имеет место небольшое преимущество решений AMD, и наше тестирование это в очередной раз подтверждает. Но отставание GeForce GTX 480 от соперника минимально, а в разрешении 1920х1200 со сглаживанием лидерство внезапно оказывается на стороне модели NVIDIA.

Resident Evil 5





GeForce GTX 480 удерживает позиции лидера в номинале и в разгоне. Преимущество над соперником от 2 до 6% в простом режиме и от 11 до 13% при включении мультисемплинга.

James Cameron"s Avatar: The Game





Чуть большую производительность демонстрирует GeForce GTX 480. Но Radeon HD 5870 отстает от соперника на 3-4%. С разгоном обе карты демонстрируют примерно идентичные результаты, по минимальному fps совсем крошечное преимущество остается за представителем AMD.

Battlefield: Bad Company 2



В простом режиме при настройках High (Gamer) у новой карты NVIDIA преимущество в 10% над Radeon HD 5870.





С повышением настроек разница между картами уменьшается, но лидерство GeForce GTX 480 сохраняет. Наиболее значимым становится отставание конкурента при включении сглаживания — в таких случаях разница в минимальном fps может достигать 15%. Впрочем, Radeon HD 5870 компенсирует это лучшим разгоном, и в простых режимах даже умудряется немного обогнать разогнанный представитель Fermi.

В DirectX 11 преимущество GeForce GTX 480 становится еще больше. Отрыв от конкурента в номинальных режимах составляет около 11 % по минимальному fps и до 16% по среднему показателю. С разгоном Radeon HD 5870 удается достичь показателей конкурента по минимальному fps, но не по среднему показателю.

Metro 2033


Тестирование проводилось на локации «Аллея». Специально был выбран надземный уровень, поскольку именно на открытых пространствах fps ниже чем в туннелях и закрытых помещениях. Выбранный эпизод примечателен и тем, что можно обойтись без масштабных перестрелок и выполнить одну и ту же последовательность действий при каждом прогоне. Совершалась короткая 40 секундная прогулка по определенному маршруту. Для каждого режима тест повторялся по три раза. К сожалению, из-за дефицита времени мы успели протестировать GeForce GTX 480 только лишь под DirectX 11, но именно этот режим наиболее актуален для видеоадаптеров нового поколения. В последующих материалах (и по GeForce GTX 470 в том числе) будут присутствовать результаты в DirectX 10.





Преимущество GeForce GTX 480 над Radeon HD 5870 в простых режимах на уровне 13-15% по среднему fps, но разница по минимальному не более 4%. При включении сглаживания отставание карты AMD составялет 30-38% (возможно, и за счет большего объема видеопамяти у GeForce). Но обеспечить приемлемую производительность в таком режиме новичок NVIDIA все равно не в состоянии, так что практической пользы от такого огромного преимущества мало. И даже в разрешении 1680х1050 на Fermi минимальный fps не удовлетворительный, хотя на самом деле общая производительность близка именно к среднему показателю, а на закрытых локациях (которых в игре значительно больше) она еще выше, так что получить удовольствие от игры в DirectX 11 можно и в таком разрешении. Самым требовательным пользователям придется довольствоваться более низкими разрешениями даже с видеокартой GeForce GTX 480.

Выводы

Итак, что же получается по итогам нашего тестирования? Ситуация не совсем однозначная и не всегда GeForce GTX 480 оказывается производительнее Radeon HD 5870. В подавляющей части приложений новый видеоадаптер NVIDIA все же обходит своего конкурента, но зачастую разница между ними бывает совсем минимальной (Batman: Arkham Asylum, Avatar), и конкурент легко компенсирует это разгоном. В некоторых случаях новичок проигрывает по средней частоте кадров, но демонстрирует лучший минимальный fps (The Chronicles of Riddick: Assault on Dark Athena). Но есть и приложения, где верх уверенно берет Radeon HD 5870. Наиболее существенное отставание GeForce GTX 480 в недавно выпущенной игре Battlefield: Bad Company 2 и в S.T.A.L.K.E.R.: Call of Pripyat (под DirectX 10.1). Однако в том же Battlefield сразу проявляется и одна из положительных особенностей GeForce GTX 480, который сводит преимущество Radeon к нулю в высоком разрешении со сглаживанием. Именно в таких режимах мы видим максимальное преимущество новинки над конкурентом (исключение составляет лишь Battlestations: Pacific). С учетом того, что мощности рассматриваемого видеоадаптера для Battlefield: Bad Company 2 и многих других игр вполне хватает для подобных режимов, данное преимущество будет очень актуальным для владельцев больших мониторов.

В ряде приложений GeForce GTX 480 вообще демонстрирует уровень производительности недостижимый для своего основного конкурента, даже с разгоном (Divinity 2, Borderlands, World in Conflict, Far Cry 2). Особенно веским является превосходство в последних приложениях, поддерживающих DirectX 11. Яркий тому пример — ситуация в S.T.A.L.K.E.R.: Call of Pripyat, когда в DirectX 10.1 карта NVIDIA уступает конкуренту, но уже в DirectX 11 показывает более высокий минимальный fps и становится безоговорочным лидером при включении сглаживания. Не сдает лидерских позиций данный видеоадаптер также в Colin McRae: DiRT 2 и «Метро 2033».

GeForce GTX 480 может смело называться самым производительным одночиповым видеоадаптером. Прогрессивная архитектура Fermi действительно имеет преимущества относительно решений AMD, и, возможно, в будущем по мере выхода новых игр, использующих тесселяцию, превосходство флагмана NVIDIA станет еще большим. Но позволит ли все это стать данной видеокарте популярной? Сомнительно, уж сильно припозднился GeForce GTX 480. Fermi, возможно, и является более прогрессивным вариантом, но на данный момент никакой революции в производительности новый графический ускоритель пока не совершил. Пользователи, приобретшие в свое время Radeon HD 5870, могут спать спокойно — в большинстве случаев хороший разгон помогает компенсировать отставание от флагмана NVIDIA. При этом тепловыделение, уровень шума и цена топовой одночиповой модели AMD ниже, благодаря чему она не теряет своей актуальности и поныне.

К сожалению, новый чип NVIDIA вышел не только прогрессивным, но и очень сложным для конечной реализации. Как следствие, по пути от стадии разработки до воплощения в кремнии, GF100 был «облегчен» на 32 CUDA ядра, и даже это не помогло достичь нормального теплового режима конечного продукта. High-end продукты — это всегда удел энтузиастов, но и в их глазах GeForce GTX 480 из-за своего горячего нрава немного теряет привлекательность. Вряд ли кто-то будет мириться с такими высоким температурами внутри системного блока и шумом родной СО. Альтернативных кулеров для этой модели (в отличие от Radeon HD 5870) пока еще нет, да и появление воздушных систем охлаждения, способных поддерживать низкую температуру GF100, под вопросом. Потенциальному покупателю GeForce GTX 480 стоит задуматься о СВО, потому как это единственный на данный момент вариант, который позволит не только поддерживать низкую температуру чипа и компонентов платы, но и раскрыть весь потенциал видеокарты с помощью разгона. А он, потенциал, у нее имеется и весьма неплохой. Мы в этом отлично убедились на примере нашего экземпляра Zotac, который показал хороший прирост от повышения частоты GPU, даже несмотря на почти что полное отсутствие разгона памяти. Кстати, неприятная ситуация с низким разгоном GDDR5 оказалось характерной и для видеоадаптера Zotac GeForce GTX 470, которому будет посвящена следующая наша статья. Будем надеяться, что это всего лишь следствие «сырого» BIOS, а не каких-то конструктивных особенностей моделей данного производителя или всей линейки GeForce на базе GF100.

  • Zotac — видеокарта Zotac GeForce GTX 480.
  • Еще недавно гремели первые представления серии видеокарт на NVIDIA GeForce GTX 480 и GTX 470, основанные на тестировании официальных семплов NVIDIA, но только сейчас такие графические ускорители начали появляться на прилавках магазинов. Конечно, сохраняется интрига равнозначности семплов и серийных образцов. Особенно это подкрепляется решением производителя даже во флагмане линейки, модели NVIDIA GeForce GTX 480, использовать немного урезанную версию чипа GF100 (GPU на основе дизайна Fermi). Но постараемся рассказать обо всем по порядку.

    Сама архитектура Fermi, используемая в Графических процессорах (видеокартах) NVIDIA GeForce GTX 480 и GeForce GTX 470, была объявлена ещё в сентябре 2009 года и только через полгода пользователи смогли воспользоваться ее преимуществами. Заявленная стоимость видеокарт архитектуры GF100 должна составлять $500 на GeForce GTX 480 или $350 на GeForce GTX 470, что немного выше, чем у одночиповых флагманов от AMD, хотя на нашем рынке эти видеокарты явно будет еще дороже. Стоит отметить, что наблюдаемые у компании AMD проблемы производства GPU по 40-нм техпроцессу TSMC не позволяют ей предоставить рынку должное количество высокопроизводительных продуктов с поддержкой DirectX 11. Учитывая оставленную компанией NVIDIA возможность отключения проблемных частей GPU у всей линейки, ведь даже «топовые» чипы не используют весь потенциал GF100, можно надеяться на более полноценное обеспечение рынка видеокартами на GeForce GTX 480 и GeForce GTX 470.

    Компания NVIDIA определила архитектуру Fermi как вычислительную по своей сути, что отодвигает традиционную роль GPU по ускорению 3D-графики в играх на второй план. Архитектура Fermi является последовательным развитием линейки Tesla - вычислительных карт, которые используются в требовательных к производительности системах. Этот факт подтверждает поддержка памяти с коррекцией ошибок (ECC) и усиленная производительность вычислений с двойной точностью. Потенциальный прирост от параллельного выполнения некоторых технических задач просто огромен, а инвестиции NVIDIA в разработку программного обеспечения обусловили значительный отрыв от AMD и Intel на этом растущем рынке.

    NVIDIA Fermi (GF100)

    Планируемые возможности новой видеокарты GeForce GTX 480 должны были удвоить производительный потенциал флагманской модели на GF100 по сравнению с видеокартой на основе GT200, такой как GeForce GTX 285. Но теория не всегда воплощается в практический результат.

    Сам чип GF100 имеет 512 ядер CUDA (четыре кластера Graphics Processing Clusters , каждый содержит четыре мультипроцессора Streaming Multiprocessors , и каждый из них содержит 32 ядра CUDA). Но в GeForce GTX 480 оставили всего 480 ядер CUDA, что на 32 ядра меньше чем в оригинальной архитектуре GF100. Такое упрощение было сделано путем отключения одного мультипроцессора SM у GF100, видимо по причине невозможности получения в достаточном объеме полноценных графических процессоров.

    В свою очередь каждый мультипроцессор SM также содержит собственные текстурные блоки и движок PolyMorph (логика с фиксированными функциями, обеспечивающая повышенную производительность расчёта геометрии). Следовательно, GeForce GTX 480 получил 60 из 64 текстурных блоков и 15 движков PolyMorph.

    В той части конвейера GF100, которая независима от кластеров GPC, отключений блоков для GeForce GTX 480 NVIDIA не производилось. Здесь остались все шесть разделов ROP. Каждый раздел способен выдавать восемь 32-битных целочисленных пикселей одновременно, то есть мы получаем 48 пикселей за такт. Полноценный GF100 со всеми разделами ROP поддерживает 384-разрядный интерфейс памяти GDDR5 (то есть по 64-битному интерфейсу на раздел). Графический процессор GeForce GTX 480 поддерживает как раз такую конфигурацию, а 256 МБ памяти на интерфейс дают нам в сумме 1,5 ГБ памяти GDDR5 (пропускная способность составляет 177 ГБ/с, если учесть тактовую частоту 924 МГц).

    Все эти сокращения в рабочих мощностях исходного чипа являются следствием проблем с выходом годных кристаллов у NVIDIA, но необходимость представления новых решений на рынок Hi-End ускорителей заставила «выбросить» в продажу хотя бы урезанные версии графического процессора GF100 с архитектурой Fermi. Но каков бы ни был результат, он есть и его стоит протестировать и описать.

    Особенности ZOTAC GeForce GTX 480

    К нам в тестовую лабораторию попала уже серийная видеокарта ZOTAC GeForce GTX 480, с очень характерным для этого производителя дизайном коробки.

    Упаковка видеокарты оформлена в черном и желтом цветах. На лицевой стороне картонной коробки указана модель видеокарты, объём памяти, ее тип и пропускная способность шины памяти. Есть упоминания и о поддержке фирменной технологий NVIDIA PhysX и наличии разъема HDMI. В правом верхнем углу производитель обращает внимание на поддержку фирменных технологий: NVIDIA GeForce CUDA, NVIDIA PureVideo HD, NVIDIA SLI.

    На обратной стороне коробки поместился небольшой обзор возможностей данной видеокарты. Описаны преимущества использования технологий: NVIDIA 3D Vision Surround и PhysX.

    Внутри разместилась сама видеокарта и дополнительные компоненты поставки. Вместе с графическим ускорителем можно получить следующее:

    • Переходник питания видеокарты с двух шестиконтактных разъемов на один восьмиконтактный PCI Express;
    • Переходник питания видеокарты с двух MULEX разъемов на один шестиконтактный PCI Express;
    • Переходник с DVI на VGA;
    • Переходник с Mini-HDMI на HDMI;
    • Инструкцию пользователя;
    • Диск с ПО и драйверами;
    • Демонстрационный диск, описывающий все новые возможности этой видеокарты.

    Хочется отметить, что идущие в комплекте поставки переходники питания явно заставят пользователя использовать достаточно мощный блок питания с соответствующими разъемами для подключения видеокарты. Это может вызвать некоторые проблемы при подборе конфигурации. В целом комплектация должна полноценно восполнить все нюансы установки данной видеокарты в современный системный блок.

    Печатная плата

    Сама видеокарта выполнена на темном текстолите, лицевая сторона которого закрыта системой охлаждения с кожухом из темного пластика. Напомним, что данная видеокарта поддерживает шину PCI Express 2.0 x16, совместима с DirectX 11 Shader Model 5.0 и OpenGL 3.2, а также поддерживает технологии NVIDIA PureVideo HD Technology, NVIDIA 3D Vision Surround, NVIDIA PhysX Technology, NVIDIA CUDA Technology и NVIDIA SLI Technology.

    Обратная сторона печатной платы видеокарты выглядит значительно скромнее. Здесь только можно отметить чип системы питания GPU - ШИМ контроллер CHL8266 использующий шесть фаз. На каждую фазу питания приходится по три транзистора (один в верхнем плече и два в нижнем). Такой подход позволяет лучше отводить тепло от элементов подсистемы питания. Второй чип uP6210AG уже хорошо знаком нашим читателям по другим видеокартам на основе графических процессоров от NVIDIA. Он предоставляет две фазы питания для микросхем памяти данной видеокарты. Таким образом, суммарно получаем 6+2-фазную систему питания видеокарты.

    Заглянув под систему охлаждения можно сразу констатировать факт полной идентичности данной видеокарты с ее «референсным» вариантом. Видеокарта ZOTAC GeForce GTX 480 использует печатную плату длиной 267 мм (10,5"), то есть примерно на сантиметр короче ускорителей на Radeon HD 5870, это может помочь ей поместиться практически в любой современный корпус.

    Для дополнительного питания (помимо шины PCI Express) требуется подключение одной шестиконтактной и одной восьмиконтактной вилок. NVIDIA заявляет, что такая карта имеет тепловой пакет (TDP) 250 Вт, что существенно меньше, чем Radeon HD 5970, которая едва умещается в потолок 300 Вт, установленный группой PCI-SIG. Поэтому для «топового» решения NVIDIA рекомендует блок питания мощностью 600 Вт или выше.

    Плата занимает на задней панели корпуса два слота. Для достаточно объемной системы охлаждения пользователю придется освободить место и внутри корпуса.

    На интерфейсную панель выведены: два порта DVI и один mini-HDMI. Плюс второй слот полностью займет выпускная решетка, обеспечивающая выдув нагретого воздуха из системного блока.

    Система охлаждения

    Рассмотрим поближе систему охлаждения видеокарты. Она полностью повторяет «референсный» вариант и инженеры компании NVIDIA явно старались сделать ее максимально эффективной, но в виду прожорливости видеокарты результирующая температура компонентов все равно остается на достаточно высоком уровне.

    Пять тепловых трубок, дополнительный теплоотводящий кожух и аэродинамическая конструкция самой турбины сумарно впечатляют своей максимальной продуманностью. Это явно самая эффективная конструкция системы охлаждения из всех моделей эталонного дизайна, которые мы встречали раньше. Нагнетаемый боковой турбиной воздух проходит через алюминиевый радиатор, пронизанный пятью медными трубками, и выходит наружу корпуса.

    Уникальной особенностью этой конструкции можно назвать расположение одной из сторон радиатора непосредственно на поверхности кожуха карты, что явно улучшает теплоотвод, но в виду хорошего нагрева системы охлаждения взявшись за эту часть видеокарты можно обжечься.

    Заметным новшеством здесь можно назвать дополнительную пластину радиатора, отводящую тепло от поверхности GPU и микросхем памяти. Общая пластина закрывает верхнюю часть платы видеокарты и обеспечивает теплоотвод через специальный термоинтерфейс от микросхем памяти и транзисторов системы питания.

    Перейдем к тестированию системы охлаждения. При максимальной нагрузке температура GPU составила впечатляющие 101 °С, что для этого графического процессора не считается критической температурой. При этом система охлаждения работала на 92% и создавала ощутимый уровень шума.

    А в простое (2D-режим) кулер работает на 44% от своей максимальной мощности. В таком режиме его работа тоже заметна на общем шумовом фоне. Система охлаждения, установленная на данной видеокарте, обеспечивает нормальную эффективность, но потребности GPU видеокарты явно заставляют ее постараться для обеспечения приемлемых температур. Шумность системы охлаждения явно зависит от нагрузки на видеокарту, и назвать ее тихой никак нельзя.

    Что ж, а теперь перейдем к детальному изучению технических характеристик видеокарты. Для начала приведем краткую характеристику в виде таблицы:

    Графическое ядро

    NVIDIA GeForce GTХ 480 (GF100-375-A3)

    Конвейера

    480 унифицированных потоковых

    Поддерживаемые API

    DirectX 11 (Shader Model 5.0), OpenGL 3.2

    Частота ядра, МГц

    Частота унифицированных процессоров, МГц

    Частота памяти (эффективная), МГц

    Объем (тип) памяти, МБ

    Шина памяти, бит

    Стандарт шины

    PCI Express X16 2.0

    Максимальное разрешение

    До 2560 x 1600 (Dual-link DVI) или 1920x1200 (Single-link DVI)

    До 1920x1080 (HDMI)

    До 2048x1536 (VGA)

    2xDVI-I, mini-HDMI

    Поддержка HDCP и HD-видео

    Декодирование MPEG-2, MPEG-4, DivX, WMV9, VC-1 и H.264/AVC

    Размеры, мм

    Требования к мощности блока питания, Ватт

    Максимально допустимая температура ядра, °С

    Драйверы

    Свежие драйверы можно скачать со страницы поддержки или сайта производителя GPU .

    Сайт производителя

    Установленный здесь графический процессор NVIDIA GeForce GTX 480 имеет маркировку GF100-375-A3.

    Частотная схема работы видеокарты и прочие характеристики выглядят так:

    Данный образец полностью повторяет все характеристики «референсной» версии ускорителя на NVIDIA GeForce GTX 480. Графический процессор на ZOTAC ZT-40101-10P работает с частотой 701 МГц, а шейдерные домены на частоте 1401 МГц соответственно. Видеопамять получила 924 МГц реальной или 3696 МГц эффективной частоты.

    На тестируемой видеокарте применены микросхемы памяти GDDR5 производства компании SAMSUNG, суммарным объемом 1536 MБ. Маркировка K4G10325FE-HC04 указывает на то, что данные чипы обеспечивают время выборки 0,4 нс, что соответствует реальной частоте 1250 МГц или 5000 МГц эффективной и обеспечивает весомый запас для разгона.

    При тестировании использовался Стенд для тестирования Видеокарт №2

    Процессор Intel Core 2 Quad Q9550 (LGA775, 2,83 ГГц, L2 12 МБ) @3,8 ГГц
    Материнские платы ZOTAC NForce 790i-Supreme (LGA775, nForce 790i Ultra SLI, DDR3, ATX)GIGABYTE GA-EP45T-DS3R (LGA775, Intel P45, DDR3, ATX)
    Кулеры Noctua NH-U12P (LGA775, 54,33 CFM, 12,6-19,8 дБ)Thermalright SI-128 (LGA775) + VIZO Starlet UVLED120 (62,7 CFM, 31,1 дБ)
    Дополнительное охлаждение VIZO Propeller PCL-201 (+1 slot, 16,0-28,3 CFM, 20 дБ)
    Оперативная память 2x DDR3-1333 1024 MБ Kingston PC3-10600 (KVR1333D3N9/1G)
    Жесткие диски Hitachi Deskstar HDS721616PLA380 (160 ГБ, 16 МБ, SATA-300)
    Блоки питания Seasonic M12D-850 (850 Вт, 120 мм, 20 дБ)Seasonic SS-650JT (650 Вт, 120 мм, 39,1 дБ)
    Корпус Spire SwordFin SP9007B (Full Tower) + Coolink SWiF 1202 (120x120x25, 53 CFM, 24 дБ)
    Монитор Samsung SyncMaster 757MB (DynaFlat, 2048x1536@60 Гц, MPR II, TCO"99)

    Выберите с чем хотите сравнить GeForce GTX 480 1.5GB DDR5 ZOTAC

    При тестировании стало видно, что видеокарта ZOTAC GeForce GTX 480 подтверждает статус мощнейшего на сегодняшний день одночипового графического ускорителя. Новинка на GPU от NVIDIA явно немного опережает по быстродействию своих конкурентов на чипах AMD, но учитывая ее энергопотребление и рабочую температуру, что влечет и повышенную шумность, а также посмотрев на ценник, нельзя ее однозначно назвать сбалансированным решением. Кроме того, возникают сомнение в возможности на основе NVIDIA GeForce GTX 480 создать двучиповую версию, которая сможет «переплюнуть» по производительности двучиповый графический ускоритель на Radeon HD 5970.

    Разгон

    Разгон данной видеокарты тоже нельзя назвать выдающимся. Память на видеокарте нам разогнать почти не удалось, хотя сами чипы явно работают медленнее их номинальной частоты. Но сам GPU с напряжением равным 1,05 В удалось разогнать до 770 МГц, а температура ядра при этом составляла 87 °С. Но во время разгона видеокарта находится в иных условиях, чем при тесте эффективности системы охлаждения, в частности боковая панель корпуса была снята и возле видеокарты устанавливается 120 мм вентилятор, который немного улучшает условия охлаждения, а сам кулер постоянно работал на 100% скорости вращения. Имея программный механизм управления напряжением питания, мы продолжили эксперименты. При подаче 1,075 В GPU удалось разогнать до 784 МГц, а температура увеличилась до 91°С. Наилучшего результата удалось достичь при 1,1 В, когда GPU удалось разогнать до 790 МГц, но теперь его температура при нагрузке увеличивалась до 99°С

    Давайте посмотрим, как ручное ускорение отразилось на производительности:

    Тестовый пакет

    Стандартные частоты

    Разогнанная видеокарта

    Прирост производительности, %

    Far Cry 2, Maximum Quality, NO AA/AF, fps

    Far Cry 2, Maximum Quality, AA4x/AF16x, fps

    Прирост от разгона слабоват, а учитывая предельные температуры работы видеокарты даже без разгона, целесообразность последнего становится сомнительной, ведь придется хорошо постараться над повышением эффективности охлаждения GPU. Да и при номинальных частотах это «топовое» решение вполне может обеспечить достойную игровую производительность даже для требовательного пользователя.

    Итоги

    Видеокарты на графическом процессоре NVIDIA GeForce GTX 480, в том числе и протестированная ZOTAC ZT-40101-10P, получились очень производительными одночиповыми решениями. Причем используемый в них GPU GF100 с архитектурой Fermi изначально имел 512 потоковых ядер, но в результате некоторых проблем с получением нужного количества чипов при производстве, «топовые» видеокарты на нем используют всего 480 ядер. Но за счет достаточно высоких рабочих частот ускорители на GeForce GTX 480 всё равно оказались в целом быстрее одночиповых карт конкурента на Radeon HD 5870, хотя лидером рынка пока еще остается двухчиповое решение от AMD – Radeon HD 5970.

    Однако, если по производительности одночиповые «топовой» видеокарты на GPU от NVIDIA превосходят соответствующие решения на чипах от AMD, то энергопотребление это явно не «конек» карт на NVIDIA GeForce GTX 480. Конечно, для многих энтузиастов это не станет критерием выбора, но в ряде случаев стоит задуматься и над этим аспектом, ведь увеличение энергопотребления приводит не только к некоторому увеличению счетов за электроэнергию. Фактически вся потребленная графическим ускорителем энергия развеивается в виде тепла, которое нужно быстро отводить во избежание перегрева и выхода из строя высокотехнологичных компонентов, что в свою очередь ведет к усложнению системы охлаждения и повышению ее шумности.

    И последним немаловажным критерием выбора является цена на ускорители с NVIDIA GeForce GTX 480, как и на данную видеокарту ZOTAC ZT-40101-10P, которая пока явно завышенной. Рекомендуемая цена в 500$ вырастает в странах СНГ до 600$ и более, что меняет показатель эффективности на потраченный доллар не в пользу решений на этом графическом процессоре от NVIDIA.

    Достоинства:

    • Лучшая на сегодня производительность;
    • Полноценная комплектация;
    • Наличие разъема HDMI через переходник.

    Недостатки:

    • Высокое энергопотребление;
    • Шумная система охлаждения.

    Выражаем благодарность компании « Квазар-Микро » официальному дистрибутору ZOTAC International в Украине за предоставленную для тестирования видеокарту.

    Выражаем благодарность компаниям Coolink-Europe , Noctua , Sea Sonic , Spire , VIZO и ZOTAC за предоставленное для тестового стенда оборудование.

    Статья прочитана 22149 раз(а)

    Подписаться на наши каналы