Игровые тесты: S.T.A.L.K.E.R.: Clear Sky. Игровые тесты: Dead Space

Viber OUT 25.02.2019
Viber OUT

Обзор GeForce GTX 680 | Конструкция

nVidia любит проводить параллели. На виртуальном поле боя каждой видеокарте предыдущего поколения даётся своя роль. GeForce GTX 480 была "танком" – высокий уровень производительности сопровождался высокой ценой, энергопотреблением и тепловыделением. GeForce GTX 460 можно отнести к "боевому вертолёту", которому свойственен баланс скорости, эффективности и более доступной цены. И наконец, видеокарту GeForce GTS 450 сравнивают со "снайпером", за её способность обеспечивать комфортный уровень FPS на разрешении 1680x1050.

Такое сравнения выглядит немного глупо, но благодаря ему проще установить уровень GeForce GTX 680 . Хотя название (и цена) относят её к флагманским моделям карт nVidia с одним GPU, она определённо походит на "боевой вертолёт" - геймерскую видеокарту. Она отлично справляется с играми, так же как и GeForce GTX 460 .

Позиционирование

Независимо от того, для какой цели она была спроектирована, на её позицию на рынке сильнее всего повлияет конкуренция. Возможно, в планах AMD есть и более мощные модели, о которых мы пока не слышали. Однако, в контексте шести карт серии Radeon HD 7000 которые уже доступны, nVidia точно знает, с чем ей предстоит столкнуться.

По сравнению с SM чипа GF104, SMX у нового GK104 используют в два раза больше планировщиков "варпов" (warp shedullers) (четыре вместо двух), блоков диспетчеризации (восемь вместо четырёх) и текстурных блоков (шестнадцать вместо восьми) на шейдерный мультипроцессор, наряду с регистровым файлом, который тоже в два раза больше. Также новый GPU использует в два раза больше ядер CUDA. GF104 включает 48 шейдеров на SM, у GK104 это количество возрастает до 192.


GK104 SMX (слева) против GF104 SM (справа)


GF104 GК104 Коэффициент
Ядер CUDA 48 192 4x
Специальных блоков 8 32 4x
Load/Store 16 32 2x
Текстурных блоков 8 16 2x
Планировщик "варпов" 2 4 2x
Движки геометрии 1 1 1x

Почему ядер CUDA в четыре раза больше, а остальных ресурсов только в два? Шейдеры Kepler работают на частоте процессора (1:1). В архитектурах прошлого поколения (начиная с G80) шейдеры работали на частоте в два раза превышающую частоту ядра (2:1). Таким образом, для удвоения шейдерной пропускной способности на данной частоте требовалось в два раза больше ядер работающих на половине скорости.

Тогда возникает вопрос: с какой стати, nVidia в первую очередь уменьшила шейдерную частоту? Всё дело в тонком балансе производительности, мощности и размере кристалла. Fermi позволяет архитекторам nVidia оптимизировать пространство. Всё же меньше ядер занимают меньше места. Однако двойная скорость требует более высокой частоты и мощности. Kepler, напротив, направлен на эффективность. Поделив частоту шейдеров пополам, разработчики уменьшили энергопотребление. Однако сравнимый уровень производительности потребовал вдвое больше каналов данных. В результате Kepler жертвует размером кристалла для понижения мощности и логики, и ещё большей экономии при разгоне.

Дополнительная мощность и пространство на кристалле сокращены за счёт исключения некоторых аппаратных структур, используемых для помощи в планировании "варпов" и переносит эту нагрузку на программное обеспечение. Сводя к минимуму количество потребляемой энергии и пространство, занимаемое управляющей логикой, по сравнению с Fermi, для выполнения полезной работы освобождается больше места.

nVidia утверждает, что изменения в архитектуре SMX, теоритически, должны удвоить производительность на ватт по сравнению с предшественниками Kepler, это мы и проверим в сегодняшних тестах.

Итак. У нас есть восемь SMX, в каждом из них 192 ядра CUDA, вместе получается 1536. Шестнадцать текстурных блоков на SMX в целом дают 128 блоков на весь GK104. По одному геометрическому движку на каждый SMX, в сумме получаем восемь, однако у GF104 движков PolyMorph тоже восемь. Получается, что nVidia увеличила все остальные ресурсы, но не тронула исходную производительность? Не совсем так.

Для начала каждый движок PolyMorph, по словам nVidia, был переделан так, что его производительность на такт выросла в два раза по сравнению с геометрической логикой Fermi. Это улучшение хорошо прослеживается в синтетических тестах, которые, как (справедливо) считают разработчики, отражают будущее их разработок, где для высокого уровня реализма в играх используется гораздо больше геометрии. Но говоря о сегодняшних играх, таких как HAWX 2, что можно ожидать от новой архитектуры?



В абсолютном выражении, GeForce GTX 680 обгоняет Radeon HD 7970 и Radeon HD 7950 , независимо от того, используется тесселяция или нет. Однако, производительность новой карты nVidia снижается на 31% при включении тесселяции в настройках игры. Для сравнения, видеокарты Radeon на базе Tahiti теряет только 16%. Однако, в игре на производительность влияет не только тесселяция. Очень интересно наблюдать, как в современных играх обещания nVidia не вполне сбываются.

Чтобы поддержать возросшую пропускную способность геометрического блока, nVidia удваивает количество движков растеризации по сравнению с GF104, и соотношение с разделами ROP становится 1:1.

Как и в GF104, каждый ROP GK104 выводит восемь 32-битных пикселей за такт, в сумме получается 32. Оба GPU используют в совокупности 256-битные шины памяти, но отличия есть в максимальной пропускной способности памяти.

Вы заметили, что на первых двух разрешениях Radeon HD 6990 находится в самом низу? Два GPU Cayman не смогли помочь карте, как без сглаживания, так и с 8x MSAA. WoW сильно зависит от производительности центрального процессора. Между тем, CrossFire сильнее нагружает CPU, чем SLI. Учитывая это становится понятно, почему карта AMD с двумя GPU остаётся позади всех, хотя включение сглаживания влияет на производительность совсем немного.

Конечно, при повышении разрешения до 2560x1600 графическая нагрузка увеличивается, Radeon HD 6990 догоняет nVidia GeForce GTX 680 и занимает третье место.

Metro 2033 (DX 11)

Тестирование видеокарт high-end класса позволило нам повысить настройки графики в Metro 2033. Мы по-прежнему не смогли получить постоянный комфортный уровень FPS на предустановке Very High, поэтому даже не стали пытаться включать фильтр глубины резкости на базе DirectCompute, который сильно влияет на производительность игры в целом.

С последним драйвером 296.10 от nVidia (и с некоторыми более ранними версиями), модели GeForce GTX 590 и GeForce GTX 580 не смогли выполнить этот тест, используя OpenCL либо DirectCompute.

Производительность вычислений в LuxMark 2.0

В прошлом флагманский GPU, который использовался в high-end картах Quadro и GeForce GTX 480 , nVidia уделила вычислительной производительности не меньше внимания, чем игровой.

В этот раз, во время презентации GeForce GTX 680 , компания предпочла вообще не говорить о общих вычислениях, отшучиваясь, что она потратила слишком много сил на этот аспект в архитектуре Fermi и не хочет возвращаться к нему снова.

Но, похоже, что компания действительно не хочет возвращаться к этому. Тест Sandra 2012 показал, что GeForce GTX 680 тянутся за картами серии Radeon HD 7900 в 32-битных вычислениях. И она просто раздавлена в 64-битных операциях с плавающей запятой, поскольку nVidia намеренно сдерживает производительность, чтобы защитить профессиональные видеокарты для бизнес решений.

Тогда не удивительно, что в тесте LuxMark 2.0 на базе OpenGl GeForce GTX 680 приползает к финишу последней.

Для сравнения, GPU GF110 видеокарт GeForce GTX 580 /590 лучше приспособлен для вычислений общего назначения. И nVidia утверждает, что лучше продаст карту Quadro для рабочих станций или отдельную видеокарту Tesla. Но мы хотим возразить, что видеокарты AMD серии Radeon HD 7900 являются вполне жизнеспособной альтернативой в данной нагрузке, по крайней мере, с точки зрения производительности (а не по цене).

NVEnc и MediaEspresso 6.5

Когда Intel представила технологию Quick Sync в качестве секретного оружия архитектуры Sandy Bridge, мы думали, что AMD и nVidia понадобится около года, чтобы перейти с перекодирования видео на базе CUDA и APP к более специализированному методу с фиксированными функциями, способному предоставить больше производительности при меньшем энергопотреблении.

AMD представила своё решение почти через год после выхода нашей статьи "Sandy Bridge: Intel Core второго поколения"

Функция Intel Quick Sync уже которой год принимает MPEG-2, VC-1 и H.264, и выводит MPEG-2 или H.264. С другой стороны, nVidia не даёт конкретную информацию о совместимых форматах. Но мы знаем, что она ограничена выводом H.264. Однако, максимальное разрешение для движка Intel оставляет 1080p на вход и выход, в то время NVEnc предположительно поддерживает кодирование вплоть до разрешения 4096x4096.

Как и Quick Sync, технология NVEnc, в данный момент, доступна через собственный API, хотя nVidia планирует предоставить доступ к NVEnc через CUDA.

Наша стандартная нагрузка для этого приложения включает перекодирование файла MPEG-2 размером почти 500 Мбайт в совместимый с iPad 2 ролик в формате H.264. Мы прогоняли его снова и снова, и всё же GeForce GTX 680 оказалась медленнее, чем GeForce GTX 580 или 590. Позже компания сообщила, что в драйвере есть баг, влияющий на производительность перекодирования MPEG-2.

Поэтому мы взяли другой трейлер на базе H.264 и снова провели тесты. NVEnc действительно существенно влияет на производительность, сократив время перекодирования почти вдвое, по сравнения с другими картами nVidia.

Стоит отметить, что у нас возникали некоторые проблемы с перекодированием с помощью аппаратного ускорения на картах AMD в приложении MediaEspresso, однако последние драйверы и обновления от CyberLink их решили. Несмотря на это, уровень производительности остался на среднем уровне. Хотя новые модели серии Radeon HD 7900 ещё пытаются преследовать карты nVidia предыдущего поколения в кодировании из H.264 в H.264, при перекодировании из MPEG-2 в H.264 всё гораздо хуже. В обоих случаях Radeon HD 6990 показывает слабый результат.

Сейчас, насколько мы знаем, AMD Video Codec Engine, представленный в прошлом году и концептуально похожий на NVEnc, по-прежнему не работает. Это хорошая возможность для AMD вернуться в игру. Как бы там ни было, тот факт, что поддержки драйвера нет по прошествии месяца, совсем не радует.

Обзор GeForce GTX 680 | Температура и шум

Шум и температура при бездействии


Однако, усилия инженеров и преимущества 28-нм техпроцесса сделали своё дело. GeForce GTX 680 тише любой другой high-end видеокарты в простое. И похоже для её охлаждения не нужен очень большой поток воздуха. После десяти минут простоя холоднее этой карты оказалась только GTX 590.

Шум и температура при нагрузке


Поведение видеокарты под нагрузкой более красноречиво, чем при простое. Здесь GeForce GTX 680 действительно впечатляет, показав самый низкий уровень шума.

И хотя карта довольно тихая, её кулер держит температуру под контролем.

Однако, технология AMD ZeroCore, в отличии от nVidia, помогла компании снизить результаты при выключенном дисплее. Энергопотребление обеих карт Radeon HD 7900 снизилось на 13-16 Вт, а у GeForce GTX 680 только на 2 Вт. Это лучше, чем у GeForce GTX 580 , однако, AMD здесь бесспорно ведёт.

Как мы уже видели в нескольких тестах производительности, GeForce GTX 680 близко подбирается к уровню производительности GeForce GTX 590 и Radeon HD 6990 , и даже может обойти их в играх типа DiRT 3. Но взгляните на разницу в энергопотреблении.

GeForce GTX 680 показывает относительно прямую линию на протяжении всего теста, это говорит о том, что GPU Boost постоянно подстраивает частоту/напряжение для работы в пределах теплового пакета.

Но хотя эта информация интересна в теории, на практике производительность на ватт может быть совсем другая. Так что давайте проверим её другим путём.

Обзор GeForce GTX 680 | Производительность на ватт: индекс

И AMD, и nvidia заявляют, что их карты предлагают непревзойдённый уровень производительности на ватт, и мы верим обеим компаниям.

Однако, nVidia делает дополнительный шаг, настраивая частоту и напряжение в реальном времени, основываясь на идее, что нет двух рабочих нагрузок, которые требуют одинаковое количество мощности. В результате мы не можем просто протестировать одну игру, поделить среднюю частоту кадров на среднее энергопотребление и сказать, что результаты отражают все игры. Но у нас нет времени тестировать каждую игру на каждом разрешении (да потребление энергии зависит от разрешения, детализации и т.д.). Поэтому мы взяли игры из нашего тестового набора, настроили их на разрешение 1920x1080 и максимально высокое качество графики, и представили график поведения каждой из них на всех шести видеокартах.

Чтобы не загромождать обзор данными, мы представили шесть игр на четырёх картах. У нас есть результаты GeForce GTX 590 и Radeon HD 6990 , но они просто ужасные.

Не важно, что какой-то тест закончился быстрее других. Главное, что у нас есть данные мощности, наряду с уровнем производительности, получившимся во время тестового прогона. Чтобы показать результаты на диаграмме, мы совместили верхние и нижние границы энергопотребления системы в каждой игре, и ни в одной не получили идентичных результатов.

Обзор GeForce GTX 680 | Заключение

Иногда при появлении новых видеокарт бывает довольно тяжело выяснить, оправдывают ли производительность и функциональность стоимость новинки. Это не наука и верный ответ не всегда бывает предельно ясным. Но не в этот раз.

Всё указывает на то, что GeForce GTX 680 с новым графическим процессором GK104 займёт достойное место среди наших любимчиков. Однако, как и в случае с GeForce GTX 460 , nVidia пожертвовала вычислительной мощностью в пользу игровой производительности. Но про это быстро забываешь, когда карта доказывает свою конкурентоспособность против флагманов AMD в играх. GK104 не пойдёт по стопам GF104. Вместо этого, новый GPU займёт место GF110, который ранее обеспечивал лидерство видеокарте GeForce GTX 580 .

Учитывая данные тестов, выдающийся список возможностей и конкурентную цену можно сделать вывод, что GeForce GTX 680 для геймера лучше, чем Radeon HD 7970 . И поскольку nVidia, наконец, поддерживает два выхода на монитор, для нашей рабочей станции мы выбираем архитектуру Kepler.

Но это, конечно, если не пожалеть $500. Геймеры с ограниченным бюджетом не должны забывать, что видеокарта Radeon HD 7870 , которую AMD выпустила чуть ранее в этом месяце, недавно появилась в онлайн-магазинах. Учитывая ценник в $360 мы считаем, что это более разумный выбор, нежели карты серии 7900. В тестах она идёт наравне с GeForce GTX 580 , но требует меньше мощности.

Вчера состоялось долгожданное событие в графическом сегменте IT-индустрии. Компания анонсировала свой первый 28-нм графический адаптер , который базируется на видеочипе GK104 . Основные партнёры NVIDIA уже успели порадовать нас собственными вариантами новой видеокарты, о некоторых из них мы вам в нашей новостной ленте. Пришла пора познакомиться с GeForce GTX 680 поближе.

Мы предлагаем вашему вниманию краткий обзор GeForce GTX 680 , посвящённый тестированию новинки в различных 3D-приложениях. Мы попытаемся разобраться: действительно ли первый Kepler-ускоритель получился таким удачным, как того ожидали аналитики или нет. Естественно, нас интересует вопрос, кто окажется лучше: или дебютант от NVIDIA.

Тестовая конфигурация имела следующий вид.

  • Процессор: Intel Core i7-920, работающий на частоте 3,8 ГГц (Bloomfield, 8192 Кбайт);
  • Материнская плата: Gigabyte X58 Extreme (Intel X58 & ICH10R);
  • Оперативная память: 3 x 2048 Мбайт, Mushkin Redline XP3-12800 DDR3;
  • Накопитель информации: WD Caviar Blue WD5000AAKS, 500 Гбайт;
  • Блок питания: Antec HCP-1200, 1200 Вт;
  • Операционная система: Windows 7 64-bit Service Pack 1;
  • Пакет драйверов: NVIDIA: 285.62 / ATI: Catalyst 11.12 / HD 7950 & 7970: 8.921.2 RC11 / HD 7750 & HD 7770: 8.932.2 / GTX 680: 300.99.

Начнём по традиции с популярного бенчмарка 3DMark 11 , в котором видеокарта GeForce GTX 680 уступила лишь двухчиповым ускорителям последнего поколения, причём незначительно.

Игра Aliens vs. Predator отдаёт предпочтение ускорителю Radeon HD 7970 , который обогнал героиню нашей заметки примерно на 7 fps.

В шутере Crysis 2 в лидеры вырывается GeForce GTX 680 , опередившая конкурирующую модель от AMD на 2 с небольшим кадра в секунду.

Трёхмерный мир игры STALKER: Call of Pripyat отдал свой голос за новинку NVIDIA.

На полях сражений Battlefield 3 ускоритель GeForce GTX 680 занимает третье место, пропустив вперёд себя лишь Dual-GPU видеокарты.

Следующие диаграммы показывают пиковое и среднее энергопотребление GeForce GTX 680 .

Видеокарта GeForce GTX 680 способна продемонстрировать и неплохой оверклокерский потенциал, но сейчас мы не будем останавливаться на этом моменте.

Делаем выводы . Несомненно, видеокарта GeForce GTX 680 удалась компании NVIDIA. Мы видим примерно 16% увеличение производительности по сравнению с GeForce GTX 580 , присутствие новых технологических "фишек" (GPU Boost, VSync и Anti-Aliasing), возможность увеличить быстродействие видеокарты на 10-12% (результат может отличаться!) оверклокингом "вручную", поддержку PCI-Express 3.0, DirectX 11.1, CUDA и PhysX.

Следует заметить, что NVIDIA позиционирует свою новинку как наследницу модели , а не флагманской одночиповой видеокарты GTX 580. В конце лета у нас есть шанс увидеть видеоадаптер серии , который возглавит 28-нм модельный ряд видеокарт NVIDIA с одиночным GPU. В настоящее время, учитывая стоимость Radeon HD 7970 равную $549 , GeForce GTX 680 с её ценником $499 выглядит безоговорочным победителем. Ждём пересмотра ценовой политики AMD до уровня $460-500 за Tahiti XT.

На данный момент стандарт Full HD стал повсеместным. Даже бюджетные мониторы небольших диагоналей нынче щеголяют разрешением 1920x1080 точек, не говоря уже о крупногабаритных моделях. С некоторых пор даже мобильные телефоны начали осваивать этот стандарт. А под конец года поспеют и новые игровые консоли с поддержкой честного Full HD. Но компьютерные энтузиасты уже осваивают новые горизонты, экспериментируя с мультимониторными конфигурациями и присматриваясь к мониторам повышенного разрешения 2560x1440. И если с 1920x1080 современные топовые однопроцессорные видеокарты легко справляются, то для более тяжелых режимов им может не хватить сил.

В данной статье мы как раз решили выяснить, насколько успешно справятся GeForce GTX 680, Radeon HD 7970 и Radeon HD 7970 GHz Edition со сверхвысоким разрешением 2560x1440. Ранее мы не раз сводили вместе GeForce GTX 680 и простой Radeon HD 7970. Первый всегда успешно доказывал свое преимущество на заводских частотах в большинстве приложений, а второй уравнивал шансы при разгоне. Но в 2560x1440 все может сложиться не столь удачно для видеоадаптера NVIDIA из-за меньшего объема видеопамяти и более узкой шины. Не было у нас и полноценного сравнения с Radeon HD 7970 GHz Edition. Честно говоря, и в этот раз референсного образца такой карты тоже не будет, мы просто приведем имеющийся у нас Radeon к соответствующим частотам. Плюс ко всему, это самое масштабное сравнение конкурентов от AMD и NVIDIA, включающее 21 тестовое приложение.

Никаких новых оригинальных видеокарт рассмотрено не будет, но мы все же бегло пробежимся по характеристикам участников.

GeForce GTX 680

Со стороны NVIDIA в нашем сравнении примет участие графический ускоритель от ASUS GTX680-2GD5.


Ничего особого в данной модели нет. С первого взгляда ясно, что это копия референса .


Сбоку красуется огромная надпись GeForce GTX. Шестиконтактные разъемы дополнительного питания расположены друг под другом, что является отличительной особенностью таких видеоадаптеров.


Малое количество декоративных элементов сводит к минимуму визуальные отличия от эталонной карты NVIDIA. Зато смотрится строго и солидно.


Нижняя фотография системы охлаждения еще раз демонстрирует полную конструктивную идентичность с референсными образцами.


Рабочие частоты стандартные. Память GDDR5 функционирует на эффективной частоте 6008 МГц. Базовая частота графического процессора 1006 МГц, а официальный Boost Clock 1059 МГц. Последний параметр, напомним, является средним значением повышенной частоты при работе технологии Boost. Пиковое значение у нашего экземпляра равно 1124 МГц. В зависимости от энергопотребления частота варьируется так, чтобы видеокарта не вышла за установленные ограничения по мощности. В тесте Crysis: Warhead на максимальном качестве графики при сглаживании MSAA 8x в разрешении 2560x1440 процессор почти все время держался в диапазоне от 1071 МГц до 1058 МГц, что демонстрирует нижний левый график. Разве что в начале теста на графике можно отметить скачок к более высоким значениям. Это практически полностью соответствует показателям других GeForce GTX 680 без заводского разгона. Первый референсный экземпляр от Zotac у нас даже работал на частоте 1084 МГц, но там было более низкое рабочее разрешение 1920x1080. Рабочие температуры у этого ASUS (при 24 °C в помещении) тоже отвечают показателям других референсов — не более 81 °C. В тесте Unigine Valley Benchmark при Ultra-качестве и сглаживании рабочий диапазон частот GPU понизился до 1019-1048 МГц, что демонстрирует правый график.
Разгонный потенциал у ASUS GTX680-2GD5 вполне заурядный для графического процессора и неплохой для памяти. По базовой частоте видеокарта одолела 1146 МГц при пиковом значении в 1254 МГц. Повышение ползунка лимита мощности до предела позволило карте все время работать на пиковом значении в Warhead. А вот в Valley Benchmark частоты упали уже до 1241 МГц с просадками до 1228 МГц. Все проиллюстрировано ниже.
Такой разгон был реализован при повышенных оборотах вентилятора в шумном режиме.

Radeon HD 7970 и Radeon HD 7970 GHz Edition

Честь графических решений AMD защищает MSI R7970 Lightning. Видеоадаптер подробным образом был рассмотрен нами в соответствующем обзоре .


Карта на своих заводских частотах не тестировалась. Для начала мы установили 925/5500 МГц, что соответствует параметрам простого Radeon HD 7970. При этом напряжение было понижено до 1,163 В, что давало реальное значение близкое к 1,175 В (при таком напряжении работает референс). Таким образом, мы попытались приблизить видеокарту не только к стандартной производительности, но и к стандартному значению энергопотребления. Два нижних графика демонстрируют работу видеокарты в Crysis: Warhead и Unigine Valley Benchmark.
Великолепные температурные показатели обеспечены мощной системой охлаждения. Некоторую роль сыграла и замена термопасты на Noctua NT-H1. Так что в итоге значения могут оказаться еще на один-два градуса ниже, чем в обзоре MSI R7970 Lightning.

Теперь о том, как мы получили версию GHz Edition. В заявленных характеристикам указана частота ядра 1000 МГц при возможном ее повышении до 1050 МГц в режиме Boost. Но судя по обзорам, реальная частота все время стремится ко второму значению 1050, снижаясь до 1000 МГц только в стресс-тестах и очень ресурсоемких приложениях. Поэтому мы сразу выставили 1050 МГц. Память у Radeon HD 7970 GHz Edition функционирует на 6000 МГц. Напряжение изменяется в зависимости от частоты GPU, но на практике, как и частота, держится на максимальном уровне. При этом, судя по тем же обзорам, это максимальное значение достигает 1,218 или 1,256 вольт. Мы не стали превращать нашу карту в такой «обогреватель», ограничившись подъемом напряжения до 1,2 В по программному мониторингу.


Максимальный стабильный разгон составил 1190/7200 МГц. Для простого Radeon HD 7970 такой результат отличный. Хотя обновленные карты из серии GHz Edition на базе GPU Tahiti новых ревизий, судя по отзывам, могут преодолевать рубеж в 1,2 ГГц.
Кстати, на всех графиках включено слежение за загрузкой видеопамяти. И при сравнении GeForce с Radeon видно, что последний использует на 340 МБ больше в Crysis: Warhead. Схожая ситуация была и во многих других приложениях.Характеристики тестируемых видеокарт

В нижней таблице приведены официальные спецификации участников тестирования. На сравнительных диаграммах производительности указан полный рабочий диапазон частот для GeForce.

Видеоадаптер GeForce GTX 680 Radeon HD 7970 GHz Edition
Ядро GK104 Tahiti Tahiti
Количество транзисторов, млн. шт 3500 4312 4312
Техпроцесс, нм 28 28 28
Площадь ядра, кв. мм 294 365 365
Количество потоковых процессоров 1536 2048 2048
Количество текстурных блоков 128 128 128
Количество блоков рендеринга 32 32 32
Частота ядра, МГц 1006-1059 1000-1050 925
Шина памяти, бит 256 384 384
Тип памяти GDDR5 GDDR5 GDDR5
Частота памяти, МГц 6008 6000 5500
Объём памяти, МБ 2048 3072 3072
Поддерживаемая версия DirectX 11.1 11.1 11.1
Интерфейс PCI-E 3.0 PCI-E 3.0 PCI-E 3.0
Заявленный уровень мощности, Вт 195 250 250

Тестовый стенд

Конфигурация тестового стенда следующая:

  • процессор: Intel Core i7-3930K (3,2@4,4 ГГц, 12 МБ);
  • кулер: Thermalright Venomous X;
  • материнская плата: ASUS Rampage IV Formula/Battlefield 3 (Intel X79 Express);
  • память: Kingston KHX2133C11D3K4/16GX (4x4 ГБ, DDR3-2133@1866 МГц, 10-11-10-28-1T);
  • системный диск: Intel SSD 520 Series 240GB (240 ГБ, SATA 6Gb/s);
  • дополнительный диск: Hitachi HDS721010CLA332 (1 ТБ, SATA 3Gb/s, 7200 об/мин);
  • блок питания: Seasonic SS-750KM (750 Вт);
  • монитор: ASUS PB278Q (2560х1440, 27");
  • операционная система: Windows 7 Ultimate SP1 x64;
  • драйвер GeForce: NVIDIA GeForce 314.22;
  • драйвер Radeon: ATI Catalyst 13.3 beta 3.
В операционной системе были отключены User Account Control, Superfetch и визуальные эффекты интерфейса. Настройки драйверов стандартные, без изменений.

Методика тестирования

Приложения расположены в алфавитном порядке, в конец вынесены 3DMark. Везде использовалось разрешение 2560x1440 кроме нескольких отдельных случаев — последние версии тестовых пакетов 3DMark и один тестовый режим во втором «Ведьмаке» при активном «запредельном качестве».

При разрешении 2560x1440 все параметры и дальность прорисовки установлены на максимум, сглаживание 8x. Тестирование проводилось на самом первом уровне после первой контрольной точки. Совершалась пробежка от багажника машины до моста через две освещенные фонарями зоны. В момент пересечения второй зоны срабатывала скриптовая сценка: камера пролетала над погруженным в туман лесом и показывала маяк. Именно в этот момент заметно проседал fps и минимум производительности приходится на эту сценку.

Частота кадров в игре измерялась при помощи Fraps. Совершалась прогулка по пристани Бостона, сразу после момента прибытия в город. Совершалось четыре повтора. В случае большой разницы в результатах на одной видеокарте проводились дополнительные повторы. Самое высокое качество изображения под DirectX 11, сглаживание «очень высокое».

Частота кадров измерялась при помощи Fraps. Выбрана миссия «Молот и наковальня» (Rock and a hard place). После первой контрольной точки мы спускаемся по склону холма в долину до укреплений врага. Тестовая сценка включала кроме спуска начало перестрелки при штурме первого ряда укреплений. Огонь велся по двум точкам через прицел из-за камней справа и слева от дороги. С учетом простого спуска общий порядок действий легко повторим, а итоговые результаты почти не зависят от случайных факторов. Плюс в кадре находится не только большая площадь с детализированными текстурами, но и световые эффекты выстрелов, и взрывы. Это помогает создать вполне адекватную картину реальной производительности, как в сложных насыщенных сценах одиночной кампании, так и в многопользовательских схватках. Все параметры детализации и качества на Ultra под DirectX 11, задействован максимально возможный режим сглаживания AA4x.

Тестирование проводилось при помощи встроенного игрового теста. К сожалению, он не ведет подсчет кадров, просто запускает подготовленное игровое демо. Поэтому соответствующие данные получены при помощи Fraps. Три повтора. Максимальные настройки качества графики под DirectX 11 с активным сглаживанием FXAA.

Тестирование проводилось в поселке на первой локации Southern Shelf. Совершалась пробежка от ворот селения вниз по дороге к блокпосту бандитов. Туда швырялись три разделяемые гранаты, расстреливались две обоймы из кислотного пистолета и три из дробовика. Максимальное качество графики, сглаживание включено. Активно наивысшее качество эффектов PhysX. А благодаря взрывам и стрельбе все эти эффекты проявляются в полной мере.

Тестирование проводилось на второй миссии «Целерий», сразу после полета в момент начала штурма вражеской базы. Специально выбран этот детализированный уровень с атмосферными эффектами и яркими прожекторами, который является одним из самых красивых в игре. Совершалась короткая пробежка со стрельбой. Пять повторов для уменьшения погрешности. Установлено максимальное качество графики при сглаживании MSAA 8x.

Средний результат по прогонам 12-минутного теста Ambush из Crysis Warhead Benchmarking Tool и дополнительного пятикратного прогона этого теста. Настройки графики максимальные (Enthusiast) под DirectX 10 при сглаживании AA 8x.

Тест проводился в начале уровня «Всего лишь человек». Небольшая пробежка по зоне ограниченной видимости сочеталась с осмотром через прицел дальних объектов (поэтому и выбран столь масштабный уровень). Четыре повтора. Первый режим тестирования — качество графики максимальное при отключенном сглаживании. Второй режим — максимальное качество при MSAA 2x.

Совершалась прогулка по территории первого поселка и окружающим зарослям. Обилие гирлянд и огней в поселке создает значительную нагрузку на видеокарту, поэтому для тестирования и было выбрано это место. Пять повторов. Максимальные настройки качества под DirectX 11, сглаживание MSAA 4x. Пять прогов для более точных результатов.

Четыре прогона стандартного игрового теста производительности. Максимальные настройки качества изображения под DirectX 11 при сглаживании MSAA 4x (FXAA отключен).

Для теста подобрана одна из самых ресурсоемких сцен в фавеле, описанная ранее в обзоре игры . Небольшая пробежка по территории с густой травой и лужами. Пять повторов. Частота кадров измерялась при помощи Fraps. Максимальные настройки детализации и эффектов, освещение HDAO, наивысшее качество тесселяции, сглаживание AA 4x.

Три пятикратных прогона встроенного теста производительности (демо Frontlines). Настройки графики Very High под DirectX 11 без Depth of Field. Дополнительно проведено тестирование при включенном эффекте Depth of Field.

Четыре прогона встроенного теста производительности при максимальном качестве графики в двух режимах, отличающихся настройками сглаживания. Последний параметр связан и с качеством затенения, что в основном и садит производительность. Первый режим предполагает среднее положение ползунка сглаживания (высокое качество), второй — крайнее правое (экстремальное качество).

Ultra-качество при разрешении 2560x1440 и сглаживании AA 4x. Три повтора.

К сожалению, встроенный бенчмарк никак не характеризует реальную производительность в игре. Его можно рассматривать лишь как демонстрацию технологии симуляции волос TressFX. Да и сама эта симуляция в тесте используется не на максимуме, в игре есть и более сложные сцены, когда на волосы воздействует сильный ветер или вода. Поэтому мы отказались от встроенного теста и для сравнения производительности использовали вступительную сцену в самом начале игры: Лара барахтается в волнах, выбирается на берег и наблюдает спор товарищей, после чего неизвестный оглушает героиню. Четыре повтора этого эпизода. Тестирование в двух режимах: максимальное качество графики со сглаживанием FXAA, аналогичные настройки при активации TressFX. Отметим, что включены все дополнительные визуальные эффекты.

Использовался встроенный тест производительности. Настройки графики установлены на максимум, плюс активированы все дополнительные возможности рендеринга для DirectX 11, которые сама игра не включает при выборе максимального качества. Поэтому наши настройки обозначены как Ultra+. Тестирование проводилось при сглаживании MSAA в режиме 4x. Настройки проиллюстрированы на нижнем скриншоте.

War of the Roses

Запускался последний уровень тренировки и замерялся fps, пока камера облетала поле боя. Наиболее тяжелыми для видеокарт являются сцены на закате, поэтому и был выбран данный эпизод. Продолжительность тестовой сцены 47 секунд, она повторялась четыре раза. Настройки графики максимальные под DirectX 11, SSAO и FXAA активны.

Witcher 2: The Assassins of Kings Enhanced Edition

Тестирование проводилось при максимальных настройках качества без активации «запредельного качества» в разрешении 2560x1440. В этой игре некоторые параметры при выборе максимального профиля настроек можно поднять еще выше. Поэтому приводим скриншот этих настроек.


Дополнительно проводилось сравнение производительности при идентичных настройках с включением параметра «запредельного качества» в разрешении 1920x1080.

World of Tanks

Тестирование проводилось путем проигрыша небольшой записи, отрезка длительностью 42 секунды на карте «Заполярье». Частота кадров измерялась Fraps. Настройки графики максимальные, самое высокое качество сглаживания FXAA. Четыре повтора.

Тестирование на профиле Extreme, который предполагает использование разрешения 1920x1080.

Последний бенчмарк от Futuremark, использующий возможности DirectX 11. Кроме стандартного режима 1920x1080 у него предусмотрен режим Extreme с разрешением 2560x1440. Мы провели тестирование в обоих.

Энергопотребление

Для комплексной оценки энергопотребления замеры производились в нескольких играх:

  • Metro 2033 (без DOF);
  • Sleeping Dogs (при высоком качестве сглаживания);
Измерения проводились прибором Cost Control 3000. В расчет брались самые высокие показания во время прохождения тестов, на основе которых рассчитывалось среднее значение.Результаты тестирования



Игра всегда отличалась любовью к графическим продуктам AMD. В высоком разрешении GeForce GTX 680 и вовсе выглядит печально, проигрывая 23-46% даже простому Radeon HD 7970. Постоянные читатели нашего сайта помнят о замеченной нами странной особенности, когда после сворачивания и разворачивания игры на видеокартах NVIDIA fps повышался на 5-10%. Это актуально и поныне. Но даже если прибавить эти несколько процентов к приведенным результатам, то глобально ничего не изменится.



Иная ситуация в третьей части Assassin’s Creed . Тут явное преимущество на стороне GeForce GTX 680. Даже высокочастотный Radeon HD 7970 GHz Edition слабее конкурента от NVIDIA. При разгоне последний сохраняет свое лидирующее положение.



В преимущество GeForce GTX 680 над простым Radeon HD 7970 в 9-12%. Высокие частоты помогают GHz Edition обойти конкурента, но лишь на 1-2%. При разгоне соперники практически равны, мизерное преимущество у GeForce GTX 680.



Мощно выглядит GeForce GTX 680 в свежем Bioshock, который, кстати, поставляется с некоторыми видеокартами AMD. В номинале видеоадаптер зеленых на 7-10% производительнее Radeon HD 7970 GHz Edition и на 18-20% быстрее простого Radeon HD 7970.



Из-за обработки PhysX на процессоре в системы с Radeon демонстрируют существенные просадки частоты кадров вплоть до 20 fps. По этому параметру GeForce GTX 680 выигрывает более 50%. А вот по средней частоте кадров разница не столь критична, Radeon HD 7970 GHz Edition уступает лидеру лишь 1%.



В Black Ops 2 снова лидирует GeForce GTX 680, обгоняя старший Radeon примерно на 3%. Младший HD 7970 уступает своему собрату 10-11%.



В Warhead мы видим примерное равенство между Radeon HD 7970 и GeForce GTX 680, хотя в 1920x1080 небольшое преимущество всегда было у последнего. Лидирует Radeon GHz Edition, обгоняя остальных участников на 8-12%. При разгоне разница между видеоадаптерами 6-9% в пользу представителя AMD.



выводит на первое место Radeon HD 7970 GHz Edition, но на пятки ему наступает GeForce GTX 680, уступая лишь 3%. Между двумя Radeon разница в 11-12%. При разгоне на первое место с мизерным отрывом выходит GeForce GTX 680.


При включении сглаживания никто из участников не может обеспечить достаточный уровень производительности.



В лидирует Radeon HD 7970 GHz Edition. GeForce GTX 680 равен простому Radeon по минимальному fps, но чуть хуже по среднему параметру. Со старшим конкурентом у них разница в 13%. В разгоне тоже лидирует красный флагман.



Последняя часть Hitman предпочитает решения AMD. Так что GeForce GTX 680 в роли аутсайдера, проигрывая 16-19% простому Radeon HD 7970. Даже при разгоне он немного не дотягивает до уровня Radeon HD 7970 GHz Edition на заводских частотах.



В младший Radeon HD 7970 уступает GeForce GTX 680 4,5% по минимальному fps, но обгоняет на 1% по среднеигровой частоте кадров. При разгоне преимущество 5-10% на стороне видеоадаптера AMD.



В равенство у Radeon HD 7970 и GeForce GTX 680, на 11% их обгоняет Radeon HD 7970 GHz Edition. В разгоне GeForce GTX 680 уступает конкуренту почти 10%.


При активации Depth of Field никто из участников не может выдать комфортный уровень fps. Хотя максимально разогнанный Radeon рубеж в 30 fps преодолевает.




Еще одна игра, в которой уверенно лидируют видеокарты AMD. GeForce GTX 680 в приходится довольствоваться последним местом во всех режимах. При максимальном качестве сглаживания и затенения он даже не может выдать приемлемую частоту кадров, а вот разогнанный Radeon с этой задачей легко справляется. Хотя, как мы не раз отмечали ранее, между старшими режимами сглаживания разница очень мизерная и слабо заметная. Так что и владельцы GeForce смогут комфортно поиграть в игру при «высоком» качестве сглаживания и затенения без потерь в качестве картинки.



Значительный отрыв у GeForce GTX 680 по минимальному fps. И если Radeon HD 7970 GHz Edition по среднему значению обходит конкурента на 2%, то по минимальному параметру хуже на 18%. Простой Radeon слабее собрата на 11-12%.




В обоих режимах уверенно лидируют видеокарты AMD. GeForce GTX 680 слабее даже простого Radeon HD 7970, причем без активации TressFX видеоадаптеру NVIDIA нужен разгон, чтобы обеспечить достаточный уровень производительности в игре с разрешением 2560x1440. При включении TressFX без разгона ни один из участников не обеспечит комфорта в игре. И при повышенных частотах на Radeon HD 7970 наблюдаются значительные просадки производительности.




В «Ведьмаке 2 » лидирует Radeon HD 7970 GHz Edition. Его младший собрат слабее на 10-13%. GeForce GTX 680 выигрывает у него 1-5%.


В более тяжелом режиме GeForce сохраняет преимущество по минимальному fps над Radeon HD 7970. При разгоне по этому параметру соперники снова равны. При «запредельном качестве» даже в разрешении 1920x1080 видеокартам очень трудно обеспечить достойный уровень производительности, просадки fps весьма существенные. Фактически, поиграть в таком режиме на них удастся лишь при разгоне.

В номинале GeForce GTX 680 на 1,5% лучше Radeon HD 7970 GHz Edition и на 13% быстрее его младшего собрата. При разгоне преимущество видеоадаптера NVIDIA на уровне 4%.




Немного неожиданный результат в сравнении с предшественником. Теперь GeForce GTX 680 проигрывает даже простому Radeon HD 7970 от 3% до 5%. У GHz Edition преимущество 13-15%. Между разогнанными соперниками в разрешении 1920x1080 разница 12%, в 2560x1440 — 11%.

Энергопотребление


GeForce GTX 680 экономичнее простого Radeon HD 7970 и уж тем более старшей его версии с частотами 1050/6000 МГц. Конечно, стоит помнить, что участие в сравнении принимал не референсный адаптер AMD, а MSI R7970 Lightning . С его более сложной схемотехникой и многофазным питанием он теоретически может быть более прожорливым в сравнении с обычной картой HD 7970. Изначально завышенный Power Limit у Lightning тоже может оказать влияние на конечные результаты. Впрочем, общая тенденция в любом случае видна, и все предыдущие наши тестирования не раз подтверждали более низкое энергопотребление GeForce GTX 680, особенно в разгоне.

Выводы

Теперь попытаемся обобщить и систематизировать полученные данные. Для начала оценим расстановку сил в номинале. Из 22 тестовых приложений GeForce GTX 680 уверенно обгоняет Radeon HD 7970 в 12. Еще в 4 играх можно говорить о примерном равенстве (Warhead, Far Cry 3, Max Payne 3), если не брать в расчет самые тяжелые режимы (Metro 2033). И лишь в оставшихся 6 приложениях выигрывает представитель AMD. Так что в общем зачете GeForce GTX 680 выходит мощнее, хотя очень веским его преимущество нельзя назвать. Тем более что есть такие игры как Tomb Raider или Hitman, где видеоадаптер NVIDIA выглядит очень хило на фоне конкурента. В более низком разрешении ситуация для GeForce GTX 680 складывалась в некоторых приложениях получше. В качестве примера можно вспомнить Crysis: Warhead, в котором мы всегда наблюдали преимущество над Radeon HD 7970 в 1920x1080, а при 2560x1440 конкуренты уже равны. Но все сказанное касается лишь сравнения с простым Radeon HD 7970. Версия GHz Edition благодаря повышенных частотам прочно занимает место лидера, демонстрируя преимущество над соперником NVIDIA в 12 приложениях из 22. Еще в двух случаях отставание обновленного Radeon минимально.

В разгоне Radeon HD 7970 одерживает победу над GeForce GTX 680 в 10 тестовых приложениях. В двух играх (Battlefield 3 и Crysis 3) можно говорить об относительном равенстве, потому как преимущество GeForce в них мизерное. В итоге имеем паритет между конкурентами. Довольно хороший для NVIDIA результат, если вспомнить, что их референс сравнивался с оверклокерской версией Radeon HD 7970. Впрочем, для флагмана AMD возможны еще более высокие частоты, если речь будет идти о топовых видеокартах на базе реального GPU Tahiti новой ревизии. GeForce же может похвастать более низким энергопотреблением, особенно в режиме разгона.

Что касается преимущества Radeon в объеме видеопамяти, то даже в разрешении 2560x1440 третий гигабайт погоды не делает. За все время тестирования мы не видели пиковую кратковременную загрузку свыше 2,1 ГБ. На GeForce эти значения еще меньше. Так что объем видеобуфера пока еще не является ограничителем мощности для старших видеоадаптеров NVIDIA. Но в мультимониторных конфигурациях это может стать очень актуальным.

В нынешнем поколении видеокарт сложилась довольно непростая ситуация, когда в отдельных приложениях мы наблюдаем диаметрально противоположные результаты. Все дело в оптимизации под какие-то конкретные графические решения. С момента старта продаж Radeon HD 7970 позиции этой видеокарты во многом укрепились благодаря развитию партнерской программы AMD Gaming Evolved. Мы получаем все больше игр оптимизированных под графические решения Radeon. Одним из элементов такой оптимизации является продвижение OpenCL (в котором не сильны GeForce) для реализации дополнительных физических расчетов или линзовых визуальных эффектов. NVIDIA со своей стороны тоже продолжает сотрудничество с разработчиками. В итоге часто получается не столько противостояние реальных вычислительных мощностей, сколько противостояние «оптимизаций». Для старших видеокарт ничего страшного в этом нет, и добиться комфортной производительности всегда можно при понижении отдельных параметров, не особо критичных для общего качества изображения.

Оборудование для тестирования было предоставлено следующими компаниями:

  • ASUS — монитор ASUS PB278Q, материнская плата Rampage IV Formula/Battlefield 3, видеокарта GTX680-2GD5;
  • MSI — видеокарта R7970 Lightning;
  • Intel — процессор Intel Core i7-3930K и накопитель SSD 520 Series 240GB;
  • Kingston — комплект памяти Kingston KHX2133C11D3K4/16GX;
  • Syntex — блок питания Seasonic SS-750KM;
  • Thermalright — Thermalright Venomous X.

High-End производительность в массы

Наиболее мощные и совершенные графические решения в мире ПК всегда были непозволительно дорогими для большей части энтузиастов, к сожалению. Конечно, чтобы разработать и выпустить новое и лучшее "железо", производителям приходится тратить немало денег. Поэтому они "отбивают" вложенные затраты на дорогих моделях комплектующих для тех, кто желает рано приобщиться к передовым технологиям. Всегда найдутся богатые геймеры, кто заплатить за дорогую игрушку, невзирая на её цену. Но большинство геймеров всё же выжидает, пока на рынке не появится "железо" второй или даже третьей волны, которое может не давать такую же высокую производительность, зато продаётся намного дешевле. Впрочем, в некоторых случаях этих волн не происходит.

В первые годы 3D-ускорителей производители видеокарт предлагали очень скудный ассортимент. Каждый производитель выпускал только один вариант 3D-процессора, причём цену за него запрашивали немаленькую. Чтобы играть на компьютере, вам приходилось тратить немало денег на 3D-ускоритель, либо вы не могли нормально играть в требовательные игры.

Nvidia стала первой компанией, которая изменила это положение: она взяла топовый GPU, немного его урезала, после чего продавала по намного меньшей цене, чем топовую модель. nVidia пошла таким путём с момента выхода видеокарты GeForce 2 MX, которая обеспечивала такой же набор функций, что и high-end GeForce 2, а также давала разумный уровень производительности, но стоила вполне доступно. Внезапно обычные геймеры получили шанс доступной игры на ПК. И карты продавались, как горячие пирожки.

С тех пор пошла традиция выпуска доступных и мощных карт, которые бы работали не особо хуже топового предшественника. Среди таких карт можно отметить GeForce 4 Ti 4200, Radeon 9500 Pro, GeForce 6600 GT, GeForce 7600 GT, Radeon X1900 Pro, GeForce 8800 GT и Radeon 4850.

Чуть больше истории

Давайте внимательнее присмотримся к видеокарте GeForce 8800 GT. Будучи выпущенная ещё в октябре 2007 года, она продолжает оставаться весьма мощной моделью даже через год после своего представления. GeForce 8800 GT оказалась настолько успешной, что вместо объявления нового недорогого варианта на основе новейший архитектуры, nVidia продлила ей жизнь, добавив поддержку HybridPower и продавая видеокарты уже под названием GeForce 9800 GT. (Честно говоря, обидно, что после того, как видеокарты GeForce GTX 260 и 280 продемонстрировали очень низкое энергопотребление в режиме бездействия, компания решила отойти от технологии HybridPower, начиная с чипсета GeForce 9300 ). Уже больше года 8800 GT/9800 GT царствует в своём ценовом сегменте. На данный момент, по цене $120-130 (3400-3800 руб. в России), это одна из самых дешёвых видеокарт, которую вы можете взять для игры на высоких разрешениях.

Но ничего не бывает вечным. AMD не сидела, сложа руки, и с удовольствием предложила конкурента 9800 GT. Компания взяла очень успешный графический процессор RV770, который используется в флагманской видеокарте Radeon 4870, урезала его немного, после чего представила за треть цены от high-end модели. Новая видеокарта, как вы догадываетесь, была названа Radeon 4830, но сможет ли она отобрать рынок у проверенной 9800 GT?

Присмотримся повнимательнее

Наверняка все знают о том, что Radeon HD 4870 и Radeon HD 4850 используют графический процессор RV770. Мы уже детально рассматривали архитектуру линейки Radeon 4800 в статье "ATI Radeon HD 4850: лучшее соотношение цена/ производительность ", поэтому здесь мы повторяться не будем. Но, чтобы освежить вашу память, напомним, что чип RV770 обеспечивает 800 потоковых процессоров, 40 текстурных блоков и 16 блоков растровых операций (ROP) вместе с 256-битной шиной памяти. Обе видеокарты Radeon HD 4870 и 4850 построены на базе одинакового графического процессора, хотя более скоростная модель 4870 работает на более высоких тактовых частотах и оснащается более скоростной памятью GDDR5 по сравнению с видеокартой 4850.

Однако новая Radeon 4830 немного отличается. Графический процессор уже называется RV770LE. Что интересно, это не новый чип - перед нами прежний 55-нм GPU RV770, но с некоторыми выключенными блоками. Вместо 800 потоковых процессоров чип RV770LE обеспечивает 640. Вместо 40 текстурных блоков RV770LE даёт 32. К счастью, AMD сохранила все 16 блоков растровых операций, как и в оригинальном RV770, поэтому GPU сохранил ряд своих сильных сторон.

Всё остальное не изменилось, поэтому все функции Radeon HD 4870 и 4850 присутствуют и в 4830: Unified Video Decoder 2.0, передача звука 7.1 через HDMI, DirectX 10.1, Shader Model 4.1, поддержка CrossFireX и PCI Express (PCIe) 2.0. Давайте посмотрим на сравнительную таблицу моделей 4800.

Сравнительная таблица видеокарт линейки Radeon 4800
Видеокарта Radeon 4830 Radeon 4850 Radeon 4870
GPU RV770LE RV770 RV770
Техпроцесс 55 нм 55 нм 55 нм
Число потоковых процессоров 640 800 800
Число текстурных блоков 32 40 40
Число ROP 16 16 16
Ширина шины памяти (биты) 256 256 256
Частота ядра (МГц) 575 625 750
Частота памяти (МГц) 900 (1800 DDR) 993 (1986 DDR) 900 (3600 DDR5)
DirectX /Shader Model DX 10. 1 / SM 4. 1 DX 10. 1 / SM 4. 1 DX 10. 1 / SM 4. 1

Как можем видеть, тактовые частоты новой 4830 относительно близки к 4850, они отстают на 50 МГц по ядру и на 93 МГц по памяти. С меньшим числом потоковых процессоров и меньшей частотой Radeon HD 4830, возможно, после разгона сможет дать производительность на уровне "старших" моделей. С положительной стороны отметим, что графический процессор R770 был разработан с учётом высоких тактовых частот, так что у RV770LE должен быть определённый потенциал разгона.

Также позвольте провести быстрое сравнение спецификаций новой 4830 и её конкурента - GeForce 8800 GT/9800 GT.

Сравнение Radeon 4830/GeForce 9800 GT
Видеокарта Radeon 4830 GeForce 8800 GT/9800 GT
GPU RV770LE G92
Техпроцесс 55 нм 65 нм
Число потоковых процессоров 640 128
Число текстурных блоков 32 56
Число ROP 16 16
Шина памяти (биты) 256 256
Частота ядра (МГц) 575 600
Частота памяти (МГц) 900 (1800 DDR) 900 (1800 DDR)
DirectX /Shader model DX 10. 1 / SM 4. 1 DX 10. 0 / SM 4. 0

Поскольку G92 немного старее, графический процессор изготавливается по 65-нм техпроцессу по сравнению с 55-нм техпроцессом у 4830. Это может дать 4830 преимущество по энергопотреблению, меньшим температурам и по потенциалу разгона.

Если посмотреть на число потоковых процессоров, то может показаться, что 4830 в пять раз мощнее 8800 GT. Но это не так, поскольку архитектуры 8800 GT и 4830 значительно отличаются. Мы знаем, что 128 потоковых процессоров у GeForce 9800 GTX+ позволяют этой видеокарте работать на уровне, примерно соответствующем Radeon 4850 с 800 потоковыми процессорами. С учётом сказанного, 8800 GT и Radeon 4830 должны давать примерно равную производительность блоков шейдеров. С другой стороны, у 8800 GT почти в два раза больше текстурных блоков по сравнению с 4830. Но, опять же, две видеокарты имеют серьёзно различающиеся архитектуры, поэтому не ждите какой-либо колоссальной разницы. Всё остальное выглядит примерно одинаково: 16 блоков растровых операций, 256-битная шина памяти и 900-МГц память GDDR3 у обеих видеокарт.

Важно отметить, что в данном обзоре мы сравнивали Radeon HD 4830 не против эталонной 8800/9800 GT, а против Gigabyte 8800 GT TurboForce с заводским разгоном. Данная видеокарта получила существенный прирост в частоте GPU 100 МГц - он работает на 700 МГц по сравнению со штатной частотой 600 МГц, а память разогнана на 20 МГц - 920 МГц по сравнению со штатной частотой 900 МГц. Мы намеренно усложнили условия для AMD, поскольку на рынке продаётся очень много разогнанных видеокарт 9800 GT по той же цене, что и 4830, поэтому новой 4830 придётся нелегко.

Теперь, когда вы получили представление о характеристиках Radeon HD 4830 и о том, как видеокарта выглядит по сравнению с конкурентами, позвольте представить две модели от PowerColor и Sapphire.


Видеокарта PowerColor 4830 поставляется в привлекательной упаковке с некоторыми бонусами. В комплект поставки входит видеокарта, CD с драйверами и инструкция. Но перед тем, как вы начнёте жаловаться насчёт отсутствия переходников, внимательнее посмотрите на порты видеокарты.

Видеокарте не нужны переходники, поскольку на планке вы найдёте выходы DVI, HDMI и аналоговый VGA. С одной стороны, конечно, всегда приятно найти видеокарту, которой не требуются все эти досадные переходники для разных выходов, но, с другой стороны, не менее досадно покупать переходник HDMI-to-DVI, если требуется подключить второй монитор через DVI. Кроме того, выхода S-Video или компонентного не предусмотрено. Впрочем, PowerColor всё же можно похвалить за видеокарту, которой не требуются переходники.

Единственным настоящим нареканием можно назвать отсутствие в комплекте поставки мостика CrossFire. Если вы купите ещё одну видеокарту PowerColor Radeon HD 4830, то вы не сможете задействовать режим CrossFire без мостика. Конечно, мостик можно купить отдельно, но найти его в продаже сложно.

PowerColor 4830 близка по спецификациям к эталонной плате AMD 4830, хотя имеет существенные отличия - наиболее бросается в глаза двухслотовый кулер GPU. Конечно, этот кулер не может выбрасывать горячий воздух за пределы корпуса, но, как можно предположить, он эффективно охлаждает графический процессор RV770LE.

Чипы видеопамяти закрыты двумя распределителями тепла. Часть чипов памяти располагается под кулером GPU (хотя некоторые чипы находятся чуть дальше от кулера), поэтому данные радиаторы являются интересным средством минимизации температур чипов памяти, а также, возможно, и окружающего пространства. К сожалению, распределители тепла приклеены, что нельзя назвать нашим любым способом крепления при таком размере, но с работой они справляются нормально.

Под распределителями тепла находятся модули памяти GDDR3 Qimonda HYB18H512321BF-10, штатные спецификации для которых составляют 1000 МГц. Память по умолчанию работает на частоте 900 МГц, то есть ниже штатных, поэтому у нас оставалась надежда разгона. Фактически, та же самая память используется на видеокартах Radeon HD 4850, где она работает на штатной частоте 993 МГц.

Говоря о тактовых частотах, видеокарта PowerColor работает на штатных 575 МГц для ядра и 900 МГц для памяти в 3D-режиме. В 2D-режиме видеокарта чуть менее эффективна, поскольку частоты снижаются до 453 МГц для ядра и 750 МГц для памяти.

Вариант Sapphire 4830 поставляется в небольшой коробке, но набор аксессуаров довольно богатый.

Взяв подход, противоположный модели PowerColor, Sapphire включила в комплект поставки своей 4830 большое количество переходников, чтобы вы могли использовать разные выходы по своему желанию. На слотовой заглушке самой карты установлено два DVI-выхода, дополненные выходом S-Video, но есть переходники на VGA, HDMI, композитный видео и даже компонентный видео. Эти опции обеспечивают достойный уровень гибкости для владельцев старых HDTV, у которых нет цифровых входов.

Кроме переходников видео, карта поставляется с инструкцией пользователя и CD с драйверами. В качестве ещё одного дополнительного бонуса есть переходники питания с вилок Molex на PCIe, которые будут полезны владельцам старых блоков питания. К сожалению, Sapphire тоже не вложила мостик CrossFire в комплект поставки. Это немного разочаровывает, учитывая, что все другие аксессуары Sapphire присутствуют.

Плата Sapphire тоже отличается от эталонного дизайна AMD 4830. Как и PowerColor 4830, плата Sapphire использует большой двухслотовый кулер вместо эталонной системы охлаждения. Опять же, такой кулер должен обеспечить более высокую эффективность охлаждения и меньший шум от вентилятора.

Используемая память DDR3 Qimonda HYB18H512321BF-10 заявлена на частоте 1000 МГц - это та же самая память, что устанавливается на видеокарту PowerColor 4830. Sapphire решила игнорировать радиаторы или распределители тепла для чипов памяти, и мы не думаем, что возникнут какие-то проблемы, поскольку память работает на 100 МГц ниже своего номинала.

Тактовые частоты в 3D-режиме соответствуют эталонным для Radeon 4830, то есть 575 МГц для ядра и 900 МГц для памяти. Что интересно, Sapphire выбрала очень маленькие частоты в режиме 2D, чтобы сэкономить энергию и снизить тепловыделение: всего 160 МГц для ядра и 250 МГц для памяти.


Сначала хотелось бы ещё раз напомнить, что мы использовали для тестов не эталонные видеокарты 8800/9800 GT, а разогнанные на заводе Gigabyte 8800 GT TurboForce Edition. Заводской разгон графического процессора составляет 100 МГц - то есть до уровня 700 МГц, а памяти - 20 МГц, до уровня 920 МГц, соответственно. Видеокарты Gigabyte 8800 GT используют один из самых серьёзных заводских разгонов для 8800/9800 GT.

Поскольку мы тестировали конфигурации SLI и CrossFire с двумя видеокартами, мы не смогли использовать одинаковую платформу для видеокарт обоих производителей. Единственная платформа, которая сертифицирована сразу под SLI и CrossFire - новая Intel Core i7 на чипсете X58. Поскольку эту платформу получить по-прежнему сложно, для тестов CrossFire мы взяли материнскую плату DFI Lanparty на X38, а для тестов SLI - MSI P7N Platinum.

Возникла небольшая проблема, поскольку чипсет Intel X38 даёт полную пропускную способность x16 PCIe 2.0 для обоих графических слотов в режиме CrossFire. К сожалению, чипсет nVidia 750i позволяет использовать полную пропускную способность 16x PCIe 2.0 только для одной видеокарты, а если установить две видеокарты в режиме SLI, то каждой отведётся только пропускная способность 8x PCIe 2.0.

Однако, никакой проблемы на самом деле нет. Чипсет 750i поддерживает стандарт PCIe 2.0, и два слота 8x PCIe получают достаточную пропускную способность для конфигурации SLI из двух 8800 GT. В недавней статье "PCI Express и CrossFire: оценка масштабируемости и эффективности апгрейда " мы показали, что даже две мощные видеокарты Radeon HD 4870 не упираются в пропускную способность 8x PCIe 2.0 для каждой из них по сравнению с вариантом 16x PCIe 2.0 для каждой видеокарты. В общем, поскольку обе материнские платы поддерживают стандарт PCIe 2.0, ощутимой разницы в производительности мы не получим.

Более того, чипсет Nvidia 750i имеет намного больший смысл в сравнении с материнской платой на X38, если принять во внимание цены. Действительно, материнские платы на обоих чипсетах начинаются от $160. Если взять самые дешёвые модели с двумя слотами 16x PCIe 2.0 SLI, а именно на чипсете 780i, то цены будут составлять от $200 до $300, так что 750i - намного более реалистичный вариант с нашим бюджетом.

Учитывая всё сказанное, видеокарты Radeon HD 4830 мы тестировали на материнской плате DFI Lanparty X38, а видеокарты GeForce 8800 GT - на MSI P7N Platinum 750i. Обе материнские платы оснащались одинаковым процессором 8500 и памятью PNY DDR2. Мы поочерёдно меняли одиночные видеокарты 8800 GT и 4830 между двумя материнскими платами, после чего проводили тесты, чтобы убедиться, что результаты будут идентичны на обеих платформах.

Видеокарты PowerColor Radeon HD 4830 и Sapphire Radeon HD 4830 работают на одинаковых тактовых частотах, и в нашем тестировании мы быстро выявили, что они дают одинаковые результаты. Поэтому, чтобы уменьшить путаницу в тестовых диаграммах, мы привели там только одного представителя Radeon HD 4830 для конфигураций с одиночной видеокартой и CrossFire. Исключением, конечно, стали тесты разгона и уровня шума, где мы тестировали карты по отдельности.

Теперь позвольте представить конфигурацию тестовых систем.

Аппаратная конфигурация
Комплектующее Система CrossFire Система SLI
CPU Intel Core 2 Duo E8500, 3,16 ГГц, FSB-1333, кэш 6 Мбайт
Кулер CPU Xigmatek HDT-S1283
Материнская плата DFI Lanparty X38, Intel X38, BIOS 6. 00 (10/03/2008), напряжение северного моста: 1,30 В MSI P7N Platinum, Nvidia 750i, BIOS 1. 2 (7/11/2008)
Память 4,0 Гбайт PNY XLR8, 2x 2048 Мбайт, DDR2-800, CL 4-4-4-12 на 1,80 В
Видеокарты Radeon 4830, RV770LE GPU , 575 МГц, 512 Мбайт GDDR3 900 МГц Gigabyte GeForce 8800 GT, Nvidia G92 GPU, 700 МГц, 512 Мбайт GDDR3 920 МГц
Жёсткие диски Western Digital Caviar black 640GD, 640 Гбайт, 7200 об/мин, кэш 32 Мбайт
Звук Встроенный
Сеть Встроенная 1 Гбит/с
Блок питания Antec Neo 650 Вт, ATX 12 V/EPS 12 V, 57 A по трём линиям 12 В
Оптический привод LITE-ON 20X DVD+R SATA Model iHAS120-04
ПО и драйверы
ОС Windows Vista Ultimate 32-bit, SP1
Графический драйвер Catalyst 8. 10 32-bit Edition Nvidia Forceware 180. 48

Теперь, когда вы получили представление о конфигурации используемых систем, позвольте представить тесты и их настройки, после чего мы перейдём к рассмотрению результатов тестирования.

Тесты и настройки

Тесты и настройки
Version: 1. 2. 1
Video Quality: Very High Details
Demo: CPU-Benchmark + Tom"s Hardware Tool
Version: 1. 0. 0
Video Quality: Ultra High
Demo: FC2 benchmark Tool
Version: 1. 5. 3599
Video Quality: Highest Settings
Demo: WallaceTX_006_006
Benchmark: Fraps 2. 9. 4-Build 7037
Version: 1. 0. 0. 9
Video Quality: Very High details
Demo: Game-Benchmark
Version: 1. 0
Highest Details
Gameplay: Detroit Pro-tuned race, rear starting position
3DMark Vantage Version: 1. 02

Результаты тестов

Для начала давайте посмотрим на результаты производительности 3DMark Vantage. Перед рассмотрением результатов следует помнить, что мы отключали оптимизации nVidia PhysX для тестового прогона. Дело в том, что они дают видеокартам nVidia просто нереалистичный прирост производительности, который в реальности наблюдается на считанном количестве игр. Возможно, ситуация изменится, поскольку компания объявила о более тесном сотрудничестве с разработчиками игр. Но на данный момент искусственный подъём результатов nVidia не соответствует тому, что мы получаем в реальности.

Как можно видеть, производительность Radeon HD 4830 и GeForce 8800 GT очень близка. Оптимизация CrossFire и SLI очень схожа с одной видеокартой Radeon HD 4870 X2 в прогоне Performance с низким разрешением, но если повысить детализацию и разрешение в прогоне Extreme, то конфигурации 4830 CrossFire и 8800 GT SLI существенно отстают.

3DMark, в лучшем случае, даёт "среднюю температуру по больнице", если сравнивать с тем, какую производительность обеспечивают видеокарты в реальных играх. Тесты 3DMark демонстрируют, что Radeon HD 4830 и GeForce 8800 GT дают вполне конкурентоспособную производительность, включая конфигурации с двумя видеокартами. Ожидая получить в играх такую же картину, давайте перейдём к результатам в играх.

"Тяжёлые" шутеры от первого лица, подобные Crysis, существенно зависят от графической производительности, чтобы обеспечивать плавную игру. Давайте посмотрим, как видеокарты справляются с шутерами, начиная с Crysis.

Никогда ещё результаты не были столь близкими. 4830, похоже, соответствует разогнанной 8800 GT в конфигурациях с одной и двумя видеокартами. Мы видим небольшое преимущество 8800 GT в режиме SLI, но поскольку эта конфигурация обогнала даже Radeon HD 4870 X2, мы можем предположить, что производительность упирается в CPU.

Конечно, большая часть результатов имеет чисто академическое значение, поскольку ни одна из рассматриваемых видеокарт не смогла дать нормальное разрешение при очень высоких настройках, если только не использовалась конфигурация SLI или CrossFire. Но даже тогда производительность в 1680x1050 можно назвать едва приемлемой. Видно, что на высоких разрешениях Radeon HD 4870 X2 просто непобедима.

Давайте посмотрим, что случится, если мы добавим 4x сглаживание (AA) и 8x анизотропную фильтрацию (AF).

Здесь мы видим, что Radeon HD 4830 удалось обойти 8800 GT. Но, опять же, результат тоже академический, поскольку играть на таких настройках не получится. Даже конфигурация на двух видеокартах справляется с игрой только в разрешении 1280x1024. Radeon HD 4830, похоже, даёт твёрдый отрыв от 8800 GT, причём в данном случае мы не можем винить меньшую пропускную способность PCIe у SLI чипсета 750i, поскольку в конфигурациях с одной видеокартой никаких проблем не возникало.

Однако результаты весьма загадочные, поскольку мы ожидали, что GeForce 8800 GT обойдёт 4830 в Crysis - традиционно эта игра склоняется в пользу архитектуры GeForce. По этой причине мы провели тесты ещё раз, используя только одиночные видеокарты, причём уровень детализации мы выбрали "High" вместо Very High, а сглаживание AA мы не активировали.

При снижении детализации (в таком режиме тестируют игру наиболее часто) GeForce 8800 GT демонстрирует свою силу. Похоже, у Radeon HD 4830 есть больший потенциал по работе со сложными шейдерами, когда нагрузка на видеокарту очень большая. Но стоит немного снизить детализацию, как 8800 побеждает в Crysis.

Стоит заметить, что в Crysis можно играть с одиночными видеокартами 4830 или 8800 GT на низких значениях детализации. Как показывает наш опыт, ещё более сильное снижение уровня детализации позволяет играть в Crysis на этих видеокартах даже в разрешении 1920x1200.

Теперь перейдём к следующему шутеру, более новой игре Far Cry 2.

Без сглаживания AA мы видим, что конфигурации 4830 или 8800 GT с двумя видеокартами дают внушительный результат, производительность сравнима с Radeon HD 4870 X2 вплоть до разрешения 1680x1050. Это говорит о том, что если вы играете на мониторе с разрешением 1650x1080 и не используете сглаживание, то тратить деньги на 4870 X2 незачем.

Что касается битвы 4830 против 8800 GT, то мы ещё раз наблюдаем близкие результаты. 8800 GT, похоже, имеет небольшое преимущество в режиме SLI на низких разрешениях, но это преимущество исчезает и даже теряется при подъёме разрешения до 1920x1200.

Следует отметить, что даже при самых максимальных настройках детализации, в Far Cry 2 можно играть даже на одиночных видеокартах. Движок Far Cry 2 выглядит великолепно, но он, похоже, более "дружественен" к "железу", чем движок Crysis.

Теперь давайте посмотрим, что произойдёт, если мы включим 4x AA.

Увеличение визуального качества с помощью сглаживания приводит к более-менее таким же результатам, оба лагеря дают схожую производительность. На самом деле, приемлемым здесь является только разрешение 1280x1024 как на 4830, так и на 8800 GT, в конфигурациях с одной видеокартой и с двумя.

Supreme Commander давно имеет репутацию серьёзной нагрузки компьютерного "железа", причём игра нагружает как CPU, так и GPU, а расширение Forged Alliance лишь увеличивает нагрузку. К счастью, в стратегиях реального времени не требуется очень уж высоких значений fps, чтобы в игру можно было играть. Учитывая это, давайте посмотрим на результаты тестирования.

Здесь мы можем явно видеть, что производительность упирается в CPU. Похоже, данной игре больше нравятся видеокарты Radeon HD 4830, чем 8800 GT в конфигурациях с двумя GPU. Поскольку ситуация повторяется и в низких разрешениях, скорее всего, данная игра оптимизирована для работы под SLI не лучшим образом.

Посмотрим, к чему приведёт добавление сглаживания 4x AA.

Со сглаживанием AA видеокарты 4830 в режиме CrossFire продолжают бороться за производительность, а две 8800 GT в SLI замедлились до скорости одиночной видеокарты. Опять же, как мы видим, эта игра не очень хорошо оптимизирована под SLI.

Впрочем, включение сглаживания 4xAA вряд ли имеет смысл для одиночных 4830 или 8800 GT в этой игре. Однако 4830 в режиме CrossFire демонстрирует вполне достойный результат, в какой-то степени сравнимый даже с Radeon 4870 X2.

Наша финальная стратегия реального времени World in Conflict обычно упирается в CPU, поэтому мы создали интересную задачу для видеокарт. Скорее всего, мы увидим близкие результаты на всех моделях.

Как и можно было ожидать. Даже конфигурации с одной видеокартой работают на одном уровне с Radeon HD 4870 X2 в данной игре. С положительной стороны отметим, что игру не имеет смысл запускать с разрешением меньше 1920x1200, если только его поддерживает ваш монитор.

Давайте включим 4xAA и посмотрим, смогут ли карты разделиться.

Неудивительно, что наложение сглаживания 4xAA разделило результаты. Radeon HD 4870 X2 остаётся непревзойдённой в этом режиме, а конфигурации с двумя видеокартами работают весьма достойно, в то время как одиночные видеокарты 4830 и 8800 GT испытывают заметное падение производительности. Результаты идентичны между видеокартами AMD и Nvidia. Но в разрешении 1920x1200, две видеокарты 4830 в конфигурации CrossFire немного выходят вперёд.

С положительной стороны отметим, что эта игра вполне позволяет одиночной видеокарте дать нормальную частоту кадров, если только процессор очень мощный. Помните, что перед нами стратегия реального времени, где требуется не такая высокая частота кадров, как в шутерах.

Race Driver GRID, вероятно, наиболее красивая гоночная игра, доступная для ПК, поэтому мы решили добавить её в наш тестовый пакет, чтобы посмотреть на результаты.

Результаты довольно загадочные, поскольку частота кадров у лидеров находится в области 60 кадров в секунду. Обычно так наблюдается, если включена вертикальная синхронизация (Vsync). После повторной проверки мы убедились, что эта опция выключена, поэтому игра, скорее всего, упирается в CPU. В данном случае включение сглаживания AA может дать более значащие результаты.

После включения 4xAA частота кадров снизилась ненамного, но разброс результатов стал сильнее. Конечно, по-прежнему наблюдается узкое место в виде CPU, но в данной игре Radeon HD 4830 смогла немного обогнать GeForce 8800 GT.

Отметим, что GRID является как раз той игрой, где рекомендуется включать сглаживание для получения лучших визуальных результатов. Приятно видеть, что игровой движок с лёгкостью работает на видеокартах, и даже одиночные видеокарты дают приемлемую частоту кадров после включения сглаживания.

Поскольку мы знали, что графический процессор RV770LE на самом деле представляет собой GPU Radeon 4850/4870 с меньшими тактовыми частотами и отключёнными блоками, у нас были большие надежды насчёт разгона Radeon 4830.

Нам нравится удобство утилиты Overdrive в составе Catalyst Control Center, но мы не такие уж любители ограничений по максимальным частотам, которые присутствуют в этой утилите. Поэтому мы установили утилиту Ray Adam Tray Tools, которая обеспечивает большую гибкость разгона.

Начав с видеокарты PowerColor 4830 card, мы увеличили тактовую частоту до тех пор, пока драйвер не стал "вылетать". Частоту удалось поднять до 785 МГц, то есть прирост составил более 200 МГц по сравнению со штатной частотой 575 МГц. И это без увеличения напряжения питания - только увеличение тактовых частот. Для улучшения стабильности мы немного ослабили частоты, при которых мы могли бы оставить видеокарту работать в режиме 24/7 - до 765 МГц.

Память была не такой "сговорчивой", как ядро, она обеспечила нас дополнительными 90 МГц до появления артефактов. Мы остановились на тактовой частоте 980 МГц для памяти, то есть финальный разгон составил 765 МГц для ядра и 980 МГц для памяти по сравнению со штатными 575 МГц для ядра и 900 МГц для памяти.

Ожидая получить схожие частоты, мы установили видеокарту Sapphire 4830. К нашему удивлению, видеокарта Sapphire оказалась несовместимой с Tray Tools, поэтому нам пришлось довольствоваться утилитой AMD Overdrive. Но мы всё равно смогли выжать 690 МГц из ядра, а память оказалась даже более дружественной к разгону - мы смогли разогнать её до 1080 МГц, что на 100 МГц больше, чем позволяет видеокарта PowerColor - и это при условии, что память на видеокарте PowerColor не оснащена радиаторами (именно поэтому радиаторы часто больше затрудняют работу, чем помогают).

После разгона видеокарт PowerColor и Sapphire, мы провели тесты Crysis в режиме High Details. Мы привели результаты двух разогнанных видеокарт, эталонной 4830 на штатных частотах и GeForce 8800 GT с заводским разгоном.

В режиме высокой детализации (High) GeForce 8800 GT с заводским разгоном смогла обойти 4830 со штатными частотами, но разгон 4830 позволил этим видеокартам победить. В случае PowerColor 4830, отрыв в производительности от эталонных частот составил 10 fps, то есть мы получили 30% прирост скорости. Даже разгон видеокарты Sapphire оказался вполне достойным, то есть у видеокарт Radeon 4830, определённо, есть потенциал разгона.

Никому не нужна видеокарта, которая будет реветь под нагрузкой как пылесос, поэтому мы провели измерения уровня шума. К нашему удивлению, карты оказались слишком тихими, чтобы мы измерили шум традиционным образом, сзади корпуса. Поэтому для получения разумных значений нам пришлось открыть корпус и измерять температуру на расстоянии двух с половиной сантиметров (дюйм) от каждой видеокарты. Как мы обнаружили, PowerColor и Sapphire предлагают вполне достойные системы охлаждения на своих видеокартах 4830.

Как можно видеть по результатам тестов, видеокарта PowerColor меняет скорость вращения вентилятора в зависимости от нагрузки, а видеокарта Sapphire заставляет вентилятор вращаться на одной скорости. На диаграмме видна разница, но различия в реальных условиях ничтожны, поскольку ни одна видеокарта не была слышна за пределами корпуса Cooler Master Cosmos-S в обычных условиях.

Наш последний тест касается измерения температуры. Мы знаем, что системы работают тихо, но давайте посмотрим, насколько эффективно охлаждаются видеокарты.

На первый взгляд, видеокарта Sapphire выглядит более эффективным решением в режиме бездействия. Но помните, что видеокарта Sapphire 4830 работает в режиме бездействия всего на частоте 160 МГц для ядра и 250 МГц для памяти, а PowerColor в режиме бездействия работает на 453 МГц для ядра и 750 МГц для памяти. Это приводит к существенному разбросу по температурам в режиме бездействия.

Если нагрузить видеокарты, то разница в температурах оказывается более разумной. При разгоне до 690 МГц, температура обеих видеокарт PowerColor и Sapphire 4830 находилась между 60 и 70 градусами Цельсия, видеокарта Sapphire охлаждалась чуть эффективнее. Это не так существенно, если принять во внимание, что данный графический процессор вполне нормально работает на температурах, как минимум, 90 градусов.

Даже после разгона до 765 МГц по ядру PowerColor 4830 смогла сохранить температуру на уровне ниже 80 градусов Цельсия. Это великолепная температура для нагрузки видеокарты и подобного разгона, то есть графический процессор RV770LE действительно способен справиться с намного более высокими тактовыми частотами, чем штатная 575 МГц.

В нашей статье мы собрали довольно много информации, касающейся Radeon HD 4830. Начнём мы с обсуждения того, насколько данная видеокарта является достойным конкурентом легендарной GeForce 8800/9800 GT. На следующей диаграмме мы не учли конфигурации SLI и CrossFire, чтобы неравное число линий PCIe не влияло на результат (хотя этот параметр практически и не влияет). Ниже приведены результаты сравнения одиночных видеокарт 4830 и 8800 GT.

Результаты тестов показывают очень близкое расположение Radeon HD 4830 и GeForce 8800/9800 GT друг к другу, то есть по одной 3D-производительности выбрать явного победителя сложно. Radeon HD 4830 действительно показывает себя чуть лучше, чем 8800 GT, да и не следует забывать, что наша тестовая видеокарта 8800 GT была разогнана на 100 МГц на заводе. Однако для присуждения звания победителя разница слишком мала. Поэтому мы не можем сказать, что 8800/9800 GT будет плохой покупкой по сравнению с новой 4830.

Если же посмотреть на ситуацию в целом, то 4830 начинает выглядеть в более привлекательном свете. Среди интересных функций отметим передачу HD-звука 7.1 через выход HDMI, прекрасный потенциал разгона и возможность собрать недорогую, но мощную конфигурацию CrossFire на материнской плате P45 (тоже с разумной ценой). Если сочетать эти функции с хорошей производительностью 4830 в играх, то наши рекомендации склоняются в пользу видеокарты от AMD.

Впрочем, стоит сказать, что GeForce 8800 GT и GeForce 9800 GT тоже не стоит списывать со счетов, поскольку сегодня эти видеокарты дают хорошую производительность за свои деньги, особенно если у вас совместимая со SLI материнская плата. Гонка оказалась тесной, в ней победили все, включая и потребителя.

Наконец, давайте оценим два предложения 4830 по отдельности. PowerColor 4830 обеспечивает более высокий потенциал разгона в паре с утилитой Tray Tools, а также предоставляет выходы DVI, HDMI и VGA без нужды в переходнике. Карта также оснащена великолепным и тихим кулером GPU.

С другой стороны, Sapphire 4830 тоже обеспечивает неплохие возможности разгона, многочисленные опции подключения дисплеев (включая DVI, VGA, HDMI, S-video и компонентный видео), низкое тепловыделение и температуру в 2D-режиме из-за агрессивного снижения частот.

Видеокарты PowerColor 4830 и Sapphire 4830 имеют несколько различающийся комплект поставки под разные нужды, но мы можем смело рекомендовать обе модели. Единственным реальным нареканием можно назвать отсутствие мостика CrossFire в комплекте поставки видеокарт - платы поддерживают эту функцию, поэтому мостик должен входить в комплект поставки, на наш взгляд.

В общем, по результатам нашего тестирования Radeon HD 4830 можно назвать прекрасным вариантом за свою цену. Обе модели этой видеокарты от Sapphire и PowerColor мы нашли весьма привлекательными. 8800 GT продолжает жить в виде 9800 GT, но дни доминирования этой видеокарты в своём ценовом сегменте закончились.

На обратной стороне коробки можно более подробно ознакомиться с полным перечнем всех фирменных технологий и утилит компании , которыми оснащена видеокарта, а так же с ее системными требованиями из которых стоит выделить только необходимость минимум 400-ваттного блока питания с возможностью обеспечения от 26 A по цепи 12 В.

Комплект поставки видеокарты:

  • Переходник с 2×Molex на 6-контактный разъем питания видеокарты;
  • Переходник с S-Video на компонентный HDTV;
  • Краткая инструкция по установке;
  • CD-диск с драйверами;
  • CD-диск с электронной версией инструкции пользователя;
  • Переходник с DVI на D-Sub.

Видеокарта оснащена системой охлаждения Accelero L1 производства компании Arctic Cooling, которая в свою очередь занимает одну из лидирующих позиций на рынке производства качественных и эффективных систем охлаждения. Данная система охлаждения состоит из алюминиевого радиатора и тихоходного 80 мм вентилятора. Хотя вентилятор работает достаточно тихо, у него есть существенный недостаток – нет возможности управлять его скоростью. Данное обстоятельство несколько сужает возможности разгона устройства, но так ли это на самом деле покажет тестирование.

Алюминиевый радиатор системы охлаждения имеет довольно внушительные размеры. Его конструкция с многочисленными ребрами и специальными прорезами в его основании внушает доверие. С помощью специальных прокладок радиатор контактирует с пятью из восьми установленных микросхем памяти GDDR3. На наш взгляд конструкцию радиатора можно было бы использовать более эффективно в этом плане и «накрыть» радиатором все микросхемы памяти, но инженерам компании Arctic Cooling виднее. Так же алюминиевым радиатором оснащена трехфазная система питания видеокарты.

Из-за достаточно громоздкой системы охлаждения, видеокарта занимает два слота расширения. Ничего не поделаешь – эффективность требует жертв.

Из выходных разъемов на карте присутствуют два порта DVI и один телевизионный S-Video. Для создания ATI CrossFireX конфигураций на ускорителе имеются два разъема, обеспечивающие подключение соответствующих шлейфов.

Сняв систему охлаждения видеокарты, мы получаем доступ ко всем ее компонентам.

Графический процессор видеокарты изготовлен в Тайване. Он основан на GPU RV770, только количество потоковых процессоров уменьшено с 800 до 640 штук. При этом количество текстурных блоков тоже уменьшено с 40 до 32 шт., а число блоков растеризации (ROPs) осталось неизменным – 16 шт. Чип произведен по 55 нм техпроцессу и содержит 956 млн. транзисторов. Работает GPU на частоте 575 МГц.

На видеокарте распаяно 8 микросхем видеопамяти стандарта GDDR3 производства компании Qimonda. Заявленное время доступа к ним составляет 1 нс., что соответствует эффективной частоте работы памяти 2000 МГц, на которой она и работает. Отметим, что компанией AMD рекомендована чуть меньшая частота – 1800 МГц. Таким образом, инженеры расходовали весь гарантированный потенциал микросхем памяти и представили немножко ускоренную видеокарту. С графическим процессором память обменивается по шине разрядностью 256 бит.

Теперь оценим эффективность системы охлаждения.

При 100% загрузке видеокарты утилитой FurMark в закрытом корпусе, графический процессор нагрелся до 78 градусов по шкале Цельсия. Достаточно высокий нагрев для видеокарты данного уровня, но не будем забывать, что система охлаждения при этом работает практически бесшумно.

Тестирование

Процессор Intel Core 2 Quad Q9550 (LGA775, 2,83 ГГц, L2 12 МБ) @3,8 ГГц
Материнские платы ZOTAC NForce 790i-Supreme (LGA775, nForce 790i Ultra SLI, DDR3, ATX)
GIGABYTE GA-EP45T-DS3R (LGA775, Intel P45, DDR3, ATX)
Кулеры Noctua NH-U12P (LGA775, 54,33 CFM, 12,6-19,8 дБ)
Thermalright SI-128 (LGA775) + VIZO Starlet UVLED120 (62,7 CFM, 31,1 дБ)
Дополнительное охлаждение VIZO Propeller PCL-201 (+1 slot, 16,0-28,3 CFM, 20 дБ)
Оперативная память 2x DDR3-1333 1024 MБ Transcend PC3-10600
Жесткие диски Hitachi Deskstar HDS721616PLA380 (160 ГБ, 16 МБ, SATA-300)
Блоки питания CHIEFTEC CFT-850G-DF (850 Вт, 140+80 мм, 25 дБ)
Seasonic SS-650JT (650 Вт, 120 мм, 39,1 дБ)
Корпус Spire SwordFin SP9007B (Full Tower) + Coolink SWiF 1202 (120×120x25, 53 CFM, 24 дБ)
Монитор Samsung SyncMaster 757MB (DynaFlat, 2048×1536@60 Гц, MPR II, TCO’99)

По результатам тестов, разница в производительности между EAH4830 512 МБ и видеокартой со стандартными частотами совсем незначительна. В большинстве игровых приложений польза от 10% прироста частоты памяти выражается в прибавлении одного-двух кадров в секунду к среднему значению FPS. Хотя эта разница и не слишком велика, она позволяет ещё более выгодно смотреться видеокарте на фоне основного конкурента в данном сегменте игровых ускорителей – GeForce 9800GT.

Разгон

Как и обычно, разгон видеокарты осуществлялся с помощью программы RivaTuner в закрытом корпусе и с дополнительным охлаждением вентилятором VIZO Propeller. Благодаря этому, частоту графического процессора видеокарты удалось поднять с 575 МГц до 729 МГц, а память стабильно заработала на частоте 1116 МГц (2232 МГц DDR). Здесь можно сказать об отличном разгоне GPU. Почти 27-процентный прирост частоты должен обеспечить ощутимый прирост производительности.

Температурные показатели разогнанной видеокарты, благодаря дополнительному обдуву, оказались даже лучше, чем на стандартных частотах без дополнительного охлаждения. Максимальная температура графического процессора не превысила 73 градуса по шкале Цельсия.

Теперь оценим непосредственно производительность ускорителя с разгоном.

Тестовый пакет

Стандартные частоты

Разогнанная видеокарта

Прирост производительности, %

3DMark Score
SM2.0 Score
HDR/SM3.0 Score
Performance
1600×1200
2048×1536
1600×1200
2048×1536
1280×1024
1600×1200
2048×1536
1280×1024
1600×1200
2048×1536
1280×1024
1600×1200
2048×1536
1280×1024
1600×1200
2048×1536
1280×1024
1600×1200
1280×1024
1600×1200
1280×1024
1600×1200
2048×1536
1280×1024
1600×1200
2048×1536

Средняя суммарная производительность видеокарты, благодаря разгону, увеличилась почти на 18%. Самое главное то, что разгон позволяет не только догнать старшую модель HD4850 по производительности, но и вырваться вперёд на несколько процентов во всех тестовых приложениях. При этом основной соперник – видеокарта на GeForce 9800GT оказывается далеко позади.

Тестирование видеокарты в режиме ATI CrossFireX

Мы так же решили провести тесты EAH4830 512 МБ в режиме ATI CrossFireX и оценить, на сколько данный режим оправдывает покупку сразу двух таких видеокарт.

Итак, результаты:

512 МБ оказалась довольно интересным продуктом. Она оснащена системой охлаждения, которая хоть и не блещет своей эффективностью, но работает тихо и отлично реагирует на дополнительную вентиляцию в корпусе. Также видеоадаптер обладает отличным разгонным потенциалом, который не останется без внимания компьютерных энтузиастов и оверклокеров. Помимо этого, при покупке двух таких видеокарт можно практически вдвое увеличить производительность в некоторых игровых приложениях и получить существенный прирост во всех остальных, что позволяет составить конкуренцию даже «топовым» ускорителям, но целесообразность такого шага нужно оценивать исходя из текущей стоимости видеокарт. Если учесть все выше сказанное и прибавить к этому достаточно низкую цену, то видеокарту

Тестовый пакет

Прирост производительности, %

3DMark Score
SM2.0 Score
HDR/SM3.0 Score
Performance

Serious Sam 2, Maximum Quality, AA4x/AF16x, fps

1600×1200
2048×1536

Prey, Maximum Quality, AA4x/AF16x, fps

1600×1200
2048×1536

Call Of Juarez, Maximum Quality, NO AA/AF, fps

1280×1024
1600×1200
2048×1536

Call Of Juarez, Maximum Quality, AA4x/AF16x, fps

1280×1024
1600×1200
2048×1536

Call Of Juarez DirectX 10 Benchmark, 1600×1200, fps

Low
Balanced
High

Crysis, Maximum Quality, NO AA/AF, fps

1280×1024
1600×1200
2048×1536

Crysis, Maximum Quality, AA4x/AF16x, fps

1280×1024
1600×1200
2048×1536

Crisys Warhead, Maximum Quality, NO AA/AF, fps

1280×1024
1600×1200

Crisys Warhead, Maximum Quality, AA4x/AF16x, fps

1280×1024
1600×1200

Company of Heroes, DirectX 10, Maximum Quality, AA4x, fps

1280×1024
1600×1200
2048×1536

Devil May Cry 4, DirectX10, 1600×1200, Maximum Quality, AA4x, fps

Scene1
Scene2
Scene3
Scene4

World in Conflict, Maximum Quality, fps

1280×1024
1600×1200
2048×1536

Far Cry 2, Maximum Quality, NO AA/AF, fps

1280×1024
1600×1200
2048×1536

Far Cry 2, Maximum Quality, AA4x/AF16x, fps

1280×1024
1600×1200


Рекомендуем почитать

Наверх