(GeForce 8800 Ultra)
Видеоакселератор GIGABYTE представляет собой копию инженерного образца NVIDIA GeForce 8800 Ultra, в основе которого лежит графический кристалл G80 с частотой функционирования ядра 612 МГц. При этом на борту «Ультры» установлена видеопамять GDDR3 со временем выборки у микросхем памяти 0,8 нс и с частотным показателем 2160 МГц (см. статью «Ultra против XT: шах и мат?», «Мир ПК», №6/07).
Да, этот ускоритель увидел свет в начале мая прошлого года и с тех пор успел изрядно устареть, но тем не менее именно GeForce 8800 Ultra является стандартным компонентом самых производительных ПК в мире и до последнего времени прочно удерживал репутацию самого завидного у любителей компьютерных игр. Но позвольте уделить максимум внимания конкурирующей новинке от компании AMD — Radeon HD 3870 X2.
MSI R3870X2 T2D1G OC (Radeon HD 3870 X2)
Этот продукт компании MSI доступен пользователям с 28 января этого года. Технические характеристики новинки изумляют: пиковая производительность 1 ТFLOPS, 640 потоковых процессоров, 32 текстурных и 32 ROP-блока. Другими словами, в два раза мощнее прежних флагманов HD 3870 и HD 2900 XT. Однако давайте проанализируем все в хронологическом порядке.
Днем рождения решения Radeon HD 2900 XT, построенного на графическом процессоре R600, можно считать 14 мая прошлого года. Этот новорожденный стал капитаном видеолинейки AMD, но в сравнении с лидером от NVIDIA модель HD 2900 XT выглядела довольно бледно. В результате даже AMD-ориентированные производители компьютеров, не сговариваясь, принялись устанавливать ускорители GeForce 8800 Ultra в бескомпромиссные серии ПК для игр.
Разумеется, такая ситуация не устраивала корпорацию AMD, и ее инженеры постарались выжать максимум из кристалла R600. Они перевели технологию производства с 80 нм на 55, оптимизировали транзисторную часть ядра, увеличили рабочую частоту микрокристалла с 742 МГц до 775 и вместо GDDR3 с частотным показателем 1650 МГц установили на борту модернизированного флагмана AMD-ATI видеопамять GDDR4 с эффективной частотой 2250 МГц.
Обновленный кристалл получил наименование RV670, а готовое решение на его основе — неожиданное имя Radeon HD 3870, засиявшее на прилавках магазинов 15 ноября 2007 г. Но, увы, производительность ускорителей AMD-ATI Radeon HD 3870 осталась на уровне плат AMD-ATI Radeon HD 2900 XT в большин-стве современных игр, и трон под акселератором GeForce 8800 Ultra даже не пошатнулся.
И вот 28 января этого года начался очередной этап развития продуктовой линейки AMD, связанный с ви-деоускорителем R680, более известным под именем Radeon HD 3870 X2. По сути это два графических адаптера Radeon HD 3870, размещенные на одной печатной плате и объединенные в рамках хорошо знакомой технологии ATI CrossFire, работающей в режиме Alternative Frame Rendering (один ускоритель просчитывает все нечетные кадры, а второй — четные). И хотя CrossFire-система для игровой визуализации подразумевает использование двух видеоплат на одной системной плате, в акселераторе HD 3870 X2 два графических решения RV670 запрягаются в упряжку CrossFire на одном куске текстолита с помощью управляющей микросхемы PLX PEX8547 и соединительных линий PCI Express 1.1.
Кстати, у пользователей со стажем тут могут возникнуть аналогии с такими двухпроцессорными видеосистемами, как 3Dfx Voodoo 2 или ATI Rage Fury Maxx, хотя более корректным и актуальным было бы сравнение новейшей разработки AMD-ATI с решением GIGABYTE 3D1, появившимся на рынке аж в 2005 г. Тогда китайские инженеры удивили всех инновационной реализацией технологии NVIDIA SLI из двух кристаллов GeForce 6600GT (ГП NV43) на одной печатной плате, так что независимым специалистам остается только гадать, почему это канадские разработчики скопировали идею компании GIGABYTE без должных упоминаний.
Теперь давайте изучим саму видео-плату MSI R3870X2 T2D1G OC. Внешне она не отличается от инженерного эталона Radeon HD 3870 X2: та же печатная плата с определенными наборами микросхем, та же система охлаждения без тепловых трубок. Однако очевидна разница в заявленной частоте работы ядра модели с суффиксом OC (т.е. overclocked) – 857 МГц вместо 825, как у соответствующего референсного решения. Кроме того, охладитель MSI выполнен полностью из меди, что благоприятно сказалось на рабочей температуре кристаллов. И конечно, в комплекте новинки от MSI лежат все необходимые переходнички, кабели и драйверы, а приятным бонусом к покупке может стать подарочное издание игры Gears of War, если покупать MSI R3870X2 T2D1G в сети магазинов «Эльдорадо».
Что показали тесты
Плата GIGABYTE, построенная на базе проверенного временем ГП NVIDIA GeForce 8800 Ultra, работала без нареканий и демонстрировала высокую производительность, да и новинка от MSI нас порадовала.
В OpenGL-играх ускоритель Radeon HD 3870 X2 уступил конкуренту в экранных режимах 1280Ч1024 и 1600Ч1200, но взял уверенный реванш в разрешении 2048Ч1536. И в игровых тестах для DirectX9 ситуация сложилась аналогичная: чем выше экранное разрешение, тем лучше выглядят результаты Radeon HD 3870 X2 в сравнении с GeForce 8800 Ultra.
А вот в играх для Direct 3D 10 нас ждал неприятный сюрприз. По соответствующим таблицам испытаний очевиден проигрыш ускорителя MSI R3870X2 в игре World in Conflict и победа в Company of Heroes и Crysis, но то, что мы увидели в игровом приложении Crysis для DirectX10, очень сложно назвать нормальной игровой картинкой. Дрожащие облака на небе, прыгающая листва на деревьях, передергивающиеся текстуры на скалах — так происходящее на экране можно охарактеризовать словами. При этом визуализация приложения Crysis для DirectX9 на тестовом стенде с платой Radeon HD 3870 X2 не вызывала разочарования, но демон-стрировала скромные показатели в кадрах в секунду.
Видимо, в погоне за высокой производительностью компания AMD-ATI совершенствует видеодрайверы в спешке, оставляя решение проблем с качеством картинки, как говорится, на потом. И тем не менее два графических акселератора RV670, объединенные в CrossFire-тандем Radeon HD 3870 X2, способны конкурировать с одним ускорителем NVIDIA G80 и в чем-то превосходить его. Но сможет ли новинка AMD-ATI противостоять схожему решению GeForce 9800 GX2, объединяющему в SLI-упряжку два графических процессора NVIDIA G92? Это вопрос, ответ на который мы узнаем очень скоро.
Таблица. Сравнительные характеристики видеоадаптеров PCI Express
Таблица. Результаты игровых тестов для DirectX 10 при AA:00 и AF:00, кадр/с
Таблица. Результаты игровых тестов для DirectX 9 при AA:00 и AF:00, кадр/с
Таблица. Результаты игровых тестов для OpenGL при AA:00 и AF:00, кадр/с
Полный вариант статьи см. на "Мир ПК-диске"
Как мы тестировали
Все испытания проводились под управлением операционной системы Windows Vista Ultimate 64-bit (build 6.0.6000 + официальные обновления и «заплатки»). Для работы с графическими подсистемами использовались видеодрайверы ForceWare 169.25 64-bit и Catalyst 8.1 (build 8.451.2-080123) 64-bit.
В качестве измерительного инструментария в Windows Vista применялся сценарный тест SmartFPS.com 1.7 для автоматизированного определения производительности в игровых приложениях Crysis, Company of Heroes, World in Conflict, Serious Sam 2, Unreal Tournament 3, Quake 4, Prey и The Chronicles of Riddick: EFBB.
Все запуски тестовых сценариев выполнялись с применением монитора Philips Brilliance 202P7 и при графических разрешениях 1280×1024, 1600×1200 и 2048×1536 точек с 32-разрядной глубиной цвета. При этом исследование 3D-производительности видеоплат проводилось в двух режимах качества отображения игровой картинки: с отключенными полноэкранным сглаживанием и анизотропной фильтрацией, а также с включенными четырехкратным сглаживанием (AA:04) и 16-кратной анизотропной фильтрацией (AF:16). Все настройки качества визуализации контролировались с помощью глобальных установок в соответствующих видеодрайверах NVIDIA ForceWare и AMD-ATI Catalyst (при отключенных Temporal AA, Adaptive AA и High Quality AF).
Аппаратная конфигурация тестового стенда в корпусе Compucase LX-7X31BS была следующей: ЦП Intel Core 2 Extreme X6800, системная плата ASUS P5K SE (P35 + ICH9), двухканальное ОЗУ на базе модулей Corsair XMS2-6400 CM2X1024-6400PRO
(2×1 Гбайт, DDR2, 800 МГц, 5-5-5-15), жесткий диск WD Caviar SE16 WD5000KS (SATA 2, 7200 об/мин, 500 Гбайт), оптический DVD-привод TEAC DV-516, блок питания Delta GPS-650AB. Энергопотребление системного блока (без монитора) контролировалось сертифицированным прибором учета электроэнергии «Меркурий 200.02» (классы точности 1 и 2).
О правильном питании AM
Переход компании AMD на технологию производства 55 нм сделал решение Radeon HD 3870 X2 особенно привлекательным по двум критериям. С одной стороны, видеоускоритель Radeon не перегревается и его охладитель работает довольно тихо. А с другой — новый флагман AMD-ATI потребляет меньше электроэнергии, чем GeForce 8800 Ultra, и его «потянет» даже простенький блок питания.
Ради спортивного интереса мы перебрали блоки разной мощности для тестового стенда и нащупали «необходимые и достаточные» ватты. Вначале мы остановились на 400-Вт БП AcBel ATX-400P — его мощности хватает, чтобы выполнять на ПК все типичные задачи и развлекаться играми, но не всеми, увы. Так, в играх Crysis и Call of Duty 4 возникает такая вычислительная нагрузка на видеоплату Radeon HD 3870 X2 и процессор Core 2 Extreme X6800, что компьютер очень быстро отображает черный экран и молча выключается. Зато 460-Вт БП HIPRO HP-W460GC31 с работой справился, и никакие 3D-игры и расчетные задачи не смогли превысить его возможностей. Однако для выполнения квалификационных тестов мы использовали 650-Вт БП Delta GPS-650AB — так вернее.
Кстати, на задней части платы Radeon HD 3870 X2 имеется пара разъемов: «2×3» и «2×4» — для дополнительного питания, и если БП не имеет соответствующих колодок, то система даже не запустится. И вот что интересно: если запитать лишь контактную площадку «2×3», можно узнать максимальный уровень шума, на который способен ускоритель Radeon. Берегите уши, нам он напомнил о советском пылесосе «Буран».