Парадоксально, но факт: в последнее время графические процессоры (ГП) и по сложности исполнения, и по числу интегрированных транзисторов явно ушли в отрыв от ЦП. Судите сами — Pentium-4 Northwood содержит 55 млн. транзисторов, Athlon XP — 54,3 млн., Pentium-4 Prescott — 125 млн., Athlon 64 — 105,9 млн. В свою очередь видеоускоритель Radeon X800XT построен на 165 млн. транзисторов, а GeForce 6800Ultra — на 222 млн.
Как следствие, стоимость топовых графических решений соответствует цене новейших ЦП компаний AMD и Intel. Тем не менее, учитывая двукратный прирост получающейся производительности, любителям видеоигр все легче и легче расставаться со своими накоплениями. Так что, по мнению специалистов из ATI и nVidia, именно новейшие видеоплаты ATI Radeon X800XT и nVidia GeForce 6800Ultra в самое ближайшее время помогут вашим кошелькам существенно похудеть .
Честно говоря, когда мы посмотрели на первые результаты тестов, то были просто потрясены: вместо традиционного при смене поколений ГП 20—30%-ного прироста производительности мы увидели двукратное превосходство Radeon X800XT и GeForce 6800Ultra над предыдущими топовыми моделями Radeon 9800XT и GeForce FX5950Ultra. Особенно это проявлялось при высоких разрешениях экрана и включенных режимах анизотропной фильтрации и сглаживания. Но лучше обо всем по порядку...
ATI Radeon
Новый флагман компании ATI — Radeon X800XT пришел на смену прежнему лидеру под названием Radeon 9800XT. Он призван удержать хрупкое преимущество в очередном витке противостояния двух голиафов видеорынка. Надо отметить, что кристалл R420, на базе которого построена новая видеоплата, появился вовремя, ведь конкурентное решение nVidia GeForce 6800Ultra было представлено на несколько недель раньше и обеспечило почти двукратное преимущество над платами Radeon 9800XT. В Интернете до сих пор можно найти апрельские обзоры, которые заживо хоронили канадскую компанию ATI и предрекали ей судьбу печально известной 3Dfx. Но уже 3 мая 2004 г. в Москве прошло официальное представление графической платы ATI Radeon X800XT.
В отличие от предыдущей модели R420 выполнен по технологическому процессу 0,13 мкм с использованием диэлектрика low-k, обеспечивающего низкое энергопотребление. Более того, новая технология производства ATI позволила увеличить количество интегрированных транзисторов в 1,5 раза (как мы и предсказывали в статье «Переворот в царстве видеорынка», см. «Мир ПК», №2/04) и существенно поднять частоту работы ядра. Теперь она составляет 525 МГц (вместо предельных для 0,15-микронного техпроцесса 412 МГц).
Продолжая тему новаций в графическом решении X800XT, отметим увеличенное число пиксельных/вершинных конвейеров, переход на новый тип памяти GDDR3 и оптимизацию полноэкранного сглаживания при любых разрешениях экрана. Но самым важным нововведением от ATI стала поддержка технологии сжатия карт нормалей 3Dc, которая позволит разработчикам игровых приложений увеличить производительность и качество детализации. Стоит отметить, что 3Dc является открытой разработкой ATI, которая не требует лицензионных отчислений за использование, и ее продвижение зависит от успеха новой линейки видеоплат ATI на компьютерном рынке.
Radeon X800XT(справа) и Radeon 9800XT |
Внешне платы 9800XT и X800XT похожи как близнецы. Для охлаждения ГП X800XT использован такой же медный радиатор и не выступающий за габариты вентилятор, что и для 9800XT. Вот только X800XT стала значительно легче, поскольку на ее обратной стороне отсутствует дополнительная пластина из меди, рассеивающая тепло.
X800XT по-прежнему имеет один дополнительный разъем питания Peripheral Power Connector и выигрывает в энергопотреблении у своих конкурентов от nVidia: 70 Вт(X800XT) против 110 Вт(6800Ultra) ...
Схематичный пример использования карт нормалей (маска разницы отклонений) |
На задней части платы (рядом с периферийным разъемом) находится желтый разъем, назначение которого несколько неоднозначно. Так, по словам менеджера ATI Ричарда Хади, звучавшим 3 мая на московском анонсировании X800XT, это дополнительный разъем питания. По мнению других специалистов компании ATI на англоязычных форумах, это экспериментальный дополнительный видеовыход на монитор, который можно вывести на переднюю панель ПК... Забавно, но наше знакомство с «неопознанным объектом» желтого цвета с помощью обычного тестера показало его полную электрическую изолированность: пациент скорее мертв, чем жив. Возможно, это просто последствия экспериментов инженеров компании ATI, которые еще не успели убрать в гонке конкурентного противостояния. Но в любом случае этот разъем вы вряд ли сможете увидеть в серийных экземплярах, а истинный смысл его появления скорее всего так и останется скрыт завесой молчания «посвященных» специалистов ATI.
nVidia GeForce
В отличие от графических плат Radeon X800XT, решения на основе новейшего процессора GeForce 6800Ultra обладают принципиально новыми функциями аппаратной поддержки особых расширений DirectX 9 в виде шейдеров третьей версии. По большому счету любые графические эффекты шейдеров 3.0 могут быть выполнены шейдерами 2.0, разница лишь в сложности конструкций ветвлений и циклов. Теоретически упрощение алгоритмов программирования и снижение числа инструкций позволят облегчить труд разработчикам и обеспечить большую производительность, но как будут обстоять дела на практике, мы сможем объективно понять только года через два. Так, например, шейдеры 2.0 были поддержаны видеоплатами двухлетней давности, но их массовое применение в играх мы наблюдаем только сейчас. К тому же существует мнение экспертов ATI, что использование Shader Model 3.0 приведет к снижению производительности из-за системы управления потоком данных в пиксельных шейдерах третьей версии.
Еще одно отличие в новом флагмане nVidia от аналогичного решения ATI — понижение частоты ядра до 400 МГц (с 475 МГц у NV38). Такой подход обеспечивает стабильную работу с достойной производительностью, которая объясняется более длинными конвейерами в архитектуре NV40. То есть за один такт у GeForce 6800Ultra обрабатывается больше данных, чем за такт в кристалле R420. А вот число пиксельных и вершинных конвейеров в NV40 выросло до 16 и шести соответственно, как и у X800XT...
Отметим и наличие двух цифровых разъемов DVI на скобе платы nVidia. Такое решение нам показалось преждевременным, поскольку большинство мониторов обладают аналоговыми входами и для них потребуются дополнительные переходники, так что комбинация из разъемов DVI и D-Sub на плате Radeon X800XT выглядит практичнее. Кстати, обе платы, nVidia и ATI, оснащены комбинированными видеоразъемами VIVO, что позволяет не только выводить изображение на обычный телевизор, но и осуществлять ввод аналогового сигнала.
GeForce 6800Ultra (справа) и GeForce FX5950Ultra |
Теперь о питании. Вы уже наверняка слышали о прожорливости NV40 и о рекомендованном 480-ваттном блоке питания? Так вот, не стоит переживать, что к видеоплате GeForce 6800Ultra придется покупать новый БП. Так, например, все наши тесты выполнялись в обычном корпусе InWin c «родным» блоком питания PowerMan IW-P300A2-0, и мы остались вполне довольны полученными результатами. Разумеется, у кого-то при использовании 300-ваттного БП система даже не «заведется», но винить в этом стоит не высокое энергопотребление 222 млн. транзисторов в кристалле NV40, а сомнительное качество блока питания с завышенными маркировками. Ведь не случайно из 15 протестированных нами 300-ваттных (судя по наклейкам) БП мы можем порекомендовать к использованию с nVidia GeForce 6800Ultra лишь пять: EMACS HG2-6300P, AcBel ATX-300P-DNNS, PowerMan IW-P300A2-0, Ever MPT-300 и ASUS-Macropower MP-300A (см. «Блоки питания: второй подход», «Мир ПК», №6/04).
Говоря о потреблении электроэнергии на практике, нужно взглянуть на соответствующий столбец в таблице результатов тестирования. Здесь видно, что потребляемая мощность связки компьютер — видеоплата nVidia GeForce 6800Ultra высока, но вполне сопоставима с аналогичной характеристикой всех альтернативных решений.
Развивая тему питания платы, скажем, что у GeForce 6800Ultra имеется два разъема типа molex для подводки необходимых электроресурсов. И желательно иметь каждый периферийный разъем на свободном шлейфе от блока питания (хотя они все равно запараллелены в самом корпусе БП, и достаточно лишь хороших медных проводов в одном «пучке» с двумя свободными разъемами molex).
Пожалуй, видеоплата GeForce 6800Ultra больше не может называться «пылесосом» (по аналогии с прозвищем платы GeForce FX5950Ultra) из-за своеобразной системы забора (всасывания) внешнего воздуха у прежнего флагмана. Но nVidia 6800Ultra по-прежнему занимает два слота в корпусе ПК, а массивная пластина радиатора покрылась игольчатыми стержнями для эффективного теплоотвода. В то же время решения на базе NV40 имеют такие же габариты, как и nVidia FX5950Ultra. Честно говоря, это очень неудобно при сборке компьютера, а с некоторыми моделями корпусов и просто несовместимо: видеоплата упирается в жесткий диск.
Но давайте перейдем от сравнения технических характеристик Radeon X800XT и GeForce 6800Ultra к синтетическим и реальным тестам. Еще полгода назад видеоплаты ATI «били» решения nVidia в 3DMark03 практически во всех разрешениях и уж тем более в тестах Vertex/Pixel Shader. Сейчас, с увеличением точности вычислений в шейдерах, ситуация поменялась: ATI Radeon X800XT уступает платам nVidia в высоких разрешениях и особенно в тестах с пиксельными шейдерами. Скорее всего, наша конструктивная критика реализации поддержки шейдеров второй версии в nVidia GeForce FX5950Ultra достигла цели и инженеры приложили максимум усилий в погоне за конкурентом.
Сражение в рамках теста AquaMark3 на базе реального игрового движка осталось за nVidia GeForce 6800Ultra. Но стоит заметить, что при включении четырехкратного сглаживания в разрешении 1600x1200 точек лучший результат был за ATI Radeon. Старая болезнь: не любит nVidia динамически сглаживать изображения, но, с другой стороны, зачем четырехкратное сглаживание в самых высоких разрешениях?
А вот с красивым реальным тестом GunMetal Benchmark 2 происходили чудеса. Для плат ATI наблюдалось 100%-ное увеличение производительности после смены флагмана, а для nVidia все оказалось гораздо печальнее: игра попросту «вылетала» при появлении первых кадров баталий. Причем проблема явно не в самой программе, а в новейших драйверах ForceWare 61.34. Неужели опять расчетливые хитрости nVidia? Берем прежний драйвер Detonator, и все работает на ура, причем получающаяся «скорострельность» почти соответствует достижениям Radeon X800XT.
Дальше — хуже. Помните тест ShaderMark 2, использованный нами прежде? Так вот, и с ним продолжились чудеса: с драйвером ForceWare 61.34 компьютер довольно странно зависал, не подавая никаких признаков жизни. Кстати, в испытании плат ATI Radeon 9800XT и nVidia GeForce FX5950Ultra тестовый пакет ShaderMark 2 был «убийцей» для GeForce в нашем обзоре. Хотя сейчас флагман nVidia вполне достоин сравнения с Radeon X800XT.
Скорее всего, программисты из nVidia запутались в собственных многочисленных оптимизациях внутри драйверов под каждую новую версию игрового приложения или графического теста. Но не стоит думать, что оптимизация — это наглое очковтирательство: в случае с длинными конвейерами у nVidia (в отличие от ATI) управляемое ветвление дает реальное увеличение производительности. Однако честность такой предусмотрительности полностью на совести компании nVidia.
Следующие измерения в играх Unreal Tournament 2004 и Serious Sam: The Second Encounter показали большее количество кадров в секунду для GeForce 6800Ultra. Кстати, при сравнении результатов для экс-флагманов FX5950Ultra и 9800XT ситуация была аналогичной. По правде сказать, UT2004 и Serious Sam SE за прошедший год уже успели устареть, и, как водится, платы nVidia всегда оказываются лучшими в графических движках предыдущего поколения.
Напротив, в самой свежей игре Far Cry мы видим два неожиданных результата: невзирая на сложность и красоту, современная игра оказалась слабовата для Radeon X800XT и GeForce 6800Ultra и ее производительность уперлась в возможности центрального процессора даже при разрешении 1600x1200, а скорость вывода кадров на экран была немного лучше у ATI Radeon X800XT, а ведь Far Cry входит в маркетинговую программу nVidia по продвижению GeForce 6800Ultra .
Скорее всего, компания nVidia упорно ждет обновления игры, когда вся ее красочность будет реализована на шейдерах третьей версии. Кстати, это станет первой ласточкой нового поколения шейдеров, а пока с помощью графической платы FX5950Ultra под управлением драйверов ForceWare 61.34 мы с удивлением наблюдали голубые пальмы (с драйвером ForceWare 56.72 пальмы имели обычную для результата фотосинтеза окраску).
Многочасовые прогоны игровых тестов показали очередную напряженность в определении однозначного лидера видеорынка. Но мы уверены, что ATI и nVidia имеют не только первоклассные инженерные кадры, но и разведывательные подразделения с агентурными сетями в конкурирующих лагерях. Именно поэтому уже продолжительное время мы видим паритетную производительность в различных сегментах видеорынка: как только одна из компаний выходит на очередной виток технологических решений с новой графической платой, конкурент в течение нескольких недель анонсирует адекватный ответ со схожей производительностью. Такая ситуация устраивает отделы маркетинга обоих гигантов и позволяет поддерживать живой потребительский интерес к своей деятельности, извлекая максимальную выгоду в жестких условиях противостояния.
Вот только в последний раз маркетологам nVidia удалось преподнести ATI сюрприз в виде поддержки Microsoft Shader Model 3.0, входящей в состав DirectX 9С. Этот козырь скорее имеет рекламное значение, чем обусловлен практической необходимостью, и очень напоминает ситуацию с 64-разрядными процессорами от AMD, владельцы которых уже год испытывают моральное удовлетворение, но никак не могут ощутить реального превосходства над 32-разрядными системами от Intel. Тем не менее компании Intel и ATI обязаны реагировать на удачный маркетинг конкурентов и создавать свои аналогичные расширения, даже если они и не нужны на данном этапе развития программного обеспечения. Так что вскоре мы увидим новые графические акселераторы ATI с поддержкой Shader Model 3, а может быть, и сразу Shader Model 3+ .
С другой стороны, слабым местом nVidia является AGP-происхождение. И пока, в отличие от Radeon X800XT, для поддержки спецификаций PCI-Express необходим специальный интерфейсный мост nVidia HSI PCI-Express, а это уже лишние издержки производства и производительности. Так что и у компании nVidia есть повод «подсуетиться» в самое ближайшее время.
Подводя итоги, можно сказать, что в условиях схожей производительности графических достижений ATI и nVidia для конечного потребителя становятся важными другие показатели. Например, что касается энергопотребления, тепловыделения, поддержки PCI-Express, удобства установки, стабильности драйверов, доступности на рынке, то мы отметим ATI Radeon X800XT. А вот по дополнительным аппаратным реализациям и маркетинговому потенциалу желтая майка лидера пока принадлежит nVidia GeForce 6800Ultra. Но что предпочтительней — покажет самое ближайшее будущее, а почувствовать всю мощь новейшего видеопрорыва компаний ATI и nVidia потребитель сможет уже сейчас — достаточно обладать дорогим монитором, способным работать в самых высоких разрешениях.
Редакция благодарит компании ATI (www.ati.com), nVidia (www.nvidia.com), «Сатурн Электроникс» (www.saturn.com.ru), Bench?emAll! (www.benchemall.com) за предоставленное оборудование и ПО.
Как мы тестировали
Все испытания проводились на компьютере с 3-ГГц процессором Pentium-4 Northwood (шина 800 МГц). В ПК были установлены 512-Мбайт двухканальная память Samsung типа DDR400, системная плата Gigabyte GA-8IK1100 версии 2, 120-Гбайт жесткий диск Seagate Barracuda 7200.7 SATA, оптический дисковод Sony CRX-300E Combo, флоппи-дисковод Mitsumi и БП PowerMan IW-P300A2-0.
Электропитание системного блока тестового стенда контролировалось сетевым фильтром SATURN LF-202 (www.saturn.com.ru) с процентным индикатором потребляемой мощности ПК в зависимости от максимально допустимой для фильтра (100% — 10A, 1% — 0,1А, погрешность — 5%).
Перед тестированием очередной графической платы в систему заново устанавливалась ОС Windows XP Professional SP1. Для работы с платами ATI использовался видеодрайвер Catalyst 4.6, с nVidia — ForceWare 61.34, любезно предоставленный российским отделением nVidia.
Для исключения некорректных измерений вследствие оптимизации производителями драйверов все результаты программных тестов перепроверялись с более ранними версиями драйверов Catalyst и ForceWare, а значительные отклонения фиксировались и изучались.
Из синтетических тестов нами использовался пакет 3DMark03 Build340, а из специализированных на реальном игровом коде запускались AquaMark3 и GunMetal Benchmark 2 Build120. Испытательная база на основе реальных игр состояла из Far Cry, Unreal Tournament 2004 и Serious Sam: The Second Encounter. Причем для работы с играми Far Cry и Unreal Tournament 2004 использовались предварительно записанные демоверсии пакета Bench?emAll! (www.benchemall.com). Напомним, что Bench?emAll! — это программа, написанная русскими программистами. Она предназначена для полной автоматизации процесса тестирования видеоплат с одновременной минимизацией влияния самой программы на результаты. В Bench?emAll! для каждой игры имеется особый подход: ведь одно игровое приложение может запускаться с параметрами в командной строке и выкладывать результат в текстовый файл (например, UT2004), другая управляется только эмулированием нажатий кнопок мыши (например, 3DMark03), а вот для игры Serious Sam нашим разработчикам пришлось пересобирать часть программных объектов. Общедоступных аналогов программы Bench?emAll! пока не существует, и как следствие, популярность этого приложения возрастает во всем мире. Жаль только, что интерфейсы программы да и сайта ее поддержки выполнены на английском языке, но надеемся, что это лишь вопрос свободного времени отечественных программистов.
Все запуски тестовых приложений выполнялись в разрешениях 1024x768 и 1600x1200 точек при 32-битовой глубине цвета с использованием монитора Mitsubishi Diamond Pro 750SB. Каждое испытание проводилось три раза, а средний результат записывался в таблицу.
Производители графических плат
Как вы уже могли заметить, с резким ростом числа интегрированных транзисторов в новейших платах ATI Radeon X800XT и nVidia GeForce 6800Ultra значительно усложнился не только технологический процесс производства, но и увеличилось количество «ножек» в графическом процессоре. Как следствие, амбициозное перепроектирование платы, ее системы охлаждения и разводки стало занятием неблагодарным и способным скорее навредить надежности и производительности конечного продукта.
Именно поэтому компании ATI и nVidia настойчиво предлагают тайваньским производителям графических плат только законченные образцы на базе топовых кристаллов R420 и NV40. В подтверждение своих намерений видеогиганты значительно увеличили цену за сертификацию любых факультативных отличий от базового проекта платы и усложнили саму процедуру лицензирования изменений для плат Radeon X800XT и GeForce 6800Ultra.
По большому счету, нам часто попадаются платы разных OEM-производителей, отличающиеся друг от друга только наклейками, но в случае с X800XT и 6800Ultra появление «клонов» будет носить обязательный характер, исключения коснутся лишь избранных.
В любом случае говорить о разной производительности в зависимости от поставщика решений не стоит. Так что мы решили свести все модели лидирующих производителей на базе R420 и NV40 в одну таблицу, удобную для восприятия.