7800 gtx 512mb требования к блоку питания. NVIDIA наносит превентивный удар. Игровые тесты: Prince of Persia: Warrior Within

В последние несколько лет на рынке компьютерных комплектующих всё сильнее стирается грань между классами игровых устройств. Например, новинка от компании Nvidia, видеокарта на базе GTX 750 Ti, которая позиционируется как представительница начального класса игровых адаптеров, претендует на нишу более дорогих устройств. Такая тенденция однозначно приведёт к тому, что большинство промежуточных решений в скором времени исчезнет с рынка комплектующих, как это уже случилось с мобильными процессорами.

В данной статье читатель увидит обзор актуальных устройств на рынке дискретных видеоадаптеров, имеющих огромный потенциал для современных игр, и познакомится с их характеристиками. Отзывы владельцев видеокарт помогут потенциальному покупателю выбрать устройство среди различных предложений от ведущих производителей.

Видение производителя Nvidia

Если обратиться к первоисточнику, то можно увидеть, что изначально видеокарта Nvidia GTX 750 Ti позиционировалась производителем как игровое устройство начального уровня для обычных пользователей. В первую очередь об этом говорят её архитектура, технические характеристики и формфактор. Эталонный вариант представляет собой печатную плату длиной 150 мм (под длину слота PCIe), занимающую всего один юнит в корпусе персонального компьютера.

Отсутствие дополнительного питания на плате видеоадаптера свидетельствует о малой рассеиваемой мощности графического процессора, а отсутствие разъёма SLI намекает владельцу, что перед ним обычный бюджетник, без какого-либо потенциала на будущее. Соответственно, вся система имеет штатный кулер, который легко справляется с рассеиваемой мощностью в 60 Вт. Непонятно только, с какой целью производитель «наградил» свой продукт огромным разгонным потенциалом, ведь именно этот шаг и стал первопричиной, которая привела к вытеснению на рынке более дорогих видеокарт устройствами начального уровня.

Базовые характеристики и модификации

Новинка построена на графическом ядре GM107, получившем кодовое название Maxwell. В производстве используется технологический процесс 28 нанометров, и кристалл содержит 1870 миллионов транзисторов. Радует, что завод-изготовитель не стал разводить «зоопарк» видеоадаптеров, а представил рынку всего две модификации - Nvidia GTX 750 Ti и её облегчённый вариант GTX 750. Разница между моделями незначительная:

  • количество потоковых процессоров в дорогом варианте составляет 640 (против 512 у GTX 750);
  • 2 Гб (в два раза больше, чем у GTX 750);
  • частота работы памяти 5400 МГц (против 5000 МГц);
  • снижен уровень потребления до 55 Вт (у GTX 750i 60 Вт);
  • полоса пропускания у недорогой модификации 80 Гбайт/с (против 86,4 Гбайт/с).

Остальные же показатели идентичны:

  • ширина шины 128 бит,
  • тип памяти GDDR5,
  • частота ядра 1025 МГц,
  • поддержка DirectX 11.2,
  • 16 конвейеров для растровых операций.

На этом этапе всех владельцев видеоадаптера Asus GTX 750 Ti ожидает приятный сюрприз. Простая на вид система охлаждения, которая не имеет в своей конструкции медных трубок, великолепно справляется с поставленной перед ней задачей. Даже в пиковых нагрузках гул вентиляторов не превышает 66 дБ, а в режиме простоя измерители шума показывают значение его в пределах 35 дБ. Графический процессор в штатном режиме работает на 1072 МГц, которые в режиме Boost могут увеличиваться до 1150 МГц. Разгонный потенциал у видеокарты достойный - кристалл в тестовом режиме удаётся разогнать до 1222 МГц, однако прибавка в скорости отражается на стабильности работы.

Любимый бренд оверлокеров

Среди игровых устройств не обошлось и без популярного на данный момент бренда Zotac. Видеокарта GeForce GTX 750 Ti, представленная производителем на рынке компьютерных комплектующих, выделяется среди конкурентов своей фирменной системой охлаждения и уникальной цветовой гаммой. Судя по отзывам владельцев, комплект поставки бюджетного устройства очень беден: видеокарта, инструкция по монтажу, диски с драйверами и два переходника - DVI to VGA и 2Molex to 6pin.

По сравнению с конкурентами, устройство выглядит довольно компактно, производитель не стал увеличивать размеры видеоадаптера установкой огромной системы охлаждения, а ограничился бюджетным кулером. Такое решение подойдёт всем пользователям, которые имеют небольшие системные блоки - видеокарта прекрасно монтируется на материнской плате и не блокирует доступ к жёстким магнитным накопителям.

Не стали разработчики гоняться и за производительностью, установив номинальную частоту графического ядра на отметке 1033 МГц (в режиме Boost 1111 МГц), однако многие владельцы отмечают, что видеоадаптер прекрасно разгоняется вплоть до 1200 МГц без существенного нагрева. Это ещё раз подчёркивает, что фирменная система охлаждения GTX 750 Ti справляется с поставленной задачей.

Тройной удар

Отличилась на рынке и компания EVGA, представив миру одновременно две новинки: видеокарту GTX 750 Ti и её младшую модель GTX 750. Внешне отличить оба устройства довольно сложно. Брендированная система охлаждения чёрного цвета с одним огромным вентилятором лишь небольшой надписью на корпусе выдаёт производителя и дает понять, какой видеоадаптер скрывается под кожухом радиатора. Спустя несколько месяцев компания EVGA спешно представила ещё один продукт на базе чипсета Maxwell с огромной системой охлаждения, состоящей из двух фирменных кулеров.

Судя по положительным отзывам, именно эти три устройства сразу же подверглись тестированию, ведь пользователям давно нетерпелось увидеть сравнение продуктов GTX 750 vs GTX 750 Ti от какого-нибудь известного бренда. Как и следовало ожидать, уменьшенное количество процессорных блоков и пониженная частота памяти не позволяют продукту GTX 750 вырваться из бюджетного класса, а любой разгон приводит к нестабильной работе системы (это-таки отбраковка старшей модели). А вот для моделей с маркировкой Ti, благодаря фирменной системе охлаждения, специалистам EVGA удалось добиться отличной производительности в работе.

Золотая серия

Привлекает внимание покупателей видеокарта Gainward GeForce GTX 750 Ti, цена которой явно относится не к начальному уровню игровых видеоустройств (9500-11000 рублей). Однако её технические характеристики не сильно отличаются от продуктов-конкурентов. Частота графического процессора составляет всего 1085 МГц, а номинальная частота памяти установлена на отметке 5600 МГц. К тому же доступен видеоадаптер в двух модификациях: с одним кулером в стандартном размере и с двумя в громоздком корпусе.

Облегчённый вариант позиционируется как доступное устройство для монтажа в небольшой системный блок, а продвинутый вариант с суперсистемой охлаждения - как видеоадаптер для энтузиастов. В комплекте с устройством идёт фирменная утилита Expert Tool, знакомая всем любителям качественного Судя по отзывам владельцев, стоимость видеоадаптера вовсе не завышена, конструкторы Gainward создали прекрасную систему охлаждения, которая способна конкурировать даже с продуктом MSI GTX 750 Ti. Разгон колоссальный: 1320 МГц по ядру и 6455 МГц по памяти. Шум работы кулеров в пиковых нагрузках не превышает 66 дБ. Довольно неплохая альтернатива для поклонников золотой серии видеокарт от известного бренда.

В заключение

Как видно из обзора, недорогое решение на базе нового чипа Maxwell будет приемлемой покупкой для многих пользователей, которые, имея в своём распоряжении скромный бюджет, желают поиграть в актуальные на сегодняшний день игры. Однако выбор среди производителей всё-таки придётся делать, ведь, как оказалось, идеального решения, на которое смело можно указать пальцем, нет. Нужно самое дешёвое устройство - продукция EVGA позволит сэкономить деньги (в пределах 8 тысяч рублей). Золотая середина с критерием «цена-качество» - Asus GTX 750 Ti или Zotac (8-9 тысяч рублей). А если хочется максимальной производительности, то тут выбор побольше, но и устройства подороже (от 9000 рублей и выше): MSI, Gigabyte, Gainward.

Главное - потенциальный покупатель до приобретения видеоадаптера должен понимать, что разгон устройства является перспективой на будущее, когда производительности будет заметно не хватать в каких-то играх. Иначе стоит обратить свой взгляд на более дорогие видеокарты на рынке, мощности которых достаточно для получения удовольствия от вашей любимой игрушки.

Хорошо помню свое первое знакомство с ускорителями трехмерной графики. У одного из отцовских знакомых на компьютере глючили и упорно не желали запускаться какие-то программы - и меня попросили с этой проблемой разобраться. Корень зла, как вскоре выяснилось, крылся в недавно приобретенной крутейшей по тем временам плате Voodoo 2, а «программами» оказались Quake 2 и еще какие-то игрушки: худо-бедно разобраться с ними удалось методом научного тыка, особого интереса они для меня все равно не представляли. Но в комплекте к «Вуду» шел еще небольшой набор демонстрационных программок - и вот они казались чем-то фантастическим, невозможным, нереальным. Хотелось бросить все, наскрести необходимые для покупки 300 долларов, которые тогда этот ускоритель стоил, и немедленно поставить в свою машину такое же чудо.

С тех пор прошло немало лет и сменилось немало поколений ускорителей трехмерной графики. Демки, показывающие преимущества той или иной видеокарты, год от года становились все красивее и красивее (и добрались уже до якобы кинематографического качества), однако ощущение чуда, которое сопутствовало той самой, первой демонстрации, - уже не повторялось. Романтическая эпоха, когда каждый новый ускоритель был знаменательным событием, а на тематических форумах бушевали яростные споры фанатов той или иной графической компании, ушла в прошлое, и ушла, наверное, окончательно и бесповоротно. Видеокарта ли от ATI, видеокарта ли от nVidia - единственных по-настоящему выживших в те годы игроков этого рынка, - разница между ними сегодня сводится лишь к малозаметным отличиям в качестве получаемой картинки, уровне шума да производительности в приложениях. Быть может, ускорители будущего и новые поколения графических движков этот тезис опровергнут, а пока - рассмотрим очередной «сугубо эволюционный» продукт «игровой» индустрии.

Конфигурация тестового стенда:

процессор: AMD Athlon 64 FX 57 2,8 ГГц (200x14);

материнская плата: ASUS A8N SLI Deluxe;

оперативная память: 2x512 Кбайт Patriot XBLK (2-2-2-10);

жесткий диск: 2xWD Raptor 74 Гбайт, 10000 об./мин., RAID 0;

операционная система: Microsoft Windows XP SP2;

драйверы: последние официальные на момент написания статьи.

GeForce 6800 + восемь пиксельных конвейеров = ?

Кодовое название нового графического чипа nVidia - G70, «принципиально новое» для компании… и не несущее практически никакой информационной нагрузки. Однако если заглянуть в прошлое, выяснится, что вплоть до последнего момента (когда компания вдруг отказалась от традиционной маркировки своих чипов кодами NVxx) GPU GeForce 7800 именовался иначе - NV47. По принятой в nVidia схеме это означает, что GPU архитектурно относится к тому же поколению NV4x, что и чипы семейства GeForce 6xxx (напомню, что GeForce FX - это семейство NV3x; GeForce 3 и 4 - семейство NV2x; а GeForce 1 и 2 - семейство NV1x). Так что ничего принципиально новаторского в новом кристалле мы не увидим: перед нами все тот же классический GPU поколения DirectX 9.0c, поддерживающий шейдеры третьей версии (Shader Model 3.0), эдакий доработанный GeForce 6800 Ultra. Но что же тогда изменилось по сравнению с предыдущим поколением?

Во-первых, в полтора раза увеличилось количество пиксельных конвейеров - с 16 до 24. Уже одно это должно было при прочих равных увеличить теоретическую производительность G70 относительно NV40 примерно в полтора раза; однако инженеры nVidia пошли еще дальше и повысили производительность каждого отдельно взятого конвейера, добавив к каждому стандартному векторному ALU «вспомогательное» упрощенное ALU, способное одновременно с «главным» выполнять некоторые простые операции. Такая схема позволяет, например, выполнять на конвейерах 7800GTX весьма популярную в шейдерах операцию MAD (Multiply Add, поэлементное умножение двух 4-компонентных векторов с прибавкой к полученному вектору третьего вектора) за один такт, а не за два. И это лишь одна из довольно большого числа ситуаций, когда за счет переноса некоторых операций на «упрощенные» ALU удается достичь двукратного прироста производительности. Инженеры nVidia говорят о полуторакратном (в среднем) приросте производительности на каждый пиксельный конвейер. Вкупе с полуторакратным же приростом числа пиксельных конвейеров получается, что предполагаемая пиковая производительность G70 более чем вдвое выше, нежели у предыдущего флагмана nVidia - NV40, и, похоже, именно это дало основание разработчикам заявить, что 7800GTX будет более быстрым решением, чем пара GeForce 6800 Ultra, работающих в режиме SLI. Кстати, 7800GTX тоже поддерживает технологию SLI.

Во-вторых, увеличилось число вершинных конвейеров (с 6 до 8), и была немного поднята тактовая частота ядра. Причем полной неожиданностью стало то, что в G70 тактовых частот теперь несколько: пиксельные и вершинные конвейеры тактируются раздельно и функционируют асинхронно[Строго говоря, в GPU этих частот даже не две, а три: в отличие от предыдущих поколений, G70 использует еще и «более независимые» блоки пиксельных операций (ROP). Они выполняют такие «вспомогательные» операции, как блендинг, z-тест на отсечение невидимых пикселов, вычисление итогового цвета при антиалиасинге и запись «готового продукта» в видеопамять и фрейм-буфер акселератора. У большинства предыдущих ускорителей Nvidia было по одному блоку ROP на пиксельный конвейер; в G70 компания отошла от этой традиции и поставила 16 ROP, подключающихся через специальный быстродействующий «свитч», при 24 пиксельных конвейерах. Тактовая частота ROP сегодня совпадает с тактовой частотой пиксельных конвейеров, однако в последующих поколениях GPU и даже в последующих вариациях G70 ситуация может измениться]. «Основная» тактовая частота, на которой работают пиксельные конвейеры, составляет 430 МГц; «вторая основная», на которой работают вершинные конвейеры, - 470 МГц. Сводя эти данные воедино, получаем, что теоретически GeForce 7800GTX должен примерно в 2,42 раза (!) по «пиксельной» и 1,57 раза по «вершинной» производительности превосходить 6800 Ultra. Совсем неплохо для «старой» архитектуры, не правда ли? И это еще не предел: судя по названию и поразительно удачным оверклокерским экспериментам[В нашей тестовой лаборатории мы разогнали 7800GTX до частот 500/1320 МГц], nVidia может выпустить заметно более быструю GeForce 7800 Ultra[Еще одна интересная особенность G70: пиксельные конвейеры тактируются не как бог на душу положит, а с шагом 27 МГц. К примеру, 16x27 = 432 МГц, базовая частота 7800 GTX. Тактовые частоты пиксельных конвейеров свеженькой GeForce 7800GT составляют 15x27 = 405 МГц. Резонно предположить, что тактовая частота пиксельных конвейеров «Ультры», буде она появится, будет не меньше 17x27 = 459 (460), а то и 486 (490) МГц].

В-третьих, слегка возросла производительность оперативной памяти. G70 работает с 256-разрядной шиной памяти стандарта GDDR3, причем на ускорители 7800GTX рекомендовано устанавливать модули с частотой передачи данных 1200 МГц (у NV40 aka GeForce 6800 Ultra - 1100 МГц). Поскольку существуют и более быстрые микросхемы памяти, вполне возможно, что некоторые производители со временем выпустят и «оверклокерские» варианты 7800GTX, снабдив их, скажем, чипами с временем выборки 1,4 нс (частоты до 1400 МГц)[Именно такую память планируется использовать в R520 - асимметричном ответе канадской ATI на рассматриваемые сегодня новинки от Nvidia]. Кстати, оперативной памяти на плату теперь можно устанавливать аж до гигабайта. Общение с «системной» оперативной памятью и чипсетом осуществляется исключительно по шине PCI-Express x16 (скорее всего, переходник HSI больше использоваться не будет).

В-четвертых, nVidia добавила в G70 блок аппаратного ускорения воспроизведения HDTV-видео (видео высокого разрешения), включая ускорение обработки сигнала, сжатого кодеками MPEG-2, а также WMV-HD- и H.264-сигнала. Прибавьте сюда аппаратный деинтерлейсинг, аппаратное масштабирование картинки и цветовую коррекцию - и получится nVidia PureVideo, совсем небесполезная в свете скорого выхода HD-DVD- и Blu-Ray-приводов фича. Для вывода «высокого» видео на телевизор в G70, помимо обычного TV-out, встроен специальный HDTV-out. Поддержка двух независимых выходов на монитор (VGA или DVI-I), разумеется, сохранилась.

В-пятых, изменилась технология изготовления GPU. Если NV40 выпускались на основе 130-нм техпроцесса, то G70 производится на мощностях тайваньской TSMC по более компактному (примерно на 40%) 110-нанометровому. Правда, возросла и сложность чипа (302 млн. транзисторов!), так что кристалл G70 получился даже более крупным, а значит, и более дорогим, нежели NV40. Несмотря на резко возросшую сложность и слегка увеличенные тактовые частоты, энергопотребление платы на GeForce 7800GTX не превышает «скромные» 110 Вт. В итоге для системы с одной платой рекомендованы блоки питания мощностью всего 350 Вт (сравните с 480 Вт для 6800 Ultra!). SLI-системам подойдут типовые БП на 500 Вт против нереальных 600 Вт (и выше), кои требует 6800 Ultra.

Наконец, в G70 реализован новый гибридный режим полноэкранного сглаживания - TAA (Transparent AntiAliasing), позволяющий получать качественную картинку с меньшими потерями производительности (подробности - во врезке).

*** Практика: Reference GeForce 7800GTX

В нашу тестовую лабораторию попал типовой экземпляр GeForce 7800GTX - референс-плата от самой Nvidia. В продажу они, разумеется, не пойдут, однако платы других производителей едва ли будут отличаться от референса чем-то, кроме системы охлаждения да повышенных тактовых частот графического процессора и видеопамяти на единичных экземплярах[Собственно, получается так потому, что для топовых ускорителей и ATI, и Nvidia, как правило, продают не столько графические чипы, сколько почти полностью собранные «полуфабрикаты» видеокарт. Поскольку «топов» продается относительно немного, а прибыль они приносят огромную (до 40% от общего дохода компаний!), такая тактика не вызывает серьезных производственных проблем, одновременно гарантируя, что топовые акселераторы заведомо не будут иметь проблем с некачественной разводкой или неудачной технологией производства. Так что можете смело покупать какой-нибудь Palit или даже noname: от брэндового ASUSTeK’а, который на $50-100 дороже, их будет отличать только более скромный набор прилагающегося ПО да, возможно, «менее оверклокерский» радиатор]. Так что все нижесказанное можно смело распространять на большинство видеокарт 7800GTX.

Итак, референс. Первое, что бросается в глаза, - это очень скромные размеры ускорителя. Стандартные 10 см ширины - чуть больше, чем у 6800 Ultra и X800/X850, но все же приемлемо для Hi-End-ускорителей. А вот высота новинки «нестандартна»: видеокарта по высоте занимает всего один слот расширения, а не ставшие уже привычными два или три.

Видеовыходы - два коннектора DVI-I (переходник на привычный D-Sub, очевидно, прилагается); есть TV-out и TV-in, совмещенные в 11-штырьковом коннекторе. TV-in реализован на чипе Philips SAA7115HL; TV-out совмещен с HDTV-out. Видеопамять (256 Мбайт), в отличие от 256-мегабайтных вариантов GeForce 6800, установлена по обеим сторонам видеокарты, причем предусмотрены посадочные места для вдвое большего числа микросхем памяти (G70, напомню, может иметь до 1 Гбайт видеопамяти); память с двух сторон охлаждается алюминиевыми радиаторами.

Очень сильно по сравнению с GeForce 6800 переработана схема питания графического процессора - видимо, более тонкий технологический процесс привел не только к резкому снижению энергопотребления G70, но и существенно повысил требования к схемам питания. Именно из-за увеличившихся размеров VRM видеокарта и получилась более длинной. Критичные к охлаждению компоненты схемы питания закрыты внушительных размеров алюминиевым радиатором.

Для тестирования мы постарались взять новейшие и трудные для современных ускорителей игры. Результаты тестирования производительности приведены в таблице.

Даже беглого взгляда достаточно, чтобы сказать: GeForce 7800GTX - безоговорочный лидер по производительности.

Преимущество над GeForce 6800 Ultra составляет в среднем 41-45% (с включенным/выключенным четырехкратном антиалиасингом); преимущество над более быстрым (на 8-12%) Radeon X850 Platinum Edition - в среднем 27-30%, причем выигрыш имеет место на всех тестах, в том числе и на горячо любимом канадцами Half-Life 2. В общем-то не так уж и много, но и немало, если принять во внимание далеко не идеальную масштабируемость современных игр[У наших коллег из других изданий цифры получились чуть больше - порядка 35-40%]. Тем более что особенно большое преимущество 7800GTX наблюдается в самых тяжелых тестах - буквально только что вышедших Battlefield 2 (на 70%) и SplinterCell 3 (почти двукратный отрыв). Во всех тестах (включая режим 1600x1200 4x FSAA) видеокарта 7800GTX показала скорость рендеринга не менее 50 fps (то есть заведомо играбельную). Без антиалиасинга результаты повыше: не менее 70 fps; средние потери производительности от включения AA - 28%.

На удивление эффективно работает режим SLI: при установке двух видеокарт удается выжать из 7800GTX еще 27-37%. При этом преимущество GeForce 7800GTX SLI над «радеонами» доходит до 120% (!) - и наверстать столь солидное отставание ATI будет ой как непросто. Вероятнее всего запоздавший на полгода R520, работающий на частотах до 600-700 МГц, но снабженный всего шестнадцатью пиксельными конвейерами[Которые вдобавок вроде бы поддерживают непонятно как сказывающиеся на их производительности шейдеры третьей версии (а по истории с GeForce FX хорошо известно, что реализация обязательных для SM3 динамических переходов в шейдерах, может замедлять работу акселератора едва ли не в разы)], сумеет-таки догнать GeForce 7800GTX, а наконец-то появившаяся у ATI поддержка технологии CrossFire (альтернатива SLI) позволит «сравнять счет» и в парных конфигурациях. Однако солидное тепловыделение (уже известно, что кулер для R520 будет «двухэтажный»), шум, высокая цена (той же 1400-МГц памяти), скорее всего, сохранят небольшой перевес за продуктами Nvidia. Очень жаль, что из-за отсутствия R520 и CrossFire проверить эти предположения мы не можем.

Зато можем уверенно сказать, что благодаря низкому тепловыделению, небольшому шуму, а главное, цене (в Москве - порядка $580!!!) GeForce 7800GTX - очевидный хит сезона. Редчайший случай - придраться здесь действительно не к чему.

Прозрачный антиалиасинг

Антиалиасинг - это способ повышения качества выстраиваемого 3D-ускорителем изображения, позволяющий избавиться от эффекта ступенчатости границ полигонов. Дело в том, что если для «внутренних» пикселов цвет каждого из них обычно вычисляется с учетом нескольких субпикселов соответствующей текстуры, натянутой на полигон (анизотропная, трилинейная или билинейная фильтрация) и дающей плавную и более или менее точную и резкую картинку (чем выше степень анизотропной фильтрации, тем выше точность и резкость изображения), то без использования антиалиасинга каждый пиксел в картинке может «принадлежать» одному и только одному полигону, хотя в действительности часть пиксела относится к одному полигону, а часть - к другому, и его цвет должен определяться как некоторая смесь цветов обоих полигонов. В итоге каждое ребро полигона рисуется как характерная, резко очерченная ступенчатая (а зачастую и вовсе прерывистая, если рисуется, скажем, тонкий полигон, изображающий в сцене далеко расположенные провод, кабель или веревку) линия. Если вы еще не сталкивались ни с чем подобным, сравните, как рисуют линии MS Paint и Adobe Photoshop, - и вы поймете, что я имею в виду. Эта ступенчатость и есть алиасинг; а методы борьбы с нею соответственно называются антиалиасингом.

На сегодняшний день существуют два способа полноэкранного сглаживания - суперсэмплинг (SuperSampling AntiAliasing, SSAA) и мультисэмплинг (MultiSampling AntiAliasing, MSAA). В первом случае для того, чтобы на картинке, которую генерирует ускоритель, не было резких цветовых переходов между полигонами, картинка, грубо говоря, вначале рендерится с размерами, в несколько раз превышающими необходимые для вывода на экран, а затем приводится к требующемуся размеру. При этом для определения цвета каждого «итогового» пиксела вычисляется цвет нескольких составляющих его «субпикселов», и картинка получается более реалистичной, а главное - лишенной бросающихся в глаза ступенчатых линий. Однако SSAA - довольно жадный до ресурсов метод, поэтому куда чаще используется MSAA, при котором сглаживаются только те пикселы, которые находятся в непосредственной близости от граней полигонов, присутствующих в сцене. Если мы рисуем на экране, скажем, кубик, то в «подробном» варианте будут рассчитаны только несколько процентов пикселов, составляющих ближайшие окрестности ребер кубика. Поскольку именно здесь, как правило, и встречаются требующие сглаживания ступеньки, то производительность при таком способе рендеринга падает несильно, и качество картинки получается высоким.

Конечно, и у MSAA есть недостатки: зачастую дизайнеры сцен предпочитают не плодить в ней множество полигонов, а использовать разнообразные прозрачные текстуры. Всяческие стекла, зеркала и прозрачная вода не в счет: речь идет о куда более «приземленных» и очень часто встречающихся листьях деревьев (на одном полигоне простой формы рисуется один или несколько листьев сложной формы) и всевозможных решетках (на паре полигонов рисуется изображение решетки). Края таких «граней» MSAA, естественно, обработать не в состоянии - он о них попросту не догадывается.

Решение Nvidia напрашивается само собой: использовать сглаживание не только вблизи граней, но и внутри прозрачных и полупрозрачных полигонов. Кроме того, поддерживается такая модная сегодня фича, как антиалиасинг с повернутой решеткой - когда субпикселы при сглаживании берутся не из более мелкой решетки, полученной разбиением стандартной «пиксельной решетки» вертикальными и горизонтальными линиями на одинаковые субпикселы, а из мелкой сетки, повернутой относительно горизонтали на некоторый угол (обычно 20-30°). Этот способ дает лучшие результаты при отображении близких к горизонтальным и вертикальным линий, для которых эффекты алиасинга особенно заметны. Текущие драйверы, правда, слегка глючат при определении полупрозрачных полигонов (сглаживается не все, что нужно), однако надо полагать, что вскоре эти мелкие недочеты будут исправлены.

Благодарим компанию IT-Labs за предоставленный образец видеокарты nVidia 7800GTX.

Это просто GTX… А что покажет «Ультра»?

« Мы рождены, чтоб сказку сделать былью,
Преодолеть три-дэ-фигур простор,
Нам ускоритель дал большие крылья,
А вместо сердца - пламенный мотор.

Все выше, и выше, и выше
Вершим мы полет игроков,
И в каждом процессоре дышат
Сигналы три-дэ-маяков.

Бросая ввысь свою три-дэ-фортуну
Или творя невиданный полет,
Мы сознаем, (не только лишь по ДУМу)
Что это наш трехмерный сильный флот!

Все выше, и выше, и выше
Вершим мы полет игроков,
И в каждом процессоре дышат
Сигналы три-дэ-маяков.

Наш острый взгляд пронзает каждый пиксель,
Наш каждый нерв решимостью одет;
И, верьте нам, на каждый глупый тексель
Найдется от фильтрации ответ.

Все выше, и выше, и выше
Вершим мы полет игроков,
И в каждом процессоре дышат
Сигналы три-дэ-маяков. »
(по мотивам известной советской довоенной песни)

Да, вот такое интригующее название. Ведь если посмотреть на разницу в частотах между 256- и 512-мегабайтными вариантами GeForce 7800 GTX, то не каждой «Ультре» снился такой прирост! Мы помним максимальное отличие по частотам у GeForce FX 5800 Ultra и 5800 - 100 МГц по ядру. У 6800 Ultra и 6800GT и того меньше. А в данном случае разница в 120 МГц по ядру, и карты называются одинаково!

Воистину, дивные дела творятся в мозгах маркетологов! То каждую ревизию одного и того же чипа называют иначе и присваивают другое имя продукту в целом, то теперь совершенно разные карты, которые по названию отличаются лишь объемами памяти, получили одинаковое обозначение. Причем даже в самой NVIDIA смущаются при справедливом вопросе: «А что, будет разве еще и «Ультра»? А если нет, то почему не дали такой индекс этой карте?»

И вразумительного ответа нет. Впрочем одно точно известно: 7800 Ultra не будет! Следующий продукт, который будет даже мощнее нынешнего флагмана, будет носить уже иное имя. Поэтому заголовок - для того, чтобы лишь заинтриговать:)

Я не буду распространяться о будущем, что ожидает рынок 3D-ускорителей в начале 2006 года, всему свое время, но на сегодня ясно, что GeForce 7800 GTX 512MB претендует на трон и корону, как самый быстрый в мире акселератор игрового класса. Да, вот так длинно и сложно теперь надо обозначать ускоритель, чтобы отличить его от того, что мы видели ранее с 256-ю мегабайтами ОЗУ. Да и сам GPU так и именуется: GeForce 7800 GTX 512.

Разумеется, это все тот же G70. Ничего нового не вносилось, ревизия та же (А2). Просто еще летом на стадии производства было принято решение отбирать самые быстродействующие чипы, способные работать на сверхвысоких частотах, и откладывать. В то время еще ничего не было известно насчет ATI RADEON X1800 XT, ни его характеристик, ни его частот. И потому NVIDIA делала разные ходы, чтобы предусмотреть возможные ответные меры в случае, если соперник окажется сильнее, чем GeForce 7800 GTX 256MB. И это было очень дальновидное решение.

Теперь же, когда стало ясно, что превосходство X1800 XT 512MB над 7800 GTX 256MB не столь велико, а подчас и даже имеются небольшие отставания, накопленный арсенал пора пускать в ход. Да, относительно массовости поставок средних и дешевых решений набранное число чипов G70 для 512-мегабайтных карт является конечно небольшим, однако для начала выпуска ускорителей ценой выше 600 долларов США вполне достаточно. К тому же, отбор GPU продолжается и сейчас. По мере отлаживания производства (а этот процесс по сути может быть вплоть до 100% выхода годных) таких ядер может быть больше, чем спрос на супердорогие 512-мегабайтные карты, и потому вполне возможно, что часть обычных 7800GTX 256MB будет оснащена такими вот супер-потенциальными GPU, что станет подарком оверклокерам. Повторяю, что это лишь предположение! Может быть спрос на 512-мегабайтные продукты будут столь велик, что все отобранные чипы пойдут только на выпуск подобных карт.

Вернемся к X1800 XT. Всем понятно, что новое решение NVIDIA выпустила именно как противовес флагману ATI. И именно в те дни, когда канадская компания объявила о доступности в продаже своих новейших ускорителей. Неслучайно и цена на 7800 GTX 512 установлена почти на сотню долларов выше, чем изначальная MSRP у X1800 XT ($549) - 649 долларов США. Ведь не секрет, что продуктов на базе X1800-серии пока очень мало, спрос велик, цены подняты до небес! И разумеется, по 550 долларов X1800 XT в середине ноября 2005 года не купить. И даже по 600 не найти. Цена будет выше. И даже MSRP увеличена до 599 долларов.

Почему бы NVIDIA не извлечь прибыль из этого? Хотя, нельзя забывать, что себестоимость 7800 GTX 512 все же очень высока. Впрочем, давайте изучим саму карту.

Карта имеет 512 МБ памяти GDDR3 SDRAM, размещенной в 8-ми микросхемах на лицевой стороне PCB.

Хочу сразу внести ясность - что за режим такой HQ на диаграммах. Это не High-Quality в драйверах, а использование режимов работы АА или АФ повышенного качества: у NVIDIA включение TAA, у ATI - AAA и AF High Quality.

Игровые тесты, сильно нагружающие блоки вершинных шейдеров, смешанно блоки пиксельных шейдеров 1.1 и 2.0, активное мультитекстурирование.

FarCry, Research

Учитывая, что игра даже в 1600х1200 при АА+АФ на таких мощных картах упирается в процессор, разницы не столь велики, но констатируем факты прироста скорости относительно 256-мегабайтного варианта. И видим примерный паритет с X1800XT.

Несмотря на отменный результат по опережению соперника в HQ-режимах, надо всегда учитывать, что качество анизотропии у X1800XT несравненно выше в таком режиме.

Игровые тесты, сильно нагружающие блоки вершинных шейдеров, блоки пиксельных шейдеров 2.0, активное мультитекстурирование.

F.E.A.R. v.1.01

Очень хорошие результаты мы видим в этом тесте у новинки! Даже предыдущий флагман в лице разогнанного 7800 GTX 256MB от ASUS, остался позади с приличным отрывом. Констатируем победу и над X1800 XT. Лишь GeForce 7800 GTX SLI при его заоблачной цене остался лидером гонки.

А вот режим HQ привел соперников к паритету, несмотря на 8% преимущества у 7800 GTX 512, X1800 XT в таком режиме обладает бОльшим качеством анизотропии.

А вот здесь, хоть и ярко видно превосходство 7800 GTX 512 над соперником в лице X1800 XT, однако в режиме HQ картина резко меняется. И мы видим, что продукт канадцев одерживает верх, учитывая еще то, что в данном случае качество АФ у него выше.

Что касается остального, то ничего нового: ясно дело, что частоты сделали свое дело, и 7800 GTX 512 сильно обошла 256-меговых соперников, не дотянув лишь до 7800 GTX SLI.

А этот тест нам четко продемонстрировал явную победу 7800 GTX 512 по всем фронтам.

Half-Life2: ixbt01 demo

При тестировании X1800 XT мы еще тогда обратили внимание на то, что результаты в 3DMark05 как-то разительно выбиваются из общей колеи, и демонстрируют такую великую победу продукту ATI, каковой нет ни в одном игровом тесте. Ну причина ясна: тесты тут все чисто шейдерные, а вычислительная мощь GPU - давний конек канадской компании.

Но и тут, как говорится, нашелся ответ. Все же 550 МГц у ядра с 24-мя конвейерами сделали свое дело, и мы видим, что 7800 GTX 512MB одерживает верх. А разогнанная карта преодолела и психологическую у оверклокеров отметку в 10 000 очков.

Дополнительным исследованием стало сравнение GeForce 7800GTX 512MB на сниженных до 430/1200 МГц частотах с GeForce 7800GTX 256MB, для которого данные частоты - штатные. Правда, надо обратить внимание на то, что у 256-меговой карты геометрический блок все же работает на 470 МГц.

Как мы видим, наличие 512 мегабайт памяти при равных частотах ничего не дало! А где есть минусы, то там явно прослеживается влияние геометрического блока у 256-мегабайтной карты, работающего на более высокой частоте.

Итак: NVIDIA GeForce 7800 GTX 512MB - самый быстрый на сегодня 3D-Ускоритель игрового класса! Это можно считать доказанным. Где-то может встречаться паритет с X1800 XT, но в целом скорость заметно выше. Плюс карта обладает отменным разгонным потенциалом! Да, цена выше, чем у X1800 XT: 640 долларов против 599. Однако, учитывая, что 7800 GTX 512MB уже начал продаваться (до анонса!), и многие карты уже на пути в магазины, цена на них может легко упасть до 600 и даже ниже.

Чего пока нельзя сказать про X1800 XT, которых еще крайне мало, и цены запредельные (на середину ноября).

Следует отметить также, что использование нового кулера и смена PCB у 7800 GTX 512 против 256-мегабайтного аналога положительно сказались на нагреве карты в целом в плане его снижения. Плата не такая огненная, как раньше. Да и нагрев ядра не превышает 80 градусов даже при таком супер-разгоне как 620 МГц.

Система охлаждения очень тихая, частота вращения вентилятора не выше 1000 оборотов в минуту, есть выдув воздуха за пределы системного блока.

В общем, если не считать очень высокую цену, карта очень и очень понравилась. Недостатком могу назвать лишь плохое качество анизотропии в настройках драйверов в режиме Quality, когда как при включении High Quality этот недочет пропадает, но вместе с тем и отключается ряд полезных оптимизаций. И потому сложно выбрать - что лучше: Quality или High Quality в настройках драйверов. Однако это все касается всех 7800-карт, а не только данной. В этом плане у X1800 XT ситуация лучше, да и выбор есть по качеству АФ.

В целом надо отметить еще раз очень удачное выступление NVIDIA в этом году, которой реально пока светит фортуна, и она предлагает очень интересные продукты. Надеюсь, что ответ ATI не заставит себя долго ждать, и серия X1800 завоюет внимание и любовь поклонников 3D-игр. Пока же из-за дефицита и завышенных цен на X1800 решения NVIDIA в классе Hi-End выглядят более привлекательно.

Есть сведения, что канадская компания рекомендовала партнерам повышать частоты работы X1800 XT. Если это правда, то будет весьма интересно посмотреть - что из этого получится. Хотя учитывая разгонный потенциал 7800 GTX 512 и уже факты появления в продаже официально разоганных по ядру до 580 МГц таких плат, мне кажется, что с этой затеей у ATI ничего не выйдет. Канадцам остается лишь наращивать усилия по тому, чтобы X1800 XT был доступен, а также снижать на него цены.

Ну и готовиться к новому раунду битвы, которая состоится уже весной 2006 года. Хотя есть данные, что ATI готовит весомый ответ, который появится уже очень скоро.

Более полные сравнительные характеристики видеокарт этого и других классов вы можете увидеть также в наших 3DGiТогах .

Память для тестовых стендов предоставлена компанией




Top