Revisión de la tarjeta de video ATI RADEON VE. Especificaciones de la tarjeta de referencia

IntroducciónComo recordará, el verano pasado ATI lanzó dos nuevos chips gráficos: RADEON 8500 y RADEON 7500.
El RADEON 8500 incorporó los últimos desarrollos de ATI, y no me equivocaré si digo que recientemente este chip gráfico se ha convertido en el más rico en nuevas funciones y capacidades, especialmente en el contexto de la aparición de "una especie de nuevos" chips de la serie Titanium. de Nvidia. El RADEON 8500 resultó ser muy rápido, interesante, no exento de defectos, por supuesto, pero aceptó con dignidad el desafío que le plantearon los mejores modelos de su “amigo jurado”.
El hermano menor de la nueva familia, el RADEON 7500, ubicado a la sombra del RADEON 8500, no atrajo tanta atención, no fue acariciado ni maldecido con la misma fuerza en las páginas de Internet, aunque no merece menos atención como nuevo producto.
ATI RADEON 7500 se fabrica con tecnología de 0,15 micrones, su parte 3D se hereda íntegramente de ATI RADEON y su parte 2D se hereda de RADEON VE.
Por lo tanto, el RADEON 7500 contiene detalles arquitectónicos establecidos desde hace mucho tiempo que han resistido la prueba del tiempo. Y redirigir el chip y transferirlo a un proceso técnico más refinado hizo posible lograr un funcionamiento a frecuencias muy altas, hasta 300 MHz y más. El resultado es un nuevo chip que tiene arquitectura ATI RADEON, pero es casi el doble de rápido y, al mismo tiempo, tiene soporte de alta calidad para configuraciones de dos monitores. El objetivo del lanzamiento de ATI RADEON 7500 es suplantar a su "amigo jurado" en el sector de las tarjetas de video de nivel medio: NVIDIA GeForce2 Pro, GeForce2 Ti y, en parte, GeForce3 Ti200.

Ahora las placas basadas en el chip ATI RADEON 7500 ya se venden en todas partes, y este es otro mérito de ATI: finalmente, la producción de tarjetas de video se subcontrató a empresas de terceros, lo que inmediatamente permitió reducir el precio y aumentar el número. de tarjetas de video producidas.
Nuestro objetivo es comprender qué es el RADEON 7500 e intentar comparar objetivamente las placas basadas en él con tarjetas de video basadas en chips NVIDIA que tienen un precio similar.
¿Empezamos?

Características y capacidades de la ATI RADEON 7500

Principales características del chip y capacidades 3D:

Frecuencia de funcionamiento: 270-290 MHz
Interfaz de memoria de vídeo: SDRAM de 64/128 bits o SDRAM DDR
Número de canalizaciones de píxeles: 2
Número de módulos de textura: 3 en cada canal
Aplica hasta tres texturas en una sola pasada.
Filtrado de texturas bilineal, trilineal y anisotrópica.
Imitación de relieve mediante métodos Emboss, Dot3, EMBM.
Soporte para compresión de texturas S3TC/DXTC
Antialiasing de pantalla completa 2x, 4x usando el método de supermuestreo
Unidad de hardware T&L
Soporte HyperZ

Capacidades de reproducción de vídeo y 2D:

Dos controladores CRT integrados
Dos RAMDAC integrados con frecuencia de conversión de 350 MHz
Transmisor TMDS incorporado para salida a monitores digitales
Codificador de TV incorporado para mostrar imágenes en TV.
Soporte de desentrelazado adaptativo
Soporte de decodificación de hardware de DVD - iDCT

Entonces, de lo anterior se deduce que ATI RADEON 7500 admite configuraciones de monitor dual. Son posibles las siguientes combinaciones de conexión al RADEON 7500:

Monitor analógico + monitor analógico (si tienes un adaptador DVI-I -> VGA)
Monitor analógico + monitor digital
Monitor analógico + TV
Monitor digital + televisor

Lo que es digno de mención es que en el RADEON 7500, absolutamente cualquier dispositivo de visualización puede ser "primario" o "secundario", ya que en el RADEON 7500, como en el RADEON VE, ambos controladores CRT son completamente iguales.
En la revisión de ATI RADEON VE, el funcionamiento en configuraciones de dos monitores se discutió con suficiente detalle, por lo que no tiene sentido repetirlo ahora.

Tarjeta ATI RADEON 7500

La placa ATI RADEON 7500 está equipada con salidas VGA, DVI y S-Video, pero no impresiona con una gran cantidad de chips: todo lo que necesita está integrado en el núcleo RADEON 7500:


El "corazón" de la placa es el chip ATI RADEON 7500, fabricado con tecnología de 0,15 micrones:


La placa está equipada con 64 MB de memoria de vídeo DDR SDRAM fabricada por Hynix con un tiempo de ciclo de 4 ns:


Las frecuencias de reloj de la memoria central y de video en la placa que participó en las pruebas, ATI RADEON 7500 OEM, son 270/460 (230 DDR) MHz de forma predeterminada.
Lo característico es que la situación con las frecuencias centrales de RADEON 7500 y RADEON 8500 es similar: solo las placas ATI RADEON 7500 Retail tienen una frecuencia de reloj central de 290 MHz, y todas las demás tarjetas de video basadas en ATI RADEON 7500, incluidas El RADEON 7500 en la versión OEM de la propia ATI tiene una frecuencia central de 270 MHz. Afortunadamente, la frecuencia de la memoria de video en todas las placas basadas en ATI RADEON 7500 sigue siendo la misma y asciende a 230 (460 DDR) MHz.
Al realizar pruebas, configuramos las frecuencias de funcionamiento de la placa ATI RADEON 7500 en 290/230 MHz, igual que Retail ATI RADEON 7500

sistema de prueba

Para probar las placas se utilizó el siguiente sistema:

Procesador: AMD Athlon XP 1500+;
Placa base: MSI K7T266 Pro2 v2.0 (VIA KT266A);
Memoria: 2*128 MB DDR SDRAM PC 2100 Nanya CL2;
Disco duro: Fujitsu MPF3153AH.

Software:

Versión del controlador 6.13.10.6011 para Windows XP para ATI RADEON 7500;
Controlador Detonator 23.11 para Windows XP para placas basadas en chips NVIDIA;
Max Payne;
Sam serio v1.05;
3DMark 2001;
Quake3 Arena v1.27;
WindowsXP.

Para comparar el rendimiento, se probaron las siguientes placas junto con la ATI RADEON 7500:

SUMA Platinum GeForce2 Pro (NVIDIA GeForce2 Pro, 200/400MHz, SDRAM DDR de 64 MB)
VisionTek Xtasy 5864 (NVIDIA GeForce2 Ti, 250/460MHz, SDRAM DDR de 64 MB)
VisionTek Xtasy 6564 (NVIDIA GeForce3 Ti200, 175/400MHz, SDRAM DDR de 64 MB)

Velocidad en 3D

3DMark 2001

Para empezar, aquí hay pruebas sintéticas de 3DMark 2001 para la velocidad de llenado y procesamiento de polígonos:



ATI RADEON 7500, gracias a la optimización del trabajo con el búfer Z y la capacidad de aplicar tres texturas en una sola pasada, tiene las pérdidas más bajas en la velocidad de llenado de escenas al pasar de modos de pantalla de 16 bits, búfer Z y calidad de textura a 32. -poco. Además, debido a la mayor frecuencia de la memoria de video, el ancho de banda máximo de la memoria de video en la ATI RADEON 7500 es mayor que el de sus competidores en esta prueba.
Pero las pérdidas son pérdidas, y el rendimiento de la ATI RADEON 7500 resulta ser menor que el de una placa basada en NVIDIA GeForce3 Ti200, a pesar de la menor frecuencia de reloj de la memoria de video de esta última. Aquí, el papel desempeñado por el doble de tuberías de píxeles de la GeForce3 Ti200, que proporcionó una mayor tasa de llenado teórica, y la arquitectura de memoria GeForce3, LightSpeed ​​​​Memory Architecture, que hizo posible utilizar de manera efectiva el ancho de banda de la memoria de video. Como resultado, NVIDIA GeForce3 Ti200 y ATI RADEON 7500 son líderes en esta prueba.



Cuando se utiliza la unidad de hardware T&L, la ATI RADEON 7500 resulta ser el líder, sin embargo, esto no significa que la unidad de transformación e iluminación de la RADEON 7500 sea mucho más potente que la de la GeForce2 Ti o la GeForce2 Pro. Vale la pena recordar que ATI RADEON 7500 tiene la frecuencia central más alta entre todos los participantes de la prueba, y si realiza cálculos simples, imaginando cuál será el resultado de ATI RADEON 7500 a una frecuencia central de 175-200 MHz, Quedará claro que el rendimiento del T&L RADEON 7500 es aproximadamente igual al rendimiento de la GeForce2 Pro / Ti; a las mismas frecuencias será un poco más lento en la prueba con una fuente de luz y un poco más rápido en la prueba con 8 luces. .
En el caso del cálculo por software de la geometría de la escena, la ATI RADEON 7500 resulta ser un claro outsider, y por ello sólo se puede culpar a la calidad de la optimización del controlador.

Honestamente, podríamos considerar otras pruebas, mostrar otras características de la arquitectura ATI RADEON 7500, por ejemplo, el funcionamiento de tres módulos de textura o HyperZ, pero, en primer lugar, esto no es tan interesante y, en segundo lugar, no hay nada nuevo al respecto. No deberías esperar nada del RADEON 7500: la parte 3D del ATI RADEON 7500 no tiene ninguna innovación en relación con el viejo RADEON.
Por tanto, terminemos con las pruebas sintéticas y pasemos a las de juego.

Las pruebas en 3DMark 2001 se llevaron a cabo solo en las pruebas Dragothic y Lobby; se encontró que la primera de las restantes, Car Chase, tenía demasiada dispersión en los resultados y dependía en gran medida de la velocidad del procesador, y la segunda, Nature, Como comprenderá, sólo funcionará en la GeForce3 Ti200.





No es un mal resultado para la ATI RADEON 7500. Debido al hecho de que en esta prueba se utiliza la superposición de tres texturas y el indicador de sobregiro es bastante alto, lo que da espacio para que HyperZ actúe, la RADEON 7500 no es mucho más lenta que la GeForce2 Pro/Ti en el modo "Detalles bajos". , e incluso con confianza en el modo "Altos detalles" permanece en el segundo lugar. Por supuesto, la RADEON 7500 no pudo superar a la GeForce3 Ti200, que tiene una arquitectura más moderna.





La ATI RADEON 7500, que tiene sólo 2 canales de píxeles y una tasa de relleno de escena más baja, resulta ser más lenta en modos de 16 bits que la GeForce2 Pro/Ti. Pero en 32 bits, gracias a la acción de HyperZ y a las grandes cachés, la posición incierta de la RADEON 7500 se fortalece y, al aumentar la resolución, se convierte en una sólida ventaja sobre la GeForce2 Pro/Ti, con un margen de velocidad del 20%.
El líder sigue siendo NVIDIA GeForce3 Ti200.

Max Payne

Se utilizó para pruebas en Max Payne. mod de referencia y escena de prueba Escena final número 1 de PCGH, cuya descripción se encuentra en el sitio web alemán 3DCenter.
Las pruebas se realizaron en dos versiones:

Primera opción - " calidad": se establece la configuración máxima de calidad de gráficos, la profundidad de color de las texturas y el búfer de fotogramas es de 32 bits, pero el filtrado de texturas no es anisotrópico, sino trilineal, y el suavizado de pantalla completa está desactivado (después de todo, no estamos probando la GeForce3 Ti500 y RADEON 8500 :) ... )
Segunda opción - " velocidad" - configuración mínima de calidad de gráficos, textura y profundidad de color del búfer de cuadros - 16 bits.

Espero que tanto los amantes de la "velocidad a cualquier precio" como aquellos para quienes la calidad de la imagen es más importante que el número de fotogramas por segundo queden satisfechos con estas pruebas:


Como puede ver, la diferencia de velocidad entre los modos "calidad" y "velocidad" es grande, sin embargo, los resultados mostrados por las tarjetas de video son muy similares. Los resultados de ATI RADEON 7500, NVIDIA GeForce2 Pro y GeForce2 Ti están aproximadamente al mismo nivel, mientras que el líder vuelve a ser GeForce3 Ti200.
No hubo quejas sobre la calidad del trabajo en Max Payne con ATI RADEON 7500, solo en el modo 1600x1200 se negó a funcionar, mostrando un mensaje de error:



Arena Quake3

Las pruebas en Quake3 Arena se llevaron a cabo en condiciones tradicionales: configuración de calidad máxima, filtrado trilineal habilitado, compresión de texturas deshabilitada:


En modos de 16 bits, como era de esperar, la RADEON 7500 es un outsider, sin embargo, en modos de 32 bits su rendimiento, gracias a una arquitectura más equilibrada, es comparable al de la GeForce2 Pro/Ti, y en resoluciones altas, gracias; para HyperZ, es aún mayor. Los resultados de la NVIDIA GeForce3 Ti200 nuevamente resultaron estar fuera del alcance de los demás participantes en esta revisión.

Sam serio

Decidimos realizar pruebas en Serious Sam similares a Max Payne en dos modos:

Primera opción: configuración de calidad de gráficos" calidad", profundidad del búfer de trama: 32 bits;
Segunda opción: configuración de calidad de gráficos" velocidad", la profundidad del búfer de trama es de 16 bits.

Para las pruebas utilizamos una grabación de demostración estándar DemoSP03:


Entonces el resultado fue muy interesante. Habiendo perdido ante todos en el modo "velocidad", la RADEON 7500 tuvo un desempeño excelente en el modo "calidad", ¡incluso superando a la anteriormente inalcanzable GeForce3 Ti200 en el modo 1600x1200!
En el modo "calidad", el motor Serious Sam permite el filtrado anisotrópico, y esta es precisamente la razón del éxito de la RADEON 7500. La RADEON 7500 realiza un filtrado anisotrópico prácticamente sin pérdida de velocidad, mientras que la GeForce2 Pro/Ti, no Por no hablar de la GeForce3, pierde velocidad y hay mucha productividad.
Por cierto, podemos citar fragmentos de los archivos de configuración de Serious Sam, que indican qué nivel de filtrado anisotrópico se utiliza en diferentes tarjetas de video en el modo "Calidad":


NVIDIA GeForce256 / GeForce2 / GeForce3:
si(sam_iVideoSetup==2) (
gap_iTextureAnisotropy = 4;
gap_fTextureLODBias = -0,5;
}

Familia ATI RADEON, RADEON 7xxx, RADEON 8xxx:
si(sam_iVideoSetup==2) (
gap_iTextureAnisotropy = 16;
gap_fTextureLODBias = -0,5;
}

Como puede ver, para el RADEON 7500 el nivel de anisotropía establecido por los desarrolladores de Serious Sam resultó ser aún mayor y, al mismo tiempo, el RADEON 7500 sigue a la cabeza.

Intentaré explicar cómo los chips de la serie RADEON logran realizar un filtrado anisotrópico de manera tan sencilla en la sección “Calidad 3D”, y ahora, con respecto a Serious Sam, hablaré sobre una nueva característica de su motor.
Serious Sam 1.05 introdujo la posibilidad de utilizar Direct3D y, por supuesto, no dejé de aprovecharla. Los resultados de rendimiento de las placas basadas en chips NVIDIA resultaron cercanos a los resultados en OpenGL y, sin esperar ningún inconveniente, estaba a punto de compararlos con el rendimiento de ATI RADEON 7500... Sin embargo, al ejecutar Serious Sam a través de Direct3D en ATI RADEON 7500, vi una imagen terrible:


Por supuesto, no se puede comparar el rendimiento de Serious Sam con el ATI RADEON 7500 funcionando así.
La pregunta sigue siendo: ¿quién tiene la culpa de esto: el controlador Direct3D de ATI o los desarrolladores de Croteam, que probaron Direct3D solo en placas de NVIDIA? :)

Calidad en 3D

La cualidad más interesante de ATI RADEON 7500/8500 es la rápida implementación del filtrado anisotrópico.

Permíteme recordarte que el filtrado anisotrópico es el método más correcto de filtrado de texturas, permitiéndote obtener una imagen de máxima calidad. Cuando se utiliza el filtrado anisotrópico, para obtener el color de un píxel, no es el color de la textura en el punto de la superficie del objeto correspondiente a ese píxel, ni el valor de color interpolado de los cuatro texels adyacentes que rodean la proyección del píxel. píxel, como es el caso del filtrado bilineal. Con el filtrado anisotrópico, un píxel se trata como un pequeño círculo o rectángulo que tiene una proyección sobre la textura en forma de elipse o cuadrilátero, y los colores de todos los texels que caen en esta proyección se tienen en cuenta para obtener el color del píxel.
En consecuencia, a medida que disminuye el ángulo entre la línea de visión y la superficie observada, la elipse (la proyección del píxel) se estirará, lo que llevará a la necesidad de promediar los colores de cada vez más téxels. Con este método de construcción, los costes computacionales resultan muy elevados, pero la calidad de la imagen resultante será igualmente alta. No en vano, por ejemplo, todos los paquetes modernos de modelado 3D utilizan filtrado anisotrópico para el resultado final; construcción de escenas.
Por supuesto, los aceleradores de vídeo utilizan métodos de filtrado anisotrópico simplificados. Por ejemplo, NVIDIA GeForce3, para obtener el color final de un píxel, aparentemente "coloca" de manera uniforme varios puntos en el eje longitudinal de la elipse: la proyección del píxel (1,2,4,6,8, su número depende de el alargamiento de la elipse o el nivel de anisotropía), en el que realiza un filtrado bilineal y luego promedia los colores resultantes, posiblemente con diferentes coeficientes de ponderación.
Por supuesto, todo esto son conjeturas, pero encaja perfectamente con la práctica. Y la práctica ha demostrado que GeForce3 requiere un ciclo de reloj adicional para procesar cada uno de esos puntos; por ejemplo, el filtrado anisotrópico utilizando 32 muestras (8 puntos, 8 operaciones de filtrado bilineal, 8x4 = 32) resulta ser exactamente 8 veces más lento que el filtrado bilineal. .

La familia ATI RADEON implementa el filtrado anisotrópico, aparentemente, de una forma completamente diferente.
Empezaré desde lejos :).
Se sabe que para evitar el "baile" y la "granulosidad" de las texturas en objetos distantes, se utiliza MIP-Mapping, es decir, reemplazando la textura original con sus versiones menos detalladas a medida que el objeto se aleja del espectador. En la figura, la textura original se muestra en la parte superior izquierda y sus niveles de mip corren diagonalmente hacia la derecha y hacia abajo desde la textura original:


El tamaño de la textura en cada nivel MIP es 2 veces menor que su tamaño en el anterior, y el color de cada texel es el promedio de los colores de los cuatro texels correspondientes del nivel MIP anterior.

Sin embargo, no es esto lo interesante, sino dos filas más en las que la textura se filtra y se comprime sólo a lo largo de uno de los dos ejes. En la figura, estas filas se muestran hacia la derecha y hacia abajo desde la imagen de textura original.
Llamémoslos, por analogía con los niveles MIP, "niveles RIP". ¿Por qué son notables? El hecho es que el color de cada texel de cualquier "nivel RIP" de esta serie es el valor promedio de los colores de dos texels del "nivel RIP" anterior. ¿Por qué es necesario todo esto? Imaginemos esta situación: miramos el plano con nuestra textura en un ángulo agudo, algo como esto:


La proyección de uno de los píxeles sobre la textura se muestra como una elipse roja. En teoría, para realizar correctamente el filtrado anisotrópico, necesitamos promediar los colores de todos los texels que caen en la elipse; están delineados en un marco verde.
Sin embargo, vale la pena recordar que hemos preparado una serie de "niveles RIP", y de ellos puede seleccionar aquel en el que el grado de compresión sea lo más cercano posible al grado de anisotropía, es decir, el grado de "alargamiento". ”de la elipse, haga un filtrado bilineal y obtenga. El resultado es un color que es el promedio de los colores de los texturas de textura originales que necesitamos. Espero haber podido mostrar esto con suficiente claridad en la figura.
Como resultado, al tener varias versiones preparadas previamente de la textura original: "niveles RIP", podemos realizar el filtrado con cualquier nivel razonable de anisotropía, utilizando en realidad solo filtrado bilineal, es decir, prácticamente sin pérdida de rendimiento.
De la naturaleza de este método, llamado mapeo RIP, se deduce que sus resultados serán más correctos en el caso en que el ángulo de inclinación de la elipse esté cerca de uno de los ejes de la textura, y en ángulos "inconvenientes" cercanos a las diagonales. , el mapeo RIP no puede proporcionar una calidad superior a la del filtrado bilineal. En consecuencia, para evitar la pérdida de la calidad del filtrado de texturas en ángulos "incómodos", puede utilizar algunos niveles RIP combinados, comprimidos simultáneamente a lo largo de dos ejes un número diferente de veces (pido disculpas por la tautología :)), y también introducir un número de niveles RIP "diagonales" o realizar filtrado anisotrópico utilizando otros métodos, por ejemplo, como NVIDIA GeForce3.

Aparentemente, la familia RADEON de ATI utiliza mapeo RIP. Cuando se utiliza este método, las líneas de conmutación de los niveles MIP o niveles RIP se rompen.
Es bastante sencillo comprobarlo: al habilitar el filtrado anisotrópico en una pequeña aplicación de prueba de NVIDIA, que utiliza extensiones OpenGL estándar y se ejecuta en cualquier tarjeta de vídeo, tomé capturas de pantalla en las que estas líneas son muy visibles. A la izquierda hay una imagen en ATI RADEON 7500, en el medio, en NVIDIA GeForce2 Ti, a la derecha, en NVIDIA GeForce3 Ti200:


En ATI RADEON 7500, las líneas de conmutación de niveles MIP tienen torceduras, intersecciones y, en general, se comportan de una manera completamente salvaje (¿de qué otra manera se puede hacer un filtrado trilineal?), a diferencia de los niveles MIP de NVIDIA GeForce2 y GeForce3, donde no hay anomalías.
Por cierto, los usuarios a veces notan artefactos asociados con el filtrado anisotrópico en las tarjetas de video ATI, y podría mostrar algunos fragmentos característicos de los juegos, pero, en primer lugar, en realidad no hay tantos comentarios de este tipo y, en segundo lugar, los artefactos son más fuertes. Se nota en la dinámica, que no se puede mostrar en las capturas de pantalla...

Por lo tanto, conviene completar la historia sobre los aspectos desagradables del filtrado anisotrópico y continuar la revisión con sus aspectos agradables. En primer lugar, es la velocidad: la familia ATI RADEON pierde un pequeño porcentaje de rendimiento cuando el filtrado anisotrópico está habilitado y, en segundo lugar, la calidad: en condiciones favorables, el filtrado anisotrópico en los chips RADEON es superior en calidad a su implementación en los chips de NVIDIA.
Como ejemplo, daré capturas de pantalla de Serious Sam, donde la calidad del filtrado anisotrópico se configuró al máximo para cada uno de los tableros. Como la última vez, a la izquierda hay imágenes de ATI RADEON 7500, en el medio, de NVIDIA GeForce2 Ti, a la derecha, de NVIDIA GeForce3 Ti200:





Resumiendo la parte sobre el filtrado anisotrópico de ATI RADEON 7500, solo puedo decir una cosa: NVIDIA GeForce2 / GeForce3 y ATI RADEON 7500 tienen algoritmos de implementación completamente diferentes, cada uno con sus pros y sus contras, y el derecho a elegir lo que más te guste. en nuestras manos.
Juntemos los pros y los contras:

Filtrado anisotrópico ATI RADEON 7500/8500:
Además, alta calidad;
Además, alta velocidad;
Menos: es imposible trabajar simultáneamente con filtrado trilineal;
La desventaja es que pueden producirse artefactos en determinadas situaciones.

Filtrado anisotrópico NVIDIA GeForce3:
Además, alta calidad;
La desventaja son las grandes pérdidas de productividad.

overclocking

El ATI RADEON 7500 fue overclockeado usando la utilidad PowerStrip 3.12.
Durante el overclocking, surgió una situación interesante: aumentar la frecuencia central, como se esperaba, condujo a un mayor rendimiento, pero aumentar la frecuencia de la memoria de video no condujo a nada. Curiosamente, era posible configurar cualquier frecuencia de memoria de video, incluso 800 MHz, pero la placa no respondió en absoluto.
Después de buscar y ver mensajes de propietarios de ATI RADEON 7500 en varias conferencias, no tuve más remedio que estar de acuerdo con ellos: parece que el chip RADEON 7500 o los controladores ATI tienen bloqueado el overclocking de la memoria de video.
Por lo tanto, el overclocking se realizó solo en el núcleo. La frecuencia central máxima a la que la placa funcionó de manera estable fue de 340 MHz. La ganancia de rendimiento con este overclocking se muestra en el gráfico:


De acuerdo, con un aumento en la frecuencia central del 17% (290->340 MHz), un aumento del 15 por ciento en Quake 3 y un aumento del 8 por ciento en Serious Sam es bastante bueno. Sin embargo, esto es de esperar: la arquitectura de la ATI RADEON 7500, como la "vieja" RADEON, está bien equilibrada y el rendimiento de la placa no está estrictamente limitado por el ancho de banda de la memoria de video en todas partes.

Conclusión

ATI RADEON 7500 es una tarjeta de video muy interesante que proporciona una excelente calidad de imagen, soporte completo para configuraciones de dos monitores, salida a TV y monitores digitales. Junto a todo ello, su rendimiento está a buen nivel en aplicaciones 3D.

Si comparamos la ATI RADEON 7500 con tarjetas de video basadas en NVIDIA GeForce2 Pro / GeForce2 Ti, entonces en términos 2D es definitivamente mejor, tanto en calidad como en funcionalidad. En juegos 3D, el rendimiento de la ATI RADEON 7500 está, en promedio, a la par con el de la GeForce2 Pro / GeForce2 Ti.
Los precios de estas placas son ligeramente más bajos que los de la ATI RADEON 7500, por lo que si elige una tarjeta de video no basada en GeForce2 Pro / Ti, sino en la ATI RADEON 7500, considere que está pagando más por su alta calidad. trabajar en 2D.

Una comparación de ATI RADEON 7500 y NVIDIA GeForce3 Ti200 muestra que esta última es más rápida en casi todos los juegos 3D. Sin soporte completo para DirectX8, la RADEON 7500 es aún menos capaz de competir con la GeForce3 Ti200.
Por otro lado, las placas basadas en GeForce3 Ti200 no pueden competir con la ATI RADEON 7500 en términos de funcionalidad 2D. La calidad de salida de pantalla de las tarjetas de video basadas en chips NVIDIA también puede resultar poco importante: existen diferentes fabricantes. Y las placas basadas en ATI RADEON 7500/8500, curiosamente, de cualquier fabricante resultan excelentes. ¿Estricto control de calidad por parte de ATI?
En general, si necesita una tarjeta de video puramente para juegos, puede elegir algo basado en la GeForce3 Ti200, el precio será más alto que el de la ATI RADEON 7500, la velocidad será mayor, pero cuál será la calidad de la tarjeta. ser es una gran pregunta.

Ventajas de ATI RADEON 7500:

Excelente calidad de instalación;
Soporte completo para configuraciones de dos monitores;
Disponibilidad de DVI y salida de TV de alta calidad;
Excelente calidad de imagen en el monitor;
Buena velocidad en 3D.

Contras:

Falta de soporte para sombreadores de vértices y píxeles DirectX8;
La escasez del juego de entrega.

Durante más de un año, nVidia siguió siendo invariablemente la empresa líder en el mercado de gráficos por computadora, y el liderazgo era tan fuerte y estable que nadie pensó siquiera en un posible cambio de líder.

Recordando los viejos tiempos, llegamos a la conclusión de que el modelo más competitivo de los últimos tiempos era la Radeon HD 2900XT, que, sin embargo, aún no podía superar a la GeForce 8800 GTX. Pero el año pasado apareció la Radeon HD 3870, que, desafortunadamente, nuevamente apenas tiene posibilidades serias de obtener el "oro" en comparación con sus competidores, aunque cumplió completamente con su misión: elevar el precio de referencia para la mayoría de productos similares.

El año 2008 ha comenzado y nVidia aún no ha presentado al público un producto real de próxima generación que realmente pueda avanzar en comparación con todos los productos anteriores de la compañía. Al mismo tiempo, esperábamos que AMD/ATI cumpliera su promesa de desarrollar una GPU dual basada en la Radeon HD 3800, que, a diferencia de las GPU múltiples tradicionales, no necesitaría funcionar correctamente en plataformas para dos tarjetas de video compatibles (. tecnología crossfire) y que puede convertirse en un sólido competidor en el mercado de gráficos de alta calidad.

Los desarrolladores de Radeon HD 3870 X2 colocaron dos procesadores gráficos (GPU) en una placa


Hablando francamente, éramos bastante escépticos acerca de la Radeon HD 3870 X2, ya que nos familiarizamos por primera vez con la idea entonces puramente teórica de su creación. La introducción de una tarjeta para la tecnología Crossfire, originalmente una tecnología sobre la función cruzada de dos tarjetas de video, podría provocar grandes retrasos en el lanzamiento del producto y una disminución total del atractivo de los dispositivos para los consumidores. De hecho, como lo ha demostrado la práctica, AMD pudo confirmar todas las declaraciones sobre la funcionalidad de su nuevo producto, porque Los desarrolladores lanzaron con bastante éxito la producción de la Radeon HD 3870 X2 y, lo que es mucho más importante, lograron ponerla inmediatamente a disposición de la venta minorista.

Como probablemente ya habrás adivinado, la ATI Radeon HD 3870 X2 son esencialmente dos procesadores gráficos Radeon HD 3870 ubicados en una placa de circuito impreso (PCB). Los procesadores utilizan el puente PCI Express 1.1 para organizar su trabajo en conjunto, lo que recuerda mucho a la funcionalidad cruzada de las tarjetas de video ATI. Sin embargo, aunque el X2 está claramente diseñado como un dispositivo de una sola tarjeta, aún podrá ejecutar dos tarjetas gráficas de forma cruzada. Esto significa que con el controlador seleccionado adecuadamente, el funcionamiento de un sistema de dos bits en modo cruzado se ha hecho realidad.

Mucho antes de probar el X2, creíamos que las GPU duales Radeon 3870 funcionarían bastante bien, pero también esperábamos que, al igual que con las tarjetas SLI duales estándar y el fuego cruzado, el X2 experimentaría cierta inquietud durante el juego. En principio, así resultó: para obtener más detalles, consulte la descripción de nuestras pruebas comparativas.

Una gran ventaja del diseño de Radeon es que permite al usuario no depender de las características de los controladores y los conjuntos de chips (después de todo, ambas GPU están ubicadas en la misma placa). Vale la pena señalar que los controladores modernos (Catalyst 8.1 y 8.45) nos parecen algo "inmaduros". Si bien el sistema generalmente funcionó de manera confiable durante las pruebas, a veces hubo varios fallos que no son típicos al jugar un juego de computadora en particular. Aún no está claro si esto es consecuencia del uso de Windows Vista Ultimate de 64 bits o no.

Pagar
Ahora, más que nunca, muchos fabricantes de todo el mundo están creando tarjetas de vídeo que siguen plenamente los diseños de ATI y nVidia; y la Radeon HD 3870 X2 no es una excepción, ya que la mayoría de las tarjetas que utiliza son idénticas a las tarjetas ATI. Y, sin embargo, durante el corto período de tiempo que este producto estuvo disponible, pudimos encontrar tarjetas completamente diferentes fabricadas por ASUS. Sus diferencias fueron un sistema de refrigeración mejorado, la presencia de cuatro puertos DVI y una frecuencia de memoria y núcleo de microprocesador ligeramente modificada. En todos los demás aspectos las cartas son exactamente iguales.

En términos de dimensiones, la ATI Radeon HD 3870 X2 es simplemente enorme: 26,5 cm de longitud, mucho más que el tamaño de una placa base ATX completa. Sin embargo, las dimensiones del X2 son muy cercanas a las dimensiones de la GeForce 8800 GTX/Ultra, por lo que estos números no causarán una gran sorpresa a nadie. En cuanto al diseño en sí, la versión de ASUS tiene varias diferencias obvias, y creemos que esta es una clara ventaja para este producto.

En lugar de utilizar una carcasa de plástico estándar para proteger contra el sobrecalentamiento, ASUS creó para este propósito una carcasa de aluminio negro, en la que hay dos orificios de ventilación (cada uno de 65 cm de diámetro) para enfriar los dos procesadores gráficos integrados en la placa. Si se retira esta carcasa, se hacen visibles dos filas de pequeñas placas de malla de aluminio, mientras que la segunda fila de placas tiene significativamente más. Cada una de estas placas está conectada a una placa de cobre mediante dos tubos de calor. De hecho, este sistema de refrigeración es más radical que sus variantes estándar y, como sentimos, a veces simplemente le falta potencia.

Además del nuevo enfoque del sistema de refrigeración, también notarás una gran placa de acero con la inscripción "DUAL" ubicada en la parte frontal de la tarjeta gráfica. Si examina detenidamente la placa posterior, también encontrará que no hay dos puertos DVI, sino cuatro, lo cual es típico de los dispositivos que utilizan tecnología Crossfire. Aquellos que estén muy interesados ​​​​en la posibilidad de conectar monitores LCD quedarán intrigados por este descubrimiento, ya que cuando se utilizan dos tarjetas de video, ¡el número de puertos DVI aumentará a 8!

La capacidad de memoria de la ATI Radeon HD 3870 X2 es de 1 GB (512 MB para cada GPU). El requisito técnico predeterminado para esta cantidad de memoria es 1800 MHz, aunque ASUS ha aumentado la frecuencia hasta 1910 MHz en las versiones más avanzadas de sus dispositivos. Además, cada procesador está diseñado para funcionar a 825 MHz, mientras que ASUS ha hecho posible que sus versiones superiores funcionen a 850 MHz. Se trata de un aumento del 3% en el nivel de frecuencia para cada GPU, pero podemos imaginarnos cuánto ha cambiado la actitud de los fabricantes hacia las soluciones de diseño de placas estándar.

Idealmente, los dispositivos ASUS pueden utilizar 1 GB de memoria GDDR3 .8ns de Hynix “HY5RS123235B FP-08”, lo que hace que la placa funcione con bastante rapidez. Logramos alcanzar una frecuencia de 2122 MHz antes de que el sistema comenzara a fallar. Para los microprocesadores, la limitación del parámetro anterior resultó ser 861 MHz, sólo 11 MHz más que antes.

Puntos de referencia: especificaciones y pruebas para Crysis

Características técnicas: hardware (hardware)
-Intel Core 2 Duo E8400 (3,00 GHz) LGA775
- x2 módulos OCZ DDR3 PC3-12800 Edición FlexXLC
- x2 módulos OCZ DDR2 PC2-6400 CL4 FlexXLC Edition
-ASUS P5N-T Deluxe (nVidia nForce 780i SLI)
-ASUS P5E3 Deluxe (Intel X38)
- OCZ GameXStream (700 vatios)
- Seagate 500GB 7200RPM (Serie ATA II)
- ASUS Radeon HD 3870 X2 (1 GB) - ATI Catalyst 8.4
-ASUS GeForce 8800 GTX (768 MB)
-ASUS GeForce 8800 GT (512 MB) SLI
-ASUS GeForce 8800 GT (512 MB)
- ASUS Radeon HD 3870 (512 MB) Crossfire - ATI Catalyst 8.1
- ASUS Radeon HD 3870 (512 MB) - ATI Catalyst 8.1

Software:
-Microsoft Windows Vista Ultimate (64 bits)
- nForce 9.46
- Controlador del sistema Intel 8.4.0.1016
- nVidia Forceware 169.28
-ATI catalizador 8.4
-ATI catalizador 8.1

Como puede ver, la Radeon HD 3870 X2 es sólo un poco más rápida que la configuración Radeon HD 3870 Crossfire, generando en promedio 2-3 fps más por expansión. Sin embargo, esto convierte a la Radeon HD 3870 X2 en la tarjeta gráfica más rápida, por delante de la GeForce 8800 GTX. Sin embargo, para todos los fanáticos de Crysis, la tarjeta GeForce 8800 GTX sigue siendo la mejor tarjeta para este juego.

Punto de referencia: Compañía de héroes

Nuevamente nos encontramos con que la Radeon HD 3870 X2 sólo logra unos pocos fotogramas más por segundo que la plataforma Radeon HD 3870 Crossfire, que podemos clasificar como un pequeño overclocker de CPU. Si bien la Radeon HD 3870 X2 funciona mejor que una sola GeForce 8800 GTX, todavía no es mejor que las tarjetas gráficas SLI GeForce 8800 GT.

Punto de referencia: MIEDO

Por primera vez, descubrimos que la Radeon HD 3870 X2 mostró ventajas significativas al ejecutar dos tarjetas Crossfire. Con una extensión de 1920 por 1200 y teniendo 4 en AA/16xAF, la 3870 X2 fue un 27% más rápida que Crossfire, con un ligero aumento de 1 fps sobre la GeForce 8800 GT SLI. ¡Desempeño constante en FEAR, sin duda!

Punto de referencia: PRESA

Los resultados de las pruebas comparativas de Prey son muy interesantes y, aunque el juego está un poco anticuado, queríamos darle sentido a nuestra investigación aquí. Sin AA/AF, la Radeon HD 3870 X2 supera la configuración Radeon HD 3870 Crossfire en las tres expansiones probadas, superando a la tarjeta GeForce 8800 GT SLI en 1920 por 1200. Sin embargo, cuando se configura en 4xAA/16xAF, supera a la 3879 X2. Cambiando la Radeon HD La tarjeta 3870 Crossfire está detrás de las demás en dos de tres pruebas.

Punto de referencia: Comandante Supremo

Como la mayoría de los juegos probados aquí, Supreme Commander muestra que la Radeon HD 3870 X2 es ligeramente superior a la configuración Radeon HD 3870 Crossfire.

Dado que la Radeon HD 3870 hace un buen trabajo suavizando los bordes en Supreme Commander, no nos sorprendió que la X2 superara a ambas tarjetas: la única GeForce 8800 GTX y la SLI GeForce 8800 GT.

Punto de referencia: UT3, Mundo en conflicto

La Radeon HD 3870 X2 pudo superar a la configuración 3870 Crossfire en 6-7 fps. sin embargo, fue superada por la GeForce en 1440 por 900 y 1680 por 1050, manteniendo la resolución en un máximo de 1920 por 1200.

World Conflict muestra resultados mixtos (diferentes), aunque todas las cartas tuvieron un rendimiento similar. La Radeon HD 3870 X2 fue la solución más rápida con una resolución de prueba de 1440 por 900, sin embargo, los gráficos GeForce 8800 GTX fueron ligeramente mejores.

Absorción de potencia y temperatura.

Cuando se utiliza una sola tarjeta, la Radeon HD 3870 X2 consume un poco menos de energía que la GeForce 8800 GTX en inactivo, mientras que requiere mucha más energía bajo carga. De hecho, cuando se utiliza en Crysis, la 3870 X2 consume un 23% más de energía que la GeForce 8800 GTX.

En comparación con la tecnología Crossfire Radeon HD 3870, encontramos que la 3870 X2 utiliza un 9% menos de energía. Este no es como otros resultados que hemos visto en línea, pero podemos convencerlo de que verificamos nuestras mediciones tres veces.

Estamos muy contentos de ver que la solución de refrigeración mejorada de ASUS funciona tan bien, ya que la Extreme AH3870X2 funcionó un poco más fría que la tarjeta Radeon HD 3870 sola. Sin embargo, 80 grados sigue siendo demasiado para nuestro gusto, por así decirlo, con todo ese aire caliente circulando por el cuerpo. Supongo que tendremos que esperar a que Arctic-Cooling produzca Accelero Xtreme para la Radeon HD 3870 X2 antes de que veamos mejores temperaturas.

Pensamientos finales
Más vale tarde que nunca, ¡AMD/ATI lo hizo! No hay duda de que la Radeon HD 3870 X2 es la tarjeta única más rápida disponible en la actualidad.

Quedamos impresionados con las capacidades de la nueva tarjeta Radeon. Sobre todo porque, una vez instalado, es fácil olvidar que estábamos trabajando con dos GPU. El 3870 X2 funcionó sin problemas en todos los juegos para los que lo usamos. No hubo trámites burocráticos que suelen venir con Crossfire. Podríamos simplemente sentarnos y relajarnos mientras jugamos.

La Radeon HD 3870 X2 resultó ser más estable de lo que esperábamos inicialmente, porque... funcionó de manera muy similar a la Radeon HD 3870 Crossfire. Otra ventaja es que la Radeon HD 3870 X2 cuesta un poco menos que un par de Radeon HD 3870, con un precio de 450 dólares, y funcionará con casi cualquier placa base con una ranura PCI Express x16.

Aparte de los extraños ruidos aquí y allá, que creemos que están puramente relacionados con el controlador, la tarjeta ATI Radeon HD 3870 X2 funcionó perfectamente. Por supuesto, esperamos que estos problemas menores de estabilidad se solucionen en la próxima versión del controlador Catalyst. A continuación, otro inconveniente es que la tarjeta se calienta más de lo que nos gustaría, dejando mucho aire caliente en la carcasa. Aunque esto no es sorprendente, ya que las tarjetas de nueva generación y las tarjetas X2 producen casi la misma cantidad de calor (aire caliente).

Estamos satisfechos con los logros de ATI, aunque es un tanto irónico que hayan llegado hasta aquí utilizando un producto existente, lo que hace que su victoria sea menos impresionante. Tal como están las cosas ahora, Nvidia puede encontrar una manera de cambiar las cosas y crear una tarjeta dual basada en el G92, lo que pondría a Nvidia nuevamente en la cima.

Pero hablando estrictamente del presente, en términos de valoración del material, recientemente compramos dos tarjetas ATI Radeon HD 3870 X2 por aproximadamente 460 dólares. Y al proporcionar una lista de ventajas que la configuración SLI tenía sobre la Radeon HD 3870 X2 en algunas pruebas, tenemos que pensar cuál es la mejor compra. Además, las tarjetas GeForce 8800 GT de 256 MB cuestan poco más de 400 dólares, lo que hará nuestra elección aún más difícil.

La Radeon HD 3870 X2 es actualmente la tarjeta más rápida (usando una sola tarjeta) y es una alternativa conveniente tanto a Crossfire como a SLI, que requieren dos tarjetas adecuadas y una placa base de soporte específica. Veamos qué nos muestra nVidia dentro de unos meses.

Navi 10 sigue siendo un chip relativamente nuevo que los socios de AMD aún no han terminado de dominar. Pero parece que GIGABYTE ya ha llegado a la meta de la mejor refrigeración y el máximo rendimiento que se puede obtener de la Radeon RX 5700 XT. Y este no es el límite para el overclocking personalizado de Navi 10, para el cual la placa AORUS también creó las condiciones ideales.

La Radeon RX 5600 XT vino detrás de la GeForce GTX 1660 Ti. Pero, ¿quién necesita esto último cuando hay una GTX 1660 SUPER y la RTX 2060 ha bajado de precio recientemente? Veamos cómo sale AMD de esta situación. Bueno, para los entusiastas, la RX 5600 XT es simplemente una RX 5700 barata sin dos chips de memoria, pero con una reserva adecuada para overclocking. El nuevo producto lo presenta la tarjeta de video SAPPHIRE PULSE

El mercado de aceleradores de menos de 200 dólares, todavía dominado por los modelos más baratos de 2016, finalmente se ha despertado. Los usuarios ahora pueden elegir entre GeForce GTX 1650 SUPER y Radeon RX 5500 XT. ¿Pero esto lo mejoró? Una cosa está clara: las cosas no se han vuelto más fáciles. Las pruebas incluyen tarjetas de video SAPPHIRE y PowerColor con 4 y 8 GB de RAM

13 de noviembre de 2019

Revisión de la tarjeta de video ASUS ROG STRIX Radeon RX 5700 XT OC: alcanza y supera a la RTX 2070 SUPER

ASUS ROG STRIX Radeon RX 5700 XT OC es quizás la versión más rápida de la Radeon RX 5700 XT que podemos encontrar en nuestras tiendas. Tiene un buen overclocking de fábrica, un enorme sistema de refrigeración y un potencial que le permite competir con aceleradores de un nivel completamente diferente. En particular, con GeForce RTX 2070 SUPER

De las modificaciones más asequibles de la Radeon RX 5700 XT, la creación de GIGABYTE destaca por su gran sistema de refrigeración con tres ventiladores, pero los nuevos aceleradores AMD son muy sensibles a la temperatura. Veamos si esto es suficiente para justificar el liderazgo de la GIGABYTE Radeon RX 5700 XT GAMING OC entre sus pares

Los nuevos chips AMD claramente requieren una mejor refrigeración que las placas de referencia. Pero hasta que las tarjetas de video con refrigeradores enormes aún no hayan llenado el mercado, tendremos que hacer una parada intermedia. La modificación del presupuesto de SAPPHIRE PULSE debería al menos devolver el nivel de ruido a la normalidad, sin embargo, tampoco vamos a detener los experimentos con overclocking y undervolting Navi.

En un bus de 128 bits. La “velocidad” que demuestran es simplemente vergonzosa de recordar. Por lo tanto, pueden llegar tiempos difíciles para ATI en el segmento de precios de $150-250 en el mercado AGP, especialmente si NVIDIA lanza la GeForce 6600 en una variante AGP, lo cual es bastante probable.

En este punto dejaremos de hacer previsiones y suposiciones y nos concentraremos en el nuevo producto lanzado por la compañía canadiense para abstraernos temporalmente del mercado AGP y comparar la RADEON X700XT con la GeForce 6600GT.

Especificaciones oficiales de RADEON X700XT/PRO (RV410)

  1. Nombre del código del chip RV410
  2. Tecnología de 110 nm (TMSC, low-k, conexiones de cobre)
  3. 120 millones de transistores
  4. Caja FC (chip invertido, sin cubierta metálica)
  5. Interfaz de memoria de 128 bits (controlador de doble canal) (!)
  6. Hasta 256 megabytes de memoria DDR/GDDR-2/GDDR-3
  7. Interfaz de bus PCI-Express 16x incorporada (quizás en el futuro ATI use su propio puente PCI-Express->AGP 8x para producir tarjetas AGP)
  8. Procesadores de 8 píxeles, una unidad de textura cada uno
  9. Calcule, combine y grabe hasta 8 píxeles completos (color, profundidad, búfer de patrones) por ciclo de reloj
  10. Calcule hasta 16 valores de profundidad por ciclo de reloj en modo MSAA (es decir, MSAA 2x sin ciclos de reloj de penalización)
  11. Soporte para buffer de plantilla "bidireccional";
  12. MSAA 2x/4x/6x, con patrones de muestreo programables de forma flexible. Compresión de búfer de fotograma y búfer de profundidad en modos MSAA. Capacidad para cambiar patrones MSAA de un cuadro a otro (AA temporal);
  13. Filtrado anisotrópico hasta 16x inclusive
  14. 6 procesadores Vertex (!)
  15. Todo lo que necesitas para admitir sombreadores de píxeles y vértices versión 2.0
  16. Características adicionales de los sombreadores de píxeles basados ​​en la versión extendida 2.0, la llamada. 2.0.b
  17. Pequeñas características adicionales de los vertex shaders, más allá de las básicas 2.0
  18. Una nueva técnica de compresión de texturas optimizada para comprimir mapas normales de dos componentes (el llamado 3Dc, relación de compresión 4:1).
  19. Admite renderizado en buffers de formato flotante, con precisión FP16 y FP32 por componente.
  20. Se admiten formatos de textura 3D y FP (flotante)
  21. 2 RAMDAC 400MHz
  22. 2 interfaces DVI
  23. Interfaz TV-Out y TV-In (esta última requiere un chip de interfaz)
  24. Posibilidad de procesamiento de video programable: se utilizan procesadores de píxeles para procesar la transmisión de video (tareas de compresión, descompresión y posprocesamiento)
  25. Acelerador 2D compatible con todas las funciones GDI+

Especificaciones de la tarjeta de referencia RADEON X700XT

  1. Frecuencia central 475 MHz
  2. Frecuencia de memoria efectiva 1,05 GHz (2*525 MHz)
  3. Bus de memoria de 128 bits
  4. Tipo de memoria GDDR3
  5. Capacidad de memoria 128 (o 256) megabytes
  6. Ancho de banda de memoria 16,8 gigabytes por segundo.
  7. La tasa de llenado teórica es de 3,8 gigapíxeles por segundo.
  8. La velocidad teórica de muestreo de texturas es de 3,8 gigaxeles por segundo.
  9. Un conector VGA (D-Sub) y un conector DVI-I
  10. Salida de TV
  11. Consume menos de 70 vatios de energía (es decir, en una tarjeta PCI-Express no se necesita un conector para alimentación adicional, se recomienda una fuente de alimentación con una potencia total de 300 vatios o más)

Lista de tarjetas lanzadas actualmente basadas en RV410:

  • RADEON X700XT: 475/525 (1050) MHz, 128/256 MB GDDR3, PCI-Express x16, canalizaciones de 8 píxeles y 6 vértices ($199 por una tarjeta de 128 MB y $249 por una tarjeta de 256 MB): competidor de NVIDIA GeForce 6600GT;
  • RADEON X700 PRO: 425/430 (860) MHz, 128/256 MB GDDR3(?), PCI-Express x16, 8 píxeles y 6 canales de vértice ($149 por una tarjeta de 128 MB y $199 por una tarjeta de 256 MB) - Competidor de NVIDIA GeForce 6600;
  • RADEON X700: 400/350 (700) MHz, 128/256 MB DDR, PCI-Express x16, canalizaciones de 8 píxeles y 6 vértices ($99 por una tarjeta de 128 MB y $149 por una tarjeta de 256 MB): competidor de NVIDIA GeForce PCX5900 y suplentes bajar el X600XT anterior;

Como podemos ver, no existen diferencias arquitectónicas especiales con respecto al R420, lo que, sin embargo, no es sorprendente: el RV410 es una solución escalada (al reducir el número de procesadores de píxeles y canales de controlador de memoria) basada en la arquitectura R420. La situación es la misma que con el par NV40/NV43. Además, como ya hemos señalado, en esta generación los principios arquitectónicos de ambos competidores son extremadamente similares. En cuanto a las diferencias entre RV410 y R420, son cuantitativas (que se muestran en negrita en el diagrama) y no cualitativas: desde un punto de vista arquitectónico, el chip se mantuvo prácticamente sin cambios.

Entonces, hay 6 (como era, lo que es potencialmente una sorpresa agradable para las aplicaciones DCC hambrientas de triángulos) procesadores de vértices y dos (había cuatro) procesadores de píxeles independientes, cada uno de los cuales funciona con un quad (fragmento de píxeles de 2x2). Como en el caso del NV43, PCI Express es una interfaz de bus nativa (es decir, implementada en el chip), y las placas AGP 8x (si esto sucede) contendrán un puente PIC-E -> AGP adicional (que se muestra en el diagrama). que tendrá que ser desarrollado y producido por ATI.

Además, notamos un punto límite muy importante: un controlador de doble canal y un bus de memoria de 128 bits; como en el caso del NV43, discutiremos y estudiaremos este hecho en detalle.

La arquitectura de los procesadores de vértices y píxeles y el procesador de video siguió siendo la misma; estos elementos se describieron en detalle en nuestra revisión del RADEON X800 XT. Ahora, hablemos de posibles consideraciones tácticas:

Consideraciones sobre qué se cortó y por qué

En general, por el momento obtenemos la siguiente línea de soluciones basadas en las arquitecturas NV4X y R4XX:

Píxel/
Vértice

Tira de memoria

Tasa de llenado
MPix.

Frecuencia central

256 (4 × 64)
DDR3 1100

256 (4 × 64)
DDR3 1000

256 (4 × 64)
DDR700

256 (4x64)
DDR700

128 (2x64)
RDA 3 1000

128 (2x64)
DDR500-600-700

256 (4 × 64)
GDDR3 1000/1100

256 (4 × 64)
GDDR3 900

256 (4 × 64)
DDR700

128 (256 como opción)(2x64)
GDDR3 1050

256 (128 como opción) (2x64)
GDDR3 964

128 (256 como opción) (2x64)
DDR700

Basado en la arquitectura de la generación anterior.

¿No es cierto que la imagen es muy similar? Así, podemos predecir que el punto débil de la familia X700, como en el caso del 6600, serán las altas resoluciones y los modos con anti-aliasing de pantalla completa, especialmente en aplicaciones sencillas, y el punto fuerte serán los programas con largas sombreadores y filtrado anisotrópico sin (o, para ATI, quizás con) MSAA. A continuación comprobaremos este supuesto con pruebas de juego y sintéticas.

Ahora es difícil juzgar qué tan justificado estaba el cambio con un bus de memoria de 128 bits: por un lado, esto reduce el costo del cuerpo del chip y reduce la cantidad de chips defectuosos, por otro lado, la diferencia en el precio. El precio de una placa de circuito impreso de 256 bits y 128 bits no es grande y se compensa con creces con la diferencia de precio entre la memoria DDR normal y la aún costosa memoria GDDR3 de alta velocidad. Probablemente, desde el punto de vista de los fabricantes de tarjetas, una solución con un bus de 256 bits sería más conveniente, al menos si tuvieran la oportunidad de elegir, y desde el punto de vista de NVIDIA y ATI, que producen chips y a menudo Vendo memoria con ellos, la de 128 bits es la solución más rentable incluida con GDDR3. Otra cuestión es cómo afectará esto a la velocidad; después de todo, existe una limitación potencial de las excelentes capacidades del chip (8 canales, frecuencia central de 475 MHz) debido al ancho de banda de memoria significativamente reducido.

Tenga en cuenta que NVIDIA se ha reservado el sufijo Ultra por ahora; dado el gran potencial de overclocking de la tecnología de 110 nm, podemos esperar la aparición de una tarjeta con una frecuencia central de aproximadamente 550 o incluso 600 MHz, 1100 o incluso 1200 de memoria (en el futuro ) y el nombre 6600 Ultra. ¿Pero cuál será su precio?

Los procesadores de vértices y píxeles del RV410 aparentemente se mantuvieron sin cambios, pero los cachés internos se pudieron reducir, al menos en proporción al número de tuberías. Sin embargo, la cantidad de transistores no es motivo especial de preocupación: dado el tamaño no tan grande de los cachés, sería más prudente dejarlos (al igual que en el caso del NV43, compensando así la notable falta de memoria). ancho de banda Todas las tecnologías de ahorro de ancho de banda de memoria se conservaron por completo: compresión de búfer de profundidad y búfer de cuadros, recorte previo con búfer de profundidad jerárquico en el chip, etc.

Curiosamente, a diferencia del NV43, que, como ya hemos mencionado, puede mezclar y grabar no más de 4 píxeles resultantes por ciclo de reloj, los canales de píxeles del RV410 son totalmente consistentes con los del R420 en este sentido. En consecuencia, en el caso de sombreadores simples con una textura, el RV410 recibirá una ventaja de casi el doble en la velocidad de sombreado. A diferencia de NVIDIA, que tiene una gama bastante grande de transistores ALU que realizan posprocesamiento, verificación, generación Z y combinación de píxeles en formato flotante, el RV410 tiene combinadores más modestos y, por lo tanto, su número no se ha reducido tanto. Sin embargo, en la mayoría de los casos PRÁCTICOS, el ancho de banda de memoria reducido no permitirá grabar 3,8 gigapíxeles completos por segundo, pero en pruebas sintéticas la diferencia entre el RV410 y el NV43 en el caso de una textura puede llegar a ser muy notable.

No menos interesante es la decisión de dejar los 6 bloques de vértices. Por un lado, esto es un argumento en el área DCC, por otro lado, sabemos que allí depende sobre todo de los drivers y, en primer lugar, de OpenGL, tradicionalmente el punto fuerte de NVIDIA. Además, allí se pueden apreciar mezclas flotantes y sombreadores 3.0, exactamente lo que le falta a la última generación de ATI. Por tanto, la decisión sobre 6 transportadores de vértice y el posicionamiento activo del RV410 en el mercado DCC parece controvertida. El tiempo dirá si estaba justificado.

Comprobaremos todas estas suposiciones en posteriores pruebas sintéticas y de juego.

Innovaciones tecnológicas

En general, en comparación con el R420, no los hay. Lo cual no es una desventaja en sí misma. Comparado con NV43:
  1. Hasta 8 píxeles escritos en el búfer de fotogramas por ciclo de reloj.
  2. Hasta 16 píxeles MSAA (NV43 tiene hasta 8)
  3. 6 bloques de vértices, lo cual es encomiable, pero solo puede notarse en pruebas sintéticas y aplicaciones DCC
  4. Sombreadores menos flexibles (2.0b)
  5. Sin mezcla flotante, que, sin embargo, puede ser necesaria por el momento sólo en aplicaciones DCC.

Antes de estudiar la tarjeta en sí, aquí hay una lista de artículos dedicados al estudio de novedades anteriores: NV40/R420. Después de todo, ya es obvio que la arquitectura RV410 es una sucesora directa de las tecnologías R420 (la potencia del chip se dividió a la mitad).

Materiales teóricos y analíticos y reseñas de tarjetas de video, que analizan las características funcionales de las GPU ATI RADEON X800 (R420) y NVIDIA GeForce 6800 (NV40).

  • NVIDIA GeForce 6800 Ultra (NV40). Parte 1: características arquitectónicas y pruebas sintéticas en D3D RightMark (versión de una página)
  • NVIDIA GeForce 6800 Ultra (NV40). Parte 1: características arquitectónicas y pruebas sintéticas en D3D RightMark (la opción está dividida en páginas)
  • NVIDIA GeForce 6800 Ultra (NV40). Parte 2: un estudio de rendimiento y calidad en aplicaciones de juegos (versión de una página)
  • NVIDIA GeForce 6800 Ultra (NV40). Parte 2: un estudio de rendimiento y calidad en aplicaciones de juegos (la opción está dividida en páginas)
  • Batalla de Borodino entre ATI RADEON X800 XT y NVIDIA GeForce 6800 Ultra - Imagen dos: 450 MHz para la segunda y nuevas pruebas para ambas tarjetas (versión de una página)
  • Batalla de Borodino entre ATI RADEON X800 XT y NVIDIA GeForce 6800 Ultra - Imagen dos: 450 MHz para la segunda y nuevas pruebas para ambas tarjetas (la opción está dividida en páginas)
  • Batalla de Borodino entre RADEON X800 y GeForce 6800: Imagen tres: filtrado trilineal (ejemplos sintéticos)
  • Batalla de Borodino entre RADEON X800 y GeForce 6800: Imagen cuatro: pruebas de filtrado basadas en RightMark (versión de una página)
  • Batalla de Borodino entre RADEON X800 y GeForce 6800: Imagen cuatro: pruebas de filtrado basadas en RightMark (variante dividida en páginas)
  • Batalla de Borodino entre ATI RADEON X800 y NVIDIA GeForce 6800 - Imagen cinco: pruebas de filtrado basadas en juegos (versión de una página)
  • Batalla de Borodino entre ATI RADEON X800 y NVIDIA GeForce 6800 - Imagen cinco: pruebas de filtrado basadas en juegos (la opción está dividida en páginas)
  • Revisión de PowerColor RADEON X800 PRO Limited Edition, conversión de hardware de X800 PRO a X800 XT Platinum Edition (versión de una página)
  • Revisión de PowerColor RADEON X800 PRO Limited Edition, conversión de hardware del X800 PRO al X800 XT Platinum Edition (la opción está dividida en páginas)
  • Revisión de Leadtek WinFast A400 TDH, Leadtek WinFast A400 Ultra TDH basado en NVIDIA GeForce 6800/6800 Ultra (versión de una página)
  • Revisión de Leadtek WinFast A400 TDH, Leadtek WinFast A400 Ultra TDH basado en NVIDIA GeForce 6800/6800 Ultra (la opción está dividida en páginas)
  • Batalla de Borodino entre ATI RADEON X800 y NVIDIA GeForce 6800 - Escena seis: Filtrado en juegos (continuación) (versión de una página)
  • Batalla de Borodino entre ATI RADEON X800 y NVIDIA GeForce 6800 - Escena seis: Filtrado en juegos (continuación) (opción dividida en páginas)
  • Un breve informe sobre las pruebas de FarCry v.1.2 y la primera implementación de Shader 3.0 en realidad
  • Breve informe sobre las pruebas operativas de las tarjetas 3D modernas en DOOM III (X800PRO/XT, GF6800/GT/Ultra, 9800XT/5950U)
  • Chaintech Apogee GeForce 6800 Ultra basada en NVIDIA GeForce 6800 Ultra - Pruebas en DOOM III con “optimizaciones”

Permítanme enfatizar una vez más que hoy es solo la primera parte, dedicada a la presentación de nuevos productos. Veremos los componentes de calidad más adelante en la segunda parte (calidad 3D y reproducción de video).

Entonces, tarjeta de referencia RADEON X700XT.

Vemos que el diseño del producto se acerca más al X600XT, solo que a diferencia de este, el X700XT tiene ranuras en la parte posterior de la PCB para obtener una solución de 256 MB. El tablero también tiene una huella para montar RAGE Theatre (VIVO).

Dispositivo de enfriamiento.

ATI RADEON X700XT

Este es un refrigerador inusual. ¿Por qué destaca tanto? Bueno, en primer lugar, ATI nunca antes había utilizado radiadores cerrados para este tipo de tarjetas, a través de los cuales se fuerza el aire. Además, vale la pena prestar atención al hecho de que los enchufes del radiador no presionan en absoluto contra los chips de memoria. ¡Están diseñados para enfriar sólo el núcleo! El segundo es el material del que está hecho el radiador: el cobre. Por lo tanto, la carta parece muy pesada cuando se toma en la mano.

Y lo más importante: ¡la nevera hace mucho, mucho ruido! Especialmente bajo carga, cuando aumenta la velocidad del ventilador. Hablaré de esto a continuación.

Se puede suponer que los fabricantes de tales tarjetas realizarán experimentos utilizando sus propios refrigeradores, porque instalar en las placas lo que ATI ha propuesto ahora es extremadamente irrazonable.

Bueno, como quitaron la hielera, eso significa que vieron el cristal. Comparemos los tamaños de núcleo del RV410 y R350. ¿Por qué R350? Bueno, porque este chip también tiene tuberías de 8 píxeles y también tiene 2 veces menos tuberías de vértices. Al mismo tiempo, su tecnología de producción es de 0,15 micras, mientras que el RV410 ya se fabrica mediante un proceso técnico de 0,11 micras.

Bueno, el resultado es muy predecible debido a la reducción del tamaño del núcleo debido a un proceso técnico más refinado. Aunque el número de transistores en el cristal no ha disminuido en absoluto. Y, sin embargo, se puede suponer que algunos de los cachés u otros elementos tecnológicos fueron eliminados. Nuestra investigación mostrará...

Ahora volvamos a las temperaturas de funcionamiento de la tarjeta y al ruido de su refrigerador. Gracias a la eficiencia regular del autor de RivaTuner, Alexey Nikolaychuk, la próxima versión beta interna de la utilidad ya es compatible con RV410. Y, además, es capaz no sólo de cambiar y controlar las frecuencias de la tarjeta, sino también de monitorizar las temperaturas y las velocidades de los ventiladores. Esto es lo que pudimos ver cuando la tarjeta funcionaba a frecuencias estándar sin refrigeración externa en una caja cerrada:

A pesar de que las temperaturas no crecieron tan intensamente y solo llegaron a menos de 60 grados, el refrigerador se comportó de manera muy “nerviosa”, como se muestra en el campo inferior del gráfico, donde se puede ver el funcionamiento del ventilador como porcentaje del máximo posible. velocidad. Y, como ya dije, esto genera un ruido muy desagradable.

Dado que RivaTuner puede controlar el ventilador, fijaremos su funcionamiento a un nivel en el que su ruido no moleste y sea casi inaudible; esto es aproximadamente el 55-56% de su capacidad de velocidad de rotación.

Es obvio que las temperaturas del núcleo y de la tarjeta en general no han aumentado demasiado y todavía están dentro de la zona de uso seguro. ¿Por qué era necesario ese reaseguro con el refrigerador? Aún no sabemos la respuesta, esperamos obtener una aclaración sobre este asunto por parte de ATI.

Instalación y controladores

Configuraciones del banco de pruebas:

    Computadora basada en Pentium4 Overclocked 3200 MHz (Prescott)
    • procesador Intel Pentium4 3600 MHz (225MHz × 16; L2=1024K, LGA775); Hyper-Threading habilitado
    • Placa base ABIT AA8 DuraMAX basada en el chipset i925X;
    • RAM 1 GB DDR2 SDRAM 300 MHz;
    • disco duro WD Caviar SE WD1600JD 160GB SATA.
  • Computadora basada en Athlon 64 3400+
    • procesador AMD Athlon 64 3400+ (L2=1024K);
    • Placa base ASUS K8V SE Deluxe basada en el chipset VIA K8T800;
    • RAM 1 GB DDR SDRAM PC3200;
    • Disco duro Seagate Barracuda 7200.7 de 80GB SATA.
  • sistema operativo Windows XP SP2; DirectX 9.0c;
  • monitores ViewSonic P810 (21") y Mitsubishi Diamond Pro 2070sb (21").
  • Controladores ATI versión 6.483 (CATALYST 4.10beta); NVIDIA versión 65.76.
  • Tarjetas de vídeo:
    1. NVIDIA GeForce FX 5950 Ultra, 475/950 MHz, 256 MB DDR, AGP
    2. NVIDIA GeForce 6800 Ultra, 425/1100 MHz, 256 MB GDDR3, AGP
    3. NVIDIA GeForce 6800 Ultra, 400/1100 MHz, 256 MB GDDR3, AGP
    4. NVIDIA GeForce 6800 GT, 350/1000 MHz, 256 MB GDDR3, AGP
    5. ASUS V9999GE (NVIDIA GeForce 6800, 350/1000 MHz, 256 MB GDDR3), AGP
    6. NVIDIA GeForce 6800, 325/700 MHz, 128 MB DDR, AGP
    7. NVIDIA GeForce 6800LE, 325/700 MHz, 128 MB DDR, AGP
    8. NVIDIA GeForce PCX5900, 350/550 MHz, 128 MB DDR, PCI-E
    9. NVIDIA GeForce PCX5750, 425/500 MHz, 128 MB DDR, PCI-E
    10. NVIDIA GeForce 6600GT, 500/1000 MHz, 128 MB GDDR3, PCI-E
    11. ATI EADEON 9800 PRO, 380/680 MHz, 128 MB DDR, AGP
    12. ATI EADEON 9800 XT, 412/730 MHz, 256 MB DDR, AGP
    13. ATI EADEON X800 XT PE, 520/1120 MHz, 256 MB DDR, AGP
    14. ATI EADEON X800 XT, 500/1000 MHz, 256 MB DDR, AGP
    15. ATI EADEON X800 PRO, 475/900 MHz, 256 MB DDR, AGP
    16. ATI EADEON X800 XT, 500/1000 MHz, 256 MB DDR, PCI-E
    17. ATI EADEON X600 XT, 500/760 MHz, 128 MB DDR, PCI-E

VSync está deshabilitado.

Como podemos ver, para el anuncio del RADEON X700, ATI también ha preparado una nueva versión del conjunto de controladores. Su punto culminante es CATALYST Control Center; sin embargo, esta utilidad se lanzó oficialmente antes con la versión 4.9. Pero ¿por qué se hace hincapié en este programa en particular en este material? La respuesta es sencilla: sólo a través de CCC podemos aprovechar nuevas funciones como las optimizaciones ajustables en 3D.

Pero pongamos las cosas en orden. En primer lugar, hay que decir que CCC es muy espacioso en cuanto a ocupar espacio en el disco duro, así como en cuanto a envío a través de Internet. Además de la biblioteca Microsoft .NET 1.1, que pesa 24 megabytes adicionales. Pero sin él, el SSS no funcionará.

¿Vale la pena el costo de extraer leche con tanta felicidad? A primera vista parece que merece la pena. Pero necesitamos mirar más de cerca. Aquí puede descargar (o abrir) un archivo GIF animado (¡920K!) que muestra todas las configuraciones de CCC.

Y aquí tocaremos sólo aquellos que sean interesantes desde el punto de vista de las innovaciones en la gestión de gráficos 3D:

Vemos configuraciones llamadas CATALYST A.I. Esto incluye las llamadas optimizaciones de controladores para varios juegos, así como un plan general para optimizaciones de filtrado (trilineal y anisotrópico).

Hay tres gradaciones:

  1. APAGADO (Desactivar)- deshabilitar las optimizaciones por completo. En este caso se promete que no se utilizarán optimizaciones con filtrado y un algoritmo de optimización de aplicaciones muy simplificado.
  2. BAJO (Estándar)- Se realizan optimizaciones para el funcionamiento de las aplicaciones y también se lleva a cabo una optimización del filtrado sencillo.
  3. ALTO (Avanzado)- todas las optimizaciones funcionan con toda su fuerza.

A continuación, en la sección de análisis de velocidad, presentaremos los resultados de habilitar los tres modos usando el X700XT como ejemplo en términos de rendimiento. Analizaremos el aspecto cualitativo en el siguiente material.

Según datos de ATI, actualmente se están utilizando optimizaciones para los siguientes juegos:

  • Perdición 3: CATALIZADOR A.I. reemplaza el sombreador de iluminación con un equivalente matemático, pero funciona de manera más eficiente. Esta optimización mejora el rendimiento en algunas escenas.
  • Half Life 2 Engine (actualmente disponible en la versión beta fuente de Counter Strike): CATALIZADOR I.A. incluye almacenamiento en caché de texturas mejorado para este motor, que permite una mayor velocidad, especialmente con anisotropía activa a altas resoluciones.
  • Torneo irreal 2003/Torneo irreal 2004: El controlador CATALYST se modifica para que el filtrado anisotrópico (o su combinación con bilineal y trilineal) siempre esté determinado por la aplicación, y el juego en sí incluye estas funciones. En controladores anteriores, si el usuario habilitaba la anisotropía a través del controlador, el trilineal solo procesaba el primer nivel de textura. A partir de esta versión del controlador, se procesarán todas las capas de textura. Para estos mismos juegos, se garantiza un nivel mejorado de análisis de texturas (en particular, esto se aplica a todos los productos RADEON X) para aumentar el rendimiento sin perder calidad. Las series RADEON 9800, RADEON 9700 y RADEON 9500 seguirán funcionando en el mismo modo (es decir, como antes de la I.A.)
  • Splinter Cell, Piloto de carreras, Príncipe de Persia, Crazy Taxi 3- para estos juegos optimizaciones de A.I. se reduce a una prohibición estricta del modo AA, que estos juegos no admiten (es decir, incluso si el usuario forzó accidentalmente AA en el controlador, con la IA activa no sucederá nada, el controlador detectará el juego y lo apagará). AA si es necesario). Anteriormente, en tales situaciones, se podían observar fallas o incluso fallas en el juego.

Entonces parece algo muy útil. Los estudios de velocidad nos lo confirmarán. Pero descubriremos qué sucede con la calidad más adelante.

Si continuamos mirando CCC, quizás una pestaña interesante sea un resumen de todos los cambios principales:

Recomendaría comenzar desde esta pestaña y comenzar a administrar 3D. Aunque aquellos en los que se ajustan funciones individuales tienen sus ventajas, al menos en el hecho de que a través de un pequeño gráfico tridimensional, que se repite constantemente en la ventana, se puede ver la activación de una función en particular.

Por separado, me gustaría señalar la mayor comodidad al controlar las frecuencias de muestreo (escaneo vertical):

Bueno, una interfaz más amigable para trabajar con TV:

Pero el trabajo del CCC también presenta grandes desventajas. En primer lugar, es una lentitud de la interfaz muy molesta. Después de cambiar uno u otro interruptor y presionar APLLY, el programa “calabazas y salchichas” durante aproximadamente medio minuto, y a veces parece que está congelado, y luego todo se restablece. Esto puede llevar a los usuarios nerviosos al estupor, a la psicosis o a la decisión de desechar este software.

Entonces los programadores de ATI todavía tienen algo en lo que trabajar. Y mucho.

En los DIAGRAMAS etiquetados como ANIS16x, los resultados para GeForce FX 5950 Ultra y GeForce PCX5900/5750 se obtuvieron con ANIS8x activo.

Me gustaría señalar especialmente que, de forma predeterminada, las optimizaciones del controlador están habilitadas y configuradas en BAJA/ESTÁNDAR, por lo que las principales comparaciones con la competencia se realizaron en este modo de funcionamiento del X700XT.

Resultados de la prueba

Antes de valorar brevemente la calidad en 2D, aclararé una vez más que Por el momento NO existe una metodología completa para la evaluación objetiva de este parámetro. por las siguientes razones:

  1. Para casi todos los aceleradores 3D modernos, la calidad 2D puede depender en gran medida de la instancia específica y es físicamente imposible rastrear todas las tarjetas;
  2. La calidad 2D depende no sólo de la tarjeta de vídeo, sino también del monitor y del cable de conexión;
  3. Recientemente, este parámetro se ha visto muy influenciado por las combinaciones: monitor-tarjeta, es decir, hay monitores que no son “amigables” con determinadas tarjetas de vídeo.

Acerca de copia probada, luego junto con Mitsubishi Diamond Pro 2070sb La placa demostró una excelente calidad en las siguientes resoluciones y frecuencias:

ATI RADEON X700XT1600x1200x85Hz, 1280x1024x120Hz, 1024x768x160Hz

Pruebas sintéticas D3D RightMark

La versión del paquete de prueba sintética D3D RightMark Beta 4 (1050) que utilizamos y su descripción están disponibles en el sitio web

Lista de tarjetas:

  • 6600 GT (500/500)
  • X700XT (475/525)
  • X800XT (520/560)
  • 6800 Ultra (400/550)

Primero, examinemos si las características indicadas (8 píxeles por reloj, etc.) corresponden a la realidad. Entonces:

Prueba de llenado de píxeles

Rendimiento máximo de muestreo de texturas (texelrate), modo FFP, para diferentes números de texturas aplicadas a un píxel:

Tasa de llenado del búfer de cuadros (tasa de relleno, tasa de píxeles), modo FFP, para diferentes números de texturas aplicadas a un píxel:

Hay 8 canales completos y la capacidad de grabar hasta 8 píxeles por ciclo de reloj. Así, vemos una ventaja sobre NV43, pero sólo en el caso de una textura o ninguna textura. En la mayoría de las aplicaciones del mundo real, la cantidad de texturas es mayor o igual a dos y las tarjetas mostrarán resultados similares.

Veamos cómo la velocidad de sombreado depende de la versión del sombreador:

Como era de esperar, sin sorpresas, como es típico en todos los chips más recientes. El gran ancho de banda de memoria y la capacidad de escribir 8 píxeles por reloj permiten que el X700 supere al 6600 en las pruebas más simples, a medida que la complejidad del sombreador o el número de texturas aumenta a valores razonables, esta diferencia se nivela; Para escribir en el framebuffer tenemos:

Y para muestrear texturas:

Así que, sin sorpresas, se confirmó la ventaja esperada del X700 en el sombreado de una sola textura.

Prueba de velocidad de procesamiento de geometría

El sombreador más simple es el límite de rendimiento del triángulo:

Un sombreador más complejo es una fuente de luz puntual simple:

Y ahora la tarea más difícil, tres fuentes de luz y, a modo de comparación, en opciones sin transiciones, con control de ejecución estático y dinámico:

En términos de geometría, el X700 demuestra resultados fenomenales para su clase: supera incluso al 6800 Ultra, sin mencionar a su competidor directo, el 6600 GT. La única pregunta es hasta qué punto las aplicaciones aprovecharán, exigirán y revelarán este enorme potencial geométrico. Después de todo, ningún juego moderno necesita ese ancho de banda triangular. En cuanto a las aplicaciones DCC, ya hemos mencionado la importancia del controlador (especialmente OpenGL) y otros aspectos en los que el 6600 parece más ventajoso. De todos modos, felicitaciones a ATI: han establecido un nuevo estándar para el rendimiento geométrico. Hacía tiempo que no veíamos una victoria tan sorprendente sobre un competidor directo en pruebas sintéticas.

Prueba de sombreadores de píxeles

El primer grupo de sombreadores son bastante sencillos de ejecutar en tiempo real, 1.1, 1.4 y 2.0:

Ahora veamos los sombreadores complejos:

Total para sombreadores de píxeles:

Aquí hay una clara igualdad: el X700 ni pierde ni gana frente al 6600 GT. Pero, en este caso, conviene prestar atención a factores secundarios, como la compatibilidad con SM3 y otras características adicionales de las últimas arquitecturas de NVIDIA. Desde este punto de vista, los resultados del X700 no parecen muy impresionantes: ATI podría haber convertido su ventaja en simplicidad en una ventaja en velocidad, pero esta vez no sucedió. Pero en igualdad de condiciones, el producto NVIDIA parecerá más rentable debido a su ventaja tecnológica.

prueba HSR

Primero, máxima eficiencia (sin texturas y con texturas) dependiendo de la complejidad de la geometría:



No hay características especiales, el comportamiento del sistema HSR es bastante típico de ATI, notablemente, pero no fatalmente, más eficiente (y más adaptable), debido al nivel adicional de jerarquía que el de NVIDIA.

Prueba de puntos Sprites.

Es lógico que en el caso de sprites grandes gane ATI: la presencia de 8 bloques de mezcla y valores de grabación en el marco lo afecta (recuerde que los sprites se usan generalmente para dibujar sistemas de partículas, lo que casi siempre implica mezcla alfa ). En el caso de los más pequeños, los chips de la competencia parecen casi iguales: el cuello de botella son los controladores y DirectX.

prueba MSAA

4x MSAA iguala las capacidades del X700 y 6600GT, al menos en esta sencilla prueba.

Tenga en cuenta que en el caso de 2x, que es prácticamente gratuito para ambos chips, el X700 puede (potencialmente) parecer un poco más fuerte en el caso de tareas simples de una sola textura.

Pruebas sintéticas en 3DMark03: Fillrate Multitextura

Pruebas sintéticas en 3DMark03: Vertex Shaders

Pruebas sintéticas en 3DMark03: Pixel Shaders

Conclusiones sobre las pruebas sintéticas.

Las fichas son prácticamente iguales. En igualdad de condiciones, esto no favorece a ATI: NVIDIA tiene un mayor potencial de overclocking y una mayor ventaja arquitectónica. Dos diferencias principales:

  1. Una ventaja notable y encomiable de ATI en tareas geométricas la proporciona el bloque de geometría sin cortar del R420
  2. Un retraso molesto, pero que no se manifiesta tan a menudo en tareas reales, de NVIDIA en el sombreado y la escritura en el búfer de fotogramas en el caso de sombreadores simples de una sola textura.

Por tanto, es imposible señalar a un líder firme; hemos observado y comentado todos los principales puntos interesantes. Pasemos ahora a las pruebas prácticas y veamos si confirman nuestras suposiciones:

Resultados de la prueba: comparación de rendimiento

Utilizamos las siguientes herramientas:

  • Regreso a Castle Wolfenstein (MultiPlayer) (id Software/Activision) OpenGL, multitexturización, ixbt0703-demo, configuración de prueba, todo al más alto nivel posible, S3TC APAGADO, las configuraciones pueden ser
  • Serious Sam: The Second Encounter v.1.05 (Croteam/GodGames) OpenGL, multitextura, ixbt0703-demo, configuración de prueba: calidad, S3TC APAGADO
  • Quake3 Arena v.1.17 (id Software/Activision) OpenGL, multitextura, ixbt0703-demo, las configuraciones de prueba están todas al nivel máximo: nivel de detalle alto, nivel de detalle de textura No. 4, S3TC APAGADO, la suavidad de las superficies curvas aumenta drásticamente utilizando variables r_subdivisions "1" y r_lodCurveError "30000" (¡enfatizo que el r_lodCurveError predeterminado es "250"!), las configuraciones pueden ser
  • Unreal Tournament 2003 v.2225 (Digital Extreme/Epic Games) Direct3D, Vertex Shaders, Hardware T&L, Dot3, texturizado de cubos, calidad predeterminada
  • Prueba de juego Code Creatures Benchmark Pro (CodeCult) que demuestra el rendimiento de la placa en DirectX 8.1, Shaders, HW T&L.
  • Unreal II: The Awakening (Legend Ent./Epic Games) Direct3D, Vertex Shaders, Hardware T&L, Dot3, texturizado de cubos, calidad predeterminada
  • RightMark 3D v.0.4 (una de las escenas del juego) DirectX 8.1, Dot3, texturizado de cubos, buffers de sombra, sombreadores de vértices y píxeles (1.1, 1.4).
  • Tomb Raider: Angel of Darkness v.49 (Core Design/Software Eldos) DirectX 9.0, demostración de Paris5_4. Las pruebas se llevaron a cabo con la calidad máxima configurada, solo se desactivó la profundidad de campo PS20.
  • HALO: Combat Evolved (Microsoft) Direct3D, Vertex/Pixel Shaders 1.1/2.0, Hardware T&L, máxima calidad
  • Half-Life2 (Valve/Sierra) DirectX 9.0, demo (ixbt07. Las pruebas se realizaron con el filtrado anisotrópico habilitado, así como en modo pesado con AA y anisotropía.
  • Tom Clancy's Splinter Cell v.1.2b (UbiSoft) Direct3D, Vertex/Pixel Shaders 1.1/2.0, Hardware T&L, máxima calidad (muy alta demo 1_1_2_Tbilisi);
  • Call of Duty (Multijugador) (Infinity Ward/Activision) OpenGL, multitextura, ixbt0104demo, configuración de prueba, todo al más alto nivel posible, S3TC ENCENDIDO
  • FarCry 1.2 (Crytek/UbiSoft), DirectX 9.0, multitextura, demo01 (investigación) (inicia el juego con la opción -DEVMODE), las configuraciones de prueba son todas muy altas.
  • DOOM III (id Software/Activision), OpenGL, multitextura, configuración de prueba de demostración ixbt1 (33 MB), todo de alta calidad. Para optimizar y reducir las sacudidas, se crearon archivos de configuración con almacenamiento en caché.
  • 3DMark03 v.340 (FutureMark/Remedy), DirectX 8.1/9.0, multitextura; Juego 1/2/3/4, MARCAS.

Además, si alguien quiere recibir pruebas comparativas de demostración que utilizamos, que escriba al correo electrónico del autor.

Arena Quake3





Los modos más fáciles sin AA y anisotropía: esta prueba ya es demasiado antigua, tiene casi 5 años y, por lo tanto, no vale la pena optimizarla (después de todo, la mayoría de los evaluadores han abandonado la Q3 hace mucho tiempo). Es por eso que casi no vemos ningún impacto de las optimizaciones. El X700XT y su competidor 6600GT tienen casi la misma fuerza.

Con AA activado: Aquí el X700XT muestra su ventaja, porque el punto débil del 6600 es el retraso en la escritura en el frame buffer (8 píxeles se escriben en 2 ciclos de reloj).

Con la anisotropía activada: nada de esto sucedió, los competidores eran iguales.

El último modo más difícil con AA y anisotropía: la derrota del 6600GT se debió a AA.

Entonces, en general:

  • RADEON X700XT - vs. RADEON 9800 PRO (ATHLON64 3400+) victoria general, pérdida solo en 1600x1200, donde la falta de ancho de banda de memoria en un bus de 128 bits ya lo afecta;
  • RADEON X700XT - vs. GeForce 6600GT teniendo en cuenta la complejidad de la prueba y la recomendación de utilizar AA en ella, registramos la victoria de la X700XT;
  • RADEON X700XT - frente a GeForce 6800LE (ATHLON64 3400+) igual que en comparación con 9800XT;
  • RADEON X700XT con BAJA OPTIMIZACIÓN - vs. RADEON X700XT SIN OPTIMIZACIÓN nada;

Serious Sam: El segundo encuentro





Los modos más ligeros sin AA y anisotropía: a pesar de la ausencia de este juego en la lista de juegos oficialmente sometidos a optimizaciones por parte de los programadores de ATI, como vemos, la inclusión de A.I. sin embargo, da un efecto considerable. En cuanto a los principales competidores, vemos una fuerte derrota en el X700XT.

Con AA habilitado: las optimizaciones mejoran su efecto (en el X700, por supuesto) y ayudan ligeramente a derrotar al producto NVIDIA (aunque la razón principal del éxito es la misma que en la prueba anterior). Es interesante notar que deshabilitar las optimizaciones en el 6600 en este modo aumentó la velocidad a 1600x1200 y no la disminuyó, como era de esperar. Probablemente haya algún tipo de falla en el controlador o en una característica de la aplicación.

Con la anisotropía habilitada: las optimizaciones simplemente funcionan de maravilla en el X700 (por cierto, deshabilitarlas en el 6600GT hizo poco en términos de velocidad), aunque en general sigue siendo un fuerte perdedor frente al competidor 6600GT.

El modo final más difícil con AA y anisotropía: un resultado ambiguo, ya que las derrotas y victorias con AA y AF trajeron el éxito al X700XT en altas resoluciones (donde el 6600GT es débil debido a AA), y la derrota en bajas resoluciones, donde la velocidad de las caídas de productos NVIDIA en AA no es tan catastrófica.

Entonces, en general:

  • RADEON X700XT - versus RADEON 9800 XT (ATHLON64 3400+) similar;
  • RADEON X700XT: frente a GeForce 6600GT, teniendo en cuenta la inclusión de AA y AF, otorgamos condicionalmente la victoria a la X700XT;
  • RADEON X700XT con BAJA OPTIMIZACIÓN: frente a RADEON X700XT SIN OPTIMIZACIÓN, ¡el efecto es simplemente enorme cuando se activa la anisotropía! Así que hay una razón para estudiar la calidad de este juego en el siguiente material;
  • RADEON X700XT con ALTA OPTIMIZACIÓN - vs. RADEON X700XT SIN OPTIMIZACIÓN similar;

Regreso al Castillo Wolfenstein (Multijugador)





Los modos más fáciles sin AA y anisotropía: daño fácil al X700XT incluso con las optimizaciones más agresivas. Al mismo tiempo, como podemos ver, en este juego el X700 da dividendos muy significativos (nuevamente, a pesar de que el juego no está en la lista de juegos de ATI).

Con AA habilitado: Nuevamente, la fuerte caída del 6600GT con AA permite que el X700 ocupe el primer lugar con una fuerte ventaja sobre su rival. A menos que apagues la A.I. La superioridad del X700XT está empezando a desvanecerse.

Con anisotropía habilitada: aproximadamente paridad con el 6600GT, pero con optimizaciones activas. Si los apagas, el X700XT pierde la batalla.

El último modo más difícil con AA y anisotropía: una gran ventaja en AA le da al X700XT el derecho a ganar.

Entonces, en general:

  • RADEON X700XT - victoria frente a RADEON 9800 PRO (ATHLON64 3400+);
  • RADEON X700XT - derrota frente a GeForce 6800LE (ATHLON64 3400+);
  • RADEON X700XT con BAJA OPTIMIZACIÓN: frente a RADEON X700XT SIN OPTIMIZACIÓN, el efecto de la IA es brillante y es claramente visible que simplemente no tiene anisotropía activa (¿el trilineal realmente ha sido "rechazado"? Tendremos que examinar la calidad aquí también);
  • RADEON X700XT con ALTA OPTIMIZACIÓN - vs. RADEON X700XT SIN OPTIMIZACIÓN similar;

Criaturas de código





Los modos más fáciles sin AA ni anisotropía: una victoria para el X700XT. Sin embargo, las optimizaciones tienen un ligero efecto.

Con AA activado: Imagen interesante, ¡simplemente extremadamente interesante! Al comparar competidores con optimizaciones habilitadas, vemos una paradoja: el X700XT, que comenzó en 1024x768 con una gran ventaja,... rápidamente perdió su ventaja, todo se redujo a la paridad. Si desactivas las optimizaciones, la victoria vuelve a ser para el X700XT. Vemos que con AA, NVIDIA ahora muestra un efecto muy fuerte, es decir, un aumento de velocidad en el caso de la optimización activa del trilineal. ¡Y hasta el 52 por ciento! Y de nuevo un motivo para investigar en calidad.

Con la anisotropía activada: de la paridad a la victoria para el X700XT con las optimizaciones activadas y la derrota del oponente con ellas desactivadas. En la tabla de porcentajes a continuación puede ver que ahora AF ha llevado al hecho de que, con su optimización, la velocidad del X700XT ha aumentado entre un 40 y un 60 por ciento. Exploraremos la calidad en la siguiente parte.

El último modo más difícil con AA y anisotropía: todo es ambiguo. Y no es de extrañar, ya que hubo tanta discordia cuando AA y AF estaban separados.

Entonces, en general:

  • RADEON X700XT - vs. RADEON 9800 PRO (ATHLON64 3400+) brillante victoria sin AA ni AF, y derrota cuando están encendidos, aunque si imaginas que esto es un juego, entonces la resolución jugable es solo 1024x768, mientras que con el X700XT todo es mágico;
  • RADEON X700XT - versus RADEON 9800 XT (ATHLON64 3400+) similar;
  • RADEON X700XT - vs. GeForce 6600GT llamemos condicionalmente a la X700XT una victoria, ya que tenemos que tomar algo intermedio, teniendo en cuenta la jugabilidad;
  • RADEON X700XT - versus GeForce 6800LE (ATHLON64 3400+) AA destruyó todas las ventajas del X700, pero a 1024x768 (¡otra vez!) el producto ATI siguió siendo el líder, por lo que establecimos la paridad condicionalmente;
  • RADEON X700XT con BAJA OPTIMIZACIÓN - versus RADEON X700XT SIN OPTIMIZACIÓN el efecto es enorme, y sobre todo a expensas de AF;
  • RADEON X700XT con ALTA OPTIMIZACIÓN - versus RADEON X700XT SIN OPTIMIZACIÓN similar, aunque las cifras de crecimiento incluso han aumentado;

¡Prestemos atención al aumento de velocidad que las optimizaciones le dan a la GeForce 6600GT!

Torneo irreal 2003





Los modos más fáciles sin AA y anisotropía: victoria para el X700XT, hay pocas optimizaciones, pero dan un aumento de velocidad.

Con AA habilitado: dado que las optimizaciones del 6600GT a 1600x1200 llevaron a una caída en la velocidad, en comparación sin ellas, vemos que el X700XT, curiosamente, perdió ante su oponente con la misma resolución y por una puntuación muy grande. Aunque la inclusión de A.I. le dio al producto ATI fuertes bazas y, en general, una victoria. Pero nuevamente necesitamos examinar la calidad.

Con la anisotropía habilitada: la optimización para AF en la X700XT también condujo a un fuerte salto en la velocidad, por lo que esta tarjeta gana. El tema de la calidad está abierto, lo investigaremos.

El último modo más difícil con AA y anisotropía: a pesar de que a 1600x1200 la pérdida en AA llevó a la derrota final del X700XT en esta resolución, en general una victoria para el X700XT, ya que tiene más ventajas.

Entonces, en general:

  • RADEON X700XT: contra RADEON 9800 PRO (ATHLON64 3400+) paridad sin AA+AF, fuerte victoria con AF (¡¡¡A.I.!!!), derrota con AA (por supuesto, el ancho de banda es demasiado bajo) y victoria general;
  • RADEON X700XT - versus RADEON 9800 XT (ATHLON64 3400+) similar;
  • RADEON X700XT - victoria frente a GeForce 6600GT;
  • RADEON X700XT vs. GeForce 6800LE (ATHLON64 3400+) sorprendente, pero cierto: ¡victoria! El impacto de las optimizaciones de AF es tan grande que ha puesto al X700XT a la cabeza;
  • RADEON X700XT con BAJA OPTIMIZACIÓN - vs RADEON X700XT SIN OPTIMIZACIÓN bueno, aquí todo está claro, con AF activo la velocidad simplemente aumenta 1,5 veces si también enciendes la IA;
  • RADEON X700XT con ALTA OPTIMIZACIÓN - vs. RADEON X700XT SIN OPTIMIZACIÓN similar;

Este juego está en la parte superior de la lista de investigación sobre la calidad de los gráficos cuando la A.I.

Irreal II: El despertar





Los modos más ligeros sin AA y anisotropía: el X700XT es una ligera derrota, las optimizaciones dan poco retorno.

Con AA activado: Como en las primeras pruebas, con AA el 6600GT pierde velocidad bruscamente, por lo que el X700XT se lleva la victoria.

Con la anisotropía habilitada: aproximadamente paridad de fuerzas, e incluso la posición del X700XT es ligeramente mejor. Pero sólo cuando la IA está encendida; si la apagas, el X700XT pierde.

El último modo más difícil con AA y anisotropía: AA puntúa y gana, liderazgo general para el X700XT.

Entonces, en general:

  • RADEON X700XT - victoria frente a RADEON 9800 PRO (ATHLON64 3400+);
  • RADEON X700XT - victoria frente a RADEON 9800 XT (ATHLON64 3400+);
  • RADEON X700XT - victoria frente a GeForce 6600GT;
  • RADEON X700XT - vs. GeForce 6800LE (ATHLON64 3400+) Las optimizaciones AF nuevamente le dieron a la X700XT el sombrero de líder;
  • RADEON X700XT con BAJA OPTIMIZACIÓN - vs. RADEON X700XT SIN OPTIMIZACIÓN activar AF con optimizaciones habilitadas dio un fuerte aumento en la velocidad;
  • RADEON X700XT con ALTA OPTIMIZACIÓN - versus RADEON X700XT SIN OPTIMIZACIÓN similar, solo que la ganancia es ligeramente mayor;

Marca derecha 3D





Los modos más fáciles sin AA y anisotropía: victoria para el X700XT. Y tenga en cuenta que activar A.I. Le dio a esta carta muy buenas cartas de triunfo. ¿Qué es esto? ¿Optimización para nuestra prueba? :-) ¿O, en general, algunos buscan formas más económicas de renderizar? ¿Optimizando solo un trilineal? - Dudoso.

Con AA encendido: todo es igual

Con la anisotropía activada: sí, lo mismo aquí.

El último modo más difícil con AA y anisotropía: puedes adivinar que no hay nada más que decir.

Entonces, en general:

  • RADEON X700XT - victoria frente a RADEON 9800 PRO (ATHLON64 3400+);
  • RADEON X700XT - victoria frente a RADEON 9800 XT (ATHLON64 3400+);
  • RADEON X700XT - victoria frente a GeForce 6600GT;
  • RADEON X700XT con BAJA OPTIMIZACIÓN - versus RADEON X700XT SIN OPTIMIZACIÓN buenos dividendos;
  • RADEON X700XT con ALTA OPTIMIZACIÓN - versus RADEON X700XT SIN OPTIMIZACIÓN ¡el aumento llegó incluso al 34 por ciento!;

TR:AoD, París5_4 DEMOSTRACIÓN





Los modos más fáciles sin AA y anisotropía: una derrota fácil para el oponente, aquí el papel lo juega la velocidad pura de los sombreadores, y en términos de frecuencia central, es ligeramente mayor en el 6600GT.

Con AA activado: guau... ¡el X700XT es un completo fracaso! ¿Qué es esto? - ¿Conductores? Seguramente lo son. Después de todo, mira, en este modo a 1600x1200, AA no funciona para el X700XT. Aunque en otros juegos todo está bien.

Con anisotropía habilitada: paridad aproximada.

El último modo más difícil con AA y anisotropía: derrota del X700XT.

Entonces, en general:

  • RADEON X700XT - vs. RADEON 9800 PRO (ATHLON64 3400+) derrota;
  • RADEON X700XT - versus RADEON 9800 XT (ATHLON64 3400+) similar;
  • RADEON X700XT - derrota frente a GeForce 6800LE (ATHLON64 3400+);
  • RADEON X700XT con BAJA OPTIMIZACIÓN - vs. RADEON X700XT SIN OPTIMIZACIÓN el efecto es pequeño;
  • RADEON X700XT con ALTA OPTIMIZACIÓN - vs. RADEON X700XT SIN OPTIMIZACIÓN similar;

Preste atención a la ventaja que tiene el 6600GT en las optimizaciones de este juego, a pesar de que, según los especialistas de NVIDIA, dejaron de trabajar en este juego hace mucho tiempo después del colapso de su equipo de autores.

FarCry, demostración01





¡AQUÍ NO HAY NADA QUE SER CONSIDERADO por separado! ¡Un completo fracaso del X700XT en todos los aspectos! Obviamente, el juego no "entendió" el nuevo mapa (comprobado tanto en el parche 1.1 como en el 1.2), y algo no se activó para él, ¡de ahí una derrota tan inaudita!

Si tal desgracia no se corrige después de que la tarjeta salga a la venta y el próximo parche para el juego, entonces solo por tal fiasco se le podrá otorgar la derrota al X700XT en su conjunto. Aunque, como vemos, las optimizaciones funcionan. Y nuevamente tocan la anisotropía. ¿Qué significa? Es necesario comprobar la calidad. Sin embargo, ¿qué comprobar en caso de tal fallo?

Llamado del deber, ixbt04





Los modos más fáciles sin AA y anisotropía: fuerza aproximadamente igual de los oponentes. Aunque las optimizaciones para ambas tarjetas dan sus frutos, la ganancia para la X700XT es ligeramente mayor.

Con AA habilitado: ¡victoria para el X700XT! Nuevamente, debido al hecho de que el 6600GT ha retrasado la escritura en el frame buffer, lo que tiene un efecto muy negativo con AA.

Con la anisotropía activada: el panorama es el contrario, el 6600GT ya gana.

El último modo más difícil con AA y anisotropía: en general, dado que la ventaja en AA le dio más beneficio a la X700XT, esta tarjeta ganó.

Entonces, en general:

  • RADEON X700XT - victoria frente a RADEON 9800 PRO (ATHLON64 3400+);
  • RADEON X700XT - versus RADEON 9800 XT (ATHLON64 3400+) similar;
  • RADEON X700XT - victoria frente a GeForce 6600GT;
  • RADEON X700XT - derrota frente a GeForce 6800LE (ATHLON64 3400+);
  • RADEON X700XT con BAJA OPTIMIZACIÓN - vs. RADEON X700XT SIN OPTIMIZACIÓN con AF e A.I. El X700 obtiene aumentos de velocidad decentes;
  • RADEON X700XT con ALTA OPTIMIZACIÓN - vs. RADEON X700XT SIN OPTIMIZACIÓN similar;

HALO: Combate evolucionado



Los modos más fáciles sin AA y anisotropía: derrota del X700XT

Entonces, en general:

  • RADEON X700XT - victoria frente a RADEON 9800 PRO (ATHLON64 3400+);
  • RADEON X700XT - victoria frente a RADEON 9800 XT (ATHLON64 3400+);
  • RADEON X700XT - derrota frente a GeForce 6600GT;
  • RADEON X700XT - victoria frente a GeForce 6800LE (ATHLON64 3400+) (!!!);
  • RADEON X700XT con BAJA OPTIMIZACIÓN - versus RADEON X700XT SIN OPTIMIZACIÓN, habilitar optimizaciones solo para AF tuvo un pequeño efecto;
  • RADEON X700XT con ALTA OPTIMIZACIÓN - vs. RADEON X700XT SIN OPTIMIZACIÓN similar;

Half-Life2 (beta): demostración de ixbt07



Con la anisotropía activada: ¡el X700XT está derrotado y es muy fuerte!

El último modo más pesado con AA y anisotropía: y sólo el hecho de que el 6600GT volvió a hundirse significativamente con AA le dio al X700XT la oportunidad de arrebatarle la victoria. Aunque, nuevamente, hay errores: a 1600x1200 AA nuevamente no funciona.

Entonces, en general:

  • RADEON X700XT - victoria frente a RADEON 9800 PRO (ATHLON64 3400+);
  • RADEON X700XT - victoria frente a RADEON 9800 XT (ATHLON64 3400+);
  • RADEON X700XT - victoria frente a GeForce 6600GT;
  • RADEON X700XT - derrota frente a GeForce 6800LE (ATHLON64 3400+);
  • RADEON X700XT con BAJA OPTIMIZACIÓN - vs RADEON X700XT SIN OPTIMIZACIÓN muy buen aumento de velocidad cuando la IA está habilitada. junto con FA;
  • RADEON X700XT con ALTA OPTIMIZACIÓN - vs. RADEON X700XT SIN OPTIMIZACIÓN similar;

Célula astilla



El X700XT está derrotado en todos los aspectos (en relación con el 6600GT).

Entonces, en general:

  • RADEON X700XT - victoria frente a RADEON 9800 PRO (ATHLON64 3400+);
  • RADEON X700XT - versus RADEON 9800 XT (ATHLON64 3400+) paridad aproximada;
  • RADEON X700XT - derrota frente a GeForce 6600GT;
  • RADEON X700XT - versus GeForce 6800LE (ATHLON64 3400+) ¡un gran fiasco!;
  • RADEON X700XT con BAJA OPTIMIZACIÓN - vs. RADEON X700XT SIN OPTIMIZACIÓN sin efecto;
  • RADEON X700XT con ALTA OPTIMIZACIÓN - vs. RADEON X700XT SIN OPTIMIZACIÓN similar;

CONDENACIÓN III





Creo que no tiene sentido considerar una comparación del X700XT/6600GT por modo, cuando está claro que el X700XT es un completo perdedor.

Entonces, en general:

  • RADEON X700XT versus RADEON 9800 PRO (ATHLON64 3400+) excelente éxito (sin embargo, como se esperaba, porque la frecuencia es mucho mayor);
  • RADEON X700XT - versus RADEON 9800 XT (ATHLON64 3400+) similar (solo que en altas resoluciones el bajo ancho de banda del X700XT arruinó el asunto);
  • RADEON X700XT versus GeForce 6600GT FALLO COMPLETO X700XT;
  • RADEON X700XT - frente a GeForce 6800LE (ATHLON64 3400+) SIMILAR;
  • RADEON X700XT con BAJA OPTIMIZACIÓN - vs RADEON X700XT SIN OPTIMIZACIÓN ¡¡¡guau!!! ¡¡¡Mira cuánta optimización da este juego !!! Urge un estudio de calidad, aunque es muy, muy difícil, dada la colosal cantidad de escenas oscuras donde se ve poco;
  • RADEON X700XT con ALTA OPTIMIZACIÓN - versus RADEON X700XT SIN OPTIMIZACIÓN análoga;

Y atención a lo insignificantes que son las optimizaciones para el 6600GT, aunque hay que tener en cuenta que esto sólo se aplica al trilineal y al AF, y no a la optimización del juego en general (incluido el reemplazo de sombreadores).

3DMark03: Juego 1





Los modos más fáciles sin AA y anisotropía: paridad aproximada en optimizaciones y pérdida para el X700XT sin ellas. La inclusión de IA, especialmente la Alta, rinde dividendos.

Con AA habilitado: victoria para el X700XT, teniendo en cuenta el desastroso comportamiento del 6600GT con AA.

Con la anisotropía activada: sólo en el modo de optimización Alta el X700XT logra arrebatarle la victoria; en otros casos, el líder es el 6600GT; Las optimizaciones para AF aquí en el X700 son muy fructíferas. Tendremos que investigar la calidad.

El último modo más difícil con AA y anisotropía: gracias a AA, la tarjeta ATI logró obtener la camiseta de líder, pero solo si estaba habilitada la Alta optimización.

Entonces, en general:

  • RADEON X700XT - victoria frente a RADEON 9800 PRO (ATHLON64 3400+);
  • RADEON X700XT - victoria frente a RADEON 9800 XT (ATHLON64 3400+);
  • RADEON X700XT: victoria frente a la GeForce 6600GT solo con IA alta;
  • RADEON X700XT - derrota frente a GeForce 6800LE (ATHLON64 3400+);
  • RADEON X700XT con BAJA OPTIMIZACIÓN - versus RADEON X700XT SIN OPTIMIZACIÓN el efecto es obvio;
  • RADEON X700XT con ALTA OPTIMIZACIÓN - versus RADEON X700XT SIN OPTIMIZACIÓN y aquí es aún más fuerte, necesitamos estudiar qué sucede con la calidad - ¿esa optimización es gratuita?;

3DMark03: Juego 2





El X700XT pierde frente a su competidor 6600GT en todos los modos. Aunque las optimizaciones ayudan un poco, pero sólo débilmente.

Entonces, en general:

  • RADEON X700XT - victoria frente a RADEON 9800 PRO (ATHLON64 3400+);
  • RADEON X700XT - victoria frente a RADEON 9800 XT (ATHLON64 3400+);
  • RADEON X700XT - derrota frente a GeForce 6600GT;
  • RADEON X700XT - derrota frente a GeForce 6800LE (ATHLON64 3400+);
  • RADEON X700XT con BAJA OPTIMIZACIÓN: frente a RADEON X700XT SIN OPTIMIZACIÓN, solo con anisotropía activa vemos un aumento decente de la IA;
  • RADEON X700XT con ALTA OPTIMIZACIÓN - vs. RADEON X700XT SIN OPTIMIZACIÓN similar;

La calidad habrá que verla, aunque todo el escenario esté oscuro será complicado encontrar algo.

3DMark03: Juego 3





Los modos más ligeros sin AA ni anisotropía: las optimizaciones en el X700 funcionan con el mismo potencial que en la prueba anterior. Y en general podemos decir que dieron poco, porque... El X700 incluso perdió la batalla con ellos.

Con AA habilitado: casi paridad con el rival

Con anisotropía habilitada: similar

El último modo más difícil con AA y anisotropía: paridad con el 6600GT con optimizaciones activas y derrota con ellas desactivadas.

Entonces, en general:

  • RADEON X700XT - victoria frente a RADEON 9800 PRO (ATHLON64 3400+);
  • RADEON X700XT - victoria frente a RADEON 9800 XT (ATHLON64 3400+);
  • RADEON X700XT: versus GeForce 6600GT establecemos condicionalmente la paridad;
  • RADEON X700XT - derrota frente a GeForce 6800LE (ATHLON64 3400+);
  • RADEON X700XT con BAJA OPTIMIZACIÓN - vs. RADEON X700XT SIN OPTIMIZACIÓN pequeño efecto;
  • RADEON X700XT con ALTA OPTIMIZACIÓN - vs. RADEON X700XT SIN OPTIMIZACIÓN similar;

3DMark03: Juego 4





¡Una victoria convincente y brillante para el X700XT en todos los modos!

Entonces, en general:

  • RADEON X700XT - victoria frente a RADEON 9800 PRO (ATHLON64 3400+);
  • RADEON X700XT - victoria frente a RADEON 9800 XT (ATHLON64 3400+);
  • RADEON X700XT - victoria frente a GeForce 6600GT;
  • RADEON X700XT - victoria frente a GeForce 6800LE (ATHLON64 3400+);

3DMark03: MARCAS





Y, como resultado, tras la fuerte influencia de la prueba anterior, el X700XT gana en casi todas partes. Además, las optimizaciones (A.I.) dan un aumento decente.

Entonces, en general:

  • RADEON X700XT - victoria frente a RADEON 9800 PRO (ATHLON64 3400+);
  • RADEON X700XT - victoria frente a RADEON 9800 XT (ATHLON64 3400+);
  • RADEON X700XT - victoria frente a GeForce 6600GT;
  • RADEON X700XT - frente a GeForce 6800LE (ATHLON64 3400+) paridad condicional;
  • RADEON X700XT con BAJA OPTIMIZACIÓN - versus RADEON X700XT SIN OPTIMIZACIÓN hay un efecto;
  • RADEON X700XT con ALTA OPTIMIZACIÓN - versus RADEON X700XT SIN OPTIMIZACIÓN lo mismo;

Conclusiones

Para resumir:

  • Teniendo en cuenta las numerosas, incluso leves, victorias del X700XT sobre su principal rival, la GeForce 6600GT, se podrían decir muchas palabras cálidas sobre el nuevo producto de ATI, pero...
  • El oscuro y colosal fracaso del mapa en Far Cry, así como la pérdida esperada en DOOM III (¡estos dos juegos exitosos!) y los malos resultados en HL2 nos dan una razón para no anunciar el liderazgo y no otorgarlo al X700XT.
  • La pega es el ruido más frío, que, como ha demostrado nuestra investigación, no está justificado.
  • Incluso si es exagerado equiparar la GeForce 6600GT con la RADEON X700XT, entonces bases tecnológicas potenciales para el futuro como SLI y SM3 le dan a la GeForce 6600GT más posibilidades de tener demanda (principalmente SLI).
  • No exploramos el overclocking del X700XT por dos razones: falta de tiempo y bajo potencial (la tarjeta se congela incluso con el núcleo configurado en 505 MHz, mientras que el potencial de overclocking del 6600GT es excelente y, por lo tanto, no será difícil para NVIDIA para lanzar la próxima revisión de la tarjeta con frecuencias aumentadas, eliminando así todas las débiles ventajas de velocidad del X700XT).
  • Lo bueno es que el X700XT es en realidad más rápido que sus hermanos anteriores del campo de gama alta: 9800PRO/9800XT. Y, por supuesto, GeForce FX 5950U. Sin embargo, no olvidemos que estas tarjetas son de diferentes sectores (PCX y AGP) y por tanto no será del todo correcto compararlas. De todos modos, al cambiar a otra plataforma, el usuario debe cambiar la configuración y una simple comparación directa será incorrecta.

Entonces, tendremos que, en primer lugar, esperar que pronto se lance un controlador (o parche para el juego) que corrija tal falla en Far Cry; en segundo lugar, ATI probablemente tendrá que frenar su apetito por $249 por una tarjeta de 256 MB y reducir los precios entre $40 y $50, esperando el lanzamiento de una tarjeta más potente de NVIDIA de la misma familia 6600.

En tercer lugar, todos recordamos que durante mucho tiempo los productos ATI fueron los favoritos sólo porque tenían una velocidad notablemente mayor en los juegos de sombreado en comparación con sus competidores de NVIDIA. Y, para permanecer en primer lugar, la empresa canadiense tuvo que producir un producto no con una productividad (condicionalmente) igual, sino con un porcentaje notable superior a la de su competidor. Y también tenga en cuenta el margen decente para aumentar las frecuencias en el 6600GT (que, curiosamente, no se observa en el X700XT, aunque ambos productos se fabrican según el mismo proceso técnico).

ATI todavía tiene su propia "frambuesa" en el sector AGP, donde NVIDIA hoy sólo ofrece el viejo y débil FX 5700 por 150-200 dólares. Esta es una buena oportunidad y por eso es extraño ver que los canadienses todavía están tratando de jugar en esto. sector con el uso del 9800 PRO (que, como han demostrado las pruebas, claramente no es competitivo con las nuevas soluciones Middle), en lugar de introducir aquí también la línea X700, aprovechando el hecho de que NVIDIA está actualmente muy por detrás en este sector. Fue posible realizar diferentes revisiones del RV410 (con interfaces AGP y PCX). Es una lástima, pero ATI prácticamente ha pasado por alto este punto; es poco probable que la compañía tenga tiempo de reaccionar ante la probable aparición de nuevas soluciones AGP de NVIDIA.

Es interesante que ahora, con una coherencia envidiable, dando prioridad a PCI-E, tanto esta como esta empresa en realidad están obligando a los ensambladores OEM a cambiar a una nueva plataforma, lo cual es muy beneficioso para Intel y completamente no rentable para los consumidores comunes y, de hecho, para la mayoría de ensambladores OEM. Aparentemente, la sombra de Intel de alguna manera se cierne detrás de la celosa iniciativa PCI Express de ambos líderes gráficos.

Bueno, volvamos a ATI. ¡El liderazgo debe ser apoyado constantemente! Y no lance un producto exitoso una vez cada 3 años y luego se duerma en los laureles. Y si Canadá no entiende esto, pronto perderá su sombrero (¿o camiseta?) de líder. Uno podría estar orgulloso del X800XT PE, de lo fuerte y potente que es, pero aún no está disponible para la venta. No se toma tierra con una corona de papel, ni se le jura lealtad...

Continuaremos nuestra investigación, por lo que no podemos dar un veredicto final; la investigación de calidad hará su contribución, se lanzarán nuevos controladores, posiblemente corrigiendo defectos obvios. Comenzarán las ventas masivas, se lanzarán productos de varios proveedores, luego veremos quién gana….

Ahora respecto a la nueva versión de CATALYST y sus innovaciones. Es muy loable y agradable ver que a los usuarios se les dio la oportunidad de decidir por sí mismos qué quieren simplificar y qué no. Se trata de IA. Pero aún así comprobaremos qué se activa y desactiva exactamente al pasar de un modo a otro dentro de la IA. Por eso tampoco podemos emitir un veredicto todavía. Pero en cuanto a la lentitud del propio CCC, quisiera decir palabras muy fuertes y acaloradas con un claro sesgo negativo. Porque es una vergüenza que en un ordenador potente un programa consiga ser terriblemente lento. Esperamos que los desarrolladores tengan en cuenta este punto en un futuro próximo. En general, repitamos, la idea de A.I. Muy bueno, al igual que CCC en general.

También puedes ver características comparativas más completas de tarjetas de video de esta y otras clases en nuestro 3DGiToges.

RECORDEMOS OTRA VEZ que esta es sólo la primera parte de nuestro material de varias partes sobre el RV410. ¡Estén atentos a la secuela!

algunos proyectos misteriosos...
Ahora podemos levantar el velo del secreto. Durante las vacaciones de mayo, cuando todos estaban de vacaciones, ATi anunció una nueva línea de tarjetas gráficas basadas en GPU. Radeón X800 con nombre en clave R420. Si pensaras que “ incógnita"En el nombre del chip significa soporte. DirectX 10, entonces estás equivocado. X es el número romano habitual "10". Justo después de la línea 9xxx era necesario proponer una nueva designación. Entonces apareció el X800.

R420: viejo nuevo amigo
El monstruo de nVidia llamado NV40 consta de 222 millones de transistores. El R420 resultó ser mucho más modesto: "solo" 160 millones de transistores. La GPU ATi se fabrica utilizando 0,13 proceso técnico de micras. Por ahora, la nueva línea de tarjetas de video de ATi tendrá solo dos modelos: X800 Pro Y X800XT Edición Platino (educación física). Se diferencian en las frecuencias del núcleo y de la memoria, así como en el número de canales de píxeles. 12 para X800 Pro y 16 para X800 XT PE. Las tarjetas de la serie X800 usan memoria GDDR3, que se caracteriza por una menor generación de calor. A diferencia de la GeForce 6800 Ultra, las tarjetas de video basadas en X800 no consumen más energía que Radeon 9800XT Y GeForce 5950 Ultra. Por lo tanto, sólo se necesita un conector adicional para alimentar la tarjeta de video. La GPU no se calienta mucho, por lo que la X800 utiliza el mismo sistema de refrigeración que la Radeon 9800XT. Recordemos que sólo ocupa un slot adyacente.
Junto al conector de alimentación en la placa hay una entrada de video, que se puede colocar en el panel frontal de la unidad del sistema, conector de entrada de video ( 3,5 - o 5,25 -compartimento de pulgadas). Como habrás adivinado, la función de captura y salida de video ( VIVO) ahora es estándar. El chip ATi es el responsable de ello. Teatro de rabia.

Características tecnológicas de las tarjetas de video de ATi y nVidia.
Mapa ATI Radeon 9800XT ATI X800 Pro ATi X800 XT Edición Platino nVidia GeForceFX 5950 Ultra nVidia GeForce 6800 Ultra
Nombre clave R360 R420 R420 NV38 NV40
tecnología de chips 256 bits 256 bits 256 bits 256 bits 256 bits
Proceso técnico 0,15 micras 0,13 µm bajo k 0,13 µm bajo k 0,13 micras 0,13 micras
Número de transistores ~107 millones 160 millones 160 millones 130 millones 222 millones
Autobús de memoria DDR de 256 bits GDDR3 de 256 bits GDDR3 de 256 bits DDR de 256 bits GDDR3 de 256 bits
Ancho de banda 23,4 GB/s 28,8 GB/s 35,84 GB/s 30,4 GB/s 35,2 GB/s
AGP 2x/4x/8x 2x/4x/8x 2x/4x/8x 2x/4x/8x 2x/4x/8x
Memoria 256 megas 128/256MB 128/256MB 128/256MB 128/256/512MB
frecuencia de GPU 412MHz 475MHz 520MHz 475MHz 400MHz
Frecuencia de memoria 365 MHz (730 DDR) 450 MHz (DDR de 900 MHz) 560 MHz (DDR de 1120 MHz) 475 MHz (950 DDR) 550 MHz (1100 DDR)
Número de bloques de programa de vértices 4 6 6 matriz FP 6
Número de canalizaciones de píxeles 8x1 12x1 16x1 4x2 / 8x0 16x1 / 32x0
Versión del programa Vertex/pixel 2.0/2.0 2.0/2.0 2.0/2.0 2.0/2.0 3.0/3.0
Versión DirectX 9.0 9.0 9.0 9.0 9.0c
Número de salidas de visualización 2 2 2 2 2
Además Codificador de TV en un chip;
Transmisión completa;
filtrado adaptativo;
F-búfer
Codificador de TV en un chip;
Transmisión completa;
filtrado adaptativo;
F-búfer;
Compresión de mapas normales 3Dc;
alisado temporal;
VIVO;
SmartShader HD;
Visión fluida HD;
Hiper Z HD
Codificador de TV en un chip;
Transmisión completa;
filtrado adaptativo;
F-búfer;
Compresión de mapas normales 3Dc;
alisado temporal;
VIVO;
SmartShader HD;
Visión fluida HD;
Hiper Z HD
Codificador de TV en un chip;
filtrado adaptativo;
Ultrasombra
Procesador de vídeo y codificador de TV en un chip;
programabilidad avanzada;
filtrado adaptativo; verdadero filtrado trilineal;
Ultrasombra II
Precio en el momento del lanzamiento. $499 $399 $499 $499 $499
Precio al por menor $440 $420

El X800 no tiene muchas características nuevas. ATi decidió tomar el camino de mejorar aún más la arquitectura probada. R3xx. La receta del éxito es simple: más bloques de vértices y píxeles además de algunas optimizaciones en el núcleo. El R420 tiene dos características realmente nuevas: 3Dc Y alisado temporal (FSAA temporal). Hablaremos de ellos más tarde.
La Radeon X800 Pro saldrá a la venta en mayo-junio y, un poco más tarde, ATi lanzará el modelo anterior: la X800 XT Platinum Edition. La versión Pro utiliza el mismo chip gráfico que el XT PE. Pero tiene 4 oleoductos inhabilitados.
ATi High Definición Gaming - Hi-Fi en el mundo de los juegos
En el mundo de la televisión actual hay un cambio hacia televisión de alta definición (Televisión de alta definición) - televisión de alta definición. ATi decidió utilizar el término alta definición en sus tecnologías actualizadas: SmartShaderHD, visión fluida hd Y Hiper Z HD.
De hecho, el núcleo R420 es un desarrollo del exitoso y potente chip R300 DX9 ( Radeon 9700 Pro). Al igual que sus predecesores, el X800 admite DirectX 9.0 Y programas de vértice de píxeles versiones 2.0 . Mientras que nVidia agregó soporte para sombreadores de píxeles y vértices a la GeForce 6800 Ultra 3.0 . Además, la precisión del punto flotante del R420 es limitada. 24 bits (recuerde que los bloques de programa de píxeles de la NV40 ahora pueden funcionar rápidamente con 32 -números de bits). El X800 Pro/XT PE utiliza un bus de 256 bits, dividido en cuatro canales de 64 bits. ATi aumentó el número de unidades de vértice de cuatro (en la Radeon 9800XT) a seis (en la X800). Resulta que la X800 está tecnológicamente por detrás de la GeForce 6800, pero hoy en día es casi imposible afirmar de forma fiable la debilidad de ATI hasta que aparezca DirectX. 9.0c y juegos que utilizan programas shader 3.0.

3Dc: nueva tecnología para comprimir mapas normales
En el nuevo R420, los ingenieros de ATi utilizaron nueva tecnología: 3Dc(para más información sobre mapas normales, consulte la sección “Mapas normales y 3Dc”). Le permite reducir el tamaño del archivo de mapa normal, ahorrando memoria. Ahora los desarrolladores tienen dos opciones: pueden mejorar el rendimiento del juego introduciendo soporte de compresión para estos mapas, o aumentar el detalle del mundo del juego utilizando mapas más complejos y detallados mediante compresión. Agregar soporte para nuevos

Integrar tecnología en los juegos no debería ser demasiado difícil para los desarrolladores.
3Dc es compatible en hardware con todas las tarjetas basadas en el núcleo R420. Pero tendrás que olvidarte de admitir esta función en chips más antiguos. Existe una alta probabilidad de que la nueva versión de DirectX sea compatible con 3Dc. En cualquier caso, la compañía está promocionando la nueva tecnología como un estándar abierto, y pronto veremos varios juegos con soporte 3Dc ( CONDENACIÓN III, Media vida 2 Y Sam serio 2).

Por ejemplo, compresión de textura ( S3TC, DXTC) se ha utilizado durante bastante tiempo y permite reducir el tamaño de las texturas de alta resolución. Al mismo tiempo
Las texturas se almacenan en un formato comprimido.
Muchos juegos modernos, como Far Cry, utilizan un método mejorado para mostrar protuberancias llamado " mapas normales” (Mapeo normal). Son texturas especiales que contienen información sobre los detalles de un objeto. Usar mapas normales como mapas
irregularidades, le permite aumentar el detalle del objeto sin aumentar el número de polígonos en los modelos. En el X800, la empresa decidió utilizar una nueva tecnología para la compresión por hardware de texturas de mapas normales: 3Dc.
La esencia de la tecnología de mapas normal es que el desarrollador del juego primero necesita crear un modelo de personaje muy detallado utilizando una gran cantidad de polígonos. Luego, el personaje real del juego se crea utilizando un modelo simplificado con menos polígonos. Después de esto, se calculan las diferencias entre los dos modelos, que se registran en forma de una especie de textura (mapa normal). Contienen detalles perdidos durante la transición de un modelo a otro. El mapa normal puede luego aplicarse al simplificado.
modelo, haciéndolo lucir exactamente igual que un modelo con un mayor número de polígonos. Es imposible lograr un cien por ciento de similitud con el original, ya que el mapa normal no contiene información geométrica.
En la parte superior izquierda hay un modelo de cabeza formado por 15.000 polígonos. En la parte inferior izquierda se construye un modelo simplificado (1000 polígonos en total). La diferencia entre los dos modelos se calcula y registra por separado como un mapa normal (arriba a la derecha). En un juego o programa, la GPU toma un modelo simple como base y le aplica un mapa normal utilizando software de píxeles para efectos de iluminación. Como resultado, obtuvimos un modelo de cabeza de alta calidad que utiliza solo 1000 polígonos.
Sin embargo, existen varias desventajas asociadas con el uso de mapas normales. En primer lugar, la carga en la GPU aumenta, ya que los mapas normales son esencialmente otra textura aplicada a los polígonos. En segundo lugar, se necesitan más datos. Cuanto más detalles quiera utilizar un diseñador, mayor será la resolución del mapa normal utilizado y más ancho de banda de memoria necesitará. Aunque el mapa normal se puede comprimir utilizando el algoritmo DXTC, normalmente provoca artefactos de imagen notables. Así como S3 desarrolló su propia tecnología S3TC cuando surgieron problemas con texturas grandes, ATi ideó una nueva tecnología de compresión 3Dc diseñada específicamente para mapas normales. Según ATi, el nuevo método es capaz de reducir el tamaño de los mapas normales en un factor de cuatro sin afectar notablemente la calidad.
Smoothvision HD: nuevo suavizado de pantalla completa
Las tarjetas de video de ATi siempre han sido famosas por su implementación de alta calidad. suavizado de pantalla completa (FSAA - Antialiasing de pantalla completa). Los chips gráficos de la compañía son capaces de soportar niveles de muestreo de hasta 6x en combinación con corrección de color gamma en los bordes de los objetos. da genial
calidad de imagen.
Con el lanzamiento de la línea X800, la empresa implementó una nueva tecnología anti-aliasing llamada "anti-aliasing temporal" (o "temporal" - A.A. temporales).
El ojo humano percibe una secuencia de fotogramas en la pantalla como una imagen en constante movimiento, ya que el ojo no puede notar el cambio de fotogramas que se produce en milisegundos.
Al dibujar un marco, TAA cambia la ubicación de los subpíxeles; cambia teniendo en cuenta la inercia de nuestro ojo. Esto le permite obtener una imagen de mayor calidad que con
usando FSAA regular.
Pero la suavización del tiempo tiene ciertas limitaciones. Comencemos con el hecho de que al usarlo. sincronización vertical (sincronización vertical) debe estar habilitado. La velocidad mínima de actualización de fotogramas debe ser 58 fps. Si la velocidad de fotogramas cae por debajo de este límite, el suavizado temporal cambiará automáticamente a normal hasta que los fps vuelvan a aumentar. El caso es que con una frecuencia de actualización más baja, las diferencias entre fotogramas se notarán a la vista. Esto conducirá al deterioro de la calidad de la imagen.
La idea detrás de la nueva característica es obvia. 2xTAA(suavizado temporal) proporciona el mismo nivel de calidad que 4xFSAA. Pero lo más importante es que esto consume pocos recursos de la tarjeta de video (no más que para 2xAA). El suavizado temporal ya está implementado en los nuevos controladores. Quizás esta característica también sea compatible con las tarjetas de la generación 9x00 en futuras versiones de controladores. Catalizador(excepto 9000 Y 9200 que no son compatibles con DX9).

Configuración de prueba
No profundicemos más en la teoría, pasemos a probar las propias tarjetas de video. Para realizar las pruebas utilizamos Controlador Catalyst 4.4 para tarjetas de ATi y para productos nVidia: un controlador ForceWare 60.72.

sistema de prueba
UPC Intel Pentium 4 3,2 GHz
frecuencia del FSB 200 MHz (QDR de 800 MHz)
Placa madre Gigabyte GA-8IG 1000 PRO (i865)
Memoria 2x Kingston PC3500, 1024MB
disco duro Seagate Barracuda 7200.7 120 GB S-ATA (8 MB)
DVD Hitachi GD-7000
LAN Netgear FA-312
unidad de potencia Antec Verdadero Control 550W
Controladores y configuraciones
Gráficos Catalizador ATI 4.4
Nvidia 60.72
conjunto de chips Intel Inf. Actualizar
SO Windows XP Prof. SP1a
DirectX DirectX 9.0b
Tarjetas gráficas utilizadas
ATI Radeon 9800XT (zafiro)
Radeon X800 Pro (ATi)
Radeon X800 XT Edición Platino (ATi)
nVidia GeForce FX 5950 Ultra (Nvidia)
GeForce 6800 Ultra (Nvidia)

Resultados de la prueba
Probamos las tarjetas de video en una variedad de juegos y aplicaciones de prueba, incluidas AquaMark3, Obligaciones, Colin McRae Rally 04, grito lejano, Torneo irreal 2004, X2: La amenaza. Realizamos todas las pruebas tanto en modo normal como en modo "pesado", con filtrado anisotrópico y anti-aliasing de pantalla completa habilitados (excepto AquaMark3).
En la prueba AquaMark3 de Desarrollo masivo La ganadora absoluta fue la GeForce 6800 Ultra. Continuando con su ritmo ganador, la NV40 también tuvo un mejor desempeño en Call of Duty. Al mismo tiempo, superó al X800 XT PE en todas las pruebas, incluso en los modos "pesados".
Resultados de la prueba
Radeon 9800XT Radeon X800 Pro Radeon X800XT PE GeForce FX 5950 Ultra GeForce 6800 Ultra
AquaMark - Calidad normal
Puntaje 46569 54080 58006 44851 61873
Call of Duty - Calidad normal
1024x768 146,5 218,5 253,4 141,0 256,4
1280x1024 101,2 156,0 195,8 97,4 219,5
1600x1200 70,7 113,5 145,5 69,6 175,2
Call of Duty - 4xFSAA, 8x Aniso
1024x768 70,1 110,2 146,9 63,1 157,4
1280x1024 47,6 75,7 100,4 42,8 110,8
1600x1200 33,1 53,7 71,3 30,5 82,1
Colin McRae Rally 04 - Calidad normal
1024x768 130,5 172,5 174,8 91,2 166,0
1280x1024 95,8 133,8 172,8 68,5 163,2
1600x1200 67,6 95,1 141,4 49,5 132,1
Colin McRae Rally 04 - 4xFSAA, 8x Aniso
1024x768 70,5 107,6 142,2 52,3 118,0
1280x1024 53,3 81,1 105,7 40,6 92,5
1600x1200 39,1 59,9 76,7 30,5 70,2
FarCry al aire libre 1024x768
Calidad Normal 55,0 75,3 81,2 48,6 66,8
FSAA Alto, Aniso 4 30,3 49,0 68,8 30,7 50,5
FarCry interior 1024x768
Calidad Normal 45,1 69,6 90,8 28,5 74,7
FSAA Alto, Aniso 4 25,9 41,5 59,6 20,9 53,1
Unreal Tournament 2004 - Calidad normal
1024x768 106,9 104,6 105,3 104,1 103,7
1280x1024 94,4 105,0 104,9 95,7 103,6
1600x1200 69,1 97,1 104,5 72,8 102,9
Torneo irreal 2004 - 4xFSAA, 8x Aniso
1024x768 75,1 104,6 105,0 80,5 102,7
1280x1024 52,5 92,2 101,9 54,7 84,9
1600x1200 38,2 68,5 82,3 39,1 64,1
X2 - La Amenaza - Calidad Normal
1024x768 67,9 80,0 83,4 74,3 84,6
1280x1024 54,7 68,5 76,7 61,1 75,3
1600x1200 44,2 58,9 68,4 50,5 67,1
X2 - La amenaza - 4xFSAA, 8x Aniso
1024x768 48,9 62,4 69,7 53,9 73,2
1280x1024 36,1 51,1 58,9 40,1 61,1
1600x1200 28,4 42,6 49,8 30,6 51,8

En la siguiente prueba, ATi lo compensó por completo. En el juego Colin McRae Rally 04, la tarjeta de video X800 XT PE resultó estar muy por encima de sus rivales, esto fue especialmente notable en el modo con filtrado anisotrópico y anti-aliasing de pantalla completa habilitado. La situación se repitió en el juego Far Cry: la victoria volvió a ser para el buque insignia de ATi. El siguiente juego en el que probamos tarjetas de video fue Unreal Tournament 2004. En modo normal, las tres tarjetas mostraban aproximadamente resultados iguales. Habilitando aniso Y FSAA Cambió completamente la imagen: ¡X800 Pro y X800 XT PE simplemente despegaron! Al mismo tiempo, incluso la versión Pro logró superar a la GeForce 6800 Ultra. En la última prueba, X2: The Threat, los resultados de las pruebas para NV40 y X800 XT PE fueron aproximadamente iguales.

Conclusión
Todavía no nos habíamos recuperado realmente de los impresionantes resultados mostrados por la nVidia GeForce 6800 Ultra cuando ATi nos sorprendió. La Radeon X800 XT Platinum Edition mostró un rendimiento muy alto; incluso la X800 Pro con 12 pipelines superó a la GeForce 6800 Ultra en algunas pruebas.
Los canadienses de ATi hicieron un gran trabajo. El consumo de energía de las tarjetas de la serie X800 resultó estar casi al mismo nivel que el de su predecesora, la 9800XT. Por eso las nuevas tarjetas de ATi requieren sólo un conector de alimentación, a diferencia de la GeForce 6800 Ultra, que necesita dos. El núcleo R420 también resultó estar menos caliente. Para enfriarlo se utiliza un refrigerador estándar, que ocupa solo una ranura adyacente (la GeForce 6800 Ultra tiene dos). El núcleo R420 tiene muchas innovaciones, incluido el chip ATi Rage Theatre compatible con VIVO, la innovadora tecnología 3Dc que puede mejorar la calidad de los gráficos en los juegos, así como la tecnología original de anti-aliasing temporal de pantalla completa (Temporal FSAA). .

No importa cuán exitoso sea el núcleo R420, tiene sus inconvenientes. Las tarjetas de la serie X800 todavía están limitadas a una precisión de punto flotante de 24 bits y son compatibles con la versión 2.0 del software de sombreado. Mientras que la GeForce 6800 Ultra utiliza precisión informática de 32 bits sin pérdida de velocidad y admite sombreadores versión 3.0.
La X800 XT Platinum Edition y la GeForce 6800 Ultra ofrecen un rendimiento increíble. Pero el X800 XT PE parece preferible. Esta tarjeta de video de ATi mostró un rendimiento muy alto en juegos modernos de alta tecnología como Unreal Tournament 2004, Far Cry y Colin McRae Rally 04.
Acaba de comenzar una nueva ronda de enfrentamiento entre las dos empresas y es demasiado pronto para sacar conclusiones definitivas. Próximamente aparecerán opciones de presupuesto para tarjetas de video de dos empresas, así como tarjetas con soporte. PCI Express. Así que definitivamente volveremos al tema del enfrentamiento entre la empresa canadiense ATi y la estadounidense nVidia, y más de una vez.
Consumo de energía
En el artículo sobre NV40 hablamos de la gran gula de la GeForce 6800 Ultra. En este artículo realizamos pruebas en las que descubrimos cuánta energía consumen las tarjetas de video modernas. Dado que esto no se puede hacer por separado para las tarjetas, nuestra tabla muestra los valores de consumo de energía de toda la computadora. Usamos la misma configuración del sistema para todas las tarjetas.
Resultados de la medición
Radeon 9600XT 203
Radeon 9800XT 261
Radeon X800 Pro 242
Radeon X800XT 263
GeForce 4 Ti 4800 230
GeForce FX 5700U GDDR3 221
GeForce FX 5950 Ultra 264
GeForce 6800 Ultra 288
Los valores mostrados muestran el consumo máximo de energía durante las pruebas en 3DMark03. El consumo máximo de energía del X800 XT PE es ligeramente mayor que el del Radeon 9800XT. Y el X800 Pro requiere aún menos. El título de la tarjeta más "glotona" fue para la GeForce 6800 Ultra.



Arriba