La serie GeForce 3 (NV20) es la tercera generación de la línea de unidades de procesamiento gráfico (GPU) GeForce de Nvidia . Presentada en febrero de 2001, [1] mejoró la arquitectura GeForce al agregar sombreadores de píxeles y vértices programables, anti-aliasing multimuestra y mejoró la eficiencia general del proceso de renderizado.
La GeForce 3 se presentó durante la Conferencia y Exposición Macworld de 2001/Tokio 2001 en Makuhari Messe e impulsó demostraciones en tiempo real de Junior Lamp de Pixar y Doom 3 de id Software . Apple anunciaría más tarde los derechos de lanzamiento de su nueva línea de computadoras.
La familia GeForce 3 comprende tres modelos para el consumidor: la GeForce 3 , la GeForce 3 Ti200 y la GeForce 3 Ti500 . Se vendió una versión profesional independiente, con un conjunto de características adaptadas al diseño asistido por computadora, llamada Quadro DCC . Un derivado de la GeForce 3, conocido como NV2A , se utiliza en la consola de juegos Microsoft Xbox .
La GeForce 3 se presentó tres meses después de que Nvidia adquiriera los activos de 3dfx . Se comercializó como nFinite FX Engine y fue la primera tarjeta 3D compatible con Microsoft Direct3D 8.0. Su arquitectura de sombreado programable permitió que las aplicaciones ejecutaran programas de efectos visuales personalizados en el lenguaje Microsoft Shader 1.1. Se cree que el hardware T&L de función fija de la GeForce 2 todavía estaba incluido en el chip para su uso con aplicaciones Direct3D 7.0, ya que el sombreador de vértice único aún no era lo suficientemente rápido para emularlo. [2] Con respecto al rendimiento puro de píxeles y texeles, la GeForce 3 tiene cuatro canales de píxeles que pueden muestrear dos texturas por reloj cada uno. Esta es la misma configuración que la GeForce 2, excluyendo la línea GeForce 2 MX más lenta.
Para aprovechar mejor el rendimiento de la memoria disponible, la GeForce 3 cuenta con un subsistema de memoria denominado Lightspeed Memory Architecture (LMA). Este se compone de varios mecanismos que reducen el sobregiro, conservan el ancho de banda de la memoria comprimiendo el búfer z (búfer de profundidad) y gestionan mejor la interacción con la DRAM.
Otros cambios arquitectónicos incluyen soporte para EMBM [3] [4] (introducido por primera vez por Matrox en 1999) y mejoras en la funcionalidad anti-aliasing . Los chips GeForce anteriores solo podían realizar anti-aliasing de supermuestreo (SSAA), un proceso exigente que renderiza la imagen a un gran tamaño internamente y luego la reduce a la resolución de salida final. GeForce 3 agrega anti-aliasing de muestreo múltiple (MSAA) y métodos anti-aliasing Quincunx , los cuales funcionan significativamente mejor que el anti-aliasing de supermuestreo a expensas de la calidad. Con el muestreo múltiple, las unidades de salida de renderizado supermuestrean solo los búferes Z y los búferes de esténcil , y usando esa información obtienen un mayor detalle de geometría necesario para determinar si un píxel cubre más de un objeto poligonal. Esto ahorra al sombreador de píxeles/fragmentos tener que renderizar múltiples fragmentos para píxeles donde el mismo objeto cubre todos los mismos subpíxeles en un píxel. Este método falla con mapas de textura que tienen una transparencia variable (por ejemplo, un mapa de textura que representa una cerca de alambre). El anti-aliasing Quincunx es un filtro de desenfoque que desplaza la imagen renderizada medio píxel hacia arriba y medio píxel hacia la izquierda para crear subpíxeles que luego se promedian juntos en un patrón cruzado diagonal, destruyendo tanto los bordes irregulares como algunos detalles generales de la imagen. Finalmente, las unidades de muestreo de textura de GeForce 3 se actualizaron para admitir el filtrado anisotrópico de 8 toques , en comparación con el límite anterior de 2 toques con GeForce 2. Con el filtrado anisotrópico de 8 toques habilitado, las texturas distantes pueden ser notablemente más nítidas.
En la consola de juegos Microsoft Xbox se utiliza una derivada de la GeForce 3, conocida como NV2A . [5] [6] [7] [8] [9]
La GPU GeForce 3 (NV20) tiene el mismo rendimiento teórico de píxeles y texeles por reloj que la GeForce 2 (NV15). La GeForce 2 Ultra tiene una velocidad de reloj un 25 % más rápida que la GeForce 3 original y un 43 % más rápida que la Ti200; esto significa que en casos selectos, como los benchmarks T&L de Direct3D 7, la GeForce 2 Ultra y, a veces, incluso la GTS pueden superar a la GeForce 3 y la Ti200, porque las GPU más nuevas usan la misma unidad T&L de función fija, pero tienen una velocidad de reloj más baja. [10] La GeForce 2 Ultra también tiene un considerable ancho de banda de memoria bruta disponible, solo igualado por la GeForce 3 Ti500. Sin embargo, al comparar el rendimiento del anti-aliasing, la GeForce 3 es claramente superior debido a su soporte MSAA y la eficiencia de la gestión del ancho de banda de memoria/tasa de relleno.
Al comparar las capacidades de sombreado con la Radeon 8500, los evaluadores notaron una precisión superior con la tarjeta ATi. [11]
Nvidia actualizó su línea de productos en octubre de 2001 con el lanzamiento de las GeForce 3 Ti200 y Ti500. Esto coincidió con el lanzamiento por parte de ATI de las Radeon 8500 y Radeon 7500. La Ti500 tiene frecuencias de núcleo y de memoria más altas (núcleo de 240 MHz/RAM de 250 MHz) que la GeForce 3 original (200 MHz/230 MHz), y en general es igual a la Radeon 8500. La Ti200 fue la versión más lenta y de menor precio de la GeForce3. Tiene una frecuencia de reloj más baja (175 MHz/200 MHz), pero supera a la Radeon 7500 en velocidad y conjunto de características, además de la implementación de dos monitores.
La GeForce3 original solo se lanzó en configuraciones de 64 MiB, mientras que la Ti200 y la Ti500 también se lanzaron como versiones de 128 MiB.
Nvidia ha dejado de brindar soporte de controladores para la serie GeForce 3.
Los controladores para Windows 2000/XP se pueden instalar en versiones posteriores de Windows, como Windows Vista y 7; sin embargo, no admiten la composición de escritorio ni los efectos Aero de estos sistemas operativos.
Archivo de controladores de Windows 95/98/Me
Archivo de controladores de Windows XP/2000
La serie GeForce 4 (no MX), presentada en abril de 2002, [12] fue una revisión de la arquitectura GeForce 3. [13] [14] La variante económica, denominada GeForce 4 MX , era más parecida en términos de diseño a la GeForce 2. [15]