La serie GeForce 2 (NV15) es la segunda generación de la línea de unidades de procesamiento gráfico (GPU) GeForce de Nvidia . Introducida en 2000, es la sucesora de la GeForce 256 .
La familia GeForce 2 comprende varios modelos: GeForce 2 GTS , GeForce 2 Pro , GeForce 2 Ultra , GeForce 2 Ti , GeForce 2 Go y la serie GeForce 2 MX . Además, la arquitectura GeForce 2 se utiliza para la serie Quadro en las tarjetas Quadro 2 Pro, 2 MXR y 2 EX con controladores especiales destinados a acelerar las aplicaciones de diseño asistido por computadora .
La arquitectura de la GeForce 2 es similar a la línea GeForce 256 anterior, pero con varias mejoras. En comparación con la GeForce 256 de 220 nm , la GeForce 2 está construida sobre un proceso de fabricación de 180 nm, lo que hace que el silicio sea más denso y permita más transistores y una mayor velocidad de reloj. El cambio más significativo para la aceleración 3D es la adición de una segunda unidad de mapeo de textura a cada una de las cuatro tuberías de píxeles . Algunos dicen [ ¿quién? ] que la segunda TMU estaba allí en la Geforce NSR original (Nvidia Shading Rasterizer) pero la texturización dual se deshabilitó debido a un error de hardware; la capacidad única de NSR para realizar un filtrado de textura trilineal de un solo ciclo respalda esta sugerencia. Esto duplica la tasa de relleno de textura por reloj en comparación con la generación anterior y es el razonamiento detrás del sufijo de nombre de la GeForce 2 GTS: GigaTexel Shader (GTS). La GeForce 2 también introduce formalmente el NSR (Nvidia Shading Rasterizer), un tipo primitivo de canalización de píxeles programable que es algo similar a los sombreadores de píxeles posteriores . Esta funcionalidad también está presente en la GeForce 256, pero no se hizo pública. Otra mejora de hardware es una canalización de procesamiento de vídeo mejorada, llamada HDVP (procesador de vídeo de alta definición). HDVP admite la reproducción de vídeo en movimiento en resoluciones HDTV (MP@HL). [2]
En las pruebas de rendimiento 3D y en las aplicaciones de juegos, la GeForce 2 GTS supera a su predecesora en hasta un 40 %. [3] En los juegos OpenGL (como Quake III ), la tarjeta supera a las tarjetas ATI Radeon DDR y 3dfx Voodoo 5 5500 tanto en los modos de visualización de 16 bpp como de 32 bpp. Sin embargo, en los juegos Direct3D que funcionan a 32 bpp, la Radeon DDR a veces puede tomar la delantera. [4]
La arquitectura de la GeForce 2 está bastante limitada por el ancho de banda de la memoria. [5] La GPU desperdicia ancho de banda de memoria y tasa de relleno de píxeles debido al uso no optimizado del búfer z , el dibujo de superficies ocultas y un controlador de RAM relativamente ineficiente. La principal competencia de la GeForce 2, la ATI Radeon DDR, tiene funciones de hardware (llamadas HyperZ ) que abordan estos problemas. [6] Debido a la naturaleza ineficiente de las GPU GeForce 2, no podían acercarse a su potencial de rendimiento teórico y la Radeon, incluso con su arquitectura 3D significativamente menos poderosa, ofrecía una fuerte competencia. La posterior revisión NV17 del diseño NV11 utilizado en la GeForce4 MX fue más eficiente.
Los primeros modelos que llegaron después de la GeForce 2 GTS original fueron la GeForce 2 Ultra y la GeForce2 MX , lanzadas el 7 de septiembre de 2000. [7] El 29 de septiembre de 2000, Nvidia comenzó a enviar tarjetas gráficas que tenían 16 y 32 MB de tamaño de memoria de video.
La arquitectura de la Ultra es idéntica a la GTS, pero tiene frecuencias de reloj de memoria y núcleo más altas. En algunos casos, el modelo Ultra supera a los primeros productos GeForce 3 , debido a que las tarjetas GeForce 3 iniciales tenían una tasa de relleno significativamente menor. Sin embargo, la Ultra pierde su liderazgo cuando se activa el anti-aliasing, debido a los nuevos mecanismos de eficiencia de ancho de banda de memoria/tasa de relleno de la GeForce 3; además, la GeForce 3 tiene un conjunto de características de próxima generación superior con sombreadores de vértices y píxeles programables para juegos DirectX 8.0.
La GeForce 2 Pro , presentada poco después de la Ultra, fue una alternativa a la costosa Ultra de primera línea y es más rápida que la GTS.
En octubre de 2001, la GeForce 2 Ti se presentó como una alternativa más barata y menos avanzada a la GeForce 3. Más rápida que la GTS y la Pro, pero más lenta que la Ultra, la GeForce 2 Ti competía con la Radeon 7500 , aunque la 7500 tenía la ventaja de la compatibilidad con dos pantallas. Esta versión de gama media de la GeForce 2 fue reemplazada por la serie GeForce4 MX como la opción de bajo presupuesto y rendimiento en enero de 2002.
En su página web de productos de 2001, Nvidia colocó inicialmente la Ultra como una oferta separada del resto de la línea GeForce 2 (GTS, Pro, Ti), sin embargo a fines de 2002, cuando la GeForce 2 se consideraba una línea de productos discontinuada, la Ultra se incluyó junto con GTS, Pro y Ti en la página de información de GeForce 2.
Dado que la línea GeForce 256 anterior se vendió sin una variante económica, la serie RIVA TNT2 quedó para cumplir el papel de "gama baja", aunque con un conjunto de características comparativamente obsoleto. Para crear una mejor opción de gama baja, Nvidia creó la serie GeForce 2 MX, que ofrecía un conjunto de características estándar, específicas para toda la generación GeForce 2, limitadas solo por el nivel categórico. Las tarjetas GeForce 2 MX tenían dos canales de píxeles 3D eliminados y un ancho de banda de memoria disponible reducido. Las tarjetas utilizaban SDR SDRAM o DDR SDRAM con anchos de bus de memoria que iban de 32 a 128 bits, lo que permitía variar el costo de la placa de circuito. La serie MX también brindaba soporte para dos pantallas, algo que no se encontraba en las GeForce 256 y GeForce 2 normales.
Los principales competidores de la serie GeForce 2 MX eran las Radeon VE/7000 y Radeon SDR de ATI (que, junto con las otras R100, fue posteriormente rebautizada como parte de la serie 7200). La Radeon VE tenía la ventaja de un software de visualización de dos monitores algo mejor, pero no ofrecía hardware T&L , una característica emergente de renderizado 3D de la época que era la principal atracción de Direct3D 7. Además, la Radeon VE presentaba solo una única línea de renderizado, lo que hacía que produjera una tasa de relleno sustancialmente menor que la GeForce 2 MX. La Radeon SDR, equipada con SDR SDRAM en lugar de DDR SDRAM que se encuentra en sus hermanas más caras, se lanzó algún tiempo después y exhibió un renderizado 3D de 32 bits más rápido que la GeForce 2 MX. [8] Sin embargo, la Radeon SDR carecía de soporte para múltiples monitores y debutó a un precio considerablemente más alto que la GeForce 2 MX. La Voodoo4 4500 de 3dfx llegó demasiado tarde y además era demasiado cara, pero demasiado lenta para competir con la GeForce 2 MX.
Los miembros de la serie incluyen GeForce 2 MX , MX400 , MX200 y MX100 . La GPU también se utilizó como procesador gráfico integrado en la línea de chipsets nForce y como chip gráfico móvil para portátiles llamado GeForce 2 Go .
La sucesora de la línea GeForce 2 (no MX) es la GeForce 3. La línea GeForce 2 (no MX) se redujo en precio y se agregó la GeForce 2 Ti, con el fin de ofrecer una alternativa de gama media al producto GeForce 3 de gama alta.
Más tarde, toda la línea GeForce 2 fue reemplazada por la GeForce4 MX .
Nvidia dejó de brindar soporte de controladores para la serie GeForce 2, terminando con los modelos GTS, Pro, Ti y Ultra en 2005 y luego con los modelos MX en 2007.
GeForce 2 GTS, GeForce 2 Pro, GeForce 2 Ti y GeForce 2 Ultra:
Serie GeForce 2 MX y MX x00:
Los controladores para Windows 2000/XP se pueden instalar en versiones posteriores de Windows, como Windows Vista y 7; sin embargo, no admiten la composición de escritorio ni los efectos Aero de estos sistemas operativos.
Archivo de controladores de Windows 95/98/Me
Archivo de controladores de Windows XP/2000