La serie GeForce 6 ( nombre en código NV40 ) es la sexta generación de la línea de unidades de procesamiento gráfico GeForce de Nvidia . Lanzada el 14 de abril de 2004, la familia GeForce 6 introdujo el posprocesamiento PureVideo para video, tecnología SLI y compatibilidad con Shader Model 3.0 (compatible con la especificación Microsoft DirectX 9.0c y OpenGL 2.0).
La interfaz de enlace escalable (SLI) permite conectar dos tarjetas GeForce 6 del mismo tipo en tándem. El software del controlador equilibra la carga de trabajo entre las tarjetas. La capacidad de SLI está limitada a miembros selectos de la familia GeForce 6; 6500 y superiores. SLI solo está disponible para tarjetas que utilizan el bus PCI-Express .
La tecnología Nvidia PureVideo es la combinación de un núcleo de procesamiento de video dedicado y un software que decodifica videos H.264, VC-1 , WMV y MPEG-2 con una utilización reducida de la CPU. [1]
Nvidia fue la primera en ofrecer la capacidad Shader Model 3.0 (SM3) en sus GPU. SM3 amplía SM2 de varias maneras: la precisión estándar FP32 (coma flotante de 32 bits), la ramificación dinámica, una mayor eficiencia y longitudes de sombreado más largas son las principales incorporaciones. [2] Shader Model 3.0 fue rápidamente adoptado por los desarrolladores de juegos porque era bastante simple convertir los sombreadores existentes codificados con SM 2.0/2.0A/2.0B a la versión 3.0, y ofrecía mejoras notables en el rendimiento en toda la línea GeForce 6.
La funcionalidad de PureVideo varía según el modelo; algunos modelos carecen de aceleración WMV9 y/o H.264. [3]
Además, las placas base con algunos chipsets VIA y SIS y un procesador AMD Athlon XP parecen tener problemas de compatibilidad con las GPU GeForce 6600 y 6800. Se sabe que han surgido problemas como congelamientos, artefactos, reinicios y otros problemas que hacen que jugar y usar aplicaciones 3D sea casi imposible. Estos problemas parecen ocurrir solo en aplicaciones basadas en Direct3D y no afectan a OpenGL. [ cita requerida ]
A continuación se muestra cómo se comparan las versiones lanzadas de la familia de la serie "GeForce 6" con la GPU insignia anterior de Nvidia, la GeForce FX 5950 Ultra, además de las unidades comparables de las series Radeon X800 y X850 recién lanzadas por ATI para ese momento:
(*) La serie GeForce FX tiene un Vertex Shader basado en matrices.
(**) Variante AGP 6600 GT.
La primera familia de la línea de productos GeForce 6, la serie 6800, estaba dirigida al mercado de juegos de alto rendimiento. Como primer modelo GeForce 6, la GeForce 6800 Ultra (NV40) con 16 píxeles era entre 2 y 2,5 veces más rápida que el producto de gama alta anterior de Nvidia (la GeForce FX 5950 Ultra), incluía cuatro veces más canales de píxeles, el doble de unidades de textura y añadía una arquitectura de sombreado de píxeles muy mejorada. Sin embargo, la 6800 Ultra se fabricó en el mismo nodo de proceso de 130 nanómetros ( IBM ) que la FX 5950, y consumía un poco menos de energía.
Al igual que todas las GPU de Nvidia hasta 2004, los miembros iniciales de la 6800 se diseñaron para el bus AGP . Nvidia agregó compatibilidad con el bus PCI Express (PCIe) en los productos GeForce 6 posteriores, generalmente mediante el uso de un chip puente AGP-PCIe. En el caso de la 6800 GT y la 6800 Ultra, Nvidia desarrolló una variante del chip NV40 llamada NV45. La NV45 comparte el mismo núcleo de matriz que la NV40, pero incorpora un puente AGP-PCIe en el encapsulado del chip. (Internamente, la NV45 es una NV40 AGP con lógica de traducción de bus agregada, para permitir la interconexión con una placa base PCIe. Externamente, la NV45 es un encapsulado único con dos matrices de silicio separadas claramente visibles en la parte superior). La NV48 es una versión de la NV45 que admite 512 MiB de RAM.
El uso de un chip puente AGP-PCIe inicialmente generó temores de que las GPU con AGP nativo no pudieran aprovechar el ancho de banda adicional ofrecido por PCIe y, por lo tanto, estarían en desventaja en relación con los chips PCIe nativos. [ cita requerida ] Sin embargo, la evaluación comparativa revela que incluso AGP 4× es lo suficientemente rápido como para que la mayoría de los juegos contemporáneos no mejoren significativamente en rendimiento cuando se cambia a AGP 8×, lo que hace que el aumento de ancho de banda adicional proporcionado por PCIe sea en gran medida superfluo. [ cita requerida ] Además, las implementaciones integradas de AGP de Nvidia tienen una frecuencia de reloj de AGP 12× o 16×, lo que proporciona un ancho de banda comparable a PCIe para las raras situaciones en las que este ancho de banda es realmente necesario. [ cita requerida ]
El uso de un chip puente le permitió a Nvidia lanzar una gama completa de tarjetas gráficas PCIe sin tener que rediseñarlas para la interfaz PCIe. Más tarde, cuando las GPU de Nvidia se diseñaron para usar PCIe de forma nativa, el chip puente bidireccional permitió que se las usara en tarjetas AGP. ATI, inicialmente crítica del chip puente, finalmente diseñó una solución similar (conocida como Rialto [4] ) para sus propias tarjetas. [ cita requerida ]
La línea profesional Quadro de Nvidia incluye miembros de la serie 6800: Quadro FX 4000 (AGP) y Quadro FX 3400, 4400 y 4400g (ambos PCI Express). La serie 6800 también se incorporó a los portátiles con las GPU GeForce Go 6800 y Go 6800 Ultra.
PureVideo amplió el nivel de compatibilidad con video multimedia desde la decodificación de video MPEG-2 hasta la decodificación de códecs más avanzados ( MPEG-4 , WMV9 ), posprocesamiento mejorado (desentrelazado avanzado ) y aceleración limitada para la codificación. Pero quizás irónicamente, el primer producto GeForce que ofrecía PureVideo, la AGP GeForce 6800/GT/Ultra, no admitía todas las funciones anunciadas de PureVideo.
El software de reproducción de medios (WMP9) con soporte para aceleración WMV no estuvo disponible hasta varios meses después de la introducción de la 6800. Los informes de usuarios y de la web mostraron poca o ninguna diferencia entre las tarjetas GeForce compatibles con PureVideo y las tarjetas que no lo eran. El prolongado silencio público de Nvidia, después de prometer controladores actualizados y los resultados de pruebas recopilados por los usuarios llevaron a la comunidad de usuarios a concluir que el componente decodificador WMV9 de la unidad PureVideo de la AGP 6800 no funciona o está desactivado intencionalmente. [ cita requerida ]
A finales de 2005, una actualización del sitio web de Nvidia finalmente confirmó lo que la comunidad de usuarios había sospechado durante mucho tiempo: la aceleración WMV no está disponible en el AGP 6800.
Por supuesto, las computadoras actuales son lo suficientemente rápidas para reproducir y decodificar videos WMV9 y otros códecs sofisticados como MPEG-4 , H.264 o VP8 sin aceleración de hardware, lo que elimina la necesidad de algo como PureVideo.
La GeForce 6600 (NV43) se lanzó oficialmente el 12 de agosto de 2004, varios meses después del lanzamiento de la 6800 Ultra. Con la mitad de los canales de píxeles y los sombreadores de vértices de la 6800 GT y un bus de memoria de 128 bits más pequeño, la 6600 de menor rendimiento y menor costo es el producto principal de la serie GeForce 6. La serie 6600 conserva las características de renderización principales de la serie 6800, incluido SLI. Equipada con menos unidades de renderización, la serie 6600 procesa los datos de píxeles a una velocidad más lenta que la serie 6800 más potente. Sin embargo, la reducción en los recursos de hardware y la migración al proceso de fabricación de 110 nm de TSMC (en comparación con el proceso de 130 nm de la 6800) hacen que la 6600 sea menos costosa de fabricar para Nvidia y menos costosa de comprar para los clientes.
La serie 6600 actualmente tiene tres variantes: la GeForce 6600LE, la 6600 y la 6600GT (en orden de la más lenta a la más rápida). La 6600 GT tiene un rendimiento bastante mejor que la GeForce FX 5950 Ultra o la Radeon 9800 XT , con la 6600 GT obteniendo una puntuación de alrededor de 8000 en 3DMark03, mientras que la GeForce FX 5950 Ultra obtuvo una puntuación de alrededor de 6000, y también es mucho más barata. En particular, la 6600 GT ofreció un rendimiento idéntico a la tarjeta gráfica X800 PRO de gama alta de ATI con controladores anteriores a diciembre de 2004, al ejecutar el popular juego Doom 3. También fue casi tan rápida como la GeForce 6800 de gama alta al ejecutar juegos sin anti-aliasing en la mayoría de los escenarios.
En su lanzamiento, la familia 6600 solo estaba disponible en formato PCI Express. Los modelos AGP estuvieron disponibles aproximadamente un mes después, mediante el uso del chip puente AGP-PCIe de Nvidia. La mayoría de las GeForce 6600GT AGP tienen su memoria sincronizada a 900 MHz, que es 100 MHz más lenta que las tarjetas PCI-e, en las que la memoria opera a 1000 MHz. Esto puede contribuir a una disminución del rendimiento al jugar a ciertos juegos. Sin embargo, a menudo era posible "overclockear" la memoria a su frecuencia nominal de 1000 MHz y hay tarjetas AGP (por ejemplo, de XFX ) que usan 1000 MHz por defecto.
Otros datos para tarjetas basadas en PCI Express :
Otros datos para tarjetas basadas en AGP :
La GeForce 6500 se lanzó en octubre de 2005 y se basa en el mismo núcleo NV44 que la GeForce 6200TC económica (de gama baja o de nivel de entrada), pero con una velocidad de reloj de GPU más alta y más memoria. La GeForce 6500 también es compatible con SLI.
Con solo 4 canales de píxeles, la serie 6200 constituye el producto económico de Nvidia (de gama baja o de nivel de entrada). La 6200 omite la compresión de memoria y la compatibilidad con SLI, pero por lo demás ofrece características de renderizado similares a las de las 6600. Las placas 6200 posteriores se basaron en el núcleo NV44, que es el silicio de producción final para la serie 6200. La 6200 es la única tarjeta de la serie que cuenta con codificación para ranuras AGP de 3,3 V (salvo algunas raras excepciones de tarjetas de gama alta de proveedores como PNY).
Sin embargo, en el momento de la introducción, el silicio de producción aún no estaba listo. Nvidia cumplió con los pedidos de 6200 enviando núcleos de la serie 6600 desechados/rechazados (NV43V). Los rechazos se modificaron en fábrica para desactivar cuatro canales de píxeles, convirtiendo así el producto 6600 nativo en un producto 6200. Algunos usuarios pudieron "desbloquear" las primeras placas 6200 a través de una utilidad de software (convirtiendo efectivamente el 6200 de nuevo en un 6600 con el conjunto completo de ocho canales de píxeles en total) si tenían placas con un NV43 A2 o una revisión anterior del núcleo. Por lo tanto, no todas las placas 6200 basadas en NV43 pudieron desbloquearse con éxito (específicamente aquellas con una revisión de núcleo A4 o superior), y tan pronto como el silicio de producción NV44 estuvo disponible, Nvidia interrumpió los envíos de núcleos NV43V de categoría inferior.
La GeForce 6200 TurboCache / AGP (NV44/NV44a) es una versión nativa de cuatro canales de la NV43. Las tarjetas GeForce 6200 TurboCache solo tienen una cantidad de memoria muy pequeña (según los estándares modernos), pero intentan compensar esto utilizando la memoria del sistema a la que se accede a través del bus PCI-Express.
BFG Technologies introdujo originalmente una variante PCI única de la GeForce 6200 a través de sus líneas de productos homónimas BFG y 3D Fuzion. Posteriormente, PNY (GeForce 6200 256 MiB PCI), SPARKLE Computer (GeForce 6200 128 MiB PCI y GeForce 6200 256 MiB PCI) y eVGA (e-GeForce 6200 256 MiB PCI y e-GeForce 6200 512 MiB PCI) lanzaron sus propias versiones PCI de la Geforce 6200 con frecuencias de memoria más altas y un ancho de banda de memoria más alto.
Hasta el lanzamiento de la ATI X1300 PCI, estas eran las únicas tarjetas PCI compatibles con DirectX 9 que no se basaban en la tecnología GeForce FX de generaciones anteriores ni en los chipsets XGI Technology Volari V3XT discontinuados .
Excluyendo las series GeForce 8400 y 8500 de SPARKLE , las tarjetas Zotac GT 610 y las tarjetas Club 3D HD 5450 a fines de 2012, las variantes mejoradas de 512 MiB Geforce 6200 PCI [9] siguen estando entre los sistemas basados en PCI más potentes disponibles, lo que hace que estas tarjetas sean deseadas por los usuarios que no tienen la opción de actualizar a una tarjeta de video discreta basada en AGP o PCI Express.
A finales de 2005, Nvidia presentó un nuevo miembro de la familia GeForce, la serie 6100, también conocida como C51. El término GeForce 6100/6150 en realidad se refiere a una placa base basada en nForce4 con un núcleo NV44 integrado, en lugar de una tarjeta gráfica independiente. Nvidia lanzó este producto tanto para dar continuidad a sus inmensamente populares placas nForce y nForce2 basadas en GeForce4 MX como para competir con las RS480/482 de ATI y las GMA 900/950 de Intel en el espacio de las tarjetas gráficas integradas. La serie 6100 es muy competitiva, y suele igualar o superar a los productos de ATI en la mayoría de las pruebas comparativas.
Las placas base utilizan dos tipos diferentes de puentes sur: el nForce 410 y el nForce 430. Sus características son bastante similares a las de las placas base nForce4 Ultra que ya estaban en el mercado antes que ellas. Ambas cuentan con compatibilidad con PCI Express y PCI, ocho puertos USB 2.0, sonido integrado, dos puertos Parallel ATA y Serial ATA 3.0 Gibit/s con Native Command Queuing (NCQ): dos puertos SATA en el caso del 410, cuatro en el 430. El puente sur del 430 también es compatible con Gigabit Ethernet con el firewall de hardware ActiveArmor de Nvidia, mientras que el 410 solo es compatible con Ethernet 10/100 estándar.
Tanto el 6100 como el 6150 admiten Shader Model 3.0 y DirectX 9.0c. El 6150 también ofrece compatibilidad con la decodificación de vídeo de alta definición de H.264/VC1/MPEG2, PureVideo Processing, DVI y salida de vídeo. El 6100 solo admite la decodificación SD de MPEG2/WMV9. [10] La resolución máxima admitida es de 1920 × 1440 píxeles (@75 Hz) para la pantalla RGB y de 1600 × 1200 píxeles (@65 Hz) para la pantalla DVI-D.
En 2008, Nvidia se vio obligada a pagar entre 150 y 250 millones de dólares en concepto de gastos de explotación porque las GPU estaban fallando a "un ritmo superior al normal". [11] HP ofreció una ampliación de su garantía de hasta 24 meses para los portátiles afectados por este problema. Whatley Drake & Kallas LLC presentó una demanda colectiva contra HP y Nvidia. [ cita requerida ]
La GeForce 6150LE se presentó principalmente en la línea 2006 de la plataforma empresarial Nvidia. [13] El chip lo utiliza Fujitsu-Siemens en su computadora de escritorio ecológica Esprimo, HP en su computadora de escritorio Pavilion Media Center a1547c y su computadora de escritorio Compaq Presario SR1915, y Dell en sus computadoras de escritorio Dimension C521 y E521.
La GeForce 6150SE (MCP61, también conocida como C61) es una versión actualizada de un solo chip de la Nvidia GeForce 6100. La MCP61 consume menos energía que la versión C51 original de 2 chips de la 6100. Su video integrado supera al de la 6150 en muchas pruebas de referencia 3D a pesar de su frecuencia de núcleo más baja (425 MHz), debido a la eliminación de Z del hardware.
MCP61 introdujo un error en la implementación de NCQ en SATA. Como resultado, los empleados de Nvidia han contribuido con código para deshabilitar las operaciones NCQ en Linux. [14]
En el lanzamiento de la familia de unidades de procesamiento gráfico GeForce 7 , IntelliSample 4.0 se consideró una característica exclusiva de la serie de GPU GeForce 7. Sin embargo, la versión 91.47 (y versiones posteriores) de los controladores Nvidia ForceWare habilitan las características de IntelliSample 4.0 en las GPU GeForce 6. IntelliSample 4.0 presenta dos nuevos modos de antialiasing , conocidos como Transparency Supersampling Antialiasing y Transparency Multisampling Antialiasing . Estos nuevos modos de antialiasing mejoran la calidad de imagen de objetos de líneas finas, como vallas, árboles, vegetación y césped en varios juegos.
Una posible razón para habilitar IntelliSample 4.0 para las GPU GeForce 6 podría ser el hecho de que las GPU GeForce 7100 GS se basan en chips NV44, al igual que los modelos GeForce 6200. Debido a esto, Nvidia tuvo que incorporar las características de IntelliSample 4.0 a las GPU NV4x y, como resultado, toda la familia GeForce 6 puede disfrutar de los beneficios del Antialiasing de transparencia.
Ya era bien sabido en varias comunidades que el suavizado de transparencias se podía utilizar en las GPU GeForce 6 mediante el uso de algunas herramientas de ajuste de terceros. A partir de la versión 175.16 de los controladores Nvidia ForceWare, se eliminó la compatibilidad con GeForce 6 IntelliSample 4.0.
Nvidia ha dejado de ofrecer soporte para controladores de la serie GeForce 6. La serie GeForce 6 es la última que admite la familia de sistemas operativos Windows 9x , así como Windows NT 4.0 . La serie sucesora, la GeForce 7, solo admite Windows 2000 y versiones posteriores (los controladores de Windows 8 también admiten Windows 10 ).