stringtranslate.com

GeForce

GeForce es una marca de unidades de procesamiento gráfico (GPU) diseñadas por Nvidia y comercializadas para el mercado de alto rendimiento. A partir de la serie GeForce 40 , ha habido dieciocho iteraciones del diseño. Los primeros productos GeForce fueron GPU discretas diseñadas para placas gráficas complementarias, destinadas al mercado de juegos de PC de alto margen , y la diversificación posterior de la línea de productos cubrió todos los niveles del mercado de gráficos de PC, desde GPU sensibles al costo [1] integradas en placas base, hasta placas minoristas complementarias convencionales. Más recientemente, [ ¿cuándo? ] la tecnología GeForce [ vago ] se ha introducido en la línea de procesadores de aplicaciones integrados de Nvidia, diseñados para dispositivos electrónicos portátiles y teléfonos móviles.

En lo que respecta a las GPU discretas, que se encuentran en las tarjetas gráficas integradas, las GPU GeForce de Nvidia y Radeon de AMD son los únicos competidores restantes en el mercado de gama alta. Las GPU GeForce son muy dominantes en el mercado de unidades de procesamiento gráfico de propósito general (GPGPU) gracias a su arquitectura de dispositivo unificado de cómputo (CUDA) patentada. [2] Se espera que la GPGPU amplíe la funcionalidad de la GPU más allá de la rasterización tradicional de gráficos 3D, para convertirla en un dispositivo informático de alto rendimiento capaz de ejecutar código de programación arbitrario de la misma manera que lo hace una CPU, pero con diferentes fortalezas (ejecución altamente paralela de cálculos sencillos) y debilidades (peor rendimiento para código de ramificación complejo ).

Origen del nombre

El nombre "GeForce" se originó a partir de un concurso organizado por Nvidia a principios de 1999 llamado "Name That Chip". La compañía convocó al público para que nombrara al sucesor de la línea de placas gráficas RIVA TNT2 . Se recibieron más de 12.000 entradas y siete ganadores recibieron una tarjeta gráfica RIVA TNT2 Ultra como premio. [3] [4] Brian Burke, gerente senior de relaciones públicas de Nvidia, le dijo a Maximum PC en 2002 que "GeForce" originalmente significaba "Geometry Force" ya que GeForce 256 fue la primera GPU para computadoras personales que calculaba la geometría de transformación e iluminación , descargando esa función de la CPU . [5]

Generaciones de procesadores gráficos

GeForce 256

Serie GeForce 2

La primera GeForce2 (NV15) se lanzó en marzo de 2000 y fue otro chip gráfico de alto rendimiento. Nvidia adoptó un diseño de procesador de textura doble por canalización (4x2), duplicando la tasa de relleno de textura por reloj en comparación con la GeForce 256. Más tarde, Nvidia lanzó la GeForce2 MX (NV11), que ofrecía un rendimiento similar a la GeForce 256, pero a una fracción del costo. La MX era una opción atractiva en los segmentos de mercado de gama baja y media y era popular entre los fabricantes de PC OEM y los usuarios por igual. La GeForce 2 Ultra era el modelo de gama alta de esta serie.

Serie GeForce 3

La GeForce3 (NV20), lanzada en febrero de 2001, introdujo sombreadores de vértices y píxeles programables en la familia GeForce y en los aceleradores gráficos de consumo. Tenía un buen rendimiento general y compatibilidad con sombreadores, lo que la hizo popular entre los entusiastas, aunque nunca llegó a alcanzar el precio medio. La NV2A desarrollada para la consola de juegos Microsoft Xbox es un derivado de la GeForce 3.

Serie GeForce 4

Lanzada en febrero de 2002, la entonces GeForce4 Ti (NV25) de gama alta era en su mayor parte una mejora de la GeForce3. Los mayores avances incluían mejoras en las capacidades de anti-aliasing, un controlador de memoria mejorado, un segundo sombreador de vértices y una reducción del tamaño del proceso de fabricación para aumentar las velocidades de reloj. Otro miembro de la familia GeForce 4, la GeForce4 MX económica, se basaba en la GeForce2, con la incorporación de algunas características de la GeForce4 Ti. Estaba dirigida al segmento de valor del mercado y carecía de sombreadores de píxeles. La mayoría de estos modelos utilizaban la interfaz AGP 4×, pero algunos comenzaron la transición a AGP 8×.

Serie GeForce FX

Lanzada en 2003, la GeForce FX (NV30) supuso un gran cambio en la arquitectura en comparación con sus predecesoras. La GPU no solo se diseñó para soportar la nueva especificación Shader Model 2, sino también para funcionar bien en títulos más antiguos. Sin embargo, los modelos iniciales como la GeForce FX 5800 Ultra sufrieron un rendimiento débil del shader de punto flotante y un calor excesivo que requería soluciones de refrigeración de dos ranuras, famosas por su ruido. Los productos de esta serie llevan el número de modelo 5000, ya que es la quinta generación de la GeForce, aunque Nvidia comercializó las tarjetas como GeForce FX en lugar de GeForce 5 para mostrar "el amanecer del renderizado cinematográfico".

Serie GeForce 6

Lanzada en abril de 2004, la GeForce 6 (NV40) agregó compatibilidad con Shader Model 3.0 a la familia GeForce, al tiempo que corrigió el débil rendimiento de sombreado de punto flotante de su predecesora. También implementó imágenes de alto rango dinámico e introdujo la capacidad SLI (Scalable Link Interface) y PureVideo (descodificación parcial de hardware integrada de MPEG-2, VC-1, Windows Media Video y H.264 y posprocesamiento de video totalmente acelerado).

Serie GeForce 7

La séptima generación de GeForce (G70/NV47) se lanzó en junio de 2005 y fue la última serie de tarjetas de video de Nvidia que podía soportar el bus AGP . El diseño era una versión refinada de la GeForce 6, con mejoras principales que eran una tubería más amplia y un aumento en la velocidad del reloj. La GeForce 7 también ofrece nuevos modos de anti-aliasing de supermuestreo de transparencia y multimuestreo de transparencia (TSAA y TMAA). Estos nuevos modos de anti-aliasing se habilitaron más tarde también para la serie GeForce 6. La GeForce 7950GT presentó la GPU de mayor rendimiento con una interfaz AGP en la línea Nvidia. Esta era comenzó la transición a la interfaz PCI-Express.

Una variante de 128 bits y ocho unidades de salida de renderizado (ROP) de la 7800 GTX, llamada RSX Reality Synthesizer , se utiliza como GPU principal en la Sony PlayStation 3 .

Serie GeForce 8

Lanzada el 8 de noviembre de 2006, la GeForce de octava generación (originalmente llamada G80) fue la primera GPU en soportar completamente Direct3D  10. Fabricada usando un proceso de 90 nm y construida alrededor de la nueva microarquitectura Tesla , implementó el modelo de sombreado unificado . Inicialmente solo se lanzó el modelo 8800GTX, mientras que la variante GTS se lanzó meses después de que comenzara la línea de productos, y pasaron casi seis meses para que las tarjetas de gama media y OEM/mainstream se integraran en la serie 8. La matriz se redujo a 65 nm y se implementó una revisión del diseño G80, con nombre en código G92, en la serie 8 con las 8800GS, 8800GT y 8800GTS-512, lanzadas por primera vez el 29 de octubre de 2007, casi un año después del lanzamiento inicial de la G80.

Serie GeForce 9 y serie 100

El primer producto se lanzó el 21 de febrero de 2008. [6] Ni siquiera cuatro meses más antiguo que el lanzamiento inicial de G92, todos los diseños de la serie 9 son simplemente revisiones de los productos existentes de la última serie 8. El 9800GX2 utiliza dos GPU G92, como las que se utilizan en las tarjetas 8800 posteriores, en una configuración de PCB dual mientras que todavía solo requiere una única ranura PCI-Express 16x. El 9800GX2 utiliza dos buses de memoria de 256 bits separados, uno para cada GPU y sus respectivos 512 MB de memoria, lo que equivale a un total de 1 GB de memoria en la tarjeta (aunque la configuración SLI de los chips necesita reflejar el búfer de cuadros entre los dos chips, reduciendo así a la mitad el rendimiento de la memoria de una configuración de 256 bits/512 MB). La última versión del modelo 9800GTX cuenta con una única GPU G92, un bus de datos de 256 bits y 512 MB de memoria GDDR3. [7]

Antes del lanzamiento, no se conocía ninguna información concreta, excepto que los funcionarios afirmaron que los productos de próxima generación tenían cerca de 1 TFLOPS de potencia de procesamiento con los núcleos de GPU todavía fabricados en el proceso de 65 nm, y los informes sobre Nvidia minimizando la importancia de Direct3D  10.1. [8] En marzo de 2009, varias fuentes informaron que Nvidia había lanzado silenciosamente una nueva serie de productos GeForce, a saber, la Serie GeForce 100, que consiste en piezas de la Serie 9 rebautizadas. [9] [10] [11] Los productos de la serie GeForce 100 no estaban disponibles para compra individual. [1]

Serie GeForce 200 y serie 300

La serie 200, basada en el procesador gráfico GT200, compuesto por 1.400 millones de transistores y cuyo nombre en código era Tesla, se lanzó el 16 de junio de 2008. [12] La siguiente generación de la serie GeForce lleva el esquema de nombres de las tarjetas en una nueva dirección, reemplazando el número de serie (como 8800 para las tarjetas de la serie 8) con el sufijo GTX o GTS (que solía ir al final de los nombres de las tarjetas, lo que denotaba su "rango" entre otros modelos similares) y luego agregando números de modelo como 260 y 280 después de eso. La serie presenta el nuevo núcleo GT200 en una matriz de 65 nm . [13] Los primeros productos fueron la GeForce GTX 260 y la más cara GeForce GTX 280. [14] La GeForce 310 se lanzó el 27 de noviembre de 2009, que es un cambio de marca de la GeForce 210. [15] [16] Las tarjetas de la serie 300 son GPU compatibles con DirectX 10.1 renombradas de la serie 200, que no estaban disponibles para compra individual.

Serie GeForce 400 y serie 500

El 7 de abril de 2010, Nvidia lanzó [17] las GeForce GTX 470 y GTX 480, las primeras tarjetas basadas en la nueva arquitectura Fermi , con nombre en código GF100; fueron las primeras GPU de Nvidia en utilizar 1 GB o más de memoria GDDR5 . La GTX 470 y la GTX 480 fueron muy criticadas debido al alto consumo de energía, las altas temperaturas y el ruido muy fuerte que no se compensaban con el rendimiento ofrecido, a pesar de que la GTX 480 era la tarjeta DirectX 11 más rápida en el momento de su introducción.

En noviembre de 2010, Nvidia lanzó una nueva GPU insignia basada en una arquitectura GF100 mejorada (GF110) llamada GTX 580. Presentaba un mayor rendimiento, menor consumo de energía, menor calor y menor ruido que la GTX 480 anterior. Esta GPU recibió críticas mucho mejores que la GTX 480. Posteriormente, Nvidia también lanzó la GTX 590, que incluye dos GPU GF110 en una sola tarjeta.

Serie GeForce 600, serie 700 y serie 800M

Asus Nvidia GeForce GTX 650 Ti, una tarjeta gráfica PCI Express 3.0×16

En septiembre de 2010, Nvidia anunció que la sucesora de la microarquitectura Fermi sería la microarquitectura Kepler , fabricada con el proceso de fabricación de 28 nm de TSMC. Anteriormente, Nvidia había sido contratada para suministrar sus núcleos GK110 de gama alta para su uso en la supercomputadora "Titan" del Laboratorio Nacional de Oak Ridge , lo que provocó una escasez de núcleos GK110. Después de que AMD lanzara su propia actualización anual a principios de 2012, la serie Radeon HD 7000, Nvidia comenzó el lanzamiento de la serie GeForce 600 en marzo de 2012. El núcleo GK104, originalmente destinado a su segmento de gama media de su línea, se convirtió en el buque insignia GTX 680. Introdujo mejoras significativas en el rendimiento, el calor y la eficiencia energética en comparación con la arquitectura Fermi y coincidió estrechamente con el buque insignia de AMD, Radeon HD 7970. Fue seguido rápidamente por la GTX 690 con doble GK104 y la GTX 670, que presentaba solo un núcleo GK104 ligeramente reducido y estaba muy cerca en rendimiento de la GTX 680.

Con la GTX Titan, Nvidia también lanzó GPU Boost 2.0, que permitiría que la velocidad del reloj de la GPU aumentara indefinidamente hasta que se alcanzara un límite de temperatura establecido por el usuario sin pasar una velocidad máxima del ventilador especificada por el usuario. El lanzamiento final de la serie GeForce 600 fue la GTX 650 Ti BOOST basada en el núcleo GK106, en respuesta al lanzamiento de la Radeon HD 7790 de AMD. A fines de mayo de 2013, Nvidia anunció la serie 700, que todavía se basaba en la arquitectura Kepler, sin embargo, presentaba una tarjeta basada en GK110 en la parte superior de la línea. La GTX 780 era una Titan ligeramente reducida que lograba casi el mismo rendimiento por dos tercios del precio. Presentaba el mismo diseño avanzado de refrigerador de referencia, pero no tenía los núcleos de doble precisión desbloqueados y estaba equipada con 3 GB de memoria.

Al mismo tiempo, Nvidia anunció ShadowPlay , una solución de captura de pantalla que utilizaba un codificador H.264 integrado en la arquitectura Kepler que Nvidia no había revelado previamente. Podía usarse para grabar juegos sin una tarjeta de captura, y con una disminución insignificante del rendimiento en comparación con las soluciones de grabación de software, y estaba disponible incluso en las tarjetas de la serie GeForce 600 de la generación anterior. Sin embargo, la versión beta del software para ShadowPlay experimentó múltiples retrasos y no se lanzaría hasta fines de octubre de 2013. Una semana después del lanzamiento de la GTX 780, Nvidia anunció que la GTX 770 sería una nueva marca de la GTX 680. Poco después le siguió la GTX 760, que también se basaba en el núcleo GK104 y era similar a la GTX 660 Ti. No se lanzaron más tarjetas de la serie 700 en 2013, aunque Nvidia anunció G-Sync, otra característica de la arquitectura Kepler que Nvidia no había mencionado, que permitía a la GPU controlar dinámicamente la frecuencia de actualización de los monitores compatibles con G-Sync que se lanzarían en 2014, para combatir el tearing y el temblor. Sin embargo, en octubre, AMD lanzó la R9 290X, que costaba $100 menos que la GTX 780. En respuesta, Nvidia redujo el precio de la GTX 780 en $150 y lanzó la GTX 780 Ti, que presentaba un núcleo GK110 de 2880 núcleos completos aún más potente que la GTX Titan, junto con mejoras en el sistema de suministro de energía que mejoraban el overclocking, y logró adelantarse al nuevo lanzamiento de AMD.

La serie GeForce 800M consta de piezas de la serie 700M renombradas basadas en la arquitectura Kepler y algunas piezas de gama baja basadas en la arquitectura Maxwell más nueva.

Serie GeForce 900

En marzo de 2013, Nvidia anunció que el sucesor de Kepler sería la microarquitectura Maxwell . Se lanzó en septiembre de 2014, con los chips de la serie GM10x, enfatizando las nuevas mejoras arquitectónicas de eficiencia energética en OEM y productos de bajo TDP en GTX 750/750 ti de escritorio y GTX 850M/860M móviles. Más tarde ese año, Nvidia impulsó el TDP con los chips GM20x para usuarios avanzados, omitiendo por completo la serie 800 para escritorio, con la serie 900 de GPU.

Esta fue la última serie GeForce que admitió la salida de video analógica a través de DVI-I . Sin embargo, existen adaptadores de pantalla analógicos que pueden convertir un Display Port digital , HDMI o DVI-D (Digital).

Serie GeForce 10

En marzo de 2014, Nvidia anunció que el sucesor de Maxwell sería la microarquitectura Pascal ; anunciada el 6 de mayo de 2016, y lanzada varias semanas después el 27 de mayo y el 10 de junio, respectivamente. Las mejoras arquitectónicas incluyen lo siguiente: [18] [19]

Serie GeForce 20 y serie 16

En agosto de 2018, Nvidia anunció el sucesor de Pascal en GeForce. El nombre de la nueva microarquitectura se reveló como " Turing " en la conferencia Siggraph 2018. [25] Esta nueva microarquitectura de GPU tiene como objetivo acelerar la compatibilidad con el trazado de rayos en tiempo real y la inferencia de IA. Cuenta con una nueva unidad de trazado de rayos (RT Core) que puede dedicar procesadores al trazado de rayos en hardware. Admite la extensión DXR en Microsoft DirectX 12. Nvidia afirma que la nueva arquitectura es hasta 6 veces más rápida que la antigua arquitectura Pascal. [26] [27] Un diseño de núcleo Tensor completamente nuevo desde que Volta introduce la aceleración de aprendizaje profundo de IA, que permite la utilización de DLSS ( Deep Learning Super Sampling ), una nueva forma de anti-aliasing que utiliza IA para proporcionar imágenes más nítidas con menos impacto en el rendimiento. [28] También cambia su unidad de ejecución de enteros que puede ejecutarse en paralelo con la ruta de datos de punto flotante. También se anunció una nueva arquitectura de caché unificada que duplica su ancho de banda en comparación con las generaciones anteriores. [29]

Las nuevas GPU se presentaron como Quadro RTX 8000, Quadro RTX 6000 y Quadro RTX 5000. La Quadro RTX 8000 de gama alta cuenta con 4608 núcleos CUDA y 576 núcleos Tensor con 48 GB de VRAM. [26] Más tarde, durante la conferencia de prensa de Gamescom , el CEO de Nvidia, Jensen Huang, presentó la nueva serie GeForce RTX con RTX 2080 Ti, 2080 y 2070 que utilizarán la arquitectura Turing. Las primeras tarjetas Turing estaban programadas para enviarse a los consumidores el 20 de septiembre de 2018. [30] Nvidia anunció la RTX 2060 el 6 de enero de 2019 en CES 2019. [31]

El 2 de julio de 2019, Nvidia anunció la línea de tarjetas GeForce RTX Super, una actualización de la serie 20 que incluye versiones de especificaciones más altas de las RTX 2060, 2070 y 2080. Las RTX 2070 y 2080 fueron descontinuadas.

En febrero de 2019, Nvidia anunció la serie GeForce 16. Se basa en la misma arquitectura Turing utilizada en la serie GeForce 20, pero deshabilita los núcleos Tensor ( AI ) y RT ( ray tracing ) para proporcionar tarjetas gráficas más asequibles para los jugadores y, al mismo tiempo, lograr un mayor rendimiento en comparación con las respectivas tarjetas de las generaciones GeForce anteriores.

Al igual que la actualización de RTX Super, Nvidia anunció el 29 de octubre de 2019 las tarjetas GTX 1650 Super y 1660 Super, que reemplazaron a sus contrapartes que no eran Super.

El 28 de junio de 2022, Nvidia lanzó silenciosamente su tarjeta GTX 1630, que estaba destinada a jugadores de gama baja.

Serie GeForce 30

Nvidia anunció oficialmente en el Evento Especial GeForce que la sucesora de la serie GeForce 20 será la serie 30, construida sobre la microarquitectura Ampere . El Evento Especial GeForce presentado tuvo lugar el 1 de septiembre de 2020 y fijó el 17 de septiembre como fecha de lanzamiento oficial para la GPU RTX 3080, el 24 de septiembre para la GPU RTX 3090 y el 29 de octubre para la GPU RTX 3070. [32] [33] Con el último lanzamiento de GPU siendo la RTX 3090 Ti. La RTX 3090 Ti es la GPU Nvidia de gama más alta en la microarquitectura Ampere, cuenta con una matriz GA102 completamente desbloqueada construida en el nodo Samsung de 8 nm debido a la escasez de suministro con TSMC . La RTX 3090 Ti tiene 10,752 núcleos CUDA, 336 núcleos Tensor y unidades de mapeo de texturas, 112 ROP, 84 núcleos RT y 24 gigabytes de memoria GDDR6X con un bus de 384 bits. [34] En comparación con la RTX 2080 Ti, la 3090 Ti tiene 6,400 núcleos CUDA más. Debido a la escasez global de chips , la serie 30 fue controvertida ya que los revendedores y la alta demanda significaron que los precios de las GPU se dispararon para la serie 30 y la serie AMD RX 6000 .

Serie GeForce 40 (actual)

El 20 de septiembre de 2022, Nvidia anunció sus tarjetas gráficas GeForce Serie 40. [35] Estas salieron como RTX 4090, el 12 de octubre de 2022, RTX 4080, el 16 de noviembre de 2022, RTX 4070 Ti, el 3 de enero de 2023, con RTX 4070, el 13 de abril de 2023, y RTX 4060 Ti el 24 de mayo de 2023, y RTX 4060, en julio de este año. Más series 40 están previstas para 2024, como la RTX 4050. Estas están construidas sobre la arquitectura Ada Lovelace , con números de pieza actuales como "AD102", "AD103", "AD104", "AD106" y "AD107". Estas piezas se fabrican utilizando el nodo de proceso TSMC N4, que es un proceso diseñado a medida para Nvidia. La RTX 4090 es actualmente el chip más rápido para el mercado general que ha lanzado una empresa importante, y consta de alrededor de 16.384 núcleos CUDA , frecuencias de reloj de 2,2/2,5 GHz, 24 GB de GDDR6X , un bus de memoria de 384 bits, 128 núcleos RT de tercera generación , 512 núcleos Tensor de cuarta generación , DLSS 3.0 y un TDP de 450 W. [36]

Variantes

GPU móviles

Un chip Nvidia GeForce Go 7600 soldado a la placa base de una computadora portátil HP Pavilion serie dv9000

Desde la serie GeForce 2, Nvidia ha producido una serie de chipsets gráficos para ordenadores portátiles bajo la marca GeForce Go . La mayoría de las características presentes en los modelos de escritorio están presentes en los móviles. Estas GPU están generalmente optimizadas para un menor consumo de energía y una menor emisión de calor para su uso en ordenadores portátiles y pequeños ordenadores de sobremesa.

A partir de la serie GeForce 8, la marca GeForce Go se suspendió y las GPU móviles se integraron con la línea principal de GPU GeForce, pero su nombre se sufijó con una M. Esto terminó en 2016 con el lanzamiento de la serie portátil GeForce 10: Nvidia eliminó el sufijo M , optando por unificar la marca entre sus ofertas de GPU de escritorio y portátiles, ya que las GPU Pascal para portátiles son casi tan potentes como sus contrapartes de escritorio (algo que Nvidia probó con su GPU portátil GTX 980 de "clase de escritorio" en 2015). [37]

La marca GeForce MX , utilizada anteriormente por Nvidia para sus GPU de escritorio de nivel de entrada, revivió en 2017 con el lanzamiento de la GeForce MX150 para portátiles. [38] La MX150 se basa en la misma GPU Pascal GP108 que se utiliza en la GT 1030 de escritorio, [39] y se lanzó silenciosamente en junio de 2017. [38]

GPU de formato pequeño

De manera similar a las GPU para dispositivos móviles, Nvidia también lanzó algunas GPU en formato de "factor de forma pequeño" para su uso en computadoras de escritorio todo en uno. Estas GPU tienen como sufijo una S , similar a la M que se usa para productos móviles. [40]

GPU integradas en placas base de escritorio

A partir de nForce 4 , Nvidia comenzó a incluir soluciones gráficas integradas en los chipsets de sus placas base. Estas se denominaron mGPU (GPU de placa base). [41] Nvidia discontinuó la gama nForce, incluidas estas mGPU, en 2009. [42]

Después de que se discontinuara la gama nForce, Nvidia lanzó su línea Ion en 2009, que consistía en una CPU Intel Atom asociada con una GPU de gama baja de la serie GeForce 9, fijada en la placa base. Nvidia lanzó una Ion 2 mejorada en 2010, esta vez con una GPU de gama baja de la serie GeForce 300.

Nomenclatura

Desde la serie GeForce 4 hasta la serie GeForce 9, se utiliza el esquema de nombres que aparece a continuación.

Desde el lanzamiento de la serie de GPU GeForce 100, Nvidia cambió el esquema de nombres de sus productos al que se muestra a continuación. [1]

  1. ^ Los sufijos indican su nivel de rendimiento y los que aparecen en la lista están ordenados del más débil al más potente. Los sufijos de categorías inferiores se pueden seguir utilizando en tarjetas de mayor rendimiento, por ejemplo: GeForce 8800 GT.
  2. ^ ab El rango de precios solo se aplica a la generación más reciente y es una generalización basada en patrones de precios.
  3. ^ La cantidad de sombreadores ab compara la cantidad de unidades o tuberías de sombreadores en ese rango de modelo en particular con el modelo más alto posible en la generación.

Controladores de dispositivos gráficos

Propiedad oficial

Nvidia desarrolla y publica controladores GeForce para Windows 10 x86 / x86-64 y posteriores, Linux x86/x86-64/ ARMv7-A , OS X 10.5 y posteriores, Solaris x86/x86-64 y FreeBSD x86/x86-64. [44] Se puede descargar una versión actual de Nvidia y la mayoría de las distribuciones de Linux la contienen en sus propios repositorios. El controlador Nvidia GeForce 340.24 del 8 de julio de 2014 admite la interfaz EGL , lo que permite la compatibilidad con Wayland junto con este controlador. [45] [46] Esto puede ser diferente para la marca Nvidia Quadro , que se basa en hardware idéntico pero cuenta con controladores de dispositivos gráficos certificados por OpenGL. El mismo día en que se lanzó públicamente la API de gráficos Vulkan , Nvidia lanzó controladores que la admitían por completo. [47] Nvidia ha lanzado controladores con optimizaciones para videojuegos específicos simultáneamente con su lanzamiento desde 2014, habiendo lanzado 150 controladores compatibles con 400 juegos en abril de 2022. [48]

El soporte básico para la interfaz de configuración de modo DRM en forma de un nuevo módulo de kernel llamado nvidia-modeset.koha estado disponible desde la versión 358.09 beta. [49] El soporte del controlador de pantalla de Nvidia en las GPU compatibles está centralizado en nvidia-modeset.ko. Las interacciones de pantalla tradicionales (conjuntos de modos X11, OpenGL SwapBuffers, presentación VDPAU, SLI, estéreo, framelock, G-Sync , etc.) se inician desde los diversos componentes del controlador de modo de usuario y fluyen a nvidia-modeset.ko. [50]

En mayo de 2022, Nvidia anunció que lanzaría un controlador parcialmente de código abierto para la arquitectura Turing (habilitada para GSP) y versiones posteriores, con el fin de mejorar la capacidad de empaquetarlo como parte de las distribuciones de Linux. En el lanzamiento, Nvidia consideró que el controlador tenía calidad alfa para GPU de consumo y estaba listo para producción para GPU de centros de datos. Actualmente, los componentes del espacio de usuario del controlador (incluidos OpenGL, Vulkan y CUDA) siguen siendo propietarios. Además, los componentes de código abierto del controlador son solo un contenedor (CPU-RM [a] ) para el firmware del procesador del sistema de la GPU (GSP), un blob binario RISC-V que ahora se requiere para ejecutar el controlador de código abierto. [51] [52] El procesador del sistema de la GPU es un coprocesador RISC-V con nombre en código "Falcon" que se utiliza para descargar las tareas de inicialización y gestión de la GPU. El controlador en sí todavía está dividido para la parte de la CPU del host (CPU-RM [a] ) y la parte GSP (GSP-RM [a] ). [53] Los controladores propietarios de Windows 11 y Linux también admiten la habilitación de GSP y hacen que incluso los juegos sean más rápidos. [54] [55] CUDA admite GSP desde la versión 11.6. [56] El próximo kernel de Linux 6.7 admitirá GSP en Nouveau . [57] [58]

De terceros, gratuito y de código abierto

Existen controladores de código abierto, gratuitos y creados por la comunidad como alternativa a los controladores publicados por Nvidia. Los controladores de código abierto se desarrollan principalmente para Linux, sin embargo, pueden existir puertos para otros sistemas operativos. El controlador alternativo más destacado es el controlador de dispositivo gráfico Nouveau, gratuito y de código abierto, creado mediante ingeniería inversa . Nvidia ha anunciado públicamente que no brindará soporte para dichos controladores de dispositivo adicionales para sus productos, [59] aunque Nvidia ha contribuido con código para el controlador Nouveau. [60]

Los controladores gratuitos y de código abierto admiten una gran parte (pero no todas) de las funciones disponibles en las tarjetas de la marca GeForce. Por ejemplo, a partir de enero de 2014, el controlador Nouveau no admite los ajustes de frecuencia de reloj de la GPU y la memoria, ni la administración dinámica de energía asociada. [61] Además, los controladores propietarios de Nvidia funcionan consistentemente mejor que Nouveau en varios puntos de referencia. [62] Sin embargo, a partir de agosto de 2014 y la versión 3.16 de la línea principal del kernel de Linux , las contribuciones de Nvidia permitieron que se implementara un soporte parcial para los ajustes de frecuencia de reloj de la GPU y la memoria. [ cita requerida ]

Cuestiones de licencias y privacidad

La licencia tiene términos comunes contra la ingeniería inversa y la copia, y renuncia a garantías y responsabilidad. [63] [ ¿ investigación original? ]

A partir de 2016, la licencia de GeForce dice que Nvidia "puede acceder a SOFTWARE, recopilar información no personalmente identificable sobre, actualizar y configurar el sistema del Cliente con el fin de optimizar adecuadamente dicho sistema para su uso con el SOFTWARE". [63] El aviso de privacidad continúa diciendo: "No podemos responder a las señales de "No rastrear" establecidas por un navegador en este momento. También permitimos que las redes de publicidad en línea de terceros y las empresas de medios sociales recopilen información... Podemos combinar la información personal que recopilamos sobre usted con la información de navegación y seguimiento recopilada por estas tecnologías [cookies y balizas]". [64]

El software configura el sistema del usuario para optimizar su uso, y la licencia dice: "NVIDIA no tendrá ninguna responsabilidad por ningún daño o pérdida a dicho sistema (incluyendo pérdida de datos o acceso) que surja de o esté relacionada con (a) cualquier cambio en la configuración, ajustes de la aplicación, variables de entorno, registro, controladores, BIOS u otros atributos del sistema (o cualquier parte de dicho sistema) iniciados a través del SOFTWARE". [63]

Experiencia GeForce

GeForce Experience es un programa que contiene varias herramientas, entre ellas Nvidia ShadowPlay . [65]

Debido a una grave vulnerabilidad de seguridad antes de la actualización de seguridad del 26 de marzo de 2019, los usuarios de GeForce Experience eran vulnerables a ataques de ejecución remota de código , denegación de servicio y escalada de privilegios . [66] Al instalar nuevos controladores, GeForce Experience puede forzar el reinicio del sistema después de una cuenta regresiva de 60 segundos, sin darle al usuario ninguna opción.

Aplicación de Nvidia

La aplicación Nvidia es un programa que pretende sustituir tanto a GeForce Experience como al Panel de control de Nvidia. [67] A partir de agosto de 2024, se encuentra en versión beta y se puede descargar desde el sitio web de Nvidia.

Las nuevas características incluyen una interfaz de usuario renovada , una nueva superposición en el juego, soporte para ShadowPlay con 120 fps, así como RTX HDR [68] [69] y RTX Dynamic Vibrance, [69] que son filtros en el juego basados ​​en IA que habilitan HDR y aumentan la saturación del color en cualquier juego DirectX 9 (y más nuevo) o Vulkan , respectivamente.

La aplicación Nvidia también cuenta con Auto Tuning, que ajusta la velocidad de reloj de la GPU en función de escaneos de hardware regulares para garantizar un rendimiento óptimo. [70] Según Nvidia, esta función no causará ningún daño a la GPU y conservará su garantía. [70] Sin embargo, podría causar problemas de inestabilidad. [71] La función es similar a la opción "Habilitar ajuste automático" de GeForce Experience, que se lanzó en 2021, con la diferencia de que esta era una función de overclocking única [72] que no ajustaba la velocidad de reloj de la GPU de forma regular.

Referencias

  1. ^ abc «Tarjetas gráficas GeForce». Nvidia. Archivado desde el original el 1 de julio de 2012. Consultado el 7 de julio de 2012 .
  2. ^ Otterness, Nathan; Anderson, James H. (2020). GPU AMD como alternativa a NVIDIA para admitir cargas de trabajo en tiempo real (PDF) . 32ª Conferencia Euromicro sobre Sistemas en Tiempo Real (ECRTS 2020). Procedimientos internacionales de informática de Leibniz (LIPIcs). vol. 165. Schloss Dagstuhl – Leibniz-Zentrum für Informatik. págs. 10:1–10:23. doi : 10.4230/LIPIcs.ECRTS.2020.10 .
  3. ^ "Ganadores del concurso de nombres de Nvidia". Nvidia . 1999. Archivado desde el original el 8 de junio de 2000 . Consultado el 28 de mayo de 2007 .
  4. ^ Taken, Femme (17 de abril de 1999). "Concurso "Name that chip" de Nvidia". Tweakers.net . Archivado desde el original el 11 de marzo de 2007. Consultado el 28 de mayo de 2007 .
  5. ^ "Maximum PC número abril 2002" (PDF) . Maximum PC . Future US, Inc. Abril 2002. p. 29. Archivado desde el original el 23 de enero de 2023 . Consultado el 11 de octubre de 2022 – a través de Google Books.
  6. ^ Brian Caulfield (7 de enero de 2008). "Disparar para matar". Forbes.com . Archivado desde el original el 24 de diciembre de 2007. Consultado el 26 de diciembre de 2007 .
  7. ^ "NVIDIA GeForce 9800 GTX". Archivado desde el original el 29 de mayo de 2008. Consultado el 31 de mayo de 2008 .
  8. ^ Informe de DailyTech archivado el 5 de julio de 2008 en Wayback Machine : Crytek, Microsoft y Nvidia restan importancia a Direct3D 10.1, consultado el 4 de diciembre de 2007
  9. ^ "Nvidia lanza discretamente las GPU GeForce serie 100". 6 de abril de 2009. Archivado desde el original el 26 de marzo de 2009.
  10. ^ "nVidia lanza tarjetas de la serie GeForce 100". 10 de marzo de 2009. Archivado desde el original el 11 de julio de 2011.
  11. ^ "Nvidia lanza discretamente las GPU GeForce serie 100". 24 de marzo de 2009. Archivado desde el original el 21 de mayo de 2009.
  12. ^ "Revisión de la tarjeta de video NVIDIA GeForce GTX 280". Benchmark Reviews. 16 de junio de 2008. Archivado desde el original el 17 de junio de 2008. Consultado el 16 de junio de 2008 .
  13. ^ "La GeForce GTX 280 se lanzará el 18 de junio". Fudzilla.com. Archivado desde el original el 17 de mayo de 2008. Consultado el 18 de mayo de 2008 .
  14. ^ "Imágenes detalladas de la GeForce GTX 280". VR-Zone. 3 de junio de 2008. Archivado desde el original el 4 de junio de 2008. Consultado el 3 de junio de 2008 .
  15. ^ "– Noticias :: NVIDIA lanza la serie GeForce 300 con la GeForce 310 : Página – 1/1". Hexus.net. 27 de noviembre de 2009. Archivado desde el original el 28 de septiembre de 2011 . Consultado el 30 de junio de 2013 .
  16. ^ "Todo PC necesita buenos gráficos". Nvidia. Archivado desde el original el 13 de febrero de 2012. Consultado el 30 de junio de 2013 .
  17. ^ "Actualización: la serie GeForce GTX 400 de NVIDIA se presenta antes de tiempo – AnandTech :: Su fuente de análisis y noticias sobre hardware". Anandtech.com. Archivado desde el original el 23 de mayo de 2013. Consultado el 30 de junio de 2013 .
  18. ^ Gupta, Sumit (21 de marzo de 2014). "NVIDIA actualiza la hoja de ruta de GPU; anuncia Pascal". Blogs.nvidia.com. Archivado desde el original el 25 de marzo de 2014. Consultado el 25 de marzo de 2014 .
  19. ^ "Parallel Forall". NVIDIA Developer Zone . Devblogs.nvidia.com. Archivado desde el original el 26 de marzo de 2014 . Consultado el 25 de marzo de 2014 .
  20. ^ "GEFORCE GTX 10 SERIES". www.geforce.com . Archivado desde el original el 28 de noviembre de 2016. Consultado el 24 de abril de 2018 .
  21. ^ "nside Pascal: la nueva plataforma informática de NVIDIA". 5 de abril de 2016. Archivado desde el original el 7 de mayo de 2017.
  22. ^ Denis Foley (25 de marzo de 2014). «NVLink, Pascal y memoria apilada: alimentando el apetito por los macrodatos». nvidia.com . Archivado desde el original el 20 de julio de 2014. Consultado el 7 de julio de 2014 .
  23. ^ "La arquitectura de GPU Pascal de próxima generación de NVIDIA proporcionará una aceleración 10 veces mayor para aplicaciones de aprendizaje profundo". El blog oficial de NVIDIA . Archivado desde el original el 2 de abril de 2015. Consultado el 23 de marzo de 2015 .
  24. ^ Smith, Ryan (17 de marzo de 2015). "The NVIDIA GeForce GTX Titan X Review". AnandTech . p. 2. Archivado desde el original el 5 de mayo de 2016 . Consultado el 22 de abril de 2016 . ...ínfima tasa nativa de FP64 de solo 1/32
  25. ^ "NVIDIA revela la arquitectura de GPU Turing de próxima generación: NVIDIA apuesta por el trazado de rayos, GDDR6 y más". Anandtech . 13 de agosto de 2018. Archivado desde el original el 24 de abril de 2020 . Consultado el 13 de agosto de 2018 .
  26. ^ ab "Las GPU NVIDIA con tecnología Turing son las primeras diseñadas para el trazado de rayos". Engadget . Archivado desde el original el 14 de agosto de 2018 . Consultado el 14 de agosto de 2018 .
  27. ^ "Tarjetas gráficas NVIDIA GeForce RTX serie 20". NVIDIA . Archivado desde el original el 3 de agosto de 2017 . Consultado el 12 de febrero de 2019 .
  28. ^ "NVIDIA Deep Learning Super-Sampling (DLSS) presentado a la prensa". www.legitreviews.com . 22 de agosto de 2018. Archivado desde el original el 14 de septiembre de 2018 . Consultado el 14 de septiembre de 2018 .
  29. ^ "NVIDIA anuncia oficialmente la arquitectura de GPU Turing en SIGGRAPH 2018". www.pcper.com . PC Perspective. 13 de agosto de 2018. Archivado desde el original el 14 de agosto de 2018 . Consultado el 14 de agosto de 2018 .
  30. ^ Sala de prensa, NVIDIA. «10 años de desarrollo: NVIDIA ofrece trazado de rayos en tiempo real a los jugadores con GeForce RTX». Sala de prensa de NVIDIA Sala de prensa . Archivado desde el original el 12 de diciembre de 2018 . Consultado el 6 de febrero de 2019 . {{cite web}}: |last=tiene nombre genérico ( ayuda )
  31. ^ Sala de prensa, NVIDIA. «NVIDIA GeForce RTX 2060 ya está aquí: los juegos de próxima generación despegan». Sala de prensa de NVIDIA Sala de prensa . Archivado desde el original el 19 de enero de 2019 . Consultado el 6 de febrero de 2019 . {{cite web}}: |last=tiene nombre genérico ( ayuda )
  32. ^ "NVIDIA ofrece el mayor salto generacional de la historia con las GPU GeForce RTX serie 30". Archivado desde el original el 13 de enero de 2021 . Consultado el 3 de septiembre de 2020 .
  33. ^ "Únase a nosotros en un evento de transmisión especial de NVIDIA GeForce RTX: Game on". Archivado desde el original el 2 de septiembre de 2020 . Consultado el 16 de agosto de 2020 .
  34. ^ "Especificaciones de la NVIDIA GeForce RTX 3090 Ti". TechPowerUp . Archivado desde el original el 23 de enero de 2023 . Consultado el 12 de mayo de 2022 .
  35. ^ Burnes, Andrew (20 de septiembre de 2022). «Noticias sobre NVIDIA GeForce». NVIDIA . Archivado desde el original el 20 de septiembre de 2022 . Consultado el 20 de septiembre de 2022 .
  36. ^ "Tarjetas gráficas NVIDIA GeForce RTX 4090". NVIDIA . Consultado el 7 de noviembre de 2023 .
  37. ^ "Notebooks GeForce GTX 10-Series". Archivado desde el original el 21 de octubre de 2016 . Consultado el 23 de octubre de 2016 .
  38. ^ ab Hagedoorn, Hilbert (26 de mayo de 2017). «NVIDIA lanza GeForce MX150 para portátiles». Guru3D . Archivado desde el original el 29 de junio de 2017. Consultado el 2 de julio de 2017 .
  39. ^ Smith, Ryan (26 de mayo de 2017). «NVIDIA anuncia GeForce MX150: Pascal de nivel de entrada para portátiles, justo a tiempo para Computex». AnandTech . Archivado desde el original el 3 de julio de 2017. Consultado el 2 de julio de 2017 .
  40. ^ "NVIDIA Small Form Factor". Nvidia. Archivado desde el original el 22 de enero de 2014. Consultado el 3 de febrero de 2014 .
  41. ^ "GPU de placa base NVIDIA". Nvidia. Archivado desde el original el 3 de octubre de 2009. Consultado el 22 de marzo de 2010 .
  42. ^ Kingsley-Hughes, Adrian (7 de octubre de 2009). «Fin de la línea de chipsets de NVIDIA, y eso es oficial». ZDNet . Archivado desde el original el 23 de marzo de 2019. Consultado el 27 de enero de 2021 .
  43. ^ "NVIDIA GeForce GTX 1630 se lanzará el 31 de mayo con 512 núcleos CUDA y 4 GB de GDDR6". 19 de mayo de 2022. Archivado desde el original el 19 de mayo de 2022 . Consultado el 19 de mayo de 2022 .
  44. ^ "Compatibilidad del sistema operativo con las GPU GeForce". Nvidia . Archivado desde el original el 3 de junio de 2021 . Consultado el 25 de agosto de 2017 .
  45. ^ "Apoyo a EGL". 8 de julio de 2014. Archivado desde el original el 11 de julio de 2014 . Consultado el 8 de julio de 2014 .
  46. ^ "Lista de archivos lib32-nvidia-utils 340.24-1". 15 de julio de 2014. Archivado desde el original el 16 de julio de 2014.
  47. ^ "Nvidia: compatibilidad con Vulkan en la versión 356.39 del controlador de Windows y en la versión 355.00.26 del controlador de Linux". 16 de febrero de 2016. Archivado desde el original el 8 de abril de 2016.
  48. ^ Mason, Damien (27 de abril de 2022). «Los controladores de GPU de Nvidia son mejores que los de AMD e Intel, dice Nvidia». PCGamesN . Archivado desde el original el 26 de octubre de 2022. Consultado el 26 de octubre de 2022 .
  49. ^ "Controlador 358.09 (beta) para Linux, Solaris y FreeBSD". 10 de diciembre de 2015. Archivado desde el original el 25 de junio de 2016.
  50. ^ "Lanzamiento de NVIDIA 364.12: Vulkan, GLVND, DRM KMS y EGLStreams". 21 de marzo de 2016. Archivado desde el original el 13 de junio de 2016.
  51. ^ Cunningham, Andrew (12 de mayo de 2022). «Nvidia da el primer paso hacia los controladores de GPU de código abierto para Linux». Ars Technica . Archivado desde el original el 31 de mayo de 2022 . Consultado el 31 de mayo de 2022 .
  52. ^ Corrigan, Hope (17 de mayo de 2022). «Nvidia ha trasladado la mayor parte del código al firmware antes de lanzar los controladores Linux de código abierto». PC Gamer . Archivado desde el original el 31 de mayo de 2022 . Consultado el 31 de mayo de 2022 .
  53. ^ "kernel/git/firmware/linux-firmware.git – Repositorio de blobs de firmware para usar con el kernel de Linux". git.kernel.org . Consultado el 23 de noviembre de 2023 .
  54. ^ "CSGO se ejecuta sin problemas durante un par de segundos, luego cae FUERTE y luego vuelve a la normalidad, se repite · Problema n.° 335 · NVIDIA/open-gpu-kernel-modules". GitHub . Consultado el 23 de noviembre de 2023 .
  55. ^ Aaron Klotz (18 de enero de 2022). "El controlador de Nvidia desbloquea un procesador de sistema GPU que mejora el rendimiento". Tom's Hardware . Consultado el 23 de noviembre de 2023 .
  56. ^ "NVIDIA CUDA 11.6 incorpora el práctico "-arch=native" y utiliza de forma predeterminada el nuevo modo de controlador "GSP"". www.phoronix.com . Consultado el 23 de noviembre de 2023 .
  57. ^ "NVIDIA envía 62 MB de blobs de firmware binario GSP a Linux-Firmware.Git". www.phoronix.com . Consultado el 23 de noviembre de 2023 .
  58. ^ "El controlador DRM de Nouveau Linux avanza en la compatibilidad con NVIDIA GSP". www.phoronix.com . Consultado el 23 de noviembre de 2023 .
  59. ^ "Respuesta de Nvidia al trabajo reciente de Nouveau". Phoronix . 14 de diciembre de 2009. Archivado desde el original el 7 de octubre de 2016.
  60. ^ Larabel, Michael (11 de julio de 2014). "NVIDIA contribuye con código de resincronización a Nouveau para la GK20A". Phoronix . Archivado desde el original el 25 de julio de 2014 . Consultado el 9 de septiembre de 2014 .
  61. ^ "Nouveau 3.14 obtiene nueva aceleración, aún le falta PM". Phoronix . 23 de enero de 2014. Archivado desde el original el 3 de julio de 2014 . Consultado el 25 de julio de 2014 .
  62. ^ "Evaluación comparativa de Nouveau y el controlador propietario GeForce de Nvidia en Linux". Phoronix . 28 de julio de 2014. Archivado desde el original el 16 de agosto de 2016.
  63. ^ abc "Licencia para uso del cliente del software NVIDIA". Nvidia.com . Archivado desde el original el 10 de agosto de 2017. Consultado el 10 de agosto de 2017 .
  64. ^ "Política de privacidad de NVIDIA/Sus derechos de privacidad en California". 15 de junio de 2016. Archivado desde el original el 25 de febrero de 2017.
  65. ^ Minor, Jordan (23 de octubre de 2020). «Revisión de la experiencia con Nvidia GeForce». PCMAG . Archivado desde el original el 26 de octubre de 2022. Consultado el 26 de octubre de 2022 .
  66. ^ "Nvidia corrige un fallo de seguridad en GeForce Experience". Tom's Hardware . 27 de marzo de 2019 . Consultado el 25 de julio de 2019 .
  67. ^ Jacob, Ridley (22 de febrero de 2024). "La nueva aplicación de Nvidia que está acabando con GeForce Experience: nueva superposición, monitoreo del sistema, captura a 120 fps y te permite agregar HDR a cualquier juego". PC Gamer . Consultado el 22 de agosto de 2024 .
  68. ^ Jacob, Ridley (22 de febrero de 2024). «El filtro de juegos de Nvidia para GPU RTX te permite habilitar HDR en juegos que nunca lo admitieron». PC Gamer . Consultado el 22 de agosto de 2024 .
  69. ^ ab "RTX HDR y RTX Dynamic Vibrance usan IA para mejorar drásticamente el aspecto de miles de juegos". TweakTown . 22 de febrero de 2024 . Consultado el 22 de agosto de 2024 .
  70. ^ ab "La aplicación NVIDIA incorpora overclocking automático para GPU GeForce que no invalidará la garantía". www.videocardz.com . 3 de junio de 2024.
  71. ^ Mujtaba, Hassan (3 de junio de 2024). "La aplicación NVIDIA agrega un ajuste automático de GPU con un solo clic y grabación AV1 a 120 FPS; G-Assist también puede ajustar dinámicamente la GPU, registrar estadísticas y cambiar la configuración del juego sobre la marcha". Wccftech . Consultado el 23 de agosto de 2024 .
  72. ^ Trevisan, Thiago (10 de mayo de 2021). «Cómo utilizar la herramienta de ajuste de rendimiento de Nvidia para hacer overclocking de GeForce con un solo clic». PCWorld . Consultado el 22 de agosto de 2024 .
  1. ^ abc "RM" significa "Administrador de recursos".

Enlaces externos