stringtranslate.com

GeForce

GeForce es una marca de unidades de procesamiento de gráficos (GPU) diseñadas por Nvidia y comercializadas para el mercado de rendimiento. A partir de la serie GeForce 40 , ha habido dieciocho iteraciones del diseño. Los primeros productos GeForce fueron GPU discretas diseñadas para tarjetas gráficas complementarias, destinadas al mercado de juegos de PC de alto margen, y la posterior diversificación de la línea de productos cubrió todos los niveles del mercado de gráficos de PC, desde GPU sensibles a los costos [1] hasta integrado en placas base, hasta placas minoristas complementarias convencionales. Más recientemente, [ ¿cuándo? ] La tecnología GeForce se ha introducido en la línea de procesadores de aplicaciones integrados de Nvidia, diseñados para dispositivos electrónicos de bolsillo y teléfonos móviles.

Con respecto a las GPU discretas, que se encuentran en las tarjetas gráficas complementarias, las GPU GeForce de Nvidia y Radeon de AMD son los únicos competidores que quedan en el mercado de gama alta. Las GPU GeForce son muy dominantes en el mercado de unidades de procesamiento de gráficos de uso general (GPGPU) gracias a su arquitectura patentada de dispositivo unificado de cómputo (CUDA). [2] Se espera que GPGPU amplíe la funcionalidad de la GPU más allá de la rasterización tradicional de los gráficos 3D, para convertirla en un dispositivo informático de alto rendimiento capaz de ejecutar código de programación arbitrario de la misma manera que lo hace una CPU, pero con diferentes puntos fuertes (ejecución altamente paralela de cálculos sencillos) y debilidades (peor rendimiento para código de ramificación complejo ).

Origen del nombre

El nombre "GeForce" se originó a partir de un concurso realizado por Nvidia a principios de 1999 llamado "Name That Chip". La compañía llamó al público a nombrar al sucesor de la línea de tarjetas gráficas RIVA TNT2 . Se recibieron más de 12.000 inscripciones y 7 ganadores recibieron una tarjeta gráfica RIVA TNT2 Ultra como recompensa. [3] [4] Brian Burke, gerente senior de relaciones públicas de Nvidia, le dijo a Maximum PC en 2002 que "GeForce" originalmente significaba "Geometry Force" ya que GeForce 256 fue la primera GPU para computadoras personales en calcular la geometría de transformación e iluminación. , descargando esa función de la CPU . [5]

Generaciones de procesadores gráficos

GeForce 256

Serie GeForce 2

Lanzada en abril de 2000, la primera GeForce2 (NV15) fue otro chip gráfico de alto rendimiento. Nvidia pasó a un diseño de procesador de textura doble por canal (4x2), duplicando la tasa de relleno de textura por reloj en comparación con la GeForce 256. Más tarde, Nvidia lanzó la GeForce2 MX (NV11), que ofrecía un rendimiento similar al de la GeForce 256 pero a una fracción del costo. . El MX era un valor convincente en los segmentos de mercado de gama baja y media y era popular tanto entre los fabricantes de PC OEM como entre los usuarios. La GeForce 2 Ultra era el modelo de gama alta de esta serie.

Serie GeForce 3

Lanzada en febrero de 2001, la GeForce3 (NV20) introdujo sombreadores de píxeles y vértices programables en la familia GeForce y en los aceleradores de gráficos de nivel de consumidor. Tenía un buen rendimiento general y compatibilidad con sombreadores, lo que lo hacía popular entre los entusiastas, aunque nunca alcanzó el precio medio. La NV2A desarrollada para la consola de juegos Microsoft Xbox es un derivado de la GeForce 3.

Serie GeForce 4

Lanzada en febrero de 2002, la entonces gama alta GeForce4 Ti (NV25) era principalmente un refinamiento de la GeForce3. Los mayores avances incluyeron mejoras en las capacidades de suavizado, un controlador de memoria mejorado, un segundo sombreador de vértices y una reducción del tamaño del proceso de fabricación para aumentar las velocidades de reloj. Otro miembro de la familia GeForce 4, la económica GeForce4 MX, se basó en la GeForce2, con la adición de algunas características de la GeForce4 Ti. Estaba dirigido al segmento de valor del mercado y carecía de sombreadores de píxeles. La mayoría de estos modelos utilizaban la interfaz AGP 4×, pero algunos comenzaron la transición a AGP 8×.

Serie GeForce FX

Lanzada en 2003, la GeForce FX (NV30) supuso un gran cambio en la arquitectura en comparación con sus predecesoras. La GPU fue diseñada no sólo para soportar la nueva especificación Shader Model 2 sino también para funcionar bien en títulos más antiguos. Sin embargo, los modelos iniciales como la GeForce FX 5800 Ultra sufrían un rendimiento débil del sombreador de punto flotante y un calor excesivo que requería soluciones de refrigeración de dos ranuras infamemente ruidosas. Los productos de esta serie llevan el número de modelo 5000, ya que es la quinta generación de GeForce, aunque Nvidia comercializó las tarjetas como GeForce FX en lugar de GeForce 5 para mostrar "los albores del renderizado cinematográfico".

Serie GeForce 6

Lanzada en abril de 2004, la GeForce 6 (NV40) agregó soporte para Shader Model 3.0 a la familia GeForce, al tiempo que corrigió el débil rendimiento del sombreador de punto flotante de su predecesor. También implementó imágenes de alto rango dinámico e introdujo SLI (Scalable Link Interface) y capacidad PureVideo (hardware parcial integrado MPEG-2, VC-1, Windows Media Video y decodificación H.264 y posprocesamiento de video totalmente acelerado).

Serie GeForce 7

La séptima generación GeForce (G70/NV47) se lanzó en junio de 2005 y fue la última serie de tarjetas de video Nvidia que podía soportar el bus AGP . El diseño era una versión refinada de GeForce 6, con las principales mejoras siendo una tubería ampliada y un aumento en la velocidad del reloj. La GeForce 7 también ofrece nuevos modos anti-aliasing de supermuestreo de transparencia y multimuestreo de transparencia (TSAA y TMAA). Estos nuevos modos anti-aliasing también se habilitaron posteriormente para la serie GeForce 6. La GeForce 7950GT presentaba la GPU de mayor rendimiento con una interfaz AGP en la línea Nvidia. Esta era inició la transición a la interfaz PCI-Express.

Una variante de 128 bits y 8 ROP del 7800 GTX, llamada RSX 'Reality Synthesizer' , se utiliza como GPU principal en la Sony PlayStation 3 .

Serie GeForce 8

Lanzada el 8 de noviembre de 2006, la GeForce de octava generación (originalmente llamada G80) fue la primera GPU totalmente compatible con Direct3D  10. Fabricada mediante un proceso de 90 nm y construida alrededor de la nueva microarquitectura de Tesla , implementó el modelo de sombreado unificado . Inicialmente, solo se lanzó el modelo 8800GTX, mientras que la variante GTS se lanzó meses después de la vida útil de la línea de productos, y tomó casi seis meses para que las tarjetas de gama media y OEM/convencionales se integraran en la serie 8. La reducción del troquel a 65 nm y una revisión del diseño del G80, con nombre en código G92, se implementaron en la serie 8 con los modelos 8800GS, 8800GT y 8800GTS-512, lanzados por primera vez el 29 de octubre de 2007, casi un año después del G80 inicial. liberar.

GeForce serie 9 y serie 100

El primer producto se lanzó el 21 de febrero de 2008. [6] Ni siquiera cuatro meses antes que el lanzamiento inicial del G92, todos los diseños de la serie 9 son simplemente revisiones de los últimos productos de la serie 8 existentes. El 9800GX2 utiliza dos GPU G92, como las que se utilizan en tarjetas 8800 posteriores, en una configuración de PCB dual y al mismo tiempo solo requiere una única ranura PCI-Express 16x. El 9800GX2 utiliza dos buses de memoria separados de 256 bits, uno para cada GPU y sus respectivos 512 MB de memoria, lo que equivale a un total de 1 GB de memoria en la tarjeta (aunque la configuración SLI de los chips requiere reflejar el búfer de cuadros entre los dos chips, reduciendo así a la mitad el rendimiento de la memoria de una configuración de 256 bits/512 MB). El último 9800GTX cuenta con una única GPU G92, bus de datos de 256 bits y 512 MB de memoria GDDR3. [7]

Antes del lanzamiento, no se conocía información concreta, excepto que los funcionarios afirmaban que los productos de próxima generación tenían cerca de 1 TFLOPS de potencia de procesamiento y que los núcleos de GPU aún se fabricaban en el proceso de 65 nm, e informes sobre que Nvidia restaba importancia a la importancia de Direct3D  10.1. [8] En marzo de 2009, varias fuentes informaron que Nvidia había lanzado silenciosamente una nueva serie de productos GeForce, concretamente la Serie GeForce 100, que consta de piezas rebautizadas de la Serie 9. [9] [10] [11] Los productos de la serie GeForce 100 no estaban disponibles para compra individual. [1]

GeForce series 200 y 300

Basada en el procesador gráfico GT200 que consta de 1.400 millones de transistores, con nombre en código Tesla, la serie 200 se lanzó el 16 de junio de 2008. [12] La próxima generación de la serie GeForce lleva el esquema de denominación de tarjetas en una nueva dirección, reemplazando el número de serie (como 8800 para tarjetas de la serie 8) con el sufijo GTX o GTS (que solía ir al final de los nombres de las tarjetas, indicando su 'rango' entre otros modelos similares), y luego agregando números de modelo como 260 y 280 después de eso. La serie presenta el nuevo núcleo GT200 en una matriz de 65 nm . [13] Los primeros productos fueron la GeForce GTX 260 y la GeForce GTX 280, más cara. [14] La GeForce 310 se lanzó el 27 de noviembre de 2009, que es un cambio de marca de GeForce 210. [15] [16] La serie 300 Las tarjetas son GPU compatibles con DirectX 10.1 de la serie 200, que no estaban disponibles para compra individual.

GeForce series 400 y series 500

El 7 de abril de 2010, Nvidia lanzó [17] las GeForce GTX 470 y GTX 480, las primeras tarjetas basadas en la nueva arquitectura Fermi , con nombre en código GF100; Fueron las primeras GPU de Nvidia en utilizar 1 GB o más de memoria GDDR5 . La GTX 470 y la GTX 480 fueron fuertemente criticadas debido al alto uso de energía, las altas temperaturas y el ruido muy fuerte que no se equilibraban con el rendimiento ofrecido, a pesar de que la GTX 480 era la tarjeta DirectX 11 más rápida en el momento de su introducción.

En noviembre de 2010, Nvidia lanzó una nueva GPU insignia basada en una arquitectura GF100 mejorada (GF110) llamada GTX 580. Presentaba un mayor rendimiento, menos utilización de energía, calor y ruido que la GTX 480 anterior. Esta GPU recibió críticas mucho mejores que la GTX 480. Posteriormente, Nvidia también lanzó la GTX 590, que incluye dos GPU GF110 en una sola tarjeta.

GeForce series 600, series 700 y series 800M

Asus Nvidia GeForce GTX 650 Ti, una tarjeta gráfica PCI Express 3.0×16

En septiembre de 2010, Nvidia anunció que la sucesora de la microarquitectura Fermi sería la microarquitectura Kepler , fabricada con el proceso de fabricación TSMC de 28 nm. Anteriormente, se había contratado a Nvidia para suministrar sus núcleos GK110 de gama alta para su uso en la supercomputadora "Titan" del Laboratorio Nacional Oak Ridge , lo que provocó una escasez de núcleos GK110. Después de que AMD lanzara su propia actualización anual a principios de 2012, la serie Radeon HD 7000, Nvidia comenzó el lanzamiento de la serie GeForce 600 en marzo de 2012. El núcleo GK104, originalmente destinado al segmento de rango medio de su línea, se convirtió en la GTX insignia. 680. Introdujo mejoras significativas en rendimiento, calor y eficiencia energética en comparación con la arquitectura Fermi y se acercó mucho a la Radeon HD 7970 insignia de AMD. Fue seguida rápidamente por la GTX 690 de doble GK104 y la GTX 670, que presentaban solo un ligero corte. -Núcleo GK104 reducido y su rendimiento era muy cercano al de la GTX 680.

Con la GTX Titan, Nvidia también lanzó GPU Boost 2.0, que permitiría que la velocidad del reloj de la GPU aumentara indefinidamente hasta alcanzar un límite de temperatura establecido por el usuario sin pasar la velocidad máxima del ventilador especificada por el usuario. El lanzamiento final de la serie GeForce 600 fue la GTX 650 Ti BOOST basada en el núcleo GK106, en respuesta al lanzamiento de la Radeon HD 7790 de AMD. A finales de mayo de 2013, Nvidia anunció la serie 700, que todavía se basaba en la arquitectura Kepler, sin embargo, presentaba una tarjeta basada en GK110 en la parte superior de la línea. La GTX 780 era una Titan ligeramente reducida que lograba casi el mismo rendimiento por dos tercios del precio. Presentaba el mismo diseño avanzado de refrigeración de referencia, pero no tenía núcleos de doble precisión desbloqueados y estaba equipado con 3 GB de memoria.

Al mismo tiempo, Nvidia anunció ShadowPlay , una solución de captura de pantalla que utilizaba un codificador H.264 integrado en la arquitectura Kepler que Nvidia no había revelado anteriormente. Podía usarse para grabar juegos sin una tarjeta de captura y con una disminución insignificante del rendimiento en comparación con las soluciones de grabación de software, y estaba disponible incluso en las tarjetas de la serie GeForce 600 de la generación anterior. Sin embargo, la versión beta del software para ShadowPlay experimentó múltiples retrasos y no se lanzaría hasta finales de octubre de 2013. Una semana después del lanzamiento de la GTX 780, Nvidia anunció que la GTX 770 sería un cambio de marca de la GTX 680. poco después por la GTX 760, que también estaba basada en el núcleo GK104 y similar a la GTX 660 Ti. No se lanzaron más tarjetas de la serie 700 en 2013, aunque Nvidia anunció G-Sync, otra característica de la arquitectura Kepler que Nvidia no había mencionado, que permitía a la GPU controlar dinámicamente la frecuencia de actualización de los monitores compatibles con G-Sync. Lanzamiento en 2014, para combatir el desgarro y la vibración. Sin embargo, en octubre, AMD lanzó la R9 290X, que costaba 100 dólares menos que la GTX 780. En respuesta, Nvidia redujo el precio de la GTX 780 en 150 dólares y lanzó la GTX 780 Ti, que incluía un GK110 completo de 2880 núcleos. núcleo incluso más potente que el GTX Titan, junto con mejoras en el sistema de entrega de energía que mejoraron el overclocking y lograron adelantarse al nuevo lanzamiento de AMD.

La serie GeForce 800M consta de piezas de la serie 700M renombradas basadas en la arquitectura Kepler y algunas piezas de gama baja basadas en la arquitectura Maxwell más nueva.

Serie GeForce 900

En marzo de 2013, Nvidia anunció que la sucesora de Kepler sería la microarquitectura Maxwell . Se lanzó en septiembre de 2014, con los chips de la serie GM10x, enfatizando las nuevas mejoras arquitectónicas de eficiencia energética en OEM y productos de bajo TDP en las GTX 750/750 ti de escritorio y las GTX 850M/860M móviles. Más tarde, ese mismo año, Nvidia impulsó el TDP con los chips GM20x para usuarios avanzados, omitiendo por completo la serie 800 para computadoras de escritorio, con la serie 900 de GPU.

Esta fue la última serie GeForce que admitió salida de vídeo analógico a través de DVI-I . Sin embargo, existen adaptadores de pantalla analógica que pueden convertir un Display Port digital , HDMI o DVI-D (Digital).

Serie GeForce 10

En marzo de 2014, Nvidia anunció que la sucesora de Maxwell sería la microarquitectura Pascal ; anunciado el 6 de mayo de 2016 y publicado el 27 de mayo de 2016. Las mejoras arquitectónicas incluyen lo siguiente: [18] [19]

GeForce serie 20 y serie 16

En agosto de 2018, Nvidia anunció la sucesora de GeForce de Pascal. El nombre de la nueva microarquitectura fue revelado como " Turing " en la conferencia Siggraph 2018. [25] Esta nueva microarquitectura de GPU tiene como objetivo acelerar el soporte de trazado de rayos en tiempo real y la inferencia de IA. Cuenta con una nueva unidad Ray Tracing (RT Core) que puede dedicar procesadores al trazado de rayos en hardware. Es compatible con la extensión DXR en Microsoft DirectX 12. Nvidia afirma que la nueva arquitectura es hasta 6 veces más rápida que la arquitectura Pascal anterior. [26] [27] Un diseño central completamente nuevo de Tensor desde que Volta introduce la aceleración del aprendizaje profundo mediante IA, que permite la utilización de DLSS ( Deep Learning Super Sampling ), una nueva forma de suavizado que utiliza IA para proporcionar imágenes más nítidas con menos impacto. sobre el rendimiento. [28] También cambia su unidad de ejecución entera que puede ejecutarse en paralelo con la ruta de datos de punto flotante. También se anunció una nueva arquitectura de caché unificada que duplica su ancho de banda en comparación con generaciones anteriores. [29]

Las nuevas GPU se revelaron como Quadro RTX 8000, Quadro RTX 6000 y Quadro RTX 5000. La Quadro RTX 8000 de gama alta cuenta con 4608 núcleos CUDA y 576 núcleos Tensor con 48 GB de VRAM. [26] Más tarde, durante la conferencia de prensa de Gamescom , el CEO de Nvidia, Jensen Huang, presentó la nueva serie GeForce RTX con RTX 2080 Ti, 2080 y 2070 que utilizará la arquitectura Turing. Estaba previsto que las primeras tarjetas Turing se enviaran a los consumidores el 20 de septiembre de 2018. [30] Nvidia anunció la RTX 2060 el 6 de enero de 2019, en CES 2019. [31]

El 2 de julio de 2019, Nvidia anunció la línea de tarjetas GeForce RTX Super, una actualización de la serie 20 que comprende versiones con especificaciones más altas de RTX 2060, 2070 y 2080. Las RTX 2070 y 2080 fueron descontinuadas.

En febrero de 2019, Nvidia anunció la serie GeForce 16 . Se basa en la misma arquitectura Turing utilizada en la serie GeForce 20, pero desactiva los núcleos Tensor ( AI ) y RT ( ray tracing ) para proporcionar tarjetas gráficas más asequibles para los jugadores y al mismo tiempo lograr un mayor rendimiento en comparación con las respectivas tarjetas de la serie anterior. Generaciones GeForce.

Al igual que la actualización RTX Super, Nvidia anunció el 29 de octubre de 2019 las tarjetas GTX 1650 Super y 1660 Super, que reemplazaron a sus contrapartes que no son Super.

El 28 de junio de 2022, Nvidia lanzó silenciosamente su tarjeta GTX 1630, destinada a jugadores de gama baja.

Serie GeForce 30

Nvidia anunció oficialmente en el evento especial GeForce que la sucesora de la serie GeForce 20 será la serie 30, basada en la microarquitectura Ampere . El evento especial GeForce presentado tuvo lugar el 1 de septiembre de 2020 y fijó el 17 de septiembre como fecha de lanzamiento oficial para la GPU RTX 3080, el 24 de septiembre para la GPU RTX 3090 y el 29 de octubre para la GPU RTX 3070. [32] [33] El último lanzamiento de GPU es el RTX 3090 Ti. La RTX 3090 Ti es la GPU Nvidia de gama más alta en la microarquitectura Ampere, cuenta con un troquel GA102 completamente desbloqueado construido en el nodo Samsung de 8 nm debido a la escasez de suministro con TSMC . La RTX 3090 Ti tiene 10,752 núcleos CUDA, 336 núcleos Tensor y unidades de mapeo de texturas, 112 ROP, 84 núcleos RT y 24 gigabytes de memoria GDDR6X con un bus de 384 bits. [34] En comparación con el RTX 2080 Ti, el 3090 Ti tiene 6.400 núcleos CUDA más. Debido a la escasez mundial de chips , la serie 30 fue controvertida ya que los revendedores y la alta demanda hicieron que los precios de las GPU se dispararan para la serie 30 y la serie AMD RX 6000 .

Serie GeForce 40 (actual)

El 20 de septiembre de 2022, Nvidia anunció sus tarjetas gráficas GeForce serie 40. [35] Estos salieron como RTX 4090, el 12 de octubre de 2022, RTX 4080, el 16 de noviembre de 2022, RTX 4070 Ti, el 3 de enero de 2023, con RTX 4070, el 13 de abril de 2023, y el RTX 4060 Ti el 24 de mayo de 2023 y el RTX 4060, a continuación, en julio de este año. En 2024 se entregarán más series 40, como la RTX 4050. Están basadas en la arquitectura de Ada Lovelace , y los números de pieza actuales son "AD102", "AD103", "AD104", "AD106" y "AD107". Estas piezas se fabrican utilizando el nodo de proceso TSMC N4, que es un proceso diseñado a medida para Nvidia. El RTX 4090 es actualmente el chip más rápido para el mercado principal lanzado por una importante empresa y consta de alrededor de 16.384 núcleos CUDA , frecuencias de impulso de 2,2/2,5 GHz, 24 GB de GDDR6X , un bus de memoria de 384 bits, 128 3. Núcleos RT de generación , 512 núcleos Tensor de cuarta generación , DLSS 3.0 y un TDP de 450W. [36]

Variantes

GPU móviles

Una Nvidia GeForce Go 7600 integrada en la placa base de una computadora portátil [37]

Desde la serie GeForce 2, Nvidia ha producido varios conjuntos de chips gráficos para computadoras portátiles bajo la marca GeForce Go . La mayoría de las funciones presentes en las versiones de escritorio están presentes en las versiones móviles. Estas GPU generalmente están optimizadas para un menor consumo de energía y menos generación de calor para poder usarse en computadoras portátiles y computadoras de escritorio pequeñas.

A partir de la serie GeForce 8, la marca GeForce Go se descontinuó y las GPU móviles se integraron con la línea principal de GPU GeForce, pero su nombre con el sufijo M. Esto terminó en 2016 con el lanzamiento de la serie GeForce 10 para portátiles: Nvidia eliminó el sufijo M y optó por unificar la marca entre sus ofertas de GPU para ordenadores de sobremesa y portátiles, ya que las GPU Pascal para portátiles son casi tan potentes como sus homólogas de escritorio (algo que Nvidia probó con su portátil "de escritorio" con GPU GTX 980 en 2015). [38]

La marca GeForce MX , utilizada anteriormente por Nvidia para sus GPU de escritorio de nivel básico, revivió en 2017 con el lanzamiento de la GeForce MX150 para portátiles. [39] El MX150 se basa en la misma GPU Pascal GP108 que se usa en el GT 1030 de escritorio, [40] y se lanzó silenciosamente en junio de 2017. [39]

GPU de factor de forma pequeño

Al igual que las GPU móviles, Nvidia también lanzó algunas GPU en formato de "factor de forma pequeño", para usar en computadoras de escritorio todo en uno. Estas GPU tienen el sufijo S , similar a la M utilizada para productos móviles. [41]

GPU integradas en la placa base de escritorio

A partir de nForce 4 , Nvidia comenzó a incluir soluciones gráficas integradas en los conjuntos de chips de sus placas base. Estas soluciones gráficas integradas se denominaron mGPU (GPU de placa base). [42] Nvidia descontinuó la gama nForce, incluidas estas mGPU, en 2009. [43]

Después de que se descontinuó la gama nForce, Nvidia lanzó su línea Ion en 2009, que consistía en una CPU Intel Atom asociada con una GPU de la serie GeForce 9 de gama baja, fijada en la placa base. Nvidia lanzó un Ion 2 actualizado en 2010, esta vez con una GPU de la serie GeForce 300 de gama baja.

Nomenclatura

Desde la serie GeForce 4 hasta la serie GeForce 9, se utiliza el siguiente esquema de nombres.

Desde el lanzamiento de la serie de GPU GeForce 100, Nvidia cambió el esquema de nomenclatura de sus productos al siguiente. [1]

  1. ^ Los sufijos indican su capa de rendimiento y los enumerados están en orden del más débil al más potente. Los sufijos de categorías menores aún se pueden usar en tarjetas de mayor rendimiento, por ejemplo: GeForce 8800 GT.
  2. ^ ab El rango de precios solo se aplica a la generación más reciente y es una generalización basada en patrones de precios.
  3. ^ ab La cantidad de sombreador compara la cantidad de unidades o canalizaciones de sombreadores en ese rango de modelo en particular con el modelo más alto posible en la generación.

Controladores de dispositivos gráficos

Propiedad oficial

Nvidia desarrolla y publica controladores GeForce para Windows 10 x86 / x86-64 y posteriores, Linux x86/x86-64/ ARMv7-A , OS X 10.5 y posteriores, Solaris x86/x86-64 y FreeBSD x86/x86-64. [45] Se puede descargar una versión actual de Nvidia y la mayoría de las distribuciones de Linux la contienen en sus propios repositorios. El controlador Nvidia GeForce 340.24 del 8 de julio de 2014 admite la interfaz EGL , lo que permite la compatibilidad con Wayland junto con este controlador. [46] [47] Esto puede ser diferente para la marca Nvidia Quadro , que se basa en hardware idéntico pero cuenta con controladores de dispositivos gráficos certificados OpenGL. El mismo día que se lanzó públicamente la API de gráficos Vulkan , Nvidia lanzó controladores que la admitían totalmente. [48] ​​Nvidia ha lanzado controladores con optimizaciones para videojuegos específicos simultáneamente con su lanzamiento desde 2014, habiendo lanzado 150 controladores compatibles con 400 juegos en abril de 2022. [49]

El soporte básico para la interfaz de configuración del modo DRM en forma de un nuevo módulo del kernel denominado nvidia-modeset.koestá disponible desde la versión 358.09 beta. [50] El soporte del controlador de pantalla de Nvidia en las GPU compatibles está centralizado en nvidia-modeset.ko. Las interacciones de pantalla tradicionales (conjuntos de modos X11, OpenGL SwapBuffers, presentación VDPAU, SLI, estéreo, framelock, G-Sync , etc.) se inician desde los diversos componentes del controlador en modo de usuario y fluyen hacia nvidia-modeset.ko. [51]

En mayo de 2022, Nvidia anunció que lanzaría un controlador parcialmente de código abierto para la arquitectura Turing (habilitada para GSP) y versiones posteriores, con el fin de mejorar la capacidad de empaquetarlo como parte de distribuciones de Linux. En el lanzamiento, Nvidia consideró que el impulsor era la calidad alfa para las GPU de consumo y la producción lista para las GPU de centros de datos. Actualmente, los componentes del espacio de usuario del controlador (incluidos OpenGL, Vulkan y CUDA) siguen siendo propietarios. Además, los componentes de código abierto del controlador son solo un contenedor (CPU-RM [a] ) para el firmware del procesador del sistema GPU (GSP), un blob binario RISC-V que ahora se requiere para ejecutar el controlador de código abierto. . [52] [53] El procesador del sistema GPU es un coprocesador RISC-V con nombre en código "Falcon" que se utiliza para descargar las tareas de administración e inicialización de la GPU. El controlador en sí todavía está dividido para la parte de la CPU del host (CPU-RM [a] ) y la parte GSP (GSP-RM [a] ). [54] Los controladores propietarios de Windows 11 y Linux también admiten la habilitación de GSP y hacen que incluso los juegos sean más rápidos. [55] [56] CUDA admite GSP desde la versión 11.6. [57] El próximo kernel de Linux 6.7 admitirá GSP en Nouveau . [58] [59]

De terceros, gratuito y de código abierto

Existen controladores de código abierto, gratuitos y creados por la comunidad como alternativa a los controladores lanzados por Nvidia. Los controladores de código abierto se desarrollan principalmente para Linux; sin embargo, puede haber puertos para otros sistemas operativos. El controlador alternativo más destacado es el controlador de dispositivo de gráficos nouveau de código abierto y gratuito con ingeniería inversa . Nvidia ha anunciado públicamente que no brindará ningún soporte para dichos controladores de dispositivos adicionales para sus productos, [60] aunque Nvidia ha contribuido con código para el controlador Nouveau. [61]

Los controladores gratuitos y de código abierto admiten una gran parte (pero no todas) de las funciones disponibles en las tarjetas de la marca GeForce. Por ejemplo, a partir de enero de 2014, el controlador nouveau carece de soporte para los ajustes de frecuencia del reloj de la memoria y la GPU, y para la administración dinámica de energía asociada. [62] Además, los controladores propietarios de Nvidia funcionan consistentemente mejor que los nouveau en varios puntos de referencia. [63] Sin embargo, a partir de agosto de 2014 y la versión 3.16 de la línea principal del kernel de Linux , las contribuciones de Nvidia permitieron implementar soporte parcial para GPU y ajustes de frecuencia de reloj de memoria. [ cita necesaria ]

Problemas de licencia y privacidad

La licencia tiene términos comunes contra la ingeniería inversa y la copia, y renuncia a garantías y responsabilidades. [64] [¿ investigación original? ]

A partir de 2016, la licencia GeFORCE dice que Nvidia "el SOFTWARE puede acceder, recopilar información de identificación no personal, actualizar y configurar el sistema del Cliente para optimizar adecuadamente dicho sistema para su uso con el SOFTWARE". [64] El aviso de privacidad continúa diciendo: "No podemos responder a las señales de "No rastrear" establecidas por un navegador en este momento. También permitimos que redes de publicidad en línea de terceros y compañías de redes sociales recopilen información. Podemos combinar la información personal que recopilamos sobre usted con la información de navegación y seguimiento recopilada por estas tecnologías [cookies y balizas]". [sesenta y cinco]

El software configura el sistema del usuario para optimizar su uso y la licencia dice: "NVIDIA no tendrá responsabilidad por ningún daño o pérdida de dicho sistema (incluida la pérdida de datos o acceso) que surja de o esté relacionado con (a) cualquier cambio en el configuración, ajustes de la aplicación, variables de entorno, registro, controladores, BIOS u otros atributos del sistema (o cualquier parte de dicho sistema) iniciados a través del SOFTWARE". [64]

Experiencia GeForce

GeForce Experience es un programa que contiene varias herramientas, incluida Nvidia ShadowPlay . [66]

Debido a una grave vulnerabilidad de seguridad antes de la actualización de seguridad del 26 de marzo de 2019, los usuarios de GeForce Experience eran vulnerables a la ejecución remota de código , denegación de servicio y ataques de escalada de privilegios . [67] Al instalar nuevos controladores, GeForce Experience puede obligar al sistema a reiniciarse después de una cuenta regresiva de 60 segundos, sin darle al usuario ninguna opción.

Referencias

  1. ^ a b "Tarjetas gráficas GeForce". NVIDIA. Archivado desde el original el 1 de julio de 2012 . Consultado el 7 de julio de 2012 .
  2. ^ https://drops.dagstuhl.com/opus/volltexte/2020/12373/pdf/LIPIcs-ECRTS-2020-10.pdf [ enlace muerto permanente ] Dagstuhl
  3. ^ "Ganadores del concurso de nombres de Nvidia". NVIDIA . 1999. Archivado desde el original el 8 de junio de 2000 . Consultado el 28 de mayo de 2007 .
  4. ^ Tomado, Femme (17 de abril de 1999). Concurso "Nvidia" Nombra ese chip ". Tweakers.net . Archivado desde el original el 11 de marzo de 2007 . Consultado el 28 de mayo de 2007 .
  5. ^ "Edición máxima de PC de abril de 2002" (PDF) . Computadora máxima . Future US, Inc. Abril de 2002. p. 29. Archivado desde el original el 23 de enero de 2023 . Consultado el 11 de octubre de 2022 a través de Google Books.
  6. ^ Brian Caulfield (7 de enero de 2008). "Disparar a matar". Forbes.com . Archivado desde el original el 24 de diciembre de 2007 . Consultado el 26 de diciembre de 2007 .
  7. ^ "NVIDIA GeForce 9800 GTX". Archivado desde el original el 29 de mayo de 2008 . Consultado el 31 de mayo de 2008 .
  8. ^ Informe DailyTech Archivado el 5 de julio de 2008 en Wayback Machine : Crytek, Microsoft y Nvidia restan importancia a Direct3D 10.1, consultado el 4 de diciembre de 2007.
  9. ^ "Nvidia lanza silenciosamente las GPU GeForce serie 100". 6 de abril de 2009. Archivado desde el original el 26 de marzo de 2009.
  10. ^ "nVidia lanza tarjetas GeForce serie 100". 10 de marzo de 2009. Archivado desde el original el 11 de julio de 2011.
  11. ^ "Nvidia lanza silenciosamente las GPU GeForce serie 100". 24 de marzo de 2009. Archivado desde el original el 21 de mayo de 2009.
  12. ^ "Revisión de la tarjeta de vídeo NVIDIA GeForce GTX 280". Revisiones de referencia. 16 de junio de 2008. Archivado desde el original el 17 de junio de 2008 . Consultado el 16 de junio de 2008 .
  13. ^ "GeForce GTX 280 se lanzará el 18 de junio". Fudzilla.com. Archivado desde el original el 17 de mayo de 2008 . Consultado el 18 de mayo de 2008 .
  14. ^ "Imágenes detalladas de la GeForce GTX 280". Zona VR. 3 de junio de 2008. Archivado desde el original el 4 de junio de 2008 . Consultado el 3 de junio de 2008 .
  15. ^ "- Noticias :: NVIDIA lanza la gama GeForce 300 con GeForce 310: Página - 1/1". Hexus.net. 27 de noviembre de 2009. Archivado desde el original el 28 de septiembre de 2011 . Consultado el 30 de junio de 2013 .
  16. ^ "Toda PC necesita buenos gráficos". NVIDIA. Archivado desde el original el 13 de febrero de 2012 . Consultado el 30 de junio de 2013 .
  17. ^ "Actualización: La serie GeForce GTX 400 de NVIDIA aparece temprano - AnandTech :: Su fuente de noticias y análisis de hardware". Anandtech.com. Archivado desde el original el 23 de mayo de 2013 . Consultado el 30 de junio de 2013 .
  18. ^ Gupta, Sumit (21 de marzo de 2014). "NVIDIA actualiza la hoja de ruta de GPU; anuncia Pascal". Blogs.nvidia.com. Archivado desde el original el 25 de marzo de 2014 . Consultado el 25 de marzo de 2014 .
  19. ^ "Paralelo para todos". Zona de desarrolladores de NVIDIA . Devblogs.nvidia.com. Archivado desde el original el 26 de marzo de 2014 . Consultado el 25 de marzo de 2014 .
  20. ^ "SERIE GEFORCE GTX 10". www.geforce.com . Archivado desde el original el 28 de noviembre de 2016 . Consultado el 24 de abril de 2018 .
  21. ^ "nside Pascal: la plataforma informática más nueva de NVIDIA". 5 de abril de 2016. Archivado desde el original el 7 de mayo de 2017.
  22. ^ Denis Foley (25 de marzo de 2014). "NVLink, Pascal y Stacked Memory: alimentando el apetito por Big Data". nvidia.com . Archivado desde el original el 20 de julio de 2014 . Consultado el 7 de julio de 2014 .
  23. ^ "La arquitectura de GPU Pascal de próxima generación de NVIDIA proporcionará una velocidad 10 veces mayor para aplicaciones de aprendizaje profundo". El blog oficial de NVIDIA . Archivado desde el original el 2 de abril de 2015 . Consultado el 23 de marzo de 2015 .
  24. ^ Smith, Ryan (17 de marzo de 2015). "Revisión de NVIDIA GeForce GTX Titan X". AnandTech . pag. 2. Archivado desde el original el 5 de mayo de 2016 . Consultado el 22 de abril de 2016 . ...ínfima tasa nativa de FP64 de sólo 1/32
  25. ^ "NVIDIA revela la arquitectura de GPU Turing de próxima generación: NVIDIA duplica su apuesta por el trazado de rayos, GDDR6 y más". Anandtech . 13 de agosto de 2018. Archivado desde el original el 24 de abril de 2020 . Consultado el 13 de agosto de 2018 .
  26. ^ ab "Las GPU con tecnología Turing de NVIDIA son las primeras creadas para el trazado de rayos". Engadget . Archivado desde el original el 14 de agosto de 2018 . Consultado el 14 de agosto de 2018 .
  27. ^ "Tarjetas gráficas NVIDIA GeForce RTX serie 20". NVIDIA . Archivado desde el original el 3 de agosto de 2017 . Consultado el 12 de febrero de 2019 .
  28. ^ "Se muestra a la imprenta NVIDIA Deep Learning Super-Sampling (DLSS)". www.legitreviews.com . 22 de agosto de 2018. Archivado desde el original el 14 de septiembre de 2018 . Consultado el 14 de septiembre de 2018 .
  29. ^ "NVIDIA anuncia oficialmente la arquitectura de GPU Turing en SIGGRAPH 2018". www.pcper.com . Perspectiva de la PC. 13 de agosto de 2018. Archivado desde el original el 14 de agosto de 2018 . Consultado el 14 de agosto de 2018 .
  30. ^ Sala de redacción, NVIDIA. "Diez años de desarrollo: NVIDIA ofrece el trazado de rayos en tiempo real a los jugadores con GeForce RTX". Sala de prensa de NVIDIA . Archivado desde el original el 12 de diciembre de 2018 . Consultado el 6 de febrero de 2019 .
  31. ^ Sala de redacción, NVIDIA. "NVIDIA GeForce RTX 2060 ya está aquí: despegan los juegos de próxima generación". Sala de prensa de NVIDIA . Archivado desde el original el 19 de enero de 2019 . Consultado el 6 de febrero de 2019 .
  32. ^ "NVIDIA ofrece el mayor salto generacional jamás visto con las GPU GeForce RTX serie 30". Archivado desde el original el 13 de enero de 2021 . Consultado el 3 de septiembre de 2020 .
  33. ^ "Únase a nosotros para una NVIDIA GeForce RTX: juego en un evento de transmisión especial". Archivado desde el original el 2 de septiembre de 2020 . Consultado el 16 de agosto de 2020 .
  34. ^ "Especificaciones de NVIDIA GeForce RTX 3090 Ti". TechPowerUp . Archivado desde el original el 23 de enero de 2023 . Consultado el 12 de mayo de 2022 .
  35. ^ Burnes, Andrew (20 de septiembre de 2022). "Noticias de NVIDIA GeForce". NVIDIA . Archivado desde el original el 20 de septiembre de 2022 . Consultado el 20 de septiembre de 2022 .
  36. ^ "Tarjetas gráficas NVIDIA GeForce RTX 4090". NVIDIA . Consultado el 7 de noviembre de 2023 .
  37. ^ Hinum, Klaus. "NVIDIA GeForce Go 7800". Comprobación de cuaderno . Archivado desde el original el 27 de mayo de 2022 . Consultado el 4 de mayo de 2022 .
  38. ^ "Portátiles GeForce GTX serie 10". Archivado desde el original el 21 de octubre de 2016 . Consultado el 23 de octubre de 2016 .
  39. ^ ab Hagedoorn, Hilbert (26 de mayo de 2017). "NVIDIA lanza GeForce MX150 para portátiles". Gurú3D . Archivado desde el original el 29 de junio de 2017 . Consultado el 2 de julio de 2017 .
  40. ^ Smith, Ryan (26 de mayo de 2017). "NVIDIA anuncia GeForce MX150: Pascal de nivel básico para computadoras portátiles, justo a tiempo para Computex". AnandTech . Archivado desde el original el 3 de julio de 2017 . Consultado el 2 de julio de 2017 .
  41. ^ "NVIDIA factor de forma pequeño". NVIDIA. Archivado desde el original el 22 de enero de 2014 . Consultado el 3 de febrero de 2014 .
  42. ^ "GPU de placa base NVIDIA". NVIDIA. Archivado desde el original el 3 de octubre de 2009 . Consultado el 22 de marzo de 2010 .
  43. ^ Kingsley-Hughes, Adrian (7 de octubre de 2009). "Fin de la línea de chipsets NVIDIA, y eso es oficial". ZDNet . Archivado desde el original el 23 de marzo de 2019 . Consultado el 27 de enero de 2021 .
  44. ^ "NVIDIA GeForce GTX 1630 se lanzará el 31 de mayo con 512 núcleos CUDA y 4 GB GDDR6". 19 de mayo de 2022. Archivado desde el original el 19 de mayo de 2022 . Consultado el 19 de mayo de 2022 .
  45. ^ "Soporte operativo para GPU GeForce". NVIDIA . Archivado desde el original el 3 de junio de 2021 . Consultado el 25 de agosto de 2017 .
  46. ^ "Soporte para EGL". 8 de julio de 2014. Archivado desde el original el 11 de julio de 2014 . Consultado el 8 de julio de 2014 .
  47. ^ "Lista de archivos lib32-nvidia-utils 340.24-1". 15 de julio de 2014. Archivado desde el original el 16 de julio de 2014.
  48. ^ "Nvidia: compatibilidad con Vulkan en la versión 356.39 del controlador de Windows y la versión 355.00.26 del controlador de Linux". 16 de febrero de 2016. Archivado desde el original el 8 de abril de 2016.
  49. ^ Mason, Damien (27 de abril de 2022). "Los controladores de GPU de Nvidia son mejores que los de AMD e Intel, dice Nvidia". PCGamesN . Archivado desde el original el 26 de octubre de 2022 . Consultado el 26 de octubre de 2022 .
  50. ^ "Controlador 358.09 (beta) para Linux, Solaris y FreeBSD". 10 de diciembre de 2015. Archivado desde el original el 25 de junio de 2016.
  51. ^ "Lanzamiento de NVIDIA 364.12: Vulkan, GLVND, DRM KMS y EGLStreams". 21 de marzo de 2016. Archivado desde el original el 13 de junio de 2016.
  52. ^ Cunningham, Andrew (12 de mayo de 2022). "Nvidia da el primer paso hacia los controladores de GPU de Linux de código abierto". Ars Técnica . Archivado desde el original el 31 de mayo de 2022 . Consultado el 31 de mayo de 2022 .
  53. ^ Corrigan, Hope (17 de mayo de 2022). "Nvidia trasladó la mayor parte del código al firmware antes de lanzar controladores de código abierto para Linux". Jugador de PC . Archivado desde el original el 31 de mayo de 2022 . Consultado el 31 de mayo de 2022 .
  54. ^ "kernel/git/firmware/linux-firmware.git: repositorio de blobs de firmware para usar con el kernel de Linux". git.kernel.org . Consultado el 23 de noviembre de 2023 .
  55. ^ "CSGO funciona sin problemas durante un par de segundos, luego cae FUERTE y luego vuelve a la normalidad, repita · Número 335 · NVIDIA/open-gpu-kernel-modules". GitHub . Consultado el 23 de noviembre de 2023 .
  56. ^ Aaron Klotz (18 de enero de 2022). "El controlador Nvidia desbloquea el procesador del sistema GPU que mejora el rendimiento". Hardware de Tom . Consultado el 23 de noviembre de 2023 .
  57. ^ "NVIDIA CUDA 11.6 ofrece el conveniente" -arch=native ", el valor predeterminado es el nuevo modo de controlador" GSP ". www.phoronix.com . Consultado el 23 de noviembre de 2023 .
  58. ^ "NVIDIA inserta 62 MB de blobs de firmware binario GSP en Linux-Firmware.Git". www.phoronix.com . Consultado el 23 de noviembre de 2023 .
  59. ^ "El controlador DRM de Nouveau Linux avanza en la compatibilidad con NVIDIA GSP". www.phoronix.com . Consultado el 23 de noviembre de 2023 .
  60. ^ "La respuesta de Nvidia al trabajo reciente de Nouveau". Forónix . 14 de diciembre de 2009. Archivado desde el original el 7 de octubre de 2016.
  61. ^ Larabel, Michael (11 de julio de 2014). "NVIDIA aporta código de re-clocking a Nouveau para el GK20A". Forónix . Archivado desde el original el 25 de julio de 2014 . Consultado el 9 de septiembre de 2014 .
  62. ^ "Nouveau 3.14 obtiene una nueva aceleración, aún carece de PM". Forónix . 23 de enero de 2014. Archivado desde el original el 3 de julio de 2014 . Consultado el 25 de julio de 2014 .
  63. ^ "Evaluación comparativa del controlador GeForce propietario de Nouveau y Nvidia en Linux". Forónix . 28 de julio de 2014. Archivado desde el original el 16 de agosto de 2016.
  64. ^ abc "Licencia para uso del software NVIDIA por parte del cliente". Nvidia.com . Archivado desde el original el 10 de agosto de 2017 . Consultado el 10 de agosto de 2017 .
  65. ^ "Política de privacidad de NVIDIA/Sus derechos de privacidad en California". 15 de junio de 2016. Archivado desde el original el 25 de febrero de 2017.
  66. ^ Minor, Jordania (23 de octubre de 2020). "Revisión de la experiencia Nvidia GeForce". PCMAG . Archivado desde el original el 26 de octubre de 2022 . Consultado el 26 de octubre de 2022 .
  67. ^ "Nvidia parchea el defecto de seguridad de la experiencia GeForce". Hardware de Tom . 27 de marzo de 2019 . Consultado el 25 de julio de 2019 .
  1. ^ abc RM significa Administrador de recursos

enlaces externos