stringtranslate.com

Unidad de procesamiento gráfico

Componentes de una GPU

Una unidad de procesamiento de gráficos ( GPU ) es un circuito electrónico especializado diseñado inicialmente para acelerar el procesamiento de imágenes y gráficos de computadora (ya sea en una tarjeta de video o integrado en placas base , teléfonos móviles , computadoras personales , estaciones de trabajo y consolas de juegos ). Después de su diseño inicial, se descubrió que las GPU eran útiles para cálculos no gráficos que implicaban problemas vergonzosamente paralelos debido a su estructura paralela . Otros usos no gráficos incluyen el entrenamiento de redes neuronales y la minería de criptomonedas .

Historia

década de 1970

Las placas de los sistemas Arcade han utilizado circuitos gráficos especializados desde la década de 1970. En los primeros hardware de videojuegos, la RAM para los buffers de cuadros era costosa, por lo que los chips de video componían datos mientras la pantalla se escaneaba en el monitor. [1]

Un circuito de cambio de barril especializado ayudó a la CPU a animar los gráficos framebuffer de varios videojuegos arcade de los años 70 de Midway y Taito , como Gun Fight (1975), Sea Wolf (1976) y Space Invaders (1978). [2] El sistema arcade Namco Galaxian de 1979 utilizaba hardware de gráficos especializado que admitía colores RGB , sprites multicolores y fondos de mapas de mosaicos . [3] El hardware Galaxian fue ampliamente utilizado durante la época dorada de los videojuegos arcade , por compañías de juegos como Namco , Centuri , Gremlin , Irem , Konami , Midway, Nichibutsu , Sega y Taito. [4]

Microprocesador Atari ANTIC en una placa base Atari 130XE

El Atari 2600 de 1977 utilizaba un cambiador de vídeo llamado Adaptador de Interfaz de Televisión . [5] Las computadoras Atari de 8 bits (1979) tenían ANTIC , un procesador de video que interpretaba instrucciones que describían una " lista de visualización ": la forma en que las líneas de escaneo se asignan a modos de caracteres o de mapas de bits específicos y dónde se almacena la memoria (por lo que no había debe ser un búfer de trama contiguo). [ se necesita aclaración ] [6] Las subrutinas de código de máquina 6502 podrían activarse en líneas de escaneo configurando un bit en una instrucción de lista de visualización. [ se necesita aclaración ] [7] ANTIC también admitía un desplazamiento vertical y horizontal suave independientemente de la CPU. [8]

década de 1980

NEC µPD7220 A

El NEC µPD7220 fue la primera implementación de un procesador de visualización de gráficos para computadora personal como un único chip de circuito integrado de integración a gran escala (LSI) . Esto permitió el diseño de tarjetas gráficas de video de bajo costo y alto rendimiento, como las de Number Nine Visual Technology . Se convirtió en la GPU más conocida hasta mediados de los años 1980. [9] Fue el primer procesador de visualización de gráficos VLSI (integración a muy gran escala) semiconductor de óxido metálico ( NMOS ) totalmente integrado para PC, admitía una resolución de hasta 1024 × 1024 y sentó las bases para el mercado emergente de gráficos para PC. Se utilizó en varias tarjetas gráficas y se obtuvo licencia para clones como el Intel 82720, la primera de las unidades de procesamiento de gráficos de Intel . [10] Los juegos arcade de Williams Electronics Robotron 2084 , Joust , Sinistar y Bubbles , todos lanzados en 1982, contienen chips blitter personalizados para operar en mapas de bits de 16 colores. [11] [12]

En 1984, Hitachi lanzó ARTC HD63484, el primer procesador de gráficos CMOS importante para computadoras personales. El ARTC podría mostrar una resolución de hasta 4K en modo monocromático . Se utilizó en varias tarjetas gráficas y terminales a finales de los años 1980. [13] En 1985, el Amiga fue lanzado con un chip gráfico personalizado que incluía un blitter para manipulación de mapas de bits, dibujo de líneas y relleno de áreas. También incluía un coprocesador con su propio conjunto de instrucciones simples, que era capaz de manipular registros de hardware de gráficos en sincronización con el haz de video (por ejemplo, para cambios de paleta por línea de escaneo, multiplexación de sprites y ventanas de hardware), o controlar el blitter. En 1986, Texas Instruments lanzó el TMS34010 , el primer procesador de gráficos totalmente programable. [14] Podía ejecutar código de propósito general, pero tenía un conjunto de instrucciones orientadas a gráficos. Durante 1990-1992, este chip se convirtió en la base de las tarjetas aceleradoras de Windows de Texas Instruments Graphics Architecture ("TIGA") .

El adaptador IBM 8514 Micro Channel, con memoria adicional

En 1987, se lanzó el sistema de gráficos IBM 8514 . Fue una de las primeras tarjetas de video para PC compatibles con IBM en implementar primitivas 2D de función fija en hardware electrónico . El X68000 de Sharp , lanzado en 1987, utilizaba un chipset de gráficos personalizado [15] con una paleta de 65.536 colores y soporte de hardware para sprites, desplazamiento y múltiples campos de juego. [16] Sirvió como máquina de desarrollo para la placa arcade CP System de Capcom . La computadora FM Towns de Fujitsu , lanzada en 1989, admitía una paleta de 16.777.216 colores. [17] En 1988, las primeras tarjetas gráficas 3D poligonales dedicadas se introdujeron en salas de juegos con Namco System 21 [18] y Taito Air System. [19]

Sección VGA en la placa base en IBM PS/55

IBM introdujo su estándar de visualización Video Graphics Array (VGA) patentado en 1987, con una resolución máxima de 640 × 480 píxeles. En noviembre de 1988, NEC Home Electronics anunció la creación de la Video Electronics Standards Association (VESA) para desarrollar y promover un estándar de pantalla de computadora Super VGA (SVGA) como sucesor de VGA. Los gráficos habilitados para Super VGA muestran resoluciones de hasta 800×600 píxeles , un aumento del 36%. [20]

década de 1990

Laboratorios Tseng ET4000/W32p
Gráficos S3 ViRGE
Tarjeta Voodoo3 2000 AGP

En 1991, S3 Graphics presentó el S3 86C911 , al que sus diseñadores bautizaron con el nombre del Porsche 911 como indicación del aumento de rendimiento que prometía. [21] El 86C911 generó una gran cantidad de imitadores: en 1995, todos los principales fabricantes de chips gráficos para PC habían agregado soporte de aceleración 2D a sus chips. [22] Los aceleradores de Windows de función fija superaron a los costosos coprocesadores de gráficos de uso general en rendimiento de Windows, y dichos coprocesadores desaparecieron del mercado de PC.

A lo largo de la década de 1990, la aceleración de GUI 2D evolucionó. A medida que mejoraron las capacidades de fabricación, también mejoró el nivel de integración de los chips gráficos. Llegaron interfaces de programación de aplicaciones (API) adicionales para una variedad de tareas, como la biblioteca de gráficos WinG de Microsoft para Windows 3.x y su posterior interfaz DirectDraw para la aceleración de hardware de juegos 2D en Windows 95 y versiones posteriores.

A principios y mediados de la década de 1990, los gráficos 3D en tiempo real se volvieron cada vez más comunes en los juegos arcade, de computadora y de consola, lo que llevó a una creciente demanda pública de gráficos 3D acelerados por hardware. Los primeros ejemplos de hardware de gráficos 3D para el mercado masivo se pueden encontrar en placas de sistemas arcade como Sega Model 1 , Namco System 22 y Sega Model 2 , y en las consolas de videojuegos de quinta generación como Saturn , PlayStation y Nintendo 64. . Los sistemas arcade como el Sega Model 2 y el Namco Magic Edge Hornet Simulator basado en SGI Onyx en 1993 eran capaces de realizar T&L ( transformación, recorte e iluminación ) de hardware años antes de aparecer en las tarjetas gráficas de consumo. [23] [24] Otro ejemplo temprano es el chip Super FX , un chip gráfico en cartucho basado en RISC utilizado en algunos juegos de SNES , en particular Doom y Star Fox . Algunos sistemas utilizaron DSP para acelerar las transformaciones. Fujitsu , que trabajó en el sistema arcade Sega Model 2, [25] comenzó a trabajar en la integración de T&L en una única solución LSI para su uso en computadoras domésticas en 1995; [26] el Fujitsu Pinolite, el primer procesador de geometría 3D para computadoras personales, lanzado en 1997. [27] La ​​primera GPU T&L de hardware en consolas de videojuegos domésticas fue el Reality Coprocessor de Nintendo 64 , lanzado en 1996. [28] En 1997, Mitsubishi lanzó 3Dpro/2MP , una GPU capaz de transformación e iluminación, para estaciones de trabajo y escritorios con Windows NT ; [29] ATi lo usó para su tarjeta gráfica FireGL 4000 , lanzada en 1997. [30]

El término "GPU" fue acuñado por Sony en referencia a la GPU Sony de 32 bits (diseñada por Toshiba ) en la consola de videojuegos PlayStation , lanzada en 1994. [31]

En el mundo de las PC, los intentos fallidos notables de chips gráficos 3D de bajo costo incluyeron el S3 ViRGE , ATI Rage y Matrox Mystique . Estos chips eran esencialmente aceleradores 2D de la generación anterior con funciones 3D incorporadas. Muchos eran compatibles con pines de los chips de la generación anterior para facilitar la implementación y reducir el costo. Inicialmente, el rendimiento [ se necesita aclaración ] de gráficos 3D solo era posible con placas discretas dedicadas a acelerar funciones 3D (y que carecían por completo de aceleración de interfaz gráfica de usuario (GUI) 2D), como PowerVR y 3dfx Voodoo . Sin embargo, a medida que la tecnología de fabricación siguió avanzando, el vídeo, la aceleración de GUI 2D y la funcionalidad 3D se integraron en un solo chip. Los conjuntos de chips Verite de Rendition estuvieron entre los primeros en hacerlo bien. En 1997, Rendition colaboró ​​con Hercules y Fujitsu en un proyecto "Thriller Conspiracy" que combinaba un procesador de geometría Fujitsu FXG-1 Pinolite con un núcleo Vérité V2200 para crear una tarjeta gráfica con un motor T&L completo años antes que la GeForce 256 de Nvidia ; Esta tarjeta, diseñada para reducir la carga colocada sobre la CPU del sistema, nunca llegó al mercado. [ cita necesaria ] NVIDIA RIVA 128 fue una de las primeras unidades de procesamiento 3D y 2D integradas con GPU orientadas al consumidor en un chip.

OpenGL apareció a principios de los 90 como una API de gráficos profesionales, pero originalmente sufrió problemas de rendimiento que permitieron que la API Glide se convirtiera en una fuerza dominante en la PC a finales de los 90. [32] Estos problemas se superaron rápidamente y la API Glide quedó en el camino. Las implementaciones de software de OpenGL eran comunes durante esta época, aunque la influencia de OpenGL finalmente condujo a un soporte de hardware generalizado. DirectX se hizo popular entre los desarrolladores de juegos de Windows a finales de los años 90. A diferencia de OpenGL, Microsoft insistió en proporcionar un estricto soporte personalizado de hardware. Inicialmente, este enfoque hizo que DirectX fuera menos popular como API de gráficos independiente, ya que muchas GPU proporcionaban sus propias características específicas, de las que las aplicaciones OpenGL existentes ya podían beneficiarse, dejando a DirectX a menudo una generación atrás. (Ver: Comparación de OpenGL y Direct3D ).

Microsoft comenzó a trabajar más estrechamente con los desarrolladores de hardware y comenzó a apuntar a que los lanzamientos de DirectX coincidieran con los del hardware de gráficos compatible. Direct3D 5.0 ​​fue la primera versión de la API que obtuvo una adopción generalizada en el mercado de los juegos y compitió directamente con bibliotecas de gráficos más específicas de hardware, a menudo propietarias, mientras que OpenGL mantuvo un gran número de seguidores. Direct3D 7.0 introdujo soporte para transformación e iluminación aceleradas por hardware (T&L) para Direct3D; OpenGL tuvo esta capacidad desde sus inicios. Las tarjetas aceleradoras 3D pasaron de ser simples rasterizadores para agregar otra etapa importante de hardware al proceso de renderizado 3D. La Nvidia GeForce 256 (también conocida como NV10) fue la primera tarjeta de consumo con T&L acelerado por hardware; Las tarjetas 3D profesionales ya tenían esta capacidad. La iluminación y la transformación de hardware (características existentes de OpenGL) llegaron al hardware de nivel de consumidor en los años 90 y sentaron el precedente para unidades posteriores de sombreado de píxeles y sombreadores de vértices , que eran mucho más flexibles y programables.

2000

Nvidia fue la primera en producir un chip capaz de realizar sombreados programables : la GeForce 3 . Ahora cada píxel podría procesarse mediante un programa corto que podría incluir texturas de imagen adicionales como entradas, y cada vértice geométrico también podría procesarse mediante un programa corto antes de proyectarse en la pantalla. Utilizado en la consola Xbox , este chip competía con el de PlayStation 2 , que utilizaba una unidad vectorial personalizada para el procesamiento de vértices acelerado por hardware (comúnmente conocido como VU0/VU1). Las primeras encarnaciones de motores de ejecución de sombreadores utilizados en Xbox no eran de propósito general y no podían ejecutar código de píxeles arbitrario. Los vértices y los píxeles fueron procesados ​​por diferentes unidades que tenían sus propios recursos, y los sombreadores de píxeles tenían restricciones más estrictas (porque se ejecutan a frecuencias más altas que los vértices). Los motores de sombreado de píxeles en realidad se parecían más a un bloque de funciones altamente personalizable y en realidad no "ejecutaban" un programa. Muchas de estas disparidades entre el sombreado de vértices y píxeles no se abordaron hasta el Modelo Unificado de Sombreadores .

En octubre de 2002, con la introducción de la ATI Radeon 9700 (también conocida como R300), el primer acelerador Direct3D 9.0 del mundo , los sombreadores de píxeles y vértices podían implementar bucles y largas matemáticas de punto flotante , y rápidamente se estaban volviendo tan flexibles como las CPU, pero los pedidos de magnitud más rápido para operaciones de matriz de imágenes. El sombreado de píxeles se utiliza a menudo para el mapeo de relieve , que agrega textura para hacer que un objeto luzca brillante, opaco, áspero o incluso redondo o extruido. [33]

Con la introducción de la serie Nvidia GeForce 8 y las nuevas unidades genéricas de procesamiento de flujo, las GPU se convirtieron en dispositivos informáticos más generalizados. Las GPU paralelas están haciendo avances computacionales contra la CPU, y un subcampo de investigación, denominado computación GPU o GPGPU para computación de propósito general en GPU , ha encontrado aplicaciones en campos tan diversos como el aprendizaje automático , [34] la exploración petrolera , el procesamiento científico de imágenes y el procesamiento lineal. álgebra , [35] estadística , [36] reconstrucción 3D y fijación de precios de opciones sobre acciones . GPGPU fue el precursor de lo que ahora se llama un sombreador de cálculo (por ejemplo, CUDA, OpenCL, DirectCompute) y, de hecho, abusó del hardware hasta cierto punto al tratar los datos pasados ​​a los algoritmos como mapas de textura y ejecutar algoritmos dibujando un triángulo o un cuadrilátero con un patrón apropiado. sombreador de píxeles. [ aclaración necesaria ] Esto implica algunos gastos generales, ya que unidades como el convertidor de escaneo están involucradas donde no son necesarias (ni siquiera las manipulaciones de triángulos son una preocupación, excepto para invocar el sombreador de píxeles). [ se necesita aclaración ]

La plataforma CUDA de Nvidia , introducida por primera vez en 2007, [37] fue el primer modelo de programación ampliamente adoptado para la computación GPU. OpenCL es un estándar abierto definido por Khronos Group que permite el desarrollo de código tanto para GPU como para CPU con énfasis en la portabilidad. [38] Las soluciones OpenCL son compatibles con Intel, AMD, Nvidia y ARM y, según un informe de 2011 de Evans Data, OpenCL se había convertido en la segunda herramienta HPC más popular. [39]

década de 2010

En 2010, Nvidia se asoció con Audi para alimentar los tableros de sus automóviles, utilizando la GPU Tegra para brindar una mayor funcionalidad a los sistemas de navegación y entretenimiento de los automóviles. [40] Los avances en la tecnología GPU en los automóviles ayudaron a avanzar en la tecnología de conducción autónoma . [41] Las tarjetas Radeon HD serie 6000 de AMD se lanzaron en 2010, y en 2011 AMD lanzó sus GPU discretas serie 6000M para dispositivos móviles. [42] La línea Kepler de tarjetas gráficas de Nvidia se lanzó en 2012 y se utilizó en las tarjetas de las series 600 y 700 de Nvidia. Una característica de esta microarquitectura de GPU incluía GPU boost, una tecnología que ajusta la velocidad del reloj de una tarjeta de video para aumentarla o disminuirla según su consumo de energía. [43] La microarquitectura de Kepler se fabricó con el proceso de 28 nm [ aclaración necesaria ] .

La PS4 y la Xbox One se lanzaron en 2013; Ambos utilizan GPU basadas en Radeon HD 7850 y 7790 de AMD . [44] A la línea Kepler de GPU de Nvidia le siguió la línea Maxwell , fabricada con el mismo proceso. Los chips de 28 nm de Nvidia fueron fabricados por TSMC en Taiwán utilizando el proceso de 28 nm. En comparación con la tecnología de 40 nm del pasado, este proceso de fabricación permitió un aumento del 20 por ciento en el rendimiento y consumió menos energía. [45] [46] Los cascos de realidad virtual tienen altos requisitos de sistema; Los fabricantes recomendaron la GTX 970 y la R9 290X o mejor en el momento de su lanzamiento. [47] [48] Las tarjetas basadas en la microarquitectura Pascal se lanzaron en 2016. La serie de tarjetas GeForce 10 pertenece a esta generación de tarjetas gráficas. Se fabrican mediante el proceso de fabricación de 16 nm que mejora las microarquitecturas anteriores. [49] Nvidia lanzó una tarjeta para no consumidores bajo la nueva arquitectura Volta , la Titan V. Los cambios con respecto a la Titan XP, la tarjeta de gama alta de Pascal, incluyen un aumento en la cantidad de núcleos CUDA, la adición de núcleos tensoriales y HBM2. . Los núcleos tensoriales están diseñados para el aprendizaje profundo, mientras que la memoria de gran ancho de banda es una memoria integrada, apilada y de menor frecuencia que ofrece un bus de memoria extremadamente amplio. Para enfatizar que la Titan V no es una tarjeta de juegos, Nvidia eliminó el sufijo "GeForce GTX" que agrega a las tarjetas de juegos de consumo.

En 2018, Nvidia lanzó las GPU de la serie RTX 20 que agregaron núcleos de trazado de rayos a las GPU, mejorando su rendimiento en los efectos de iluminación. [50] Las GPU Polaris 11 y Polaris 10 de AMD se fabrican mediante un proceso de 14 nm. Su lanzamiento resultó en un aumento sustancial en el rendimiento por vatio de las tarjetas de video AMD. [51] AMD también lanzó la serie Vega GPU para el mercado de gama alta como competidor de las tarjetas Pascal de gama alta de Nvidia, que también incluyen HBM2 como la Titan V.

En 2019, AMD lanzó el sucesor de su conjunto de instrucciones/microarquitectura Graphics Core Next (GCN). Apodado RDNA, el primer producto que lo presentó fue la serie de tarjetas de video Radeon RX 5000 . [52]

La compañía anunció que el sucesor de la microarquitectura RDNA sería incremental (también conocido como actualización). AMD presentó la serie Radeon RX 6000 , sus tarjetas gráficas RDNA 2 con soporte para trazado de rayos acelerado por hardware. [53] La serie de productos, lanzada a finales de 2020, estaba compuesta por RX 6800, RX 6800 XT y RX 6900 XT. [54] [55] El RX 6700 XT, que se basa en Navi 22, se lanzó a principios de 2021. [56]

La PlayStation 5 y Xbox Series X y Series S se lanzaron en 2020; Ambos utilizan GPU basadas en la microarquitectura RDNA 2 con mejoras incrementales y diferentes configuraciones de GPU en la implementación de cada sistema. [57] [58] [59]

Intel ingresó por primera vez al mercado de GPU a fines de la década de 1990, pero produjo aceleradores 3D mediocres en comparación con la competencia en ese momento. En lugar de intentar competir con los fabricantes de gama alta Nvidia y ATI/AMD, comenzaron a integrar GPU con tecnología de gráficos Intel en conjuntos de chips de placas base, comenzando con el Intel 810 para el Pentium III y más tarde en CPU. Comenzaron con el procesador para portátiles Intel Atom 'Pineview' en 2009, continuando en 2010 con procesadores de escritorio de primera generación de la línea Intel Core y con los Pentium y Celeron contemporáneos. Esto dio lugar a una gran cuota de mercado nominal, ya que la mayoría de los ordenadores con CPU Intel también incluían este procesador gráfico integrado. Estos generalmente estaban por detrás de los procesadores discretos en cuanto a rendimiento. Intel volvió a ingresar al mercado de GPU discretas en 2022 con su serie Arc , que competía con las tarjetas de la serie GeForce 30 y Radeon 6000 actuales a precios competitivos. [ cita necesaria ]

2020

En la década de 2020, las GPU se han utilizado cada vez más para cálculos que implican problemas vergonzosamente paralelos , como el entrenamiento de redes neuronales en enormes conjuntos de datos que se necesitan para grandes modelos de lenguaje . Los núcleos de procesamiento especializados en las GPU de algunas estaciones de trabajo modernas están dedicados al aprendizaje profundo , ya que tienen aumentos significativos en el rendimiento de FLOPS, utilizando multiplicación y división de matrices 4×4, lo que resulta en un rendimiento de hardware de hasta 128 TFLOPS en algunas aplicaciones. [60] Se espera que estos núcleos tensoriales también aparezcan en tarjetas de consumo. [ necesita actualización ] [61]

Empresas de GPU

Muchas empresas han producido GPU con varias marcas. En 2009, [ necesita actualización ] Intel , Nvidia y AMD / ATI fueron los líderes en cuota de mercado, con una cuota de mercado del 49,4%, 27,8% y 20,6% respectivamente. Además, Matrox [62] produce GPU. Los teléfonos inteligentes modernos utilizan principalmente GPU Adreno de Qualcomm , GPU PowerVR de Imagination Technologies y GPU Mali de ARM .

Funciones computacionales

Las GPU modernas utilizan la mayoría de sus transistores para realizar cálculos relacionados con gráficos por computadora en 3D . Además del hardware 3D, las GPU actuales incluyen capacidades básicas de aceleración 2D y framebuffer (normalmente con un modo de compatibilidad VGA). Las tarjetas más nuevas, como AMD/ATI HD5000–HD7000, carecen de aceleración 2D dedicada; es emulado por hardware 3D. Las GPU se utilizaron inicialmente para acelerar el trabajo de mapeo de texturas y renderizado de polígonos que consume mucha memoria. Posteriormente, se agregaron unidades [ se necesita aclaración ] para acelerar los cálculos geométricos como la rotación y traslación de vértices a diferentes sistemas de coordenadas . Los desarrollos recientes en las GPU incluyen soporte para sombreadores programables que pueden manipular vértices y texturas con muchas de las mismas operaciones que admiten las CPU , técnicas de sobremuestreo e interpolación para reducir el alias y espacios de color de muy alta precisión .

Varios factores de la construcción de la GPU afectan el rendimiento de la tarjeta para la renderización en tiempo real, como el tamaño de las vías del conector en la fabricación del dispositivo semiconductor , la frecuencia de la señal del reloj y el número y tamaño de varios cachés de memoria en el chip . El rendimiento también se ve afectado por la cantidad de multiprocesadores de transmisión (SM) para las GPU de NVidia, o unidades de cómputo (CU) para las GPU de AMD, o núcleos Xe para las GPU discretas de Intel, que describen la cantidad de unidades de procesador centrales de silicio dentro del chip de la GPU. que realizan los cálculos centrales, normalmente trabajando en paralelo con otros SM/CU en la GPU. El rendimiento de la GPU normalmente se mide en operaciones de punto flotante por segundo ( FLOPS ); Las GPU de las décadas de 2010 y 2020 suelen ofrecer un rendimiento medido en teraflops (TFLOPS). Esta es una medida de rendimiento estimada, ya que otros factores pueden afectar la tasa de visualización real. [63]

Decodificación y codificación de vídeo acelerada por GPU

La GPU ATI HD5470 (arriba, con tubo de calor de cobre conectado) cuenta con UVD 2.1 que le permite decodificar formatos de video AVC y VC-1.

La mayoría de las GPU fabricadas desde 1995 admiten el espacio de color YUV y las superposiciones de hardware , importantes para la reproducción de vídeo digital , y muchas GPU fabricadas desde 2000 también admiten primitivas MPEG como la compensación de movimiento e iDCT . Esta decodificación de video acelerada por hardware, en la que partes del proceso de decodificación de video y el posprocesamiento de video se descargan al hardware de GPU, se conoce comúnmente como "decodificación de video acelerada por GPU", "decodificación de video asistida por GPU", "descodificación de video acelerada por GPU", "decodificación de video asistida por GPU" decodificación de vídeo" o "decodificación de vídeo asistida por hardware GPU".

Las tarjetas gráficas recientes decodifican vídeo de alta definición en la tarjeta, descargando la unidad central de procesamiento. Las API más comunes para la decodificación de video acelerada por GPU son DxVA para sistemas operativos Microsoft Windows y VDPAU , VAAPI , XvMC y XvBA para sistemas operativos basados ​​en Linux y similares a UNIX. Todos, excepto XvMC, son capaces de decodificar vídeos codificados con MPEG-1 , MPEG-2 , MPEG-4 ASP (MPEG-4 Part 2) , MPEG-4 AVC (H.264/DivX 6), VC-1 , WMV3 / WMV9. , Xvid /OpenDivX (DivX 4) y DivX 5 , mientras que XvMC sólo es capaz de decodificar MPEG-1 y MPEG-2.

Existen varias soluciones de codificación y decodificación de video por hardware dedicadas .

Procesos de decodificación de vídeo que se pueden acelerar

Los procesos de decodificación de vídeo que pueden acelerarse con hardware GPU moderno son:

Estas operaciones también tienen aplicaciones en la edición, codificación y transcodificación de vídeo.

API de gráficos 2D

Una GPU anterior puede admitir una o más API de gráficos 2D para aceleración 2D, como GDI y DirectDraw . [64]

API de gráficos 3D

Una GPU puede admitir una o más API de gráficos 3D, como DirectX , Metal , OpenGL , OpenGL ES , Vulkan .

Formas de GPU

Terminología

En la década de 1970, el término "GPU" originalmente significaba unidad de procesador de gráficos y describía una unidad de procesamiento programable que funcionaba independientemente de la CPU y que era responsable de la manipulación y salida de gráficos. [65] [66] En 1994, Sony utilizó el término (que ahora significa unidad de procesamiento de gráficos ) en referencia a la GPU Sony diseñada por Toshiba de la consola PlayStation . [31] El término fue popularizado por Nvidia en 1999, que comercializó la GeForce 256 como "la primera GPU del mundo". [67] Se presentó como un " procesador de un solo chip con transformación integrada, iluminación, configuración/recorte de triángulos y motores de renderizado". [68] Su rival ATI Technologies acuñó el término " unidad de procesamiento visual " o VPU con el lanzamiento de la Radeon 9700 en 2002. [69] El AMD Alveo MA35D presenta VPU duales, cada una de las cuales utiliza el proceso de 5 nm en 2023. [70]

En las computadoras personales, existen dos formas principales de GPU. Cada uno tiene muchos sinónimos: [71]

GPU de uso específico

La mayoría de las GPU están diseñadas para un uso específico, gráficos 3D en tiempo real u otros cálculos de masas:

  1. Juego de azar
  2. Juegos en la nube
  3. Puesto de trabajo
  4. Estación de trabajo en la nube
  5. Formación en Inteligencia Artificial y Cloud
  6. Coche automatizado/sin conductor
    • Unidad Nvidia PX

Unidad de procesamiento de gráficos dedicada

Las unidades de procesamiento de gráficos dedicadas no son necesariamente extraíbles ni necesariamente interactúan con la placa base de manera estándar. El término "dedicada" se refiere al hecho de que las tarjetas gráficas tienen RAM dedicada al uso de la tarjeta, no al hecho de que la mayoría de las GPU dedicadas sean extraíbles. Esta RAM generalmente se selecciona especialmente para la carga de trabajo en serie esperada de la tarjeta gráfica (consulte GDDR ). A veces, los sistemas con GPU discretas dedicadas se denominaban sistemas "DIS" en lugar de sistemas "UMA" (consulte la siguiente sección). [72] Las GPU dedicadas para computadoras portátiles suelen conectarse a través de una ranura no estándar y, a menudo, patentada debido a limitaciones de tamaño y peso. Dichos puertos aún pueden considerarse PCIe o AGP en términos de su interfaz lógica de host, incluso si no son físicamente intercambiables con sus contrapartes.

Las tarjetas gráficas con GPU dedicadas suelen interactuar con la placa base mediante una ranura de expansión como PCI Express (PCIe) o Accelerated Graphics Port (AGP). Por lo general, se pueden reemplazar o actualizar con relativa facilidad, suponiendo que la placa base sea capaz de soportar la actualización. Algunas tarjetas gráficas todavía usan ranuras de interconexión de componentes periféricos (PCI), pero su ancho de banda es tan limitado que generalmente se usan solo cuando no hay una ranura PCIe o AGP disponible.

Tecnologías como SLI y NVLink de Nvidia y CrossFire de AMD permiten que varias GPU dibujen imágenes simultáneamente para una sola pantalla, lo que aumenta la potencia de procesamiento disponible para los gráficos. Estas tecnologías, sin embargo, son cada vez menos comunes; la mayoría de los juegos no utilizan varias GPU por completo, ya que la mayoría de los usuarios no pueden permitírselo. [73] [74] [75] Todavía se usan múltiples GPU en supercomputadoras (como en Summit ), en estaciones de trabajo para acelerar el video (procesando múltiples videos a la vez) [76] [77] [78] y renderizado 3D, [79] para VFX, [80] cargas de trabajo GPGPU y para simulaciones, [81] y en IA para acelerar la capacitación, como es el caso de la línea de estaciones de trabajo y servidores DGX de Nvidia, las GPU Tesla y las GPU Ponte Vecchio de Intel.

Unidad de procesamiento de gráficos integrada

La posición de una GPU integrada en un diseño de sistema de puente norte/puente sur
Una placa base ASRock con gráfica integrada, que cuenta con puertos de salida HDMI, VGA y DVI

La unidad de procesamiento de gráficos integrado (IGPU), los gráficos integrados , las soluciones de gráficos compartidos , los procesadores de gráficos integrados (IGP) o la arquitectura de memoria unificada (UMA) utilizan una parte de la RAM del sistema de una computadora en lugar de la memoria de gráficos dedicada. Los IGP se pueden integrar en una placa base como parte de su conjunto de chips Northbridge , [82] o en el mismo troquel (circuito integrado) con la CPU (como AMD APU o Intel HD Graphics ). En ciertas placas base, [83] los IGP de AMD pueden usar memoria de puerto lateral dedicada: un bloque fijo separado de memoria de alto rendimiento dedicado para uso de la GPU. A principios de 2007, las computadoras con gráficos integrados representaban aproximadamente el 90% de todos los envíos de PC. [84] [ necesita actualización ] Son menos costosos de implementar que el procesamiento de gráficos dedicado, pero tienden a ser menos capaces. Históricamente, el procesamiento integrado se consideraba inadecuado para juegos 3D o programas con uso intensivo de gráficos, pero podía ejecutar programas menos intensivos como Adobe Flash. Ejemplos de tales IGP serían las ofertas de SiS y VIA alrededor de 2004. [85] Sin embargo, los procesadores de gráficos integrados modernos como la unidad de procesamiento acelerado AMD y la tecnología de gráficos Intel (HD, UHD, Iris, Iris Pro, Iris Plus y Xe-LP) ) puede manejar gráficos 2D o gráficos 3D de bajo estrés.

Dado que los cálculos de la GPU consumen mucha memoria, el procesamiento integrado puede competir con la CPU por una RAM del sistema relativamente lenta, ya que tiene una memoria de video dedicada mínima o nula. Los IGP utilizan la memoria del sistema con un ancho de banda de hasta un máximo actual de 128 GB/s, mientras que una tarjeta gráfica discreta puede tener un ancho de banda de más de 1000 GB/s entre su VRAM y su núcleo GPU. Este ancho de banda del bus de memoria puede limitar el rendimiento de la GPU, aunque la memoria multicanal puede mitigar esta deficiencia. [86] Los conjuntos de chips de gráficos integrados más antiguos carecían de iluminación y transformación de hardware , pero los más nuevos los incluyen. [87] [88]

En sistemas con "Arquitectura de Memoria Unificada" (UMA), incluidos los procesadores AMD modernos con gráficos integrados, [89] procesadores Intel modernos con gráficos integrados, [90] procesadores Apple, las series PS5 y Xbox (entre otros), los núcleos de CPU y El bloque de GPU comparte el mismo grupo de RAM y espacio de direcciones de memoria. Esto permite que el sistema asigne memoria dinámicamente entre los núcleos de la CPU y el bloque de GPU según las necesidades de memoria (sin necesidad de una gran división estática de la RAM) y, gracias a las transferencias de copia cero, elimina la necesidad de copiar datos a través de un bus (computación). ) entre grupos de RAM físicamente separados o copia entre espacios de direcciones separados en un único grupo físico de RAM, lo que permite una transferencia de datos más eficiente.

Procesamiento de gráficos híbridos

Las GPU híbridas compiten con los gráficos integrados en los mercados de computadoras de escritorio y portátiles de gama baja. Las implementaciones más comunes de esto son HyperMemory de ATI y TurboCache de Nvidia .

Las tarjetas gráficas híbridas son algo más caras que las gráficas integradas, pero mucho menos caras que las tarjetas gráficas dedicadas. Comparten memoria con el sistema y tienen una pequeña memoria caché dedicada para compensar la alta latencia de la RAM del sistema. Las tecnologías dentro de PCI Express lo hacen posible. Si bien a veces se anuncia que estas soluciones tienen hasta 768 MB de RAM, esto se refiere a cuánto se puede compartir con la memoria del sistema.

Procesamiento de flujo y GPU de uso general (GPGPU)

Es común utilizar una unidad de procesamiento de gráficos de propósito general (GPGPU) como una forma modificada de procesador de flujo (o procesador de vectores ), que ejecuta núcleos de cálculo . Esto convierte el enorme poder computacional de la línea de sombreado de un acelerador de gráficos moderno en poder computacional de uso general. En determinadas aplicaciones que requieren operaciones vectoriales masivas, esto puede producir un rendimiento varios órdenes de magnitud mayor que el de una CPU convencional. Los dos diseñadores de GPU discretas más grandes (consulte "Unidad de procesamiento de gráficos dedicada" más arriba), AMD y Nvidia , están siguiendo este enfoque con una variedad de aplicaciones. Tanto Nvidia como AMD se asociaron con la Universidad de Stanford para crear un cliente basado en GPU para el proyecto de computación distribuida Folding@home para cálculos de plegamiento de proteínas. En determinadas circunstancias, la GPU calcula cuarenta veces más rápido que las CPU utilizadas tradicionalmente por este tipo de aplicaciones. [91] [92]

Las GPGPU se pueden utilizar para muchos tipos de tareas vergonzosamente paralelas , incluido el trazado de rayos . Generalmente son adecuados para cálculos de alto rendimiento que exhiben paralelismo de datos para explotar la arquitectura SIMD de ancho de vector amplio de la GPU.

Las computadoras de alto rendimiento basadas en GPU desempeñan un papel importante en el modelado a gran escala. Tres de los diez superordenadores más potentes del mundo aprovechan la aceleración de la GPU. [93]

Las GPU admiten extensiones API del lenguaje de programación C , como OpenCL y OpenMP . Además, cada proveedor de GPU introdujo su propia API que solo funciona con sus tarjetas: AMD APP SDK de AMD y CUDA de Nvidia. Estos permiten que funciones llamadas núcleos de cálculo se ejecuten en los procesadores de flujo de la GPU. Esto hace posible que los programas en C aprovechen la capacidad de una GPU para operar en grandes buffers en paralelo, mientras siguen usando la CPU cuando sea apropiado. CUDA fue la primera API que permitió que las aplicaciones basadas en CPU accedieran directamente a los recursos de una GPU para computación de propósito más general sin las limitaciones de usar una API de gráficos. [ cita necesaria ]

Desde 2005 ha habido interés en utilizar el rendimiento que ofrecen las GPU para la computación evolutiva en general y para acelerar la evaluación del fitness en la programación genética en particular. La mayoría de los enfoques compilan programas lineales o de árbol en la PC host y transfieren el ejecutable a la GPU para su ejecución. Normalmente, sólo se obtiene una ventaja de rendimiento ejecutando un único programa activo simultáneamente en muchos problemas de ejemplo en paralelo, utilizando la arquitectura SIMD de la GPU . [94] Sin embargo, también se puede obtener una aceleración sustancial si no se compilan los programas y, en su lugar, se transfieren a la GPU para ser interpretados allí. [95] La aceleración se puede obtener interpretando múltiples programas simultáneamente, ejecutando simultáneamente múltiples problemas de ejemplo o combinaciones de ambos. Una GPU moderna puede interpretar simultáneamente cientos de miles de programas muy pequeños.

GPU externa (eGPU)

Una GPU externa es un procesador de gráficos ubicado fuera de la carcasa de la computadora, similar a un disco duro externo grande. A veces se utilizan procesadores de gráficos externos con computadoras portátiles. Las computadoras portátiles pueden tener una cantidad sustancial de RAM y una unidad central de procesamiento (CPU) suficientemente potente, pero a menudo carecen de un procesador de gráficos potente y, en cambio, tienen un chip gráfico integrado menos potente pero más eficiente energéticamente. Los chips gráficos integrados a menudo no son lo suficientemente potentes para jugar videojuegos o para otras tareas con uso intensivo de gráficos, como la edición de video o la animación/renderizado 3D.

Por lo tanto, es recomendable conectar una GPU a algún bus externo de un portátil. PCI Express es el único bus utilizado para este fin. El puerto puede ser, por ejemplo, un puerto ExpressCard o mPCIe (PCIe ×1, hasta 5 o 2,5 Gbit/s respectivamente), un puerto Thunderbolt 1, 2 o 3 (PCIe ×4, hasta 10, 20 o 40 Gbit/s respectivamente) o un puerto OCuLink . Esos puertos sólo están disponibles en ciertos sistemas portátiles. [96] [97] Los gabinetes de eGPU incluyen su propia fuente de alimentación (PSU), porque las GPU potentes pueden consumir cientos de vatios. [98]

El soporte oficial de proveedores para GPU externas ha ganado fuerza. Un hito fue la decisión de Apple de admitir GPU externas con MacOS High Sierra 10.13.4. [99]  Varios proveedores importantes de hardware (HP, Razer) lanzaron gabinetes eGPU Thunderbolt 3. [100] [101] Este soporte impulsa las implementaciones de eGPU por parte de entusiastas. [ se necesita aclaración ] [102]

Ventas

En 2013, se enviaron 438,3 millones de GPU a nivel mundial y la previsión para 2014 era de 414,2 millones. Sin embargo, en el tercer trimestre de 2022, los envíos de GPU integradas totalizaron alrededor de 75,5 millones de unidades, un 19% menos año tras año. [103] [ necesita actualización ] [104]

Ver también

Hardware

API

Aplicaciones

Referencias

  1. ^ La Haya, James (10 de septiembre de 2013). "¿Por qué existen las consolas de juegos dedicadas?". Programación en el siglo XXI . Archivado desde el original el 4 de mayo de 2015 . Consultado el 11 de noviembre de 2015 .
  2. ^ "mame/8080bw.c en master 路 mamedev/mame 路 GitHub". GitHub . Archivado desde el original el 21 de noviembre de 2014.
    • "mame/mw8080bw.c en master 路 mamedev/mame 路 GitHub". GitHub . Archivado desde el original el 21 de noviembre de 2014.
    • "Arcade/SpaceInvaders - Arqueología informática". computerarcheology.com . Archivado desde el original el 13 de septiembre de 2014.
  3. ^ "mame/galaxian.c en master 路 mamedev/mame 路 GitHub". GitHub . Archivado desde el original el 21 de noviembre de 2014.
  4. ^ "mame/galaxian.c en master 路 mamedev/mame 路 GitHub". GitHub . Archivado desde el original el 21 de noviembre de 2014.
    • "MAME - src/mame/drivers/galdrvr.c". Archivado desde el original el 3 de enero de 2014.
  5. ^ Springmann, Alessondra. "Desmontaje de Atari 2600: ¿Qué hay dentro de su antigua consola?". El Washington Post . Archivado desde el original el 14 de julio de 2015 . Consultado el 14 de julio de 2015 .
  6. ^ "¿Qué son los chips 6502, ANTIC, CTIA/GTIA, POKEY y FREDDIE?". Atari8.com . Archivado desde el original el 5 de marzo de 2016.
  7. ^ Wiegers, Karl E. (abril de 1984). "Interrupciones en la lista de visualización de Atari". ¡Calcular! (47): 161. Archivado desde el original el 4 de marzo de 2016.
  8. ^ Wiegers, Karl E. (diciembre de 1985). "Desplazamiento fino de Atari". ¡Calcular! (67): 110. Archivado desde el original el 16 de febrero de 2006.
  9. ^ Hopgood, F. Robert A.; Hubbold, Roger J.; Duce, David A., eds. (1986). Avances en gráficos por computadora II. Saltador. pag. 169.ISBN _ 9783540169109. Quizás el más conocido sea el NEC 7220.
  10. ^ Anderson, Marian (18 de julio de 2018). "Chips gráficos famosos: controlador de pantalla gráfica NEC µPD7220". Sociedad de Computación IEEE . Consultado el 17 de octubre de 2023 .
  11. ^ Acertijo, Sean. "Información amarga". Archivado desde el original el 22 de diciembre de 2015.
  12. ^ Wolf, Mark JP (junio de 2012). Antes del colapso: historia temprana de los videojuegos. Prensa de la Universidad Estatal de Wayne. pag. 185.ISBN _ 978-0814337226.
  13. ^ Anderson, Marian (7 de octubre de 2018). "Historia de la GPU: Hitachi ARTC HD63484". Sociedad de Computación IEEE . Consultado el 17 de octubre de 2023 .
  14. ^ "Chips de gráficos famosos: TI TMS34010 y VRAM. El primer chip de procesador de gráficos programable | IEEE Computer Society". 10 de enero de 2019.
  15. ^ "X68000". Archivado desde el original el 3 de septiembre de 2014 . Consultado el 12 de septiembre de 2014 .
  16. ^ "museo ~ Sharp X68000". Old-computers.com. Archivado desde el original el 19 de febrero de 2015 . Consultado el 28 de enero de 2015 .
  17. ^ "Juegos incondicionales 101: computadoras retro japonesas: la última frontera de los juegos". durogaming101.net . Archivado desde el original el 13 de enero de 2011.
  18. ^ "Sistema 16 - Hardware Namco System 21 (Namco)". system16.com . Archivado desde el original el 18 de mayo de 2015.
  19. ^ "Sistema 16 - Hardware del sistema aéreo Taito (Taito)". system16.com . Archivado desde el original el 16 de marzo de 2015.
  20. ^ Brownstein, Mark (14 de noviembre de 1988). "NEC forma un grupo de estándares de vídeo". InfoMundo . vol. 10, núm. 46. ​​pág. 3.ISSN  0199-6649 . _ Consultado el 27 de mayo de 2016 .
  21. ^ "Tableros de vídeo S3". InfoMundo . 14 (20): 62. 18 de mayo de 1992. Archivado desde el original el 22 de noviembre de 2017 . Consultado el 13 de julio de 2015 .
  22. ^ "Qué significan los números". Revista PC . 12 : 128. 23 de febrero de 1993. Archivado desde el original el 11 de abril de 2017 . Consultado el 29 de marzo de 2016 .
    • Cantante, Graham. "La historia del procesador gráfico moderno". Punto tecnológico. Archivado desde el original el 29 de marzo de 2016 . Consultado el 29 de marzo de 2016 .
  23. ^ "Sistema 16: hardware del simulador Namco Magic Edge Hornet (Namco)". system16.com . Archivado desde el original el 12 de septiembre de 2014.
  24. ^ "MAME - src/mame/video/model2.c". Archivado desde el original el 4 de enero de 2013.
  25. ^ "Sistema 16 - Hardware Sega Modelo 2 (Sega)". system16.com . Archivado desde el original el 21 de diciembre de 2010.
  26. ^ "Conjunto de chips de procesador de gráficos 3D" (PDF) . Archivado desde el original (PDF) el 11 de octubre de 2016 . Consultado el 8 de agosto de 2016 .
    • «Sistema 3D-CG con Video Texturizado para Computadoras Personales» (PDF) . Archivado desde el original (PDF) el 6 de septiembre de 2014 . Consultado el 8 de agosto de 2016 .
  27. ^ "Fujitsu desarrolla el primer procesador de geometría tridimensional del mundo". fujitsu.com . Archivado desde el original el 12 de septiembre de 2014.
  28. ^ "La Nintendo 64 es uno de los mejores dispositivos de juego de todos los tiempos". xenol . Archivado desde el original el 18 de noviembre de 2015.
  29. ^ "El chipset 3DPro/2mp de Mitsubishi establece nuevos récords para el acelerador de gráficos 3D más rápido para sistemas Windows NT; 3DPro/2mp toma el liderazgo en rendimiento de Viewperf; otras pruebas comparativas de alto nivel muestran claramente que el rendimiento de 3DPro supera a todos los competidores de Windows NT". Archivado desde el original el 15 de noviembre de 2018 . Consultado el 18 de febrero de 2022 .
  30. ^ Vlask. "VGA Legacy MKIII - Diamond Fire GL 4000 (Mitsubishi 3DPro/2mp)". Archivado desde el original el 18 de noviembre de 2015.
  31. ^ ab "¿Es hora de cambiar el nombre de la GPU? | IEEE Computer Society". 17 de julio de 2018.
  32. ^ API de deslizamiento 3dfx
  33. ^ Dreijer, Søren. "Mapeo de relieve mediante CG (tercera edición)". Archivado desde el original el 20 de enero de 2010 . Consultado el 30 de mayo de 2007 .
  34. ^ Raina, Rajat; Madhavan, Anand; Ng, Andrew Y. (14 de junio de 2009). "Aprendizaje profundo no supervisado a gran escala mediante procesadores gráficos". Actas de la 26ª Conferencia Internacional Anual sobre Aprendizaje Automático - ICML '09 . Dl.acm.org. págs. 1–8. doi :10.1145/1553374.1553486. ISBN 9781605585161. S2CID  392458.
  35. ^ "Operadores de álgebra lineal para la implementación de algoritmos numéricos en GPU", Kruger y Westermann, Conferencia internacional sobre gráficos por computadora y técnicas interactivas, 2005
  36. ^ Liepe; et al. (2010). "ABC-SysBio: cálculo bayesiano aproximado en Python con soporte de GPU". Bioinformática . 26 (14): 1797–1799. doi : 10.1093/bioinformática/btq278. PMC 2894518 . PMID  20591907. Archivado desde el original el 5 de noviembre de 2015 . Consultado el 15 de octubre de 2010 . 
  37. ^ Lijadoras, Jason; Kandrot, Edward (19 de julio de 2010). CUDA con ejemplo: introducción a la programación de GPU de uso general, documentos portátiles. Profesional de Addison-Wesley. ISBN 9780132180139. Archivado desde el original el 12 de abril de 2017.
  38. ^ "OpenCL: el estándar abierto para la programación paralela de sistemas heterogéneos". khronos.org . Archivado desde el original el 9 de agosto de 2011.
  39. ^ Práctico, Alex (28 de septiembre de 2011). "AMD ayuda a OpenCL a ganar terreno en el espacio HPC". Tiempos SD . Consultado el 4 de junio de 2023 .
  40. ^ Teglet, Traian (8 de enero de 2010). "NVIDIA Tegra dentro de cada vehículo Audi 2010". Archivado desde el original el 4 de octubre de 2016 . Consultado el 3 de agosto de 2016 .
  41. ^ "La escuela está en sesión: el sistema sin conductor de Nvidia aprende mirando". 2016-04-30. Archivado desde el original el 1 de mayo de 2016 . Consultado el 3 de agosto de 2016 .
  42. ^ "Serie AMD Radeon HD 6000M: ¡no la llames ATI!". CNET . Archivado desde el original el 11 de octubre de 2016 . Consultado el 3 de agosto de 2016 .
  43. ^ "Revisión de Nvidia GeForce GTX 680 2GB". Archivado desde el original el 11 de septiembre de 2016 . Consultado el 3 de agosto de 2016 .
  44. ^ "Xbox One frente a PlayStation 4: ¿Qué consola de juegos es mejor?". Tecnología extrema . Consultado el 13 de mayo de 2019 .
  45. ^ "Kepler TM GK110" (PDF) . Corporación NVIDIA. 2012. Archivado (PDF) desde el original el 11 de octubre de 2016 . Consultado el 3 de agosto de 2016 .
  46. ^ "Taiwán Semiconductor Manufacturing Company Limited". www.tsmc.com . Archivado desde el original el 10 de agosto de 2016 . Consultado el 3 de agosto de 2016 .
  47. ^ "Construcción de una PC para HTC Vive". 2016-06-16. Archivado desde el original el 29 de julio de 2016 . Consultado el 3 de agosto de 2016 .
  48. ^ "Computadoras listas para VIVE". Vive. Archivado desde el original el 24 de febrero de 2016 . Consultado el 30 de julio de 2021 .
  49. ^ "La monstruosa GPU Pascal de Nvidia está repleta de tecnología de punta y 15 mil millones de transistores". 5 de abril de 2016. Archivado desde el original el 31 de julio de 2016 . Consultado el 3 de agosto de 2016 .
  50. ^ Sarkar, Samit (20 de agosto de 2018). "Reveladas las GPU Nvidia RTX 2070, RTX 2080, RTX 2080 Ti: especificaciones, precio, fecha de lanzamiento". Polígono . Consultado el 11 de septiembre de 2019 .
  51. ^ "Las GPU AMD RX 480, 470 y 460 Polaris ofrecerán el 'salto de rendimiento más revolucionario' hasta ahora". 2016-01-16. Archivado desde el original el 1 de agosto de 2016 . Consultado el 3 de agosto de 2016 .
  52. ^ Comunicado de prensa de AMD: "AMD anuncia productos de liderazgo de próxima generación en la conferencia magistral de Computex 2019". AMD . Consultado el 5 de octubre de 2019 .
  53. ^ "AMD presentará nuevas GPU RDNA de próxima generación en 2020, no una 'actualización' típica de Navi". Hardware de Tom . 2020-01-29 . Consultado el 8 de febrero de 2020 .
    • Garreffa, Anthony (9 de septiembre de 2020). "AMD presentará las tarjetas gráficas Big Navi RDNA 2 de próxima generación el 28 de octubre". TweakTown . Consultado el 9 de septiembre de 2020 .
    • Lyles, Taylor (9 de septiembre de 2020). "Las CPU Zen 3 de próxima generación de AMD y la GPU Radeon RX 6000 'Big Navi' se revelarán el próximo mes". El borde . Consultado el 10 de septiembre de 2020 .
  54. ^ "AMD se burla de los números de rendimiento de la tarjeta Radeon RX 6000: ¿apunta a 3080?". AnandTech . 2020-10-08 . Consultado el 25 de octubre de 2020 .
    • "AMD anuncia las presentaciones de Ryzen 'Zen 3' y Radeon 'RDNA2' para octubre: comienza un nuevo viaje". AnandTech . 2020-09-09 . Consultado el 25 de octubre de 2020 .
  55. ^ Judd, Will (28 de octubre de 2020). "AMD presenta tres tarjetas gráficas Radeon 6000 con trazado de rayos y rendimiento superior a RTX". Eurogamer . Consultado el 28 de octubre de 2020 .
  56. ^ Mujtaba, Hassan (30 de noviembre de 2020). "Según se informa, los modelos personalizados AMD Radeon RX 6700 XT 'Navi 22 GPU' aumentan hasta 2,95 GHz" . Wccftech . Consultado el 3 de diciembre de 2020 .
    • Tyson, Mark (3 de diciembre de 2020). "El discurso de apertura del CEO de AMD está programado para CES 2020 el 12 de enero". HEXO . Consultado el 3 de diciembre de 2020 .
    • Cutress, Ian (12 de enero de 2021). "AMD lanzará gráficos de escritorio RDNA 2 de gama media en el primer semestre de 2021". AnandTech . Consultado el 4 de enero de 2021 .
  57. ^ Funk, Ben (12 de diciembre de 2020). "Sony PS5 obtiene un desmontaje completo que detalla sus entrañas y gloria RDNA 2". Hardware caliente . Archivado desde el original el 12 de diciembre de 2020 . Consultado el 3 de enero de 2021 .
  58. ^ Gartenberg, Chaim (18 de marzo de 2020). "Sony revela las especificaciones completas del hardware de PS5". El borde . Consultado el 3 de enero de 2021 .
  59. ^ Smith, Ryan. "Microsoft lanza más especificaciones técnicas de Xbox Series X: Zen 2 + RDNA 2, GPU de 12 TFLOP, HDMI 2.1 y un SSD personalizado". AnandTech . Consultado el 19 de marzo de 2020 .
  60. ^ Smith, Ryan. "Se presenta NVIDIA Volta: se anuncian la GPU GV100 y el acelerador Tesla V100". AnandTech . Consultado el 16 de agosto de 2018 .
  61. ^ Hill, Brandon (11 de agosto de 2017). "Según se informa, la arquitectura de GPU Navi de 7 nm de AMD contará con circuitos de IA dedicados". Hardware caliente . Archivado desde el original el 17 de agosto de 2018 . Consultado el 16 de agosto de 2018 .
  62. ^ "Matrox Graphics - Productos - Tarjetas gráficas". Matrox.com. Archivado desde el original el 5 de febrero de 2014 . Consultado el 21 de enero de 2014 .
  63. ^ Hruska, Joel (10 de febrero de 2021). "¿Cómo funcionan las tarjetas gráficas?". Tecnología extrema . Consultado el 17 de julio de 2021 .
  64. ^ CL-GD5446 Libro de datos preliminares del VisualMedia Accelerator de 64 bits (PDF) , Cirrus Logic, noviembre de 1996 , consultado el 30 de enero de 2024 , a través de The Datasheet Archive
  65. ^ Barrón, et; Glorioso, RM (septiembre de 1973). "Un procesador periférico microcontrolado". Acta de la conferencia del sexto taller anual sobre microprogramación - MICRO 6 . págs. 122-128. doi : 10.1145/800203.806247 . ISBN 9781450377836. S2CID  36942876.
  66. ^ Levine, Ken (agosto de 1978). "Paquete gráfico estándar principal para VGI 3400". Gráficos por computadora ACM SIGGRAPH . 12 (3): 298–300. doi :10.1145/965139.807405.
  67. ^ "NVIDIA lanza la primera unidad de procesamiento de gráficos del mundo: GeForce 256". NVIDIA. 31 de agosto de 1999. Archivado desde el original el 12 de abril de 2016 . Consultado el 28 de marzo de 2016 .
  68. ^ "Unidad de procesamiento de gráficos (GPU)". NVIDIA. 16 de diciembre de 2009. Archivado desde el original el 8 de abril de 2016 . Consultado el 29 de marzo de 2016 .
  69. ^ Pabst, Thomas (18 de julio de 2002). "ATi asume el liderazgo en tecnología 3D con Radeon 9700". Hardware de Tom . Consultado el 29 de marzo de 2016 .
  70. ^ Niño, J. (6 de abril de 2023). "AMD lanza un acelerador basado en ASIC de 5 nm para la era del streaming interactivo". Medios EETech . Consultado el 24 de diciembre de 2023 .
  71. ^ "Ayúdame a elegir: tarjetas de vídeo". Dell . Archivado desde el original el 9 de septiembre de 2016 . Consultado el 17 de septiembre de 2016 .
  72. ^ "Documentación de Nvidia Optimus para el controlador de dispositivo Linux". escritorio libre. 13 de noviembre de 2023 . Consultado el 24 de diciembre de 2023 .
  73. ^ Abazovic, F. (3 de julio de 2015). "El mercado de Crossfire y SLI es de sólo 300.000 unidades". fudzilla . Consultado el 24 de diciembre de 2023 .
  74. ^ "¿Está muerta la GPU múltiple?". 7 de enero de 2018.
  75. ^ "Nvidia SLI y AMD CrossFire están muertos, pero ¿deberíamos lamentarnos por los juegos con múltiples GPU? | TechRadar". 24 de agosto de 2019.
  76. ^ "Guía de transcodificación de NVIDIA FFmpeg". 24 de julio de 2019.
  77. ^ "Guía de configuración y selección de hardware DaVinci Resolve 15" (PDF) . Diseño mágico negro. 2018 . Consultado el 31 de mayo de 2022 .
  78. ^ "Sistema recomendado: Sistemas recomendados para DaVinci Resolve". Sistemas Puget .
    • "Codificación de hardware y renderizado acelerado por GPU".
  79. ^ "Escalado de rendimiento de múltiples GPU de V-Ray Next". 20 de agosto de 2019.
    • "Preguntas frecuentes | Software de renderizado 3D acelerado por GPU | Redshift".
    • "¡La vista previa de OctaneRender 2020 ™ ya está aquí!". Otoy .
    • "Exploración del rendimiento con Arnold Renderer GPU Beta de Autodesk". 8 de abril de 2019.
    • "Renderizado de GPU - Manual de Blender".
  80. ^ "V-Ray para Nuke: renderizado con trazado de rayos para compositores | Chaos Group".
    • "Requisitos del sistema | Nuke | Fundición".
  81. ^ "¿Qué pasa con la compatibilidad con múltiples GPU? - Folding@home".
  82. ^ "Evolución de los gráficos Intel: I740 a Iris Pro". 4 de febrero de 2017.
  83. ^ "Descripción general de GA-890GPA-UD3H". Archivado desde el original el 15 de abril de 2015 . Consultado el 15 de abril de 2015 .
  84. ^ Clave, Gary. "AnandTech - µATX Parte 2: Revisión del rendimiento de Intel G33". anandtech.com . Archivado desde el original el 31 de mayo de 2008.
  85. ^ Tscheblockov, Tim. "Xbit Labs: resumen de siete conjuntos de chips de gráficos integrados contemporáneos para plataformas Socket 478 y Socket A". Archivado desde el original el 26 de mayo de 2007 . Consultado el 3 de junio de 2007 .
  86. ^ Coelho, Rafael (18 de enero de 2016). "¿La memoria de doble canal marca la diferencia en el rendimiento del vídeo integrado?". Secretos de hardware . Consultado el 4 de enero de 2019 .
  87. ^ Sanford, Bradley. "Soluciones gráficas integradas para aplicaciones con uso intensivo de gráficos" (PDF) . Archivado (PDF) desde el original el 28 de noviembre de 2007 . Consultado el 2 de septiembre de 2007 .
  88. ^ Sanford, Bradley. "Soluciones gráficas integradas para aplicaciones con uso intensivo de gráficos". Archivado desde el original el 7 de enero de 2012 . Consultado el 2 de septiembre de 2007 .
  89. ^ Shimpi, Anand Lal. "AMD describe la hoja de ruta de HSA: memoria unificada para CPU/GPU en 2013, GPU HSA en 2014". www.anandtech.com . Consultado el 8 de enero de 2024 .
  90. ^ Lake, Adam T. "Aprovechar al máximo OpenCL™ 1.2: cómo aumentar el rendimiento mediante..." Intel . Consultado el 8 de enero de 2024 .
  91. ^ Murph, Darren (29 de septiembre de 2006). "La Universidad de Stanford adapta Folding@home a las GPU". Archivado desde el original el 12 de octubre de 2007 . Consultado el 4 de octubre de 2007 .
  92. ^ Houston, Mike. "Plegable en casa - GPGPU". Archivado desde el original el 27 de octubre de 2007 . Consultado el 4 de octubre de 2007 .
  93. ^ "Lista Top500 - junio de 2012 | Sitios de supercomputadoras TOP500". Top500.org. Archivado desde el original el 13 de enero de 2014 . Consultado el 21 de enero de 2014 .
  94. ^ Nickolls, John. "Conferencia de Stanford: Programación paralela escalable con CUDA en GPU Manycore". YouTube . Archivado desde el original el 11 de octubre de 2016.
    • Harding, S.; Banzhaf, W. "Programación genética rápida en GPU". Archivado desde el original el 9 de junio de 2008 . Consultado el 1 de mayo de 2008 .
  95. ^ Langdon, W.; Banzhaf, W. "Un intérprete SIMD para programación genética en tarjetas gráficas GPU". Archivado desde el original el 9 de junio de 2008 . Consultado el 1 de mayo de 2008 .
    • V. García y E. Debreuve y M. Barlaud. Búsqueda rápida de k vecino más cercano usando GPU. En Actas del taller CVPR sobre visión por computadora en GPU, Anchorage, Alaska, EE. UU., junio de 2008.
  96. ^ "Lista de sistemas candidatos a eGPU". Foros Tech-Inferno . 15 de julio de 2013.
  97. ^ Mohr, Neil. "Cómo hacer un adaptador de gráficos externo para computadora portátil". TecnologíaRadar . Archivado desde el original el 26 de junio de 2017.
  98. ^ "Mejor tarjeta gráfica externa 2020 (EGPU) [La guía completa]". 16 de marzo de 2020.
  99. ^ "Utilice un procesador de gráficos externo con su Mac". Soporte de Apple . Consultado el 11 de diciembre de 2018 .
  100. ^ "Acelerador OMEN | Sitio oficial de HP®". www8.hp.com . Consultado el 11 de diciembre de 2018 .
  101. ^ "Amplificador de gráficos Alienware | Dell Estados Unidos". Dell . Consultado el 11 de diciembre de 2018 .
    • "Razer Core X - eGPU Thunderbolt™ 3". Razer . Consultado el 11 de diciembre de 2018 .
  102. ^ Recuadro, ► Sugerencias (25 de noviembre de 2016). "Construir guías por usuarios". eGPU.io. _ Consultado el 11 de diciembre de 2018 .
  103. ^ "La mayor caída intertrimestral de GPU en el tercer trimestre de 22 desde la recesión de 2009". Investigación de Jon Peddie . 2022-11-20 . Consultado el 6 de junio de 2023 .
  104. ^ "El mercado de chips gráficos está mostrando algo de vida". TG diario. 20 de agosto de 2014. Archivado desde el original el 26 de agosto de 2014 . Consultado el 22 de agosto de 2014 .

Fuentes

enlaces externos