stringtranslate.com

Blackwell (microarquitectura)

Blackwell es una microarquitectura de unidad de procesamiento gráfico (GPU) desarrollada por Nvidia como sucesora de las microarquitecturas Hopper y Ada Lovelace .

La arquitectura Blackwell, que debe su nombre al estadístico y matemático David Blackwell , se filtró en 2022 y los aceleradores B40 y B100 se confirmaron en octubre de 2023 con una hoja de ruta oficial de Nvidia mostrada durante una presentación para inversores. [1] Se anunció oficialmente en la conferencia magistral GTC 2024 de Nvidia el 18 de marzo de 2024. [2]

Historia

David Blackwell (1919-2010), epónimo de la arquitectura

En marzo de 2022, Nvidia anunció la arquitectura Hopper para centros de datos para aceleradores de IA. La demanda de productos Hopper fue alta durante el auge de la IA de 2023. [3] El tiempo de entrega desde el pedido hasta la entrega de servidores basados ​​en H100 fue de entre 36 y 52 semanas debido a la escasez y la alta demanda. [4] Según se informa, Nvidia vendió 500.000 aceleradores H100 basados ​​en Hopper solo en el tercer trimestre de 2023. [4] El dominio de la IA de Nvidia con los productos Hopper llevó a la empresa a aumentar su capitalización de mercado a más de 2 billones de dólares, solo por detrás de Microsoft y Apple . [5]

La arquitectura Blackwell debe su nombre al matemático estadounidense David Blackwell , conocido por sus contribuciones a los campos matemáticos de la teoría de juegos , la teoría de la probabilidad , la teoría de la información y la estadística. Estas áreas han influido o se implementan en diseños de modelos de IA generativos basados ​​en transformadores o sus algoritmos de entrenamiento . Blackwell fue el primer académico afroamericano en ser incluido en la Academia Nacional de Ciencias . [6]

En la presentación para inversores de octubre de 2023 de Nvidia, se actualizó su hoja de ruta para centros de datos para incluir una referencia a sus aceleradores B100 y B40 y a la arquitectura Blackwell. [7] [8] Anteriormente, el sucesor de Hopper se nombraba simplemente en las hojas de ruta como "Hopper-Next". La hoja de ruta actualizada de Nvidia enfatizó el cambio de una cadencia de lanzamiento de dos años para productos de centros de datos a lanzamientos anuales destinados a sistemas x86 y ARM .

En la Conferencia de Tecnología Gráfica (GTC) del 18 de marzo de 2024, Nvidia anunció oficialmente la arquitectura Blackwell con el foco puesto en sus aceleradores de centros de datos B100 y B200 y productos asociados, como la placa HGX B200 de ocho GPU y el sistema a escala de rack NVL72 de 72 GPU. [9] Según las cifras de potencia y rendimiento publicadas, parece que el B100 y el B200 son el mismo silicio, pero el primero funciona al 75% de la frecuencia de reloj del B200. [10] El director ejecutivo de Nvidia, Jensen Huang, dijo que con Blackwell, "creamos un procesador para la era de la IA generativa " y enfatizó la plataforma Blackwell general que combina los aceleradores Blackwell con la CPU Grace basada en ARM de Nvidia. [11] [12] Nvidia promocionó el respaldo de Blackwell de los directores ejecutivos de Google , Meta , Microsoft , OpenAI y Oracle . [12] La conferencia principal no mencionó los juegos.

Arquitectura

Blackwell es una arquitectura diseñada tanto para aplicaciones informáticas de centros de datos como para aplicaciones de juegos y estaciones de trabajo con matrices dedicadas para cada propósito. Supuestas filtraciones indican que las matrices para portátiles tendrán el nombre en código GN22-Xx y las tarjetas GPU GeForce RTX Mobile correspondientes tendrán el nombre en código GB20x. [13] De manera similar a la última notación, GB200 y GB100 son los nombres comerciales de los superchips para centros de datos Grace Blackwell de Nvidia, módulos que combinan dos GPU Blackwell y un procesador Grace basado en Arm. [14]

Nodo de proceso

Blackwell se fabrica en el nodo 4NP personalizado de TSMC . 4NP es una mejora del nodo 4N utilizado para las arquitecturas Hopper y Ada Lovelace. El proceso 4NP específico de Nvidia probablemente agrega capas de metal a la tecnología N4P estándar de TSMC. [15] Cada uno de los dos chips de cómputo en el centro de datos B100/B200 tiene 104 mil millones de transistores, un aumento del 30% sobre los 80 mil millones de transistores en la generación anterior de Hopper. [16] Como Blackwell no puede cosechar los beneficios que vienen con un avance importante en el nodo de proceso, debe lograr eficiencia energética y ganancias de rendimiento a través de cambios arquitectónicos subyacentes. [17]

El chip de cómputo en los aceleradores de centros de datos está en el límite de retícula de la fabricación de semiconductores. [18] El límite de retícula en la fabricación de semiconductores es el límite de tamaño físico que las máquinas de litografía pueden grabar en un chip de silicio. Anteriormente, Nvidia casi había alcanzado el límite de retícula de TSMC con el chip de 814 mm2 de GH100 . Para no verse limitado por el tamaño del chip, el acelerador B100 de Nvidia utiliza dos chips GB100 en un solo paquete, conectados con un enlace de 10 TB/s que Nvidia llama NV-High Bandwidth Interface (NV-HBI). NV-HBI se basa en el protocolo NVLink 5.0 . El director ejecutivo de Nvidia, Jensen Huang, afirmó en una entrevista con CNBC que Nvidia había gastado alrededor de 10 mil millones de dólares en investigación y desarrollo para la interconexión de chips NV-HBI de Blackwell. El veterano ingeniero de semiconductores Jim Keller , que había trabajado en las arquitecturas K7, K12 y Zen de AMD , criticó esta cifra y afirmó que se podría lograr el mismo resultado por mil millones de dólares mediante el uso de Ultra Ethernet en lugar del sistema propietario NVLink. [19] Los dos chips de cómputo conectados pueden actuar como una gran pieza monolítica de silicio con coherencia de caché completa entre ambos chips. [20] El paquete de doble chip tiene un total de 208 mil millones de transistores. [18] Esos dos chips se colocan encima de un intercalador de silicio producido utilizando la técnica de empaquetado CoWoS-L 2.5D de TSMC. [21]

Multiprocesador de transmisión

Núcleos CUDA

Se agrega CUDA Compute Capability 10.0 con Blackwell.

Núcleos tensoriales

La arquitectura Blackwell introduce núcleos Tensor de quinta generación para el cálculo de IA y la realización de cálculos de punto flotante . En el centro de datos, Blackwell añade compatibilidad con los tipos de datos FP4 y FP6. [22] La arquitectura Hopper anterior introdujo el Transformer Engine, un software para facilitar la cuantificación de modelos de mayor precisión (por ejemplo, FP32) a una precisión menor, para la que Hopper tiene un mayor rendimiento. El Transformer Engine de segunda generación de Blackwell añade compatibilidad con los tipos FP4 y FP6 más nuevos y menos precisos. El uso de datos de 4 bits permite una mayor eficiencia y rendimiento para la inferencia de modelos durante el entrenamiento generativo de IA. [17] Nvidia afirma 20 petaflops (excluyendo la ganancia de 2x que la empresa afirma por escasez) de cálculo FP4 para el superchip GB200 de doble GPU. [23]

Véase también

Referencias

  1. ^ "Nvidia Corporation - Presentación para inversores de Nvidia, octubre de 2023". Nvidia . Consultado el 19 de marzo de 2024 .
  2. ^ "La plataforma Nvidia Blackwell llega para impulsar una nueva era en la informática". Sala de prensa de Nvidia . Consultado el 19 de marzo de 2024 .
  3. ^ Szewczyk, Chris (18 de agosto de 2023). "El entusiasmo por la IA significa que Nvidia está ganando mucho dinero". Tom's Hardware . Consultado el 24 de marzo de 2024 .
  4. ^ ab Shilov, Anton (28 de noviembre de 2023). "Nvidia vendió medio millón de GPU H100 AI en el tercer trimestre gracias a Meta y Facebook; los plazos de entrega se extienden hasta 52 semanas: informe". Tom's Hardware . Consultado el 24 de marzo de 2024 .
  5. ^ King, Ian (19 de marzo de 2024). "Nvidia busca extender el dominio de la IA con los nuevos chips Blackwell". Yahoo! Finance . Consultado el 24 de marzo de 2024 .
  6. ^ Lee, Jane Lanhee (19 de marzo de 2024). "Por qué el nuevo chip Blackwell de Nvidia es clave para la próxima etapa de la IA". Bloomberg . Consultado el 24 de marzo de 2024 .
  7. ^ "Presentación para inversores" (PDF) . Nvidia . Octubre de 2023 . Consultado el 24 de marzo de 2024 .
  8. ^ Garreffa, Anthony (10 de octubre de 2023). "La GPU 'Blackwell' GB200 de próxima generación de Nvidia figura en su hoja de ruta para centros de datos de 2024". TweakTown . Consultado el 24 de marzo de 2024 .
  9. ^ "NVIDIA GB200 NVL72". NVIDIA . Consultado el 4 de julio de 2024 .
  10. ^ Byrne, Joseph (28 de marzo de 2024). «La GPU Nvidia Blackwell promete una aceleración de 30x, pero se espera que sea 3x». XPU.pub . Consultado el 4 de julio de 2024 .
  11. ^ Leswing, Kif (18 de marzo de 2024). "El director ejecutivo de Nvidia, Jensen Huang, anuncia nuevos chips de IA: 'Necesitamos GPU más grandes'". CNBC . Consultado el 24 de marzo de 2024 .
  12. ^ ab Caulfield, Brian (18 de marzo de 2024). "'Hemos creado un procesador para la era de la IA generativa', afirma el director ejecutivo de Nvidia". Nvidia . Consultado el 24 de marzo de 2024 .
  13. ^ WhyCry (8 de junio de 2024). "La serie de portátiles NVIDIA GeForce RTX 50 se lanzará en 2025 con variantes GDDR7 de 16 GB, 12 GB y 8 GB". VideoCardz . Consultado el 4 de julio de 2024 .
  14. ^ "La plataforma NVIDIA Blackwell llega para impulsar una nueva era en la informática". Sala de prensa de NVIDIA . Consultado el 4 de julio de 2024 .
  15. ^ Byrne, Joseph (28 de marzo de 2024). «La GPU Nvidia Blackwell promete una aceleración de 30x, pero se espera que sea 3x». XPU.pub . Consultado el 4 de julio de 2024 .
  16. ^ Smith, Ryan (18 de marzo de 2024). "Anuncian la arquitectura Nvidia Blackwell y los aceleradores B200/B100: más grande con menos datos". AnandTech . Consultado el 24 de marzo de 2024 .
  17. ^ ab Prickett Morgan, Timothy (18 de marzo de 2024). "Con las GPU Blackwell, la IA se vuelve más barata y sencilla, y competir con Nvidia se vuelve más difícil". The Next Platform . Consultado el 24 de marzo de 2024 .
  18. ^ ab "La plataforma Nvidia Blackwell llega para impulsar una nueva era en la informática". Sala de prensa de Nvidia . 18 de marzo de 2024. Consultado el 24 de marzo de 2024 .
  19. ^ Garreffa, Anthony (14 de abril de 2024). "Jim Keller se ríe del costo de $10 mil millones en investigación y desarrollo para Nvidia Blackwell, debería haber usado Ethernet por $1 mil millones". TweakTown . Consultado el 16 de abril de 2024 .
  20. ^ Hagedoom, Hilbert (18 de marzo de 2024). «Descripción técnica de las GPU Nvidia B200 y GB200 AI: presentadas en GTC 2024». Guru3D . Consultado el 7 de abril de 2024 .
  21. ^ "La Nvidia Blackwell "B100" contará con 2 matrices y 192 GB de memoria HBM3e, la B200 con 288 GB". VideoCardz . 17 de marzo de 2024 . Consultado el 24 de marzo de 2024 .
  22. ^ Edwards, Benj (18 de marzo de 2024). «Nvidia presenta Blackwell B200, el «chip más potente del mundo» diseñado para IA». Ars Technica . Consultado el 24 de marzo de 2024 .
  23. ^ "NVIDIA GB200 NVL72". NVIDIA . Consultado el 4 de julio de 2024 .