stringtranslate.com

Memoria de gran ancho de banda

High Bandwidth Memory ( HBM ) es una interfaz de memoria de computadora para memoria de acceso aleatorio dinámico sincrónico apilado en 3D (SDRAM) inicialmente de Samsung , AMD y SK Hynix . Se utiliza junto con aceleradores de gráficos de alto rendimiento, dispositivos de red, ASIC de IA de centros de datos de alto rendimiento , como caché en paquete en CPU [1] y RAM en paquete en CPU futuras, y FPGA y en algunas supercomputadoras (como NEC SX-Aurora TSUBASA y Fujitsu A64FX ). [2] El primer chip de memoria HBM fue producido por SK Hynix en 2013, [3] y los primeros dispositivos en usar HBM fueron las GPU AMD Fiji en 2015. [4] [5]

HBM fue adoptado por JEDEC como estándar de la industria en octubre de 2013. [6] La segunda generación, HBM2 , fue aceptada por JEDEC en enero de 2016. [7] JEDEC anunció oficialmente el estándar HBM3 el 27 de enero de 2022. [8]

Tecnología

HBM logra un mayor ancho de banda que DDR4 o GDDR5 mientras usa menos energía y en un factor de forma sustancialmente más pequeño. [9] Esto se logra apilando hasta ocho matrices DRAM y una matriz base opcional que puede incluir circuitos de búfer y lógica de prueba. [10] La pila a menudo se conecta al controlador de memoria en una GPU o CPU a través de un sustrato, como un intercalador de silicio . [11] [12] Alternativamente, la matriz de memoria podría apilarse directamente en el chip de CPU o GPU. Dentro de la pila, las matrices están interconectadas verticalmente mediante vías a través de silicio (TSV) y microbumps . La tecnología HBM es similar en principio pero incompatible con la interfaz Hybrid Memory Cube (HMC) desarrollada por Micron Technology . [13]

El bus de memoria HBM es muy amplio en comparación con otras memorias DRAM como DDR4 o GDDR5. Una pila HBM de cuatro chips DRAM (4-Hi) tiene dos canales de 128 bits por chip, lo que da un total de 8 canales y un ancho de 1024 bits en total. Por lo tanto, una tarjeta gráfica/GPU con cuatro pilas HBM de 4-Hi tendría un bus de memoria con un ancho de 4096 bits. En comparación, el ancho de bus de las memorias GDDR es de 32 bits, con 16 canales para una tarjeta gráfica con una interfaz de memoria de 512 bits. [14] HBM admite hasta 4 GB por paquete.

El mayor número de conexiones a la memoria, en relación con DDR4 o GDDR5, requirió un nuevo método para conectar la memoria HBM a la GPU (u otro procesador). [15] AMD y Nvidia han utilizado chips de silicio especialmente diseñados, llamados interposers , para conectar la memoria y la GPU. Este interposer tiene la ventaja adicional de requerir que la memoria y el procesador estén físicamente cerca, lo que disminuye las rutas de memoria. Sin embargo, como la fabricación de dispositivos semiconductores es significativamente más cara que la fabricación de placas de circuito impreso , esto agrega costo al producto final.

Interfaz

Corte una tarjeta gráfica que utilice memoria de alto ancho de banda. Consulte las vías a través de silicio (TSV).

La memoria DRAM HBM está estrechamente acoplada a la matriz de cómputo del host con una interfaz distribuida. La interfaz está dividida en canales independientes. Los canales son completamente independientes entre sí y no necesariamente sincrónicos entre sí. La memoria DRAM HBM utiliza una arquitectura de interfaz amplia para lograr un funcionamiento de alta velocidad y bajo consumo. La memoria DRAM HBM utiliza un reloj diferencial de 500 MHz CK_t / CK_c (donde el sufijo "_t" denota el componente "verdadero" o "positivo" del par diferencial, y "_c" representa el "complementario"). Los comandos se registran en el flanco ascendente de CK_t, CK_c. Cada interfaz de canal mantiene un bus de datos de 128 bits que funciona a doble velocidad de datos (DDR). HBM admite velocidades de transferencia de 1  GT/s por pin (transfiriendo 1 bit), lo que produce un ancho de banda de paquete general de 128 GB/s. [16]

HBM2

La segunda generación de memoria de alto ancho de banda, HBM2, también especifica hasta ocho chips por pila y duplica las tasas de transferencia de pines hasta 2  GT/s . Manteniendo un acceso de 1024 bits de ancho, HBM2 puede alcanzar un ancho de banda de memoria de 256 GB/s por paquete. La especificación HBM2 permite hasta 8 GB por paquete. Se prevé que HBM2 sea especialmente útil para aplicaciones de consumo sensibles al rendimiento, como la realidad virtual . [17]

El 19 de enero de 2016, Samsung anunció la producción en masa temprana de HBM2, con hasta 8 GB por pila. [18] [19] SK Hynix también anunció la disponibilidad de pilas de 4 GB en agosto de 2016. [20]

HBM2E

A fines de 2018, JEDEC anunció una actualización de la especificación HBM2, que ofrece un mayor ancho de banda y capacidades. [21] La especificación oficial ahora admite hasta 307 GB/s por pila (velocidad de datos efectiva de 2,5 Tbit/s), aunque ya había productos que funcionaban a esta velocidad. Además, la actualización agregó compatibilidad con pilas de 12 Hi (12 matrices), lo que hace posible capacidades de hasta 24 GB por pila.

El 20 de marzo de 2019, Samsung anunció su Flashbolt HBM2E, con ocho matrices por pila, una tasa de transferencia de 3,2  GT/s , lo que proporciona un total de 16 GB y 410 GB/s por pila. [22]

El 12 de agosto de 2019, SK Hynix anunció su HBM2E, con ocho matrices por pila, una tasa de transferencia de 3,6  GT/s , lo que proporciona un total de 16 GB y 460 GB/s por pila. [23] [24] El 2 de julio de 2020, SK Hynix anunció que había comenzado la producción en masa. [25]

HBM3

A finales de 2020, Micron anunció que se actualizaría el estándar HBM2E y, junto con ello, presentó el siguiente estándar, conocido como HBMnext (que más tarde pasó a llamarse HBM3). Se trataba de un gran salto generacional con respecto a HBM2 y el reemplazo de HBM2E. Esta nueva VRAM habría llegado al mercado en el cuarto trimestre de 2022 y, probablemente, introduciría una nueva arquitectura, como sugiere el nombre.

Si bien la arquitectura podría haber sido revisada, las filtraciones indican que el rendimiento será similar al del estándar HBM2E actualizado. Es probable que esta RAM se use principalmente en GPU de centros de datos . [26] [27] [28] [29]

A mediados de 2021, SK Hynix dio a conocer algunas especificaciones del estándar HBM3, con velocidades de E/S de 5,2 Gbit/s y un ancho de banda de 665 GB/s por paquete, así como soluciones 2.5D y 3D de hasta 16 niveles. [30] [31]

El 20 de octubre de 2021, antes de que se finalizara el estándar JEDEC para HBM3, SK Hynix fue el primer proveedor de memoria en anunciar que había finalizado el desarrollo de dispositivos de memoria HBM3. Según SK Hynix, la memoria funcionaría a una velocidad de hasta 6,4 Gbps/pin, el doble de la velocidad de datos del estándar JEDEC HBM2E, que formalmente alcanza un máximo de 3,2 Gbps/pin, o un 78 % más rápido que el propio HBM2E de 3,6 Gbps/pin de SK Hynix. Los dispositivos admiten una velocidad de transferencia de datos de 6,4 Gbit/s y, por lo tanto, una sola pila HBM3 puede proporcionar un ancho de banda de hasta 819 GB/s. Los anchos de bus básicos para HBM3 permanecen sin cambios, y una sola pila de memoria tiene un ancho de 1024 bits. SK Hynix ofrecería su memoria en dos capacidades: 16 GB y 24 GB, alineándose con las pilas de 8-Hi y 12-Hi respectivamente. Las pilas constan de 8 o 12 DRAM de 16 Gb, cada una de ellas de 30 μm de espesor e interconectadas mediante vías de silicio (TSV). [32] [33] [34]

Según Ryan Smith de AnandTech , la memoria HBM3 de primera generación de SK Hynix tiene la misma densidad que su memoria HBM2E de última generación, lo que significa que los proveedores de dispositivos que buscan aumentar sus capacidades de memoria total para sus piezas de próxima generación necesitarían usar memoria con 12 matrices/capas, en comparación con las pilas de 8 capas que solían usar hasta entonces. [32] Según Anton Shilov de Tom's Hardware , las GPU o FPGA de cómputo de alto rendimiento suelen utilizar cuatro o seis pilas HBM, por lo que con las pilas HBM3 de 24 GB de SK Hynix obtendrían 3,2 TB/s o 4,9 TB/s de ancho de banda de memoria. También señaló que los chips HBM3 de SK Hynix son cuadrados, no rectangulares como los chips HBM2 y HBM2E. [33] Según Chris Mellor de The Register , dado que JEDEC aún no ha desarrollado su estándar HBM3, podría significar que SK Hynix necesitaría adaptar su diseño a uno futuro y más rápido. [34]

El 27 de enero de 2022, JEDEC anunció oficialmente el estándar HBM3. [8] La cantidad de canales de memoria se duplicó de 8 canales de 128 bits con HBM2e a 16 canales de 64 bits con HBM3. Por lo tanto, la cantidad total de pines de datos de la interfaz sigue siendo 1024. [35]

En junio de 2022, SK Hynix anunció que había iniciado la producción en masa de la primera memoria HBM3 de la industria que se utilizará con la GPU H100 de Nvidia, cuyo lanzamiento está previsto para el tercer trimestre de 2022. La memoria proporcionará a la H100 "hasta 819 GB/s" de ancho de banda de memoria. [36]

En agosto de 2022, Nvidia anunció que su GPU "Hopper" H100 se enviará con cinco sitios HBM3 activos (de los seis a bordo) que ofrecen 80 GB de RAM y 3 TB/s de ancho de banda de memoria (16 GB y 600 GB/s por sitio). [37]

HBM3E

El 30 de mayo de 2023, SK Hynix presentó su memoria HBM3E con una velocidad de procesamiento de datos de 8 Gbps/pin (un 25 % más rápida que HBM3), que entrará en producción en la primera mitad de 2024. [38] A 8 GT/s con un bus de 1024 bits, su ancho de banda por pila aumenta de 819,2 GB/s como en HBM3 a 1 TB/s.

El 26 de julio de 2023, Micron anunció su memoria HBM3E con una velocidad de procesamiento de datos de 9,6 Gbps/pin (un 50 % más rápida que la HBM3). [39] La memoria HBM3E de Micron es una HBM de alto rendimiento que utiliza tecnología de proceso DRAM 1β y un empaquetado avanzado para lograr el mayor rendimiento, capacidad y eficiencia energética de la industria. Puede almacenar 24 GB por cubo de 8 de alto y permite la transferencia de datos a 1,2 TB/s. Habrá un cubo de 12 de alto con una capacidad de 36 GB en 2024.

En agosto de 2023, Nvidia anunció una nueva versión de su superchip GH200 Grace Hopper que utiliza 141 GB (144 GiB físicos) de HBM3e sobre un bus de 6144 bits, lo que proporciona un ancho de banda de memoria un 50 % mayor y una capacidad de memoria un 75 % mayor que la versión HBM3. [40]

En mayo de 2023, Samsung anunció HBM3P con hasta 7,2 Gbps que entrará en producción en 2024. [41]

El 20 de octubre de 2023, Samsung anunció su HBM3E "Shinebolt" con una memoria de hasta 9,8 Gbps. [42]

El 26 de febrero de 2024, Micron anunció la producción en masa de la memoria HBM3E de Micron. [43]

El 18 de marzo de 2024, Nvidia anunció la serie Blackwell de GPU que utilizan memoria HBM3E [44]

El 19 de marzo de 2024, SK Hynix anunció la producción en masa de la memoria HBM3E de SK Hynix. [45]

HBM-PIM

En febrero de 2021, Samsung anunció el desarrollo de HBM con procesamiento en memoria (PIM). Esta nueva memoria incorpora capacidades de computación de IA dentro de la memoria, para aumentar el procesamiento de datos a gran escala. Un motor de IA optimizado para DRAM se coloca dentro de cada banco de memoria para permitir el procesamiento paralelo y minimizar el movimiento de datos. Samsung afirma que esto ofrecerá el doble de rendimiento del sistema y reducirá el consumo de energía en más del 70%, sin requerir ningún cambio de hardware o software en el resto del sistema. [46]

Historia

Fondo

La memoria apilada en matrices se comercializó inicialmente en la industria de la memoria flash . Toshiba presentó un chip de memoria flash NAND con ocho matrices apiladas en abril de 2007, [47] seguido por Hynix Semiconductor que presentó un chip flash NAND con 24 matrices apiladas en septiembre de 2007. [48]

La memoria de acceso aleatorio (RAM) apilada en 3D que utiliza tecnología a través de silicio (TSV) fue comercializada por Elpida Memory , que desarrolló el primer chip DRAM de 8 GB (apilado con cuatro matrices SDRAM DDR3 ) en septiembre de 2009 y lo lanzó en junio de 2011. En 2011, SK Hynix presentó una memoria DDR3 de 16 GB ( clase de 40 nm ) utilizando tecnología TSV, [3] Samsung Electronics presentó una DDR3 apilada en 3D de 32 GB ( clase de 30 nm ) basada en TSV en septiembre, y luego Samsung y Micron Technology anunciaron la tecnología Hybrid Memory Cube (HMC) basada en TSV en octubre. [49]       

En diciembre de 2011, después de varios años de trabajo, JEDEC lanzó por primera vez el estándar JESD229 para memoria Wide IO, [50] el predecesor de HBM con cuatro canales de 128 bits con una frecuencia de reloj de datos única. El primer estándar HBM, JESD235, se publicó en octubre de 2013.

Desarrollo

AMD Fiji , la primera GPU que utiliza HBM

El desarrollo de la memoria de alto ancho de banda comenzó en AMD en 2008 para resolver el problema del uso cada vez mayor de energía y el factor de forma de la memoria de la computadora. Durante los siguientes años, AMD desarrolló procedimientos para resolver problemas de apilamiento de matrices con un equipo dirigido por Bryan Black, miembro senior de AMD. [51] Para ayudar a AMD a hacer realidad su visión de HBM, reclutaron socios de la industria de la memoria, en particular la empresa coreana SK Hynix , [51] que tenía experiencia previa con memoria apilada en 3D, [3] [48] así como socios de la industria de interposers (la empresa taiwanesa UMC ) y la industria del empaquetado ( Amkor Technology y ASE ). [51]

El desarrollo de HBM se completó en 2013, cuando SK Hynix construyó el primer chip de memoria HBM. [3] HBM fue adoptado como estándar industrial JESD235 por JEDEC en octubre de 2013, luego de una propuesta de AMD y SK Hynix en 2010. [6] La fabricación en gran volumen comenzó en una instalación de Hynix en Icheon , Corea del Sur, en 2015.

La primera GPU que utilizó HBM fue la AMD Fiji, que se lanzó en junio de 2015 y que impulsa la AMD Radeon R9 Fury X. [4] [52] [53]

En enero de 2016, Samsung Electronics comenzó la producción en masa temprana de HBM2. [18] [19] El mismo mes, HBM2 fue aceptado por JEDEC como estándar JESD235a. [7] El primer chip GPU que utiliza HBM2 es el Nvidia Tesla P100, que se anunció oficialmente en abril de 2016. [54] [55]

En junio de 2016, Intel lanzó una familia de procesadores Xeon Phi con 8 pilas de HCDRAM, la versión de Micron de HBM. En Hot Chips en agosto de 2016, tanto Samsung como Hynix anunciaron una nueva generación de tecnologías de memoria HBM. [56] [57] Ambas compañías anunciaron productos de alto rendimiento que se espera que tengan mayor densidad, mayor ancho de banda y menor consumo de energía. Samsung también anunció una versión de menor costo de HBM en desarrollo dirigida a los mercados masivos. Quitar el buffer die y disminuir la cantidad de TSV reduce el costo, aunque a expensas de un ancho de banda general reducido (200 GB/s).

Nvidia anunció la GPU Nvidia Hopper H100, la primera GPU del mundo que utiliza HBM3 el 22 de marzo de 2022. [58]

Véase también

Referencias

  1. ^ Shilov, Anton (30 de diciembre de 2020). "Intel confirma la compatibilidad de la memoria HBM en el paquete para Sapphire Rapids". Tom's Hardware . Consultado el 1 de enero de 2021 .
  2. ^ Tendencias ISSCC 2014 Archivado el 6 de febrero de 2015 en Wayback Machine página 118 "DRAM de alto ancho de banda"
  3. ^ abcd «Historia: década de 2010». SK Hynix . Consultado el 7 de marzo de 2023 .
  4. ^ ab Smith, Ryan (2 de julio de 2015). "The AMD Radeon R9 Fury X Review". Anandtech . Consultado el 1 de agosto de 2016 .
  5. ^ Morgan, Timothy Prickett (25 de marzo de 2014). "Las futuras GPU Nvidia 'Pascal' incluyen memoria 3D e interconexión de cosecha propia". EnterpriseTech . Consultado el 26 de agosto de 2014 . Nvidia adoptará la variante de memoria de alto ancho de banda (HBM) de DRAM apilada que fue desarrollada por AMD y Hynix
  6. ^ ab Memoria DRAM de alto ancho de banda (HBM) (JESD235), JEDEC, octubre de 2013
  7. ^ ab "JESD235a: Memoria de alto ancho de banda 2". 12 de enero de 2016.
  8. ^ ab "JEDEC publica actualización HBM3 al estándar de memoria de alto ancho de banda (HBM)". JEDEC (Comunicado de prensa). Arlington, VA. 27 de enero de 2022. Consultado el 11 de diciembre de 2022 .
  9. ^ HBM: Solución de memoria para procesadores que consumen mucho ancho de banda Archivado el 24 de abril de 2015 en Wayback Machine , Joonyoung Kim y Younsu Kim, SK Hynix // Hot Chips 26, agosto de 2014
  10. ^ Sohn et.al. (Samsung) (enero de 2017). "Una DRAM HBM de 1,2 V, 20 nm y 307 GB/s con esquema de prueba de E/S a nivel de oblea a velocidad constante y actualización adaptativa considerando la distribución de temperatura". IEEE Journal of Solid-State Circuits . 52 (1): 250–260. Bibcode :2017IJSSC..52..250S. doi :10.1109/JSSC.2016.2602221. S2CID  207783774.
  11. ^ "¿Qué viene a continuación para la memoria de gran ancho de banda?". 17 de diciembre de 2019.
  12. ^ "Interpositores".
  13. ^ ¿ Hacia dónde se dirigen las interfaces DRAM? Archivado el 15 de junio de 2018 en Wayback Machine // EETimes, 18/4/2014 " El cubo de memoria híbrido (HMC) y una tecnología competidora llamada memoria de alto ancho de banda (HBM) están destinadas a aplicaciones informáticas y de redes. Estos enfoques apilan múltiples chips DRAM sobre un chip lógico " .
  14. ^ Aspectos destacados del estándar de memoria de alto ancho de banda (HBM) Archivado el 13 de diciembre de 2014 en Wayback Machine . Mike O'Connor, científico investigador sénior de NVidia // The Memory Forum – 14 de junio de 2014
  15. ^ Smith, Ryan (19 de mayo de 2015). "AMD profundiza en la memoria de gran ancho de banda: ¿qué aportará HBM a AMD?". Anandtech . Consultado el 12 de mayo de 2017 .
  16. ^ "Memoria de alto ancho de banda (HBM)" (PDF) . AMD. 2015-01-01 . Consultado el 2016-08-10 .
  17. ^ Valich, Theo (16 de noviembre de 2015). «NVIDIA presenta la GPU Pascal: 16 GB de memoria y 1 TB/s de ancho de banda». VR World . Archivado desde el original el 14 de julio de 2019 . Consultado el 24 de enero de 2016 .
  18. ^ ab "Samsung comienza a producir en masa la DRAM más rápida del mundo, basada en la más reciente interfaz de memoria de alto ancho de banda (HBM)". news.samsung.com .
  19. ^ ab "Samsung anuncia la producción en masa de la memoria HBM2 de próxima generación – ExtremeTech". 19 de enero de 2016.
  20. ^ Shilov, Anton (1 de agosto de 2016). "SK Hynix agrega HBM2 a su catálogo". Anandtech . Consultado el 1 de agosto de 2016 .
  21. ^ "JEDEC actualiza el innovador estándar de memoria de gran ancho de banda (HBM)" (Comunicado de prensa). JEDEC. 2018-12-17 . Consultado el 2018-12-18 .
  22. ^ "Samsung Electronics presenta nueva tecnología de memoria de gran ancho de banda diseñada para centros de datos, aplicaciones gráficas e inteligencia artificial | Sitio web global de Samsung Semiconductor". www.samsung.com . Consultado el 22 de agosto de 2019 .
  23. ^ "SK Hynix desarrolla la memoria de alto ancho de banda más rápida del mundo, HBM2E". www.skhynix.com . 12 de agosto de 2019. Archivado desde el original el 2019-12-03 . Consultado el 2019-08-22 .
  24. ^ "SK Hynix anuncia sus productos de memoria HBM2E, 460 GB/s y 16 GB por pila".
  25. ^ "SK hynix inicia la producción en masa de la memoria DRAM de alta velocidad "HBM2E"". 2 de julio de 2020.
  26. ^ "Micron presenta HBMnext, un sucesor de HBM2e". VideoCardz . 14 de agosto de 2020 . Consultado el 11 de diciembre de 2022 .
  27. ^ Hill, Brandon (14 de agosto de 2020). "Micron anuncia HBMnext como reemplazo eventual de HBM2e en GPU de gama alta". HotHardware . Consultado el 11 de diciembre de 2022 .
  28. ^ Hruska, Joel (14 de agosto de 2020). "Micron presenta HBMnext, GDDR6X, confirma RTX 3090". ExtremeTech . Consultado el 11 de diciembre de 2022 .
  29. ^ Garreffa, Anthony (14 de agosto de 2020). "Micron presenta HBMnext, el sucesor de HBM2e para GPU de próxima generación". TweakTown . Consultado el 11 de diciembre de 2022 .
  30. ^ "SK Hynix espera una memoria HBM3 con un ancho de banda de 665 GB/s".
  31. ^ Shilov, Anton (9 de junio de 2021). "HBM3 alcanzará los 665 GBPS de ancho de banda por chip, según SK Hynix". Tom's Hardware . Consultado el 11 de diciembre de 2022 .
  32. ^ ab Smith, Ryan (20 de octubre de 2021). "SK Hynix anuncia su primera memoria HBM3: pilas de 24 GB, con una velocidad de reloj de hasta 6,4 Gbps". AnandTech . Consultado el 22 de octubre de 2021 .
  33. ^ ab Shilov, Anton (20 de octubre de 2021). "SK Hynix desarrolla DRAM HBM3: 24 GB a 6,4 GT/s en un bus de 1024 bits". Tom's Hardware . Consultado el 22 de octubre de 2021 .
  34. ^ ab Mellor, Chris (20 de octubre de 2021). "SK hynix lanza DRAM HBM3 de 819 GB/s". The Register . Consultado el 24 de octubre de 2021 .
  35. ^ Prickett Morgan, Timothy (6 de abril de 2022). "La hoja de ruta de HBM3 recién está comenzando". The Next Platform . Consultado el 4 de mayo de 2022 .
  36. ^ "SK hynix suministrará la primera DRAM HBM3 de la industria a NVIDIA". SK Hynix . 8 de junio de 2022 . Consultado el 11 de diciembre de 2022 .
  37. ^ Robinson, Cliff (22 de agosto de 2022). "Detalles de la tolva NVIDIA H100 en HC34 mientras espera las CPU de próxima generación". ServeTheHome . Consultado el 11 de diciembre de 2022 .
  38. ^ "SK hynix entra en el primer proceso de validación de compatibilidad de la industria para DRAM de servidor DDR5 de 1000 millones de nm". 30 de mayo de 2023.
  39. ^ "HBM3 Memory HBM3 Gen2". 26 de julio de 2023.
  40. ^ Bonshor, Gavin (8 de agosto de 2023). "NVIDIA presenta el superchip GH200 'Grace Hopper' actualizado con memoria HBM3e, que se lanzará en el segundo trimestre de 2024". AnandTech . Consultado el 9 de agosto de 2023 .
  41. ^ "Samsung lanzará la memoria HBM3P, con nombre en código "Snowbolt" y un ancho de banda de hasta 5 TB/s por pila". Wccftech . 4 de mayo de 2023 . Consultado el 21 de agosto de 2023 .
  42. ^ "Samsung Electronics celebra el Memory Tech Day 2023 y presenta nuevas innovaciones para liderar la era de la IA a hiperescala".
  43. ^ "Micron comienza la producción en serie de la solución HBM3E líder en la industria para acelerar el crecimiento de la IA". investors.micron.com . 2024-02-26 . Consultado el 2024-06-07 .
  44. ^ Jarred Walton (18 de marzo de 2024). "La GPU de IA de próxima generación de Nvidia es cuatro veces más rápida que Hopper: la GPU Blackwell B200 ofrece hasta 20 petaflops de cómputo y otras mejoras masivas". Tom's Hardware . Consultado el 19 de marzo de 2024 .
  45. ^ https://news.skhynix.com/sk-hynix-begins-volume-production-of-industry-first-hbm3e/ [ URL desnuda ]
  46. ^ "Samsung desarrolla la primera memoria de gran ancho de banda de la industria con potencia de procesamiento de IA".
  47. ^ "TOSHIBA COMERCIALIZA LA MEMORIA FLASH NAND INTEGRADA DE MAYOR CAPACIDAD DE LA INDUSTRIA PARA PRODUCTOS MÓVILES DE CONSUMO". Toshiba . 17 de abril de 2007. Archivado desde el original el 23 de noviembre de 2010 . Consultado el 23 de noviembre de 2010 .
  48. ^ ab "Hynix sorprende a la industria de chips NAND". Korea Times . 5 de septiembre de 2007 . Consultado el 8 de julio de 2019 .
  49. ^ Kada, Morihiro (2015). "Historia de la investigación y el desarrollo de la tecnología de integración tridimensional". Integración tridimensional de semiconductores: procesamiento, materiales y aplicaciones . Springer. págs. 15–8. ISBN 9783319186757.
  50. ^ "Estándar JESD229 de velocidad de datos única de E/S ANCHA (WIDE I/O SDR)" (PDF) .
  51. ^ abc Memoria de gran ancho de banda (HBM) de AMD: cómo crear una memoria hermosa, AMD
  52. ^ Smith, Ryan (19 de mayo de 2015). "AMD HBM Deep Dive". Anandtech . Consultado el 1 de agosto de 2016 .
  53. ^ [1] AMD marca el comienzo de una nueva era en los juegos para PC, incluida la primera familia de gráficos del mundo con tecnología HBM revolucionaria
  54. ^ Smith, Ryan (5 de abril de 2016). «Nvidia anuncia el acelerador Tesla P100». Anandtech . Consultado el 1 de agosto de 2016 .
  55. ^ "NVIDIA Tesla P100: la GPU para centros de datos más avanzada jamás construida". www.nvidia.com .
  56. ^ Smith, Ryan (23 de agosto de 2016). "Hot Chips 2016: Los proveedores de memoria discuten ideas para la tecnología de memoria del futuro: DDR5, HBM barata y más". Anandtech . Consultado el 23 de agosto de 2016 .
  57. ^ Walton, Mark (23 de agosto de 2016). «HBM3: más económico, hasta 64 GB en el paquete y ancho de banda de terabytes por segundo». Ars Technica . Consultado el 23 de agosto de 2016 .
  58. ^ "NVIDIA anuncia la arquitectura Hopper, la próxima generación de computación acelerada".

Enlaces externos