stringtranslate.com

Gen azul de IBM

Jerarquía de las unidades de procesamiento de Blue Gene

Blue Gene fue un proyecto de IBM destinado a diseñar supercomputadoras que pudieran alcanzar velocidades de operación en el rango de petaFLOPS (PFLOPS) , con bajo consumo de energía.

El proyecto creó tres generaciones de supercomputadoras: Blue Gene/L , Blue Gene/P y Blue Gene/Q . Durante su implementación, los sistemas Blue Gene a menudo encabezaron las clasificaciones TOP500 [1] y Green500 [2] de las supercomputadoras más potentes y de mayor eficiencia energética, respectivamente. Los sistemas Blue Gene también han obtenido constantemente las primeras posiciones en la lista Graph500 . [3] El proyecto recibió la Medalla Nacional de Tecnología e Innovación de 2009. [4]

Después de Blue Gene/Q, IBM centró sus esfuerzos en supercomputadoras en la plataforma OpenPower , utilizando aceleradores como FPGAs y GPU para abordar los rendimientos decrecientes de la ley de Moore . [5] [6]

Historia

En la conferencia Supercomputing 2020 se realizó una presentación en video de la historia y la tecnología del proyecto Blue Gene. [7]

En diciembre de 1999, IBM anunció una iniciativa de investigación de 100 millones de dólares para un esfuerzo de cinco años para construir una computadora masivamente paralela , que se aplicaría al estudio de fenómenos biomoleculares como el plegamiento de proteínas . [8] La investigación y el desarrollo fueron llevados a cabo por un gran equipo multidisciplinario en el IBM TJ Watson Research Center , inicialmente dirigido por William R. Pulleyblank . [9] El proyecto tenía dos objetivos principales: avanzar en la comprensión de los mecanismos detrás del plegamiento de proteínas a través de simulación a gran escala y explorar ideas novedosas en arquitectura y software de máquinas masivamente paralelas. Las principales áreas de investigación incluyeron: cómo usar esta nueva plataforma para cumplir eficazmente sus objetivos científicos, cómo hacer que tales máquinas masivamente paralelas sean más utilizables y cómo lograr objetivos de rendimiento a un costo razonable, a través de nuevas arquitecturas de máquinas.

El diseño inicial de Blue Gene se basó en una versión temprana de la arquitectura Cyclops64 , diseñada por Monty Denneau . Paralelamente, Alan Gara había comenzado a trabajar en una extensión de la arquitectura QCDOC para convertirla en una supercomputadora de uso más general. El Departamento de Energía de los Estados Unidos comenzó a financiar el desarrollo de este sistema y pasó a conocerse como Blue Gene/L (L de Light). El desarrollo de la arquitectura original de Blue Gene continuó bajo el nombre de Blue Gene/C (C de Cyclops) y, más tarde, Cyclops64.

El diseño de la arquitectura y la lógica del chip para los sistemas Blue Gene se realizó en el Centro de Investigación IBM TJ Watson , el diseño del chip fue completado y los chips fueron fabricados por IBM Microelectronics , y los sistemas se construyeron en IBM Rochester, MN .

En noviembre de 2004, un sistema de 16 racks , cada uno con 1.024 nodos de cómputo, alcanzó el primer puesto en la lista TOP500 , con un rendimiento en las pruebas de referencia LINPACK de 70,72 TFLOPS. [1] De este modo, superó al Earth Simulator de NEC , que había ostentado el título de ordenador más rápido del mundo desde 2002. Desde 2004 hasta 2007, la instalación Blue Gene/L en LLNL [10] se amplió gradualmente hasta 104 racks, logrando 478 TFLOPS Linpack y 596 TFLOPS pico. La instalación BlueGene/L de LLNL mantuvo la primera posición en la lista TOP500 durante 3,5 años, hasta que en junio de 2008 fue superada por el sistema Roadrunner basado en Cell de IBM en el Laboratorio Nacional de Los Álamos , que fue el primer sistema en superar la marca de 1 PetaFLOPS.

Si bien la instalación de LLNL fue la instalación más grande de Blue Gene/L, le siguieron muchas instalaciones más pequeñas. La lista TOP500 de noviembre de 2006 mostró 27 computadoras con la arquitectura eServer Blue Gene Solution . Por ejemplo, tres racks de Blue Gene/L se alojaron en el Centro de Supercomputación de San Diego .

Mientras que el TOP500 mide el rendimiento en una única aplicación de referencia, Linpack, Blue Gene/L también estableció récords de rendimiento en un conjunto más amplio de aplicaciones. Blue Gene/L fue la primera supercomputadora que ejecutó más de 100  TFLOPS en una aplicación del mundo real, concretamente un código de dinámica molecular tridimensional (ddcMD), simulando la solidificación (procesos de nucleación y crecimiento) de metal fundido en condiciones de alta presión y temperatura. Este logro ganó el Premio Gordon Bell 2005 .

En junio de 2006, la NNSA e IBM anunciaron que Blue Gene/L había alcanzado 207,3 TFLOPS en una aplicación química cuántica ( Qbox ). [11] En Supercomputing 2006, [12] Blue Gene/L recibió el premio ganador en todas las categorías de premios del HPC Challenge. [13] En 2007, un equipo del IBM Almaden Research Center y la Universidad de Nevada ejecutó una red neuronal artificial casi la mitad de compleja que el cerebro de un ratón durante el equivalente a un segundo (la red se ejecutó a 1/10 de la velocidad normal durante 10 segundos). [14]

El nombre

El nombre Blue Gene proviene de lo que originalmente se diseñó para hacer, ayudar a los biólogos a comprender los procesos de plegamiento de proteínas y desarrollo de genes . [15] "Blue" es un apodo tradicional que IBM usa para muchos de sus productos y para la propia empresa . El diseño original de Blue Gene fue renombrado "Blue Gene/C" y, finalmente, Cyclops64 . La "L" en Blue Gene/L proviene de "Light", ya que el nombre original de ese diseño era "Blue Light". La versión "P" fue diseñada para ser un diseño a escala peta . "Q" es solo la letra después de "P". [16]

Características principales

La supercomputadora Blue Gene/L era única en los siguientes aspectos: [17]

Arquitectura

La arquitectura Blue Gene/L fue una evolución de las arquitecturas QCDSP y QCDOC . Cada nodo de cómputo o E/S de Blue Gene/L era un ASIC único con chips de memoria DRAM asociados. El ASIC integraba dos procesadores integrados PowerPC 440 de 700 MHz , cada uno con una unidad de punto flotante (FPU) de doble precisión y doble canalización , un subsistema de caché con un controlador DRAM integrado y la lógica para admitir múltiples subsistemas de comunicación. Las FPU duales le dieron a cada nodo Blue Gene/L un rendimiento máximo teórico de 5,6  GFLOPS (gigaFLOPS) . Las dos CPU no eran coherentes en caché entre sí.

Los nodos de cómputo se empaquetaron de a dos por tarjeta de cómputo, con 16 tarjetas de cómputo (es decir, 32 nodos) más hasta 2 nodos de E/S por placa de nodo. Un gabinete/rack contenía 32 placas de nodo. [18] Mediante la integración de todos los subsistemas esenciales en un solo chip y el uso de lógica de bajo consumo, cada nodo de cómputo o de E/S disipaba alrededor de 17 vatios (incluyendo DRAM). El bajo consumo por nodo permitió un empaquetado agresivo de hasta 1024 nodos de cómputo, más nodos de E/S adicionales, en un rack estándar de 19 pulgadas , dentro de límites razonables de suministro de energía eléctrica y refrigeración por aire. Las métricas de rendimiento del sistema, en términos de FLOPS por vatio , FLOPS por m 2 de espacio en el piso y FLOPS por costo unitario, permitieron escalar hasta un rendimiento muy alto. Con tantos nodos, las fallas de los componentes eran inevitables. El sistema fue capaz de aislar eléctricamente los componentes defectuosos, hasta una granularidad de medio rack (512 nodos de cómputo), para permitir que la máquina siguiera funcionando.

Cada nodo Blue Gene/L estaba conectado a tres redes de comunicaciones paralelas: una red toroidal 3D para la comunicación entre pares entre nodos de cómputo, una red colectiva para la comunicación colectiva (transmisiones y operaciones de reducción) y una red de interrupción global para barreras rápidas . Los nodos de E/S, que ejecutan el sistema operativo Linux , proporcionaban comunicación con el almacenamiento y los hosts externos a través de una red Ethernet . Los nodos de E/S manejaban las operaciones del sistema de archivos en nombre de los nodos de cómputo. Una red de gestión Ethernet separada y privada proporcionaba acceso a cualquier nodo para configuración, arranque y diagnóstico.

Para permitir que varios programas se ejecuten simultáneamente, un sistema Blue Gene/L se puede dividir en conjuntos de nodos aislados electrónicamente. El número de nodos en una partición debe ser una potencia entera positiva de 2, con al menos 2 5 = 32 nodos. Para ejecutar un programa en Blue Gene/L, primero se debe reservar una partición de la computadora. Luego, el programa se carga y se ejecuta en todos los nodos dentro de la partición, y ningún otro programa puede acceder a los nodos dentro de la partición mientras esté en uso. Una vez completado, los nodos de la partición se liberan para que los usen futuros programas.

Los nodos de cómputo de Blue Gene/L utilizaban un sistema operativo mínimo que admitía un único programa de usuario. Solo se admitía un subconjunto de llamadas POSIX y solo se podía ejecutar un proceso a la vez en un nodo en modo de coprocesador, o un proceso por CPU en modo virtual. Los programadores necesitaban implementar subprocesos verdes para simular la concurrencia local. El desarrollo de aplicaciones se realizaba normalmente en C , C++ o Fortran utilizando MPI para la comunicación. Sin embargo, algunos lenguajes de programación como Ruby [19] y Python [20] se han adaptado a los nodos de cómputo.

IBM publicó BlueMatter, la aplicación desarrollada para ejercitar Blue Gene/L, como código abierto. [21] Esto sirve para documentar cómo las interfaces toroidales y colectivas fueron utilizadas por las aplicaciones, y puede servir como base para que otros ejerciten la generación actual de supercomputadoras.

Gen azul/P

Una tarjeta de nodo Blue Gene/P
Una descripción esquemática de una supercomputadora Blue Gene/P

En junio de 2007, IBM presentó Blue Gene/P , la segunda generación de la serie de supercomputadoras Blue Gene y diseñada a través de una colaboración que incluyó a IBM, LLNL y el Leadership Computing Facility del Laboratorio Nacional Argonne . [22]

Diseño

El diseño de Blue Gene/P es una evolución tecnológica de Blue Gene/L. Cada chip de cómputo Blue Gene/P contiene cuatro núcleos de procesador PowerPC 450 , que funcionan a 850 MHz. Los núcleos son coherentes con la caché y el chip puede funcionar como un multiprocesador simétrico de 4 vías (SMP). El subsistema de memoria del chip consta de pequeñas cachés L2 privadas, una caché L3 compartida central de 8 MB y controladores de memoria DDR2 duales . El chip también integra la lógica para la comunicación de nodo a nodo, utilizando las mismas topologías de red que Blue Gene/L, pero con más del doble de ancho de banda. Una tarjeta de cómputo contiene un chip Blue Gene/P con 2 o 4 GB de DRAM, que comprende un "nodo de cómputo". Un solo nodo de cómputo tiene un rendimiento máximo de 13,6 GFLOPS. Se conectan 32 tarjetas de cómputo a una placa de nodo refrigerada por aire. Un bastidor contiene 32 placas de nodo (es decir, 1024 nodos, 4096 núcleos de procesador). [23] Al utilizar muchos chips pequeños, de bajo consumo y densamente empaquetados, Blue Gene/P superó la eficiencia energética de otras supercomputadoras de su generación, y con 371  MFLOPS/W las instalaciones de Blue Gene/P se ubicaron en la cima o cerca de ella en las listas Green500 en 2007-2008. [2]

Instalaciones

La siguiente es una lista incompleta de instalaciones de Blue Gene/P. En noviembre de 2009, la lista TOP500 contenía 15 instalaciones de Blue Gene/P de 2 racks (2048 nodos, 8192 núcleos de procesador, 23,86  TFLOPS Linpack ) y más grandes. [1]

Aplicaciones

Gen azul/Q

La instalación IBM Blue Gene/Q Mira en el Laboratorio Nacional Argonne , cerca de Chicago, Illinois

El tercer diseño de la serie Blue Gene, Blue Gene/Q , amplió y mejoró significativamente las arquitecturas Blue Gene/L y /P.

Diseño

El "chip de cómputo" Blue Gene/Q se basa en el núcleo de procesador IBM A2 de 64 bits . El núcleo de procesador A2 es multiproceso simultáneo de 4 vías y fue ampliado con una unidad de punto flotante de doble precisión de cuatro vectores SIMD (IBM QPX). Cada chip de cómputo Blue Gene/Q contiene 18 núcleos de procesador A2 de este tipo, que funcionan a 1,6 GHz. Se utilizan 16 núcleos para la computación de aplicaciones y un núcleo 17 se utiliza para gestionar funciones de asistencia del sistema operativo, como interrupciones , E/S asíncrona , ritmo MPI y RAS . El núcleo 18 es un repuesto de fabricación redundante , que se utiliza para aumentar el rendimiento. El núcleo de repuesto se desactiva antes de la operación del sistema. Los núcleos de procesador del chip están vinculados por un conmutador de barra cruzada a una caché L2 de eDRAM de 32 MB , que funciona a la mitad de la velocidad del núcleo. La caché L2 tiene múltiples versiones (soporta memoria transaccional y ejecución especulativa ) y tiene soporte de hardware para operaciones atómicas . [39] Los fallos de caché L2 son gestionados por dos controladores de memoria DDR3 integrados que funcionan a 1,33 GHz. El chip también integra lógica para comunicaciones de chip a chip en una configuración de toro 5D , con enlaces de chip a chip de 2 GB/s. El chip Blue Gene/Q está fabricado en el proceso SOI de cobre de IBM a 45 nm. Ofrece un rendimiento máximo de 204,8 GFLOPS mientras consume aproximadamente 55 vatios. El chip mide 19×19 mm (359,5 mm²) y consta de 1.470 millones de transistores. Para completar el nodo de cómputo, el chip está montado en una tarjeta de cómputo junto con 16 GB de DRAM DDR3 (es decir, 1 GB para cada núcleo de procesador de usuario). [40]

Un "cajón de cómputo" Q32 [41] contiene 32 nodos de cómputo, cada uno refrigerado por agua. [42] Un "plano intermedio" (caja) contiene 16 cajones de cómputo Q32 para un total de 512 nodos de cómputo, interconectados eléctricamente en una configuración de toro 5D (4x4x4x4x2). Más allá del nivel del plano intermedio, todas las conexiones son ópticas. Los racks tienen dos planos intermedios, es decir, 32 cajones de cómputo, para un total de 1024 nodos de cómputo, 16 384 núcleos de usuario y 16 TB de RAM. [42]

Los cajones de E/S separados, ubicados en la parte superior de un rack o en un rack separado, están refrigerados por aire y contienen 8 tarjetas de cómputo y 8 ranuras de expansión PCIe para redes InfiniBand o Ethernet de 10 Gigabit . [42]

Actuación

En el momento del anuncio del sistema Blue Gene/Q en noviembre de 2011, [43] un sistema Blue Gene/Q inicial de 4 racks (4096 nodos, 65536 núcleos de procesador de usuario) alcanzó el puesto número 17 en la lista TOP500 [1] con 677,1 TeraFLOPS Linpack, superando a la instalación original BlueGene/L de 104 racks de 2007 descrita anteriormente. El mismo sistema de 4 racks alcanzó la primera posición en la lista Graph500 [3] con más de 250 GTEPS (giga bordes atravesados ​​por segundo ). Los sistemas Blue Gene/Q también encabezaron la lista Green500 de supercomputadoras con mayor eficiencia energética con hasta 2,1  GFLOPS/W . [2]

En junio de 2012, las instalaciones de Blue Gene/Q ocuparon las primeras posiciones en las tres listas: TOP500 , [1] Graph500 [3] y Green500 . [2]

Instalaciones

La siguiente es una lista incompleta de instalaciones de Blue Gene/Q. En junio de 2012, la lista TOP500 contenía 20 instalaciones de Blue Gene/Q de 1/2 rack (512 nodos, 8192 núcleos de procesador, 86,35 TFLOPS Linpack) y más grandes. [1] Con una eficiencia energética (independiente del tamaño) de aproximadamente 2,1 GFLOPS/W, todos estos sistemas también ocuparon la parte superior de la lista Green 500 de junio de 2012. [2]

Aplicaciones

Se han ejecutado aplicaciones científicas que han batido récords en el BG/Q, el primero en superar los 10 petaflops de rendimiento sostenido. El marco de simulación cosmológica HACC logró casi 14 petaflops con una ejecución de referencia de 3,6 billones de partículas, [64] mientras que el código Cardioid, [65] [66] que modela la electrofisiología del corazón humano, logró casi 12 petaflops con una simulación casi en tiempo real, ambos en Sequoia . Un solucionador de flujo totalmente compresible también logró 14,4 PFLOP/s (originalmente 11 PFLOP/s) en Sequoia, el 72% del rendimiento pico nominal de la máquina. [67]

Véase también

Referencias

  1. ^ abcdefghi «Noviembre de 2004: TOP500 sitios de supercomputadoras». Top500.org . Consultado el 13 de diciembre de 2019 .
  2. ^ abcde «Green500 - TOP500 Supercomputer Sites». Green500.org . Archivado desde el original el 26 de agosto de 2016. Consultado el 13 de octubre de 2017 .
  3. ^ abc "La lista Graph500". Archivado desde el original el 27 de diciembre de 2011.
  4. ^ Harris, Mark (18 de septiembre de 2009). "Obama rinde homenaje a la supercomputadora IBM". Techradar.com . Consultado el 18 de septiembre de 2009 .
  5. ^ "Cambios en la estrategia de supercomputación en un mundo sin BlueGene". Nextplatform.com . 14 de abril de 2015 . Consultado el 13 de octubre de 2017 .
  6. ^ "IBM construirá las supercomputadoras Coral de próxima generación del Departamento de Energía - EE Times". EETimes . Archivado desde el original el 30 de abril de 2017 . Consultado el 13 de octubre de 2017 .
  7. ^ Conferencia Supercomputing 2020, presentación en video del premio Test of Time
  8. ^ "Blue Gene: Una visión para la ciencia de las proteínas usando una supercomputadora de petaflop" (PDF) . IBM Systems Journal . 40 (2). 2017-10-23.
  9. ^ "Una charla con el cerebro detrás de Blue Gene", BusinessWeek , 6 de noviembre de 2001, archivado desde el original el 11 de diciembre de 2014
  10. ^ "BlueGene/L". Archivado desde el original el 18 de julio de 2011. Consultado el 5 de octubre de 2007 .
  11. ^ "hpcwire.com". Archivado desde el original el 28 de septiembre de 2007.
  12. ^ "SC06". sc06.supercomputing.org . Consultado el 13 de octubre de 2017 .
  13. ^ "Concurso de premios HPC Challenge". Archivado desde el original el 11 de diciembre de 2006. Consultado el 3 de diciembre de 2006 .
  14. ^ "Cerebro de ratón simulado en computadora". BBC News. 27 de abril de 2007. Archivado desde el original el 25 de mayo de 2007.
  15. ^ "IBM100 - Blue Gene". 03.ibm.com . 7 de marzo de 2012. Archivado desde el original el 3 de abril de 2012 . Consultado el 13 de octubre de 2017 .
  16. ^ Kunkel, Julian M.; Ludwig, Thomas; Meuer, Hans (12 de junio de 2013). Supercomputing: 28th International Supercomputing Conference, ISC 2013, Leipzig, Alemania, 16-20 de junio de 2013. Actas. Springer. ISBN 9783642387500. Recuperado el 13 de octubre de 2017 – vía Google Books.
  17. ^ "Blue Gene". Revista IBM de Investigación y Desarrollo . 49 (2/3). 2005.
  18. ^ Kissel, Lynn. "BlueGene/L Configuration". asc.llnl.gov . Archivado desde el original el 17 de febrero de 2013 . Consultado el 13 de octubre de 2017 .
  19. ^ "Compute Node Ruby para Bluegene/L". www.ece.iastate.edu . Archivado desde el original el 11 de febrero de 2009.
  20. ^ William Scullin (12 de marzo de 2011). Python para computación de alto rendimiento. Atlanta, GA.
  21. ^ Código fuente de Blue Matter, consultado el 28 de febrero de 2020
  22. ^ "IBM triplica el rendimiento de la supercomputadora más rápida y de mayor eficiencia energética del mundo". 27 de junio de 2007. Archivado desde el original el 8 de julio de 2007. Consultado el 24 de diciembre de 2011 .
  23. ^ "Descripción general del proyecto IBM Blue Gene/P". IBM Journal of Research and Development . 52 : 199–220. Enero de 2008. doi :10.1147/rd.521.0199.
  24. ^ "Supercomputación: Jülich, de nuevo entre los líderes mundiales". IDG News Service. 12 de noviembre de 2007.
  25. ^ "Sala de prensa de IBM - 2009-02-10 El nuevo superordenador IBM Petaflop en el centro de investigación alemán Juelich será el más potente de Europa". 03.ibm.com. 2009-02-10. Archivado desde el original el 12 de febrero de 2009. Consultado el 2011-03-11 .
  26. ^ "La supercomputadora de Argonne nombrada la más rápida del mundo en ciencia abierta, tercera en la clasificación general". Mcs.anl.gov . Archivado desde el original el 8 de febrero de 2009. Consultado el 13 de octubre de 2017 .
  27. ^ "La Universidad Rice e IBM se asocian para traer la primera supercomputadora Blue Gene a Texas". news.rice.edu . Archivado desde el original el 2012-04-05 . Consultado el 2012-04-01 .
  28. ^ Вече си имаме и суперкомпютър Archivado el 23 de diciembre de 2009 en Wayback Machine , Dir.bg, 9 de septiembre de 2008.
  29. ^ "Sala de prensa de IBM - 2010-02-11 IBM colaborará con instituciones australianas líderes para ampliar los límites de la investigación médica - Australia". 03.ibm.com. 2010-02-11. Archivado desde el original el 16 de julio de 2012. Consultado el 2011-03-11 .
  30. ^ "Rutgers obtiene un arma de Big Data en la supercomputadora IBM - Hardware -". Archivado desde el original el 2013-03-06 . Consultado el 2013-09-07 .
  31. ^ "La Universidad de Rochester e IBM amplían su colaboración en pos de nuevas fronteras en materia de salud". Centro Médico de la Universidad de Rochester. 11 de mayo de 2012. Archivado desde el original el 11 de mayo de 2012.
  32. ^ "IBM y la Universidad de Brunei Darussalam colaborarán en la investigación sobre modelado climático". Sala de prensa de IBM. 13 de octubre de 2010. Archivado desde el original el 12 de diciembre de 2010. Consultado el 18 de octubre de 2012 .
  33. ^ Ronda, Rainier Allan. "La supercomputadora de DOST para científicos ya está operativa". Philstar.com . Consultado el 13 de octubre de 2017 .
  34. ^ "Entrenamiento de Topalov con el superordenador Blue Gene P". Players.chessdo.com . Archivado desde el original el 19 de mayo de 2013. Consultado el 13 de octubre de 2017 .
  35. ^ Kaku, Michio. Física del futuro (Nueva York: Doubleday, 2011), 91.
  36. ^ "Proyecto Kittyhawk: una computadora a escala global". Research.ibm.com . Consultado el 13 de octubre de 2017 .
  37. ^ Appavoo, Jonathan; Uhlig, Volkmar; Waterland, Amos. "Proyecto Kittyhawk: construcción de una computadora a escala global" (PDF) . Yorktown Heights, NY: IBM TJ Watson Research Center. Archivado desde el original el 2008-10-31 . Consultado el 2018-03-13 .{{cite web}}: CS1 maint: bot: estado de URL original desconocido ( enlace )
  38. ^ "Expertos liderados por Rutgers ensamblan una nube de supercomputadoras que abarca todo el mundo". News.rutgers.edu . 2011-07-06. Archivado desde el original el 2011-11-10 . Consultado el 2011-12-24 .
  39. ^ "Especulación de la memoria del chip informático Blue Gene/Q" . Consultado el 23 de diciembre de 2011 .
  40. ^ "El chip Blue Gene/Q Compute" (PDF) . Archivado desde el original (PDF) el 29 de abril de 2015 . Consultado el 23 de diciembre de 2011 .
  41. ^ "La supercomputadora IBM Blue Gene/Q ofrece computación a escala de petabytes para aplicaciones informáticas de alto rendimiento" (PDF) . 01.ibm.com . Consultado el 13 de octubre de 2017 .
  42. ^ abc "IBM revela un superordenador BlueGene/Q de 20 petaflops". The Register . 22 de noviembre de 2010 . Consultado el 25 de noviembre de 2010 .
  43. ^ "IBM anuncia un superordenador de 20 petaflops". Kurzweil. 18 de noviembre de 2011. Consultado el 13 de noviembre de 2012. IBM ha anunciado el superordenador Blue Gene/Q, con un rendimiento máximo de 20 petaflops .
  44. ^ Feldman, Michael (3 de febrero de 2009). "Lawrence Livermore se prepara para Blue Gene/Q de 20 petaflops". HPCwire. Archivado desde el original el 12 de febrero de 2009. Consultado el 11 de marzo de 2011 .
  45. ^ B Johnston, Donald (18 de junio de 2012). «La supercomputadora Sequoia de la NNSA clasificada como la más rápida del mundo». Archivado desde el original el 2 de septiembre de 2014. Consultado el 23 de junio de 2012 .
  46. ^ "Comunicado de prensa de TOP500". Archivado desde el original el 24 de junio de 2012.
  47. ^ "MIRA: la supercomputadora más rápida del mundo - Argonne Leadership Computing Facility". Alcf.anl.gov . Consultado el 13 de octubre de 2017 .
  48. ^ "Mira - Argonne Leadership Computing Facility". Alcf.anl.gov . Consultado el 13 de octubre de 2017 .
  49. ^ "Vulcan—desmantelado". hpc.llnl.gov . Consultado el 10 de abril de 2019 .
  50. ^ "Centro de innovación HPC". hpcinnovationcenter.llnl.gov . Consultado el 13 de octubre de 2017 .
  51. ^ "Vulcan de Lawrence Livermore aporta 5 petaflops de potencia informática a las colaboraciones con la industria y el mundo académico para hacer avanzar la ciencia y la tecnología". Llnl.gov . 11 de junio de 2013. Archivado desde el original el 9 de diciembre de 2013 . Consultado el 13 de octubre de 2017 .
  52. ^ "Ibm-Fermi | Scai". Archivado desde el original el 2013-10-30 . Consultado el 2013-05-13 .
  53. ^ "DiRAC BlueGene/Q". epcc.ed.ac.uk .
  54. ^ "Rensselaer a Petascale: AMOS entre las supercomputadoras más rápidas y potentes del mundo". News.rpi.edu . Consultado el 13 de octubre de 2017 .
  55. ^ Michael Mullaneyvar. "AMOS ocupa el primer lugar entre las supercomputadoras de las universidades privadas estadounidenses". News.rpi.edi . Consultado el 13 de octubre de 2017 .
  56. ^ "La supercomputadora más ecológica del mundo llega a Melbourne - The Melbourne Engineer". Themelbourneengineer.eng.unimelb.edu.au/ . 16 de febrero de 2012. Archivado desde el original el 2 de octubre de 2017 . Consultado el 13 de octubre de 2017 .
  57. ^ "Bioinformática de Melbourne: para todos los investigadores y estudiantes del distrito de investigación biomédica y de biociencias de Melbourne". Bioinformática de Melbourne . Consultado el 13 de octubre de 2017 .
  58. ^ "Acceso a sistemas de alta gama - Melbourne Bioinformatics". Vlsci.org.au . Consultado el 13 de octubre de 2017 .
  59. ^ "La Universidad de Rochester inaugura una nueva era en la investigación sobre atención sanitaria". Rochester.edu . Consultado el 13 de octubre de 2017 .
  60. ^ "Recursos - Centro de Informática de Investigación Integrada". Circ.rochester.edu . Consultado el 13 de octubre de 2017 .
  61. ^ "Página de inicio de EPFL BlueGene/L". Archivado desde el original el 2007-12-10 . Consultado el 2021-03-10 .
  62. ^ Utilisateur, Super. "À propos". Cadmos.org . Archivado desde el original el 10 de enero de 2016. Consultado el 13 de octubre de 2017 .
  63. ^ "Centro de recursos computacionales A*STAR". Acrc.a-star.edu.sg . Archivado desde el original el 20 de diciembre de 2016. Consultado el 24 de agosto de 2016 .
  64. ^ S. Habib; V. Morozov; H. Finkel; A. Pope; K. Heitmann ; K. Kumaran; T. Peterka; J. Insley; D. Daniel; P. Fasel; N. Frontiere y Z. Lukic (2012). "El universo a escala extrema: simulación del cielo multi-Petaflop en el BG/Q". arXiv : 1211.4864 [cs.DC].
  65. ^ "Proyecto de modelado cardíaco cardioide". Researcher.watson.ibm.com . 25 de julio de 2016. Archivado desde el original el 21 de mayo de 2013. Consultado el 13 de octubre de 2017 .
  66. ^ "Aventurándose en el corazón de las simulaciones informáticas de alto rendimiento". Str.llnl.gov . Archivado desde el original el 14 de febrero de 2013 . Consultado el 13 de octubre de 2017 .
  67. ^ Rossinelli, Diego; Hejazialhosseini, Babak; Hadjidoukas, Panagiotis; Bekas, Costas; Curioni, Alessandro; Bertsch, Adam; Futral, Scott; Schmidt, Steffen J.; Adams, Nikolaus A.; Koumoutsakos, Petros (17 de noviembre de 2013). "11 simulaciones PFLOP/S del colapso de la cavitación de las nubes". Actas de la Conferencia internacional sobre computación de alto rendimiento, redes, almacenamiento y análisis . SC '13. págs. 1–13. doi :10.1145/2503210.2504565. ISBN 9781450323789.S2CID12651650  .​

Enlaces externos