stringtranslate.com

Gen azul de IBM

Jerarquía de unidades de procesamiento de Blue Gene

Blue Gene fue un proyecto de IBM destinado a diseñar supercomputadoras que puedan alcanzar velocidades operativas en el rango de petaFLOPS (PFLOPS) , con bajo consumo de energía.

El proyecto creó tres generaciones de supercomputadoras, Blue Gene/L , Blue Gene/P y Blue Gene/Q . Durante su implementación, los sistemas Blue Gene a menudo encabezaron las clasificaciones TOP500 [1] y Green500 [2] de las supercomputadoras más potentes y de mayor eficiencia energética, respectivamente. Los sistemas Blue Gene también han obtenido consistentemente las primeras posiciones en la lista Graph500 . [3] El proyecto fue galardonado con la Medalla Nacional de Tecnología e Innovación 2009 . [4]

A partir de 2015, IBM parece haber finalizado el desarrollo de la familia Blue Gene, aunque no se ha hecho ningún anuncio formal. [5] Desde entonces, IBM ha centrado sus esfuerzos en supercomputadoras en la plataforma OpenPower , utilizando aceleradores como FPGA y GPU para abordar los rendimientos decrecientes de la ley de Moore . [6]

Historia

En diciembre de 1999, IBM anunció una iniciativa de investigación de 100 millones de dólares para un esfuerzo de cinco años destinado a construir una computadora masivamente paralela , que se aplicaría al estudio de fenómenos biomoleculares como el plegamiento de proteínas . [7] El proyecto tenía dos objetivos principales: avanzar en nuestra comprensión de los mecanismos detrás del plegamiento de proteínas mediante simulación a gran escala y explorar ideas novedosas en arquitectura y software de máquinas masivamente paralelas. Las principales áreas de investigación incluyeron: cómo utilizar esta novedosa plataforma para cumplir eficazmente sus objetivos científicos, cómo hacer que estas máquinas masivamente paralelas sean más utilizables y cómo lograr objetivos de rendimiento a un costo razonable, a través de novedosas arquitecturas de máquinas. El diseño inicial de Blue Gene se basó en una versión anterior de la arquitectura Cyclops64 , diseñada por Monty Denneau . El trabajo inicial de investigación y desarrollo se llevó a cabo en el Centro de investigación IBM TJ Watson y estuvo dirigido por William R. Pulleyblank . [8]

En IBM, Alan Gara comenzó a trabajar en una extensión de la arquitectura QCDOC a una supercomputadora de uso más general: la red de interconexión del vecino más cercano 4D fue reemplazada por una red que admitía el enrutamiento de mensajes de cualquier nodo a cualquier otro; y se agregó un subsistema de E/S paralelo. El DOE comenzó a financiar el desarrollo de este sistema y pasó a ser conocido como Blue Gene/L (L de Luz); El desarrollo del sistema Blue Gene original continuó bajo el nombre de Blue Gene/C (C de Cyclops) y, más tarde, Cyclops64.

En noviembre de 2004, un sistema de 16 racks , en el que cada rack contenía 1.024 nodos de cómputo, alcanzó el primer lugar en la lista TOP500 , con un rendimiento Linpack de 70,72 TFLOPS. [1] De este modo superó al Earth Simulator de NEC , que había ostentado el título de ordenador más rápido del mundo desde 2002. Desde 2004 hasta 2007, la instalación de Blue Gene/L en LLNL [9] se amplió gradualmente hasta 104 bastidores, alcanzando 478 TFLOPS Linpack y pico de 596 TFLOPS. La instalación LLNL BlueGene/L ocupó la primera posición en la lista TOP500 durante 3,5 años, hasta que en junio de 2008 fue superada por el sistema Cell-based Roadrunner de IBM en el Laboratorio Nacional de Los Álamos , que fue el primer sistema en superar la marca de 1 PetaFLOPS. El sistema fue construido en la planta de IBM de Rochester, MN.

Si bien la instalación de LLNL fue la instalación más grande de Blue Gene/L, le siguieron muchas instalaciones más pequeñas. En noviembre de 2006, había 27 computadoras en la lista TOP500 que utilizaban la arquitectura Blue Gene/L. Todas estas computadoras figuraban en la lista con una arquitectura de eServer Blue Gene Solution . Por ejemplo, en el Centro de Supercomputación de San Diego se alojaron tres bastidores de Blue Gene/L .

Mientras que el TOP500 mide el rendimiento en una única aplicación de referencia, Linpack, Blue Gene/L también estableció récords de rendimiento en un conjunto más amplio de aplicaciones. Blue Gene/L fue la primera supercomputadora en ejecutar más de 100  TFLOPS sostenidos en una aplicación del mundo real, es decir, un código de dinámica molecular tridimensional (ddcMD), que simula la solidificación (procesos de nucleación y crecimiento) de metal fundido bajo alta presión y temperatura. condiciones. Este logro le valió el Premio Gordon Bell 2005 .

En junio de 2006, la NNSA e IBM anunciaron que Blue Gene/L alcanzó 207,3 TFLOPS en una aplicación química cuántica ( Qbox ). [10] En Supercomputing 2006, [11] Blue Gene/L recibió el premio ganador en todas las clases de premios HPC Challenge. [12] En 2007, un equipo del Centro de Investigación IBM Almaden y la Universidad de Nevada ejecutaron una red neuronal artificial casi la mitad de compleja que el cerebro de un ratón durante el equivalente a un segundo (la red se ejecutó a 1/10 de velocidad normal durante 10 segundos). [13]

El nombre

El nombre Blue Gene proviene de la función para la que fue diseñado originalmente: ayudar a los biólogos a comprender los procesos de plegamiento de proteínas y desarrollo de genes . [14] "Azul" es un apodo tradicional que IBM utiliza para muchos de sus productos y para la propia empresa . El diseño original de Blue Gene pasó a llamarse "Blue Gene/C" y, finalmente, Cyclops64 . La "L" en Blue Gene/L proviene de "Light", ya que el nombre original de ese diseño era "Blue Light". La versión "P" fue diseñada para ser un diseño de petaescala . "Q" es sólo la letra después de "P". No existe el gen azul/R. [15]

Características principales

La supercomputadora Blue Gene/L fue única en los siguientes aspectos: [16]

Arquitectura

La arquitectura Blue Gene/L fue una evolución de las arquitecturas QCDSP y QCDOC . Cada nodo de E/S o Compute Blue Gene/L era un único ASIC con chips de memoria DRAM asociados . El ASIC integró dos procesadores integrados PowerPC 440 de 700 MHz, cada uno con una unidad de punto flotante (FPU) de doble canalización y doble precisión , un subsistema de caché con controlador DRAM incorporado y la lógica para admitir múltiples subsistemas de comunicación. . Las FPU duales dieron a cada nodo Blue Gene/L un rendimiento máximo teórico de 5,6  GFLOPS (gigaFLOPS) . Las dos CPU no eran coherentes en caché entre sí.

Los nodos de cómputo se empaquetaron en dos por tarjeta de cómputo, con 16 tarjetas de cómputo más hasta 2 nodos de E/S por placa de nodo. Había 32 placas de nodos por gabinete/bastidor. [17] Mediante la integración de todos los subsistemas esenciales en un solo chip y el uso de lógica de bajo consumo, cada nodo de Computación o E/S disipaba baja potencia (alrededor de 17 vatios, incluidas las DRAM). Esto permitió un empaquetado agresivo de hasta 1024 nodos de cómputo, además de nodos de E/S adicionales, en un rack estándar de 19 pulgadas , dentro de límites razonables de suministro de energía eléctrica y refrigeración por aire. Las métricas de rendimiento, en términos de FLOPS por vatio , FLOPS por m 2 de superficie y FLOPS por costo unitario, permitieron escalar hasta un rendimiento muy alto. Con tantos nodos, las fallas de los componentes eran inevitables. El sistema pudo aislar eléctricamente los componentes defectuosos, hasta una granularidad de medio bastidor (512 nodos de cómputo), para permitir que la máquina continuara funcionando.

Cada nodo Blue Gene/L estaba conectado a tres redes de comunicaciones paralelas: una red toroidal 3D para la comunicación entre pares entre nodos informáticos, una red colectiva para la comunicación colectiva (transmisiones y operaciones reducidas) y una red de interrupción global para barreras rápidas. . Los nodos de E/S, que ejecutan el sistema operativo Linux , proporcionaban comunicación al almacenamiento y a los hosts externos a través de una red Ethernet . Los nodos de E/S manejaban las operaciones del sistema de archivos en nombre de los nodos de computación. Finalmente, una red Ethernet privada e independiente proporcionó acceso a cualquier nodo para configuración, arranque y diagnóstico. Para permitir que se ejecuten múltiples programas simultáneamente, un sistema Blue Gene/L podría dividirse en conjuntos de nodos aislados electrónicamente. El número de nodos en una partición tenía que ser una potencia entera positiva de 2, con al menos 2 ·5 = 32 nodos. Para ejecutar un programa en Blue Gene/L, primero debía reservarse una partición del ordenador. Luego, el programa se cargó y ejecutó en todos los nodos dentro de la partición, y ningún otro programa pudo acceder a los nodos dentro de la partición mientras estaba en uso. Al finalizar, los nodos de partición se liberaron para su uso en futuros programas.

Los nodos informáticos Blue Gene/L utilizaban un sistema operativo mínimo que admitía un único programa de usuario. Solo se admitía un subconjunto de llamadas POSIX y solo se podía ejecutar un proceso a la vez en el nodo en modo coprocesador, o un proceso por CPU en modo virtual. Los programadores necesitaban implementar subprocesos verdes para simular la concurrencia local. El desarrollo de aplicaciones generalmente se realizaba en C , C++ o Fortran utilizando MPI para la comunicación. Sin embargo, algunos lenguajes de programación como Ruby [18] y Python [19] se han portado a los nodos de computación.

IBM publicó aquí BlueMatter, la aplicación desarrollada para ejercitar Blue Gene/L, como código abierto. [20] Esto sirve para documentar cómo las aplicaciones utilizaron el toro y las interfaces colectivas, y puede servir como base para que otros ejerciten la generación actual de supercomputadoras.

Gen azul/P

Una tarjeta de nodo Blue Gene/P
Una descripción esquemática de una supercomputadora Blue Gene/P

En junio de 2007, IBM presentó Blue Gene/P , la segunda generación de la serie de supercomputadoras Blue Gene y fue diseñada a través de una colaboración que incluyó a IBM, LLNL y Leadership Computing Facility del Laboratorio Nacional Argonne . [21]

Diseño

El diseño de Blue Gene/P es una evolución tecnológica de Blue Gene/L. Cada chip Blue Gene/P Compute contiene cuatro núcleos de procesador PowerPC 450 , que funcionan a 850 MHz. Los núcleos son coherentes con la caché y el chip puede funcionar como un multiprocesador simétrico de 4 vías (SMP). El subsistema de memoria del chip consta de pequeños cachés L2 privados, un caché L3 central compartido de 8 MB y dos controladores de memoria DDR2 . El chip también integra la lógica para la comunicación de nodo a nodo, utilizando las mismas topologías de red que Blue Gene/L, pero con más del doble de ancho de banda. Una tarjeta informática contiene un chip Blue Gene/P con 2 o 4 GB de DRAM, que comprende un "nodo informático". Un solo nodo informático tiene un rendimiento máximo de 13,6 GFLOPS. 32 tarjetas de cómputo están conectadas a una placa de nodo enfriada por aire. Un bastidor contiene 32 placas de nodos (es decir, 1024 nodos, 4096 núcleos de procesador). [22] Al utilizar muchos chips pequeños, de bajo consumo y densamente empaquetados, Blue Gene/P superó la eficiencia energética de otras supercomputadoras de su generación, y con 371  MFLOPS/W, las instalaciones de Blue Gene/P se ubicaron en o cerca de la cima de la clasificación. Listas Green500 en 2007-2008. [2]

Instalaciones

La siguiente es una lista incompleta de instalaciones de Blue Gene/P. En noviembre de 2009, la lista TOP500 contenía 15 instalaciones de Blue Gene/P de 2 bastidores (2048 nodos, 8192 núcleos de procesador, 23,86  TFLOPS Linpack ) y más grandes. [1]

Aplicaciones

Gen azul/Q

El IBM Blue Gene/Q instalado en el Laboratorio Nacional Argonne , cerca de Chicago, Illinois

El tercer diseño de supercomputadora de la serie Blue Gene, Blue Gene/Q, tiene un rendimiento máximo de 20 petaflops , [38] alcanzando el rendimiento de referencia de LINPACK de 17 petaflops . Blue Gene/Q continúa expandiendo y mejorando las arquitecturas Blue Gene/L y /P.

Diseño

El "nodo de cálculo" de Blue Gene/Q consta de un chip que contiene varios núcleos de procesador A2 de 64 bits . Cada código de procesador es multiproceso de 4 vías simultáneamente , funciona a 1,6 GHz y tiene una unidad de punto flotante de doble precisión SIMD de cuatro vectores (IBM QPX). Cada chip informático contiene 18 núcleos. Se utilizan 16 núcleos de procesador para la informática de aplicaciones; un núcleo 17 maneja funciones de asistencia del sistema operativo como interrupciones , E/S asíncronas , estimulación MPI y RAS ; y el núcleo 18 es sólo un repuesto de fabricación redundante que se utiliza para aumentar el rendimiento. El núcleo sobrante posiblemente no funcional se desactiva antes de la operación del sistema. Los núcleos del procesador del chip están conectados mediante un interruptor de barra transversal a una caché eDRAM L2 de 32 MB, que funciona a la mitad de la velocidad del núcleo. La caché L2 tiene múltiples versiones (admite memoria transaccional y ejecución especulativa ) y tiene soporte de hardware para operaciones atómicas . [39] Los errores de caché L2 son manejados por dos controladores de memoria DDR3 integrados que funcionan a 1,33 GHz. El chip también integra lógica para comunicaciones de chip a chip en una configuración de toro 5D, con enlaces de chip a chip de 2 GB/s. El chip Blue Gene/Q se fabrica mediante el proceso SOI de cobre de IBM a 45 nm. Ofrece un rendimiento máximo de 204,8 GFLOPS y consume aproximadamente 55 vatios. El chip mide 19×19 mm (359,5 mm²) y consta de 1,47 mil millones de transistores. Para completar el nodo de cómputo, el chip se monta en una tarjeta de cómputo junto con 16 GB de DRAM DDR3 (es decir, 1 GB para cada núcleo de procesador de usuario). [40]

Un "cajón de cómputo" Q32 [41] contiene 32 nodos de cómputo, cada uno de ellos enfriado por agua. [42] Un "plano medio" (caja) contiene 16 cajones de cómputo Q32 para un total de 512 nodos de cómputo, interconectados eléctricamente en una configuración de toro 5D (4x4x4x4x2). Más allá del nivel del plano medio, todas las conexiones son ópticas. Los bastidores tienen dos planos medios, es decir, 32 cajones de computación, para un total de 1024 nodos de computación, 16,384 núcleos de usuario y 16 TB de RAM. [42]

Los cajones de E/S separados, ubicados en la parte superior de un rack o en un rack separado, están enfriados por aire y contienen 8 tarjetas de cómputo y 8 ranuras de expansión PCIe para redes InfiniBand o 10 Gigabit Ethernet . [42]

Actuación

En el momento del anuncio del sistema Blue Gene/Q en noviembre de 2011, un sistema inicial Blue Gene/Q de 4 racks (4096 nodos, 65536 núcleos de procesador de usuario) alcanzó el puesto 17 en la lista TOP500 [1] con 677,1 TeraFLOPS Linpack, superando la instalación original BlueGene/L de 104 bastidores de 2007 descrita anteriormente. El mismo sistema de 4 racks alcanzó la primera posición en la lista Graph500 [3] con más de 250 GTEPS (giga de bordes recorridos por segundo ). Los sistemas Blue Gene/Q también encabezaron la lista Green500 de las supercomputadoras con mayor eficiencia energética con hasta 2,1  GFLOPS/W . [2]

En junio de 2012, las instalaciones de Blue Gene/Q ocuparon las primeras posiciones en las tres listas: TOP500 , [1] Graph500 [3] y Green500 . [2]

Instalaciones

La siguiente es una lista incompleta de instalaciones de Blue Gene/Q. En junio de 2012, la lista TOP500 contenía 20 instalaciones Blue Gene/Q de 1/2 rack (512 nodos, 8192 núcleos de procesador, 86,35 TFLOPS Linpack) y más grandes. [1] Con una eficiencia energética (independiente del tamaño) de aproximadamente 2,1 GFLOPS/W, todos estos sistemas también ocuparon los primeros puestos de la lista Green 500 de junio de 2012 . [2]

Aplicaciones

Se han ejecutado aplicaciones científicas sin precedentes en el BG/Q, el primero en superar los 10 petaflops de rendimiento sostenido. El marco de simulación de cosmología HACC logró casi 14 petaflops con una prueba de referencia de 3,6 billones de partículas, [63] mientras que el código cardioide, [64] [65] que modela la electrofisiología del corazón humano, logró casi 12 petaflops con una prueba casi en tiempo real. simulación, ambos en Sequoia . Un solucionador de flujo totalmente comprimible también logró 14,4 PFLOP/s (originalmente 11 PFLOP/s) en Sequoia, el 72% del rendimiento máximo nominal de la máquina. [66]

Ver también

Referencias

  1. ^ abcdefghi "Noviembre de 2004: TOP500 sitios de supercomputadoras". Top500.org . Consultado el 13 de diciembre de 2019 .
  2. ^ abcde "Green500 - TOP500 sitios de supercomputadoras". Green500.org . Archivado desde el original el 26 de agosto de 2016 . Consultado el 13 de octubre de 2017 .
  3. ^ a b "La lista Graph500". Archivado desde el original el 27 de diciembre de 2011.
  4. ^ Harris, Mark (18 de septiembre de 2009). "Obama rinde homenaje a la supercomputadora de IBM". Techradar.com . Consultado el 18 de septiembre de 2009 .
  5. ^ "Cambios en la estrategia de supercomputación en un mundo sin BlueGene". Siguienteplataforma.com . 14 de abril de 2015 . Consultado el 13 de octubre de 2017 .
  6. ^ "IBM construirá las supercomputadoras Coral de próxima generación del DoE - EE Times". EETimes . Archivado desde el original el 30 de abril de 2017 . Consultado el 13 de octubre de 2017 .
  7. ^ "Blue Gene: una visión para la ciencia de las proteínas utilizando una supercomputadora Petaflop" (PDF) . Revista de sistemas IBM . 40 (2). 2017-10-23.
  8. ^ "Una charla con el cerebro detrás de Blue Gene", BusinessWeek , 6 de noviembre de 2001, archivado desde el original el 11 de diciembre de 2014
  9. ^ "BlueGene/L" . Archivado desde el original el 18 de julio de 2011 . Consultado el 5 de octubre de 2007 .
  10. ^ "hpcwire.com". Archivado desde el original el 28 de septiembre de 2007.
  11. ^ "SC06". sc06.supercomputing.org . Consultado el 13 de octubre de 2017 .
  12. ^ "Concurso de premios HPC Challenge". Archivado desde el original el 11 de diciembre de 2006 . Consultado el 3 de diciembre de 2006 .
  13. ^ "Cerebro de ratón simulado en computadora". Noticias de la BBC. 27 de abril de 2007. Archivado desde el original el 25 de mayo de 2007.
  14. ^ "IBM100 - Gen azul". 03.ibm.com . 7 de marzo de 2012 . Consultado el 13 de octubre de 2017 .
  15. ^ Kunkel, Julián M.; Luis, Thomas; Meuer, Hans (12 de junio de 2013). Supercomputación: 28ª Conferencia Internacional de Supercomputación, ISC 2013, Leipzig, Alemania, 16 al 20 de junio de 2013. Actas. Saltador. ISBN 9783642387500. Consultado el 13 de octubre de 2017 a través de Google Books.
  16. ^ "Gen azul". Revista IBM de investigación y desarrollo . 49 (2/3). 2005.
  17. ^ Kissel, Lynn. "Configuración BlueGene/L". asc.llnl.gov . Archivado desde el original el 17 de febrero de 2013 . Consultado el 13 de octubre de 2017 .
  18. ^ "Calcular el nodo Ruby para Bluegene/L". www.ece.iastate.edu . Archivado desde el original el 11 de febrero de 2009.
  19. ^ William Scullin (12 de marzo de 2011). Python para informática de alto rendimiento. Atlanta, Georgia.
  20. ^ Código fuente de Blue Matter, consultado el 28 de febrero de 2020
  21. ^ "IBM triplica el rendimiento de la supercomputadora más rápida y con mayor eficiencia energética del mundo". 2007-06-27 . Consultado el 24 de diciembre de 2011 .
  22. ^ "Descripción general del proyecto IBM Blue Gene/P". Revista IBM de investigación y desarrollo . 52 : 199–220. Enero de 2008. doi :10.1147/rd.521.0199.
  23. ^ "Supercomputación: Jülich vuelve a estar entre los líderes mundiales". Servicio de noticias IDG. 2007-11-12.
  24. ^ "Sala de prensa de IBM - 10 de febrero de 2009 La nueva supercomputadora IBM Petaflop en el Forschungszentrum Juelich alemán será la más poderosa de Europa". 03.ibm.com. 2009-02-10 . Consultado el 11 de marzo de 2011 .
  25. ^ "La supercomputadora de Argonne es nombrada la más rápida del mundo en ciencia abierta, tercera en general". Mcs.anl.gov . Archivado desde el original el 8 de febrero de 2009 . Consultado el 13 de octubre de 2017 .
  26. ^ "La Universidad de Rice y el socio de IBM traerán la primera supercomputadora Blue Gene a Texas". noticias.rice.edu . Archivado desde el original el 5 de abril de 2012 . Consultado el 1 de abril de 2012 .
  27. ^ Вече си имаме и суперкомпютър Archivado el 23 de diciembre de 2009 en Wayback Machine , Dir.bg, 9 de septiembre de 2008.
  28. ^ "Sala de prensa de IBM - 11 de febrero de 2010 IBM colaborará con instituciones australianas líderes para ampliar los límites de la investigación médica - Australia". 03.ibm.com. 2010-02-11 . Consultado el 11 de marzo de 2011 .
  29. ^ "Rutgers obtiene un arma de big data en la supercomputadora IBM - Hardware -". Archivado desde el original el 6 de marzo de 2013 . Consultado el 7 de septiembre de 2013 .
  30. ^ "La Universidad de Rochester e IBM amplían su asociación en busca de nuevas fronteras en salud". Centro médico de la Universidad de Rochester. 11 de mayo de 2012. Archivado desde el original el 11 de mayo de 2012.
  31. ^ "IBM y Universiti Brunei Darussalam colaborarán en la investigación de modelos climáticos". Sala de noticias de IBM. 2010-10-13 . Consultado el 18 de octubre de 2012 .
  32. ^ Ronda, Rainier Allan. "La supercomputadora de DOST para científicos ya está operativa". Philstar.com . Consultado el 13 de octubre de 2017 .
  33. ^ "Entrenamiento de Topalov con la supercomputadora Blue Gene P". Jugadores.chessdo.com . Archivado desde el original el 19 de mayo de 2013 . Consultado el 13 de octubre de 2017 .
  34. ^ Kaku, Michio. Física del futuro (Nueva York: Doubleday, 2011), 91.
  35. ^ "Proyecto Kittyhawk: una computadora a escala global". Investigación.ibm.com . Consultado el 13 de octubre de 2017 .
  36. ^ Appavoo, Jonathan; Uhlig, Volkmar; Waterland, Amós. "Proyecto Kittyhawk: construcción de una computadora a escala global" (PDF) . Yorktown Heights, Nueva York: Centro de investigación IBM TJ Watson. Archivado desde el original el 31 de octubre de 2008 . Consultado el 13 de marzo de 2018 .{{cite web}}: Mantenimiento CS1: bot: estado de la URL original desconocido ( enlace )
  37. ^ "Expertos dirigidos por Rutgers ensamblan una nube de supercomputadoras que abarca todo el mundo". Noticias.rutgers.edu . 2011-07-06. Archivado desde el original el 10 de noviembre de 2011 . Consultado el 24 de diciembre de 2011 .
  38. ^ "IBM anuncia una supercomputadora de 20 petaflops". Kurzweil. 18 de noviembre de 2011 . Consultado el 13 de noviembre de 2012 . IBM ha anunciado el superordenador Blue Gene/Q, con un rendimiento máximo de 20 petaflops
  39. ^ "Especulación de la memoria del chip informático Blue Gene/Q" . Consultado el 23 de diciembre de 2011 .
  40. ^ "El chip informático Blue Gene/Q" (PDF) . Archivado desde el original (PDF) el 29 de abril de 2015 . Consultado el 23 de diciembre de 2011 .
  41. ^ "La supercomputadora IBM Blue Gene/Q ofrece informática a petaescala para aplicaciones informáticas de alto rendimiento" (PDF) . 01.ibm.com . Consultado el 13 de octubre de 2017 .
  42. ^ abc "IBM descubre BlueGene/Q super de 20 petaflops". El registro . 22 de noviembre de 2010 . Consultado el 25 de noviembre de 2010 .
  43. ^ Feldman, Michael (3 de febrero de 2009). "Lawrence Livermore se prepara para 20 Petaflop Blue Gene/Q". Cable HPC. Archivado desde el original el 12 de febrero de 2009 . Consultado el 11 de marzo de 2011 .
  44. ^ B Johnston, Donald (18 de junio de 2012). "La supercomputadora Sequoia de la NNSA clasificada como la más rápida del mundo". Archivado desde el original el 2 de septiembre de 2014 . Consultado el 23 de junio de 2012 .
  45. ^ "Comunicado de prensa TOP500". Archivado desde el original el 24 de junio de 2012.
  46. ^ "MIRA: la supercomputadora más rápida del mundo - Argonne Leadership Computing Facility". Alcf.anl.gov . Consultado el 13 de octubre de 2017 .
  47. ^ "Mira - Instalación informática de liderazgo de Argonne". Alcf.anl.gov . Consultado el 13 de octubre de 2017 .
  48. ^ "Vulcano: fuera de servicio". hpc.llnl.gov . Consultado el 10 de abril de 2019 .
  49. ^ "Centro de innovación HPC". hpcinnovationcenter.llnl.gov . Consultado el 13 de octubre de 2017 .
  50. ^ "Vulcan de Lawrence Livermore aporta potencia informática de 5 petaflops a colaboraciones con la industria y el mundo académico para avanzar en la ciencia y la tecnología". Llnl.gov . 11 de junio de 2013. Archivado desde el original el 9 de diciembre de 2013 . Consultado el 13 de octubre de 2017 .
  51. ^ "Ibm-Fermi | Scai". Archivado desde el original el 30 de octubre de 2013 . Consultado el 13 de mayo de 2013 .
  52. ^ "DiRAC BlueGene/Q". epcc.ed.ac.uk. _
  53. ^ "Rensselaer en Petascale: AMOS entre las supercomputadoras más rápidas y potentes del mundo". Noticias.rpi.edu . Consultado el 13 de octubre de 2017 .
  54. ^ Michael Mullaneyvar. "AMOS ocupa el primer lugar entre las supercomputadoras de las universidades privadas estadounidenses". Noticias.rpi.edi . Consultado el 13 de octubre de 2017 .
  55. ^ "La supercomputadora más ecológica del mundo llega a Melbourne: The Melbourne Engineer". Themelbourneengineer.eng.unimelb.edu.au/ . 16 de febrero de 2012. Archivado desde el original el 2 de octubre de 2017 . Consultado el 13 de octubre de 2017 .
  56. ^ "Melbourne Bioinformatics: para todos los investigadores y estudiantes que trabajan en el recinto de investigación biomédica y de biociencias de Melbourne". Bioinformática de Melbourne . Consultado el 13 de octubre de 2017 .
  57. ^ "Acceso a sistemas de alta gama - Melbourne Bioinformatics". Vlsci.org.au . Consultado el 13 de octubre de 2017 .
  58. ^ "La Universidad de Rochester inaugura una nueva era de investigación en atención médica". Rochester.edu . Consultado el 13 de octubre de 2017 .
  59. ^ "Recursos - Centro de Computación de Investigación Integrada". Circ.rochester.edu . Consultado el 13 de octubre de 2017 .
  60. ^ "Página de inicio de EPFL BlueGene / L". Archivado desde el original el 10 de diciembre de 2007 . Consultado el 10 de marzo de 2021 .
  61. ^ Utilizador, súper. "A propósito". Cadmos.org . Archivado desde el original el 10 de enero de 2016 . Consultado el 13 de octubre de 2017 .
  62. ^ "Centro de recursos computacionales A * STAR". Acrc.a-star.edu.sg . Archivado desde el original el 20 de diciembre de 2016 . Consultado el 24 de agosto de 2016 .
  63. ^ S. Habib; V. Morózov; H. Finkel; A. Papa; K. Heitmann ; K. Kumaran; T. Peterka; J. Insley; D.Daniel; P. Fasel; N. Frontiere y Z. Lukic (2012). "El universo a escala extrema: simulación del cielo multi-petaflop en BG/Q". arXiv : 1211.4864 [cs.DC].
  64. ^ "Proyecto de modelado cardíaco cardioide". Investigador.watson.ibm.com . 25 de julio de 2016. Archivado desde el original el 21 de mayo de 2013 . Consultado el 13 de octubre de 2017 .
  65. ^ "Aventurándose en el corazón de las simulaciones informáticas de alto rendimiento". Str.llnl.gov . Archivado desde el original el 14 de febrero de 2013 . Consultado el 13 de octubre de 2017 .
  66. ^ Rossinelli, Diego; Hejazialhosseini, Babak; Hadjidoukas, Panagiotis; Bekas, Costas; Curioni, Alejandro; Bertsch, Adán; Futral, Scott; Schmidt, Steffen J.; Adams, Nikolaus A.; Koumoutsakos, Petros (17 de noviembre de 2013). "11 simulaciones PFLOP/S del colapso por cavitación de nubes". Actas de la conferencia internacional sobre informática, redes, almacenamiento y análisis de alto rendimiento . SC '13. págs. 1-13. doi :10.1145/2503210.2504565. ISBN 9781450323789. S2CID  12651650.

enlaces externos