Blue Gene fue un proyecto de IBM destinado a diseñar supercomputadoras que pudieran alcanzar velocidades operativas en el rango de petaFLOPS (PFLOPS) , con un consumo de energía relativamente bajo.
El proyecto creó tres generaciones de supercomputadoras: Blue Gene/L , Blue Gene/P y Blue Gene/Q . Durante su implementación, los sistemas Blue Gene a menudo encabezaron las clasificaciones TOP500 [1] y Green500 [2] de las supercomputadoras más potentes y de mayor eficiencia energética, respectivamente. Los sistemas Blue Gene también han obtenido constantemente las primeras posiciones en la lista Graph500 . [3] El proyecto recibió la Medalla Nacional de Tecnología e Innovación de 2009. [4]
Después de Blue Gene/Q, IBM centró sus esfuerzos en supercomputadoras en la plataforma OpenPower , utilizando aceleradores como FPGAs y GPU para abordar los rendimientos decrecientes de la ley de Moore . [5] [6]
Historia
En la conferencia Supercomputing 2020 se realizó una presentación en video de la historia y la tecnología del proyecto Blue Gene. [7]
En diciembre de 1999, IBM anunció una iniciativa de investigación de 100 millones de dólares para un esfuerzo de cinco años para construir una computadora masivamente paralela , que se aplicaría al estudio de fenómenos biomoleculares como el plegamiento de proteínas . [8] La investigación y el desarrollo fueron llevados a cabo por un gran equipo multidisciplinario en el IBM TJ Watson Research Center , inicialmente dirigido por William R. Pulleyblank . [9]
El proyecto tenía dos objetivos principales: avanzar en la comprensión de los mecanismos detrás del plegamiento de proteínas a través de simulación a gran escala y explorar ideas novedosas en arquitectura y software de máquinas masivamente paralelas. Las principales áreas de investigación incluyeron: cómo usar esta nueva plataforma para cumplir eficazmente sus objetivos científicos, cómo hacer que tales máquinas masivamente paralelas sean más utilizables y cómo lograr objetivos de rendimiento a un costo razonable, a través de nuevas arquitecturas de máquinas.
El diseño inicial de Blue Gene se basó en una versión temprana de la arquitectura Cyclops64 , diseñada por Monty Denneau . Paralelamente, Alan Gara había comenzado a trabajar en una extensión de la arquitectura QCDOC para convertirla en una supercomputadora de uso más general. El Departamento de Energía de los Estados Unidos comenzó a financiar el desarrollo de este sistema y pasó a conocerse como Blue Gene/L (L de Light). El desarrollo de la arquitectura original de Blue Gene continuó bajo el nombre de Blue Gene/C (C de Cyclops) y, más tarde, Cyclops64.
En noviembre de 2004, un sistema de 16 bastidores , cada uno con 1.024 nodos de cómputo, alcanzó el primer lugar en la lista TOP500 , con un rendimiento de referencia LINPACK de 70,72 TFLOPS. [1] De este modo, superó al Earth Simulator de NEC , que había ostentado el título de la computadora más rápida del mundo desde 2002. Desde 2004 hasta 2007, la instalación Blue Gene/L en LLNL [10] se expandió gradualmente a 104 bastidores, logrando 478 TFLOPS Linpack y 596 TFLOPS pico. La instalación BlueGene/L de LLNL mantuvo la primera posición en la lista TOP500 durante 3,5 años, hasta que en junio de 2008 fue superada por el sistema Roadrunner basado en Cell de IBM en el Laboratorio Nacional de Los Álamos , que fue el primer sistema en superar la marca de 1 PetaFLOPS.
Si bien la instalación de LLNL fue la instalación más grande de Blue Gene/L, le siguieron muchas instalaciones más pequeñas. La lista TOP500 de noviembre de 2006 mostró 27 computadoras con la arquitectura eServer Blue Gene Solution . Por ejemplo, tres racks de Blue Gene/L se alojaron en el Centro de Supercomputación de San Diego .
Mientras que el TOP500 mide el rendimiento en una única aplicación de referencia, Linpack, Blue Gene/L también estableció récords de rendimiento en un conjunto más amplio de aplicaciones. Blue Gene/L fue la primera supercomputadora que ejecutó más de 100 TFLOPS en una aplicación del mundo real, concretamente un código de dinámica molecular tridimensional (ddcMD), simulando la solidificación (procesos de nucleación y crecimiento) de metal fundido en condiciones de alta presión y temperatura. Este logro ganó el Premio Gordon Bell 2005 .
En junio de 2006, la NNSA e IBM anunciaron que Blue Gene/L había alcanzado 207,3 TFLOPS en una aplicación química cuántica ( Qbox ). [11] En Supercomputing 2006, [12] Blue Gene/L recibió el premio ganador en todas las categorías de premios del HPC Challenge. [13] En 2007, un equipo del IBM Almaden Research Center y la Universidad de Nevada ejecutó una red neuronal artificial casi la mitad de compleja que el cerebro de un ratón durante el equivalente a un segundo (la red se ejecutó a 1/10 de la velocidad normal durante 10 segundos). [14]
El nombre
El nombre Blue Gene proviene de lo que originalmente se diseñó para hacer, ayudar a los biólogos a comprender los procesos de plegamiento de proteínas y desarrollo de genes . [15] "Blue" es un apodo tradicional que IBM usa para muchos de sus productos y para la propia empresa . El diseño original de Blue Gene fue renombrado "Blue Gene/C" y, finalmente, Cyclops64 . La "L" en Blue Gene/L proviene de "Light", ya que el nombre original de ese diseño era "Blue Light". La versión "P" fue diseñada para ser un diseño a escala de peta . "Q" es solo la letra después de "P". [16]
Características principales
La supercomputadora Blue Gene/L era única en los siguientes aspectos: [17]
Intercambio de velocidad de procesadores por menor consumo de energía. Blue Gene/L utilizó núcleos PowerPC integrados de baja frecuencia y bajo consumo con aceleradores de punto flotante. Si bien el rendimiento de cada chip era relativamente bajo, el sistema podía lograr una mejor eficiencia energética para aplicaciones que podían utilizar una gran cantidad de nodos.
Procesadores duales por nodo con dos modos de trabajo: modo coprocesador, donde un procesador maneja el cálculo y el otro maneja la comunicación; y modo nodo virtual, donde ambos procesadores están disponibles para ejecutar el código de usuario, pero los procesadores comparten tanto la carga de cálculo como la de comunicación.
Diseño de sistema en un chip. Los componentes se integraron en un solo chip para cada nodo, con excepción de la memoria DRAM externa de 512 MB.
Una gran cantidad de nodos (escalables en incrementos de 1024 hasta al menos 65 536).
Interconexión de toro tridimensional con redes auxiliares para comunicaciones globales (transmisión y reducciones), E/S y gestión.
Sistema operativo ligero por nodo para una mínima sobrecarga del sistema (ruido del sistema).
Arquitectura
La arquitectura Blue Gene/L fue una evolución de las arquitecturas QCDSP y QCDOC . Cada nodo de cómputo o E/S de Blue Gene/L era un ASIC único con chips de memoria DRAM asociados. El ASIC integraba dos procesadores integrados PowerPC 440 de 700 MHz , cada uno con una unidad de punto flotante (FPU) de doble precisión y doble canalización , un subsistema de caché con un controlador DRAM integrado y la lógica para admitir múltiples subsistemas de comunicación. Las FPU duales le dieron a cada nodo Blue Gene/L un rendimiento máximo teórico de 5,6 GFLOPS (gigaFLOPS) . Las dos CPU no eran coherentes en caché entre sí.
Los nodos de cómputo se empaquetaron de a dos por tarjeta de cómputo, con 16 tarjetas de cómputo (es decir, 32 nodos) más hasta 2 nodos de E/S por placa de nodo. Un gabinete/rack contenía 32 placas de nodo. [18] Mediante la integración de todos los subsistemas esenciales en un solo chip y el uso de lógica de bajo consumo, cada nodo de cómputo o de E/S disipaba alrededor de 17 vatios (incluyendo DRAM). El bajo consumo por nodo permitió un empaquetado agresivo de hasta 1024 nodos de cómputo, más nodos de E/S adicionales, en un rack estándar de 19 pulgadas , dentro de límites razonables en el suministro de energía eléctrica y la refrigeración por aire. Las métricas de rendimiento del sistema, en términos de FLOPS por vatio , FLOPS por m 2 de espacio en el piso y FLOPS por costo unitario, permitieron escalar hasta un rendimiento muy alto. Con tantos nodos, las fallas de los componentes eran inevitables. El sistema fue capaz de aislar eléctricamente los componentes defectuosos, hasta una granularidad de medio rack (512 nodos de cómputo), para permitir que la máquina siguiera funcionando.
Cada nodo Blue Gene/L estaba conectado a tres redes de comunicaciones paralelas: una red toroidal 3D para la comunicación entre pares entre nodos de cómputo, una red colectiva para la comunicación colectiva (transmisiones y operaciones de reducción) y una red de interrupción global para barreras rápidas . Los nodos de E/S, que ejecutan el sistema operativo Linux , proporcionaban comunicación con el almacenamiento y los hosts externos a través de una red Ethernet . Los nodos de E/S manejaban las operaciones del sistema de archivos en nombre de los nodos de cómputo. Una red de gestión Ethernet separada y privada proporcionaba acceso a cualquier nodo para configuración, arranque y diagnóstico.
Para permitir que varios programas se ejecuten simultáneamente, un sistema Blue Gene/L se puede dividir en conjuntos de nodos aislados electrónicamente. El número de nodos en una partición debe ser una potencia entera positiva de 2, con al menos 2 5 = 32 nodos. Para ejecutar un programa en Blue Gene/L, primero se debe reservar una partición de la computadora. Luego, el programa se carga y se ejecuta en todos los nodos dentro de la partición, y ningún otro programa puede acceder a los nodos dentro de la partición mientras esté en uso. Una vez completado, los nodos de la partición se liberan para que los usen futuros programas.
Los nodos de cómputo de Blue Gene/L utilizaban un sistema operativo mínimo que admitía un único programa de usuario. Solo se admitía un subconjunto de llamadas POSIX y solo se podía ejecutar un proceso a la vez en un nodo en modo de coprocesador, o un proceso por CPU en modo virtual. Los programadores necesitaban implementar subprocesos verdes para simular la concurrencia local. El desarrollo de aplicaciones se realizaba normalmente en C , C++ o Fortran utilizando MPI para la comunicación. Sin embargo, algunos lenguajes de programación como Ruby [19] y Python [20] se han adaptado a los nodos de cómputo.
IBM publicó BlueMatter, la aplicación desarrollada para ejercitar Blue Gene/L, como código abierto. [21] Esto sirve para documentar cómo las interfaces toroidales y colectivas fueron utilizadas por las aplicaciones, y puede servir como base para que otros ejerciten la generación actual de supercomputadoras.
Gen azul/P
En junio de 2007, IBM presentó Blue Gene/P , la segunda generación de la serie de supercomputadoras Blue Gene y diseñada a través de una colaboración que incluyó a IBM, LLNL y el Leadership Computing Facility del Laboratorio Nacional Argonne . [22]
Diseño
El diseño de Blue Gene/P es una evolución tecnológica de Blue Gene/L. Cada chip de cómputo Blue Gene/P contiene cuatro núcleos de procesador PowerPC 450 , que funcionan a 850 MHz. Los núcleos son coherentes con la caché y el chip puede funcionar como un multiprocesador simétrico de 4 vías (SMP). El subsistema de memoria del chip consta de pequeñas cachés L2 privadas, una caché L3 compartida central de 8 MB y controladores de memoria DDR2 duales . El chip también integra la lógica para la comunicación de nodo a nodo, utilizando las mismas topologías de red que Blue Gene/L, pero con más del doble de ancho de banda. Una tarjeta de cómputo contiene un chip Blue Gene/P con 2 o 4 GB de DRAM, que comprende un "nodo de cómputo". Un solo nodo de cómputo tiene un rendimiento máximo de 13,6 GFLOPS. Se conectan 32 tarjetas de cómputo a una placa de nodo refrigerada por aire. Un bastidor contiene 32 placas de nodo (es decir, 1024 nodos, 4096 núcleos de procesador). [23]
Al utilizar muchos chips pequeños, de bajo consumo y densamente empaquetados, Blue Gene/P superó la eficiencia energética de otras supercomputadoras de su generación, y con 371 MFLOPS/W las instalaciones de Blue Gene/P se ubicaron en la cima o cerca de ella en las listas Green500 en 2007-2008. [2]
Instalaciones
La siguiente es una lista incompleta de instalaciones de Blue Gene/P. En noviembre de 2009, la lista TOP500 contenía 15 instalaciones de Blue Gene/P de 2 racks (2048 nodos, 8192 núcleos de procesador, 23,86 TFLOPS Linpack ) y más grandes. [1]
El 12 de noviembre de 2007, la primera instalación Blue Gene/P, JUGENE , con 16 racks (16.384 nodos, 65.536 procesadores) estaba funcionando en el Forschungszentrum Jülich en Alemania con un rendimiento de 167 TFLOPS. [24] Cuando se inauguró, era la supercomputadora más rápida de Europa y la sexta más rápida del mundo. En 2009, JUGENE se actualizó a 72 racks (73.728 nodos, 294.912 núcleos de procesador) con 144 terabytes de memoria y 6 petabytes de almacenamiento, y alcanzó un rendimiento máximo de 1 PetaFLOPS. Esta configuración incorporó nuevos intercambiadores de calor aire-agua entre los racks, lo que redujo sustancialmente el costo de enfriamiento. [25] JUGENE se cerró en julio de 2012 y se reemplazó por el sistema Blue Gene/Q JUQUEEN .
El sistema "Intrepid" de 40 racks (40960 nodos, 163840 núcleos de procesador) del Laboratorio Nacional Argonne ocupó el tercer puesto en la lista de los 500 mejores de junio de 2008. [26] El sistema Intrepid es uno de los principales recursos del programa INCITE, en el que se otorgan horas de procesador a proyectos de ciencia e ingeniería de "gran desafío" en una competencia revisada por pares.
Un sistema Blue Gene/P de 2,5 racks es el procesador central del proyecto Low Frequency Array for Radio astronomy ( LOFAR ) en los Países Bajos y los países europeos circundantes. Esta aplicación utiliza las capacidades de transmisión de datos de la máquina.
En 2012, se instaló una Blue Gene/P de dos estantes en la Universidad Rutgers en Piscataway, Nueva Jersey. Se la denominó "Excalibur" en homenaje a la mascota de Rutgers, el Caballero Escarlata. [30]
El primer Blue Gene/P en la región de la ASEAN se instaló en 2010 en el centro de investigación de la Universidad de Brunei Darussalam , el UBD-IBM Centre . La instalación ha impulsado la colaboración en materia de investigación entre la universidad y la investigación de IBM sobre modelado climático que investigará el impacto del cambio climático en la previsión de inundaciones, el rendimiento de los cultivos, la energía renovable y la salud de las selvas tropicales de la región, entre otros. [32]
En 2013, se donó un Blue Gene/P de 1 rack al Departamento de Ciencia y Tecnología para pronósticos meteorológicos, gestión de desastres, agricultura de precisión y salud; se encuentra alojado en el Centro Nacional de Computación, Diliman, Ciudad Quezón, bajo los auspicios del Centro de Genoma de Filipinas (PGC), Instalación Central para Bioinformática (CFB) en UP Diliman, Ciudad Quezón. [33]
Aplicaciones
Veselin Topalov , el retador al título de Campeón Mundial de Ajedrez en 2010, confirmó en una entrevista que había utilizado una supercomputadora Blue Gene/P durante su preparación para el partido. [34]
La computadora Blue Gene/P se ha utilizado para simular aproximadamente el uno por ciento de la corteza cerebral humana, que contiene 1.600 millones de neuronas con aproximadamente 9 billones de conexiones. [35]
El equipo del proyecto IBM Kittyhawk ha portado Linux a los nodos de cómputo y ha demostrado que las cargas de trabajo genéricas de la Web 2.0 se ejecutan a escala en un Blue Gene/P. Su artículo, publicado en ACM Operating Systems Review, describe un controlador de núcleo que tuneliza Ethernet a través de la red de árbol, lo que da como resultado una conectividad TCP/IP de todos a todos. [36] [37] Al ejecutar software estándar de Linux como MySQL , sus resultados de rendimiento en SpecJBB se encuentran entre los más altos registrados. [ cita requerida ]
En 2011, un equipo de la Universidad Rutgers/IBM/Universidad de Texas vinculó la instalación KAUST Shaheen con una instalación Blue Gene/P en el Centro de Investigación Watson de IBM en una "nube informática de alto rendimiento federada" y ganó el desafío IEEE SCALE 2011 con una aplicación de optimización de yacimientos de petróleo. [38]
Gen azul/Q
El tercer diseño de la serie Blue Gene, Blue Gene/Q , amplió y mejoró significativamente las arquitecturas Blue Gene/L y /P.
Diseño
El "chip de cómputo" Blue Gene/Q se basa en el núcleo de procesador IBM A2 de 64 bits . El núcleo de procesador A2 es multiproceso simultáneo de 4 vías y fue ampliado con una unidad de punto flotante de doble precisión de cuatro vectores SIMD (IBM QPX). Cada chip de cómputo Blue Gene/Q contiene 18 núcleos de procesador A2 de este tipo, que funcionan a 1,6 GHz. Se utilizan 16 núcleos para la computación de aplicaciones y un núcleo 17 se utiliza para gestionar funciones de asistencia del sistema operativo, como interrupciones , E/S asíncrona , ritmo MPI y RAS . El núcleo 18 es un repuesto de fabricación redundante , que se utiliza para aumentar el rendimiento. El núcleo de repuesto se desactiva antes de la operación del sistema. Los núcleos de procesador del chip están vinculados por un conmutador de barra cruzada a una caché L2 de eDRAM de 32 MB , que funciona a la mitad de la velocidad del núcleo. La caché L2 tiene múltiples versiones (soporta memoria transaccional y ejecución especulativa ) y tiene soporte de hardware para operaciones atómicas . [39] Los fallos de caché L2 son gestionados por dos controladores de memoria DDR3 integrados que funcionan a 1,33 GHz. El chip también integra lógica para comunicaciones de chip a chip en una configuración de toro 5D , con enlaces de chip a chip de 2 GB/s. El chip Blue Gene/Q está fabricado en el proceso SOI de cobre de IBM a 45 nm. Ofrece un rendimiento máximo de 204,8 GFLOPS mientras consume aproximadamente 55 vatios. El chip mide 19×19 mm (359,5 mm²) y consta de 1.470 millones de transistores. Para completar el nodo de cómputo, el chip está montado en una tarjeta de cómputo junto con 16 GB de DRAM DDR3 (es decir, 1 GB para cada núcleo de procesador de usuario). [40]
Un "cajón de cómputo" Q32 [41] contiene 32 nodos de cómputo, cada uno refrigerado por agua. [42]
Un "plano intermedio" (caja) contiene 16 cajones de cómputo Q32 para un total de 512 nodos de cómputo, interconectados eléctricamente en una configuración de toro 5D (4x4x4x4x2). Más allá del nivel del plano intermedio, todas las conexiones son ópticas. Los racks tienen dos planos intermedios, es decir, 32 cajones de cómputo, para un total de 1024 nodos de cómputo, 16 384 núcleos de usuario y 16 TB de RAM. [42]
Los cajones de E/S separados, ubicados en la parte superior de un rack o en un rack separado, están refrigerados por aire y contienen 8 tarjetas de cómputo y 8 ranuras de expansión PCIe para redes InfiniBand o Ethernet de 10 Gigabit . [42]
Actuación
En el momento del anuncio del sistema Blue Gene/Q en noviembre de 2011, [43] un sistema Blue Gene/Q inicial de 4 racks (4096 nodos, 65536 núcleos de procesador de usuario) alcanzó el puesto número 17 en la lista TOP500 [1] con 677,1 TeraFLOPS Linpack, superando a la instalación original BlueGene/L de 104 racks de 2007 descrita anteriormente. El mismo sistema de 4 racks alcanzó la primera posición en la lista Graph500 [3] con más de 250 GTEPS (giga bordes atravesados por segundo ). Los sistemas Blue Gene/Q también encabezaron la lista Green500 de supercomputadoras con mayor eficiencia energética con hasta 2,1 GFLOPS/W . [2]
En junio de 2012, las instalaciones de Blue Gene/Q ocuparon las primeras posiciones en las tres listas: TOP500 , [1] Graph500 [3] y Green500 . [2]
Instalaciones
La siguiente es una lista incompleta de instalaciones de Blue Gene/Q. En junio de 2012, la lista TOP500 contenía 20 instalaciones de Blue Gene/Q de 1/2 rack (512 nodos, 8192 núcleos de procesador, 86,35 TFLOPS Linpack) y más grandes. [1] Con una eficiencia energética (independiente del tamaño) de aproximadamente 2,1 GFLOPS/W, todos estos sistemas también ocuparon la parte superior de la lista Green 500 de junio de 2012. [2]
Un sistema Blue Gene/Q llamado Sequoia fue entregado al Laboratorio Nacional Lawrence Livermore (LLNL) a principios de 2011 y se implementó por completo en junio de 2012. Forma parte del Programa de Simulación y Computación Avanzada que ejecuta simulaciones nucleares e investigación científica avanzada. Consta de 96 bastidores (que comprenden 98.304 nodos de cómputo con 1,6 millones de núcleos de procesador y 1,6 PB de memoria) que cubren un área de aproximadamente 3000 pies cuadrados (280 m 2 ). [44] En junio de 2012, el sistema fue clasificado como el superordenador más rápido del mundo. [45] [46] a 20,1 PFLOPS pico, 16,32 PFLOPS sostenidos (Linpack), consumiendo hasta 7,9 megavatios de energía. [1] En junio de 2013, su rendimiento figura en 17,17 PFLOPS sostenidos (Linpack). [1]
En 2012, se instaló en el Laboratorio Nacional Argonne, en el Centro de Computación de Liderazgo de Argonne, un sistema Blue Gene/Q de 10 PFLOPS (pico) llamado Mira . Consta de 48 bastidores (49.152 nodos de cómputo), con 70 PB de almacenamiento en disco (ancho de banda de E/S de 470 GB/s). [47] [48]
JUQUEEN en el Forschungzentrum Jülich es un sistema Blue Gene/Q de 28 racks y, desde junio de 2013 hasta noviembre de 2015, fue la máquina mejor clasificada en Europa en el Top500. [1]
Vulcan en el Laboratorio Nacional Lawrence Livermore (LLNL) es un sistema Blue Gene/Q de 24 racks y 5 PFLOPS (pico) que se puso en servicio en 2012 y se desmanteló en 2019. [49] Vulcan prestó servicios a proyectos de laboratorio-industria a través del Centro de Innovación en Computación de Alto Rendimiento (HPC) de Livermore [50], así como a colaboraciones académicas en apoyo de misiones del Departamento de Energía y la Administración Nacional de Seguridad Nuclear (NNSA). [51]
Fermi en la instalación de supercomputación CINECA , Bolonia, Italia, [52] es un sistema Blue Gene/Q de 10 racks y 2 PFLOPS (pico).
Como parte de DiRAC , el EPCC alberga un sistema Blue Gene/Q de 6 racks (6144 nodos) en la Universidad de Edimburgo [53]
En 2013 se instaló en el Instituto Politécnico Rensselaer un sistema Blue Gene/Q de cinco racks con hardware informático adicional llamado AMOS. [54] El sistema tenía una potencia nominal de 1048,6 teraflops, la supercomputadora más potente de cualquier universidad privada y la tercera supercomputadora más potente entre todas las universidades en 2014. [55]
En junio de 2012 se instaló en la Victorian Life Sciences Computation Initiative un sistema Blue Gene/Q de 838 TFLOPS (pico) llamado Avoca. [56] Este sistema es parte de una colaboración entre IBM y VLSCI, con el objetivo de mejorar los diagnósticos, encontrar nuevos objetivos farmacológicos, refinar los tratamientos y ampliar nuestra comprensión de las enfermedades. [57] El sistema consta de 4 bastidores, con 350 TB de almacenamiento, 65.536 núcleos, 64 TB de RAM. [58]
En julio de 2012 se instaló un sistema Blue Gene/Q de 209 TFLOPS (pico) en la Universidad de Rochester . [59] Este sistema forma parte del Centro de Ciencias de la Salud para la Innovación Computacional Archivado el 19 de octubre de 2012 en Wayback Machine , que se dedica a la aplicación de la computación de alto rendimiento a programas de investigación en ciencias de la salud . El sistema consta de un solo bastidor (1024 nodos de cómputo) con 400 TB de almacenamiento de alto rendimiento. [60]
En marzo de 2013 se instaló en la EPFL un sistema Blue Gene/Q de 209 TFLOPS pico (172 TFLOPS LINPACK) llamado Lemanicus . [61] Este sistema pertenece al Centro de Ciencia de Modelado Avanzado CADMOS ( [62] ), que es una colaboración entre las tres principales instituciones de investigación en la orilla del lago de Ginebra en la parte francófona de Suiza: la Universidad de Lausana , la Universidad de Ginebra y la EPFL . El sistema consta de un solo bastidor (1024 nodos de cómputo) con 2,1 PB de almacenamiento IBM GPFS-GSS.
A principios de 2011, se instaló un sistema Blue Gene/Q de medio rack, con aproximadamente 100 TFLOPS (pico), llamado Cumulus , en el Centro de Recursos Computacionales A*STAR de Singapur. [63]
Aplicaciones
Se han ejecutado aplicaciones científicas que han batido récords en el BG/Q, el primero en superar los 10 petaflops de rendimiento sostenido. El marco de simulación cosmológica HACC logró casi 14 petaflops con una ejecución de referencia de 3,6 billones de partículas, [64] mientras que el código Cardioid, [65] [66] que modela la electrofisiología del corazón humano, logró casi 12 petaflops con una simulación casi en tiempo real, ambos en Sequoia . Un solucionador de flujo totalmente compresible también logró 14,4 PFLOP/s (originalmente 11 PFLOP/s) en Sequoia, el 72% del rendimiento pico nominal de la máquina. [67]
^ abcdefghi «Noviembre de 2004: TOP500 sitios de supercomputadoras». Top500.org . Consultado el 13 de diciembre de 2019 .
^ abcde «Green500 - TOP500 Supercomputer Sites». Green500.org . Archivado desde el original el 26 de agosto de 2016. Consultado el 13 de octubre de 2017 .
^ abc "La lista Graph500". Archivado desde el original el 27 de diciembre de 2011.
^ Harris, Mark (18 de septiembre de 2009). "Obama rinde homenaje a la supercomputadora IBM". Techradar.com . Consultado el 18 de septiembre de 2009 .
^ "Cambios en la estrategia de supercomputación en un mundo sin BlueGene". Nextplatform.com . 14 de abril de 2015 . Consultado el 13 de octubre de 2017 .
^ "IBM construirá las supercomputadoras Coral de próxima generación del Departamento de Energía - EE Times". EETimes . Archivado desde el original el 30 de abril de 2017 . Consultado el 13 de octubre de 2017 .
^ Conferencia Supercomputing 2020, presentación en video del premio Test of Time
^ "Blue Gene: Una visión para la ciencia de las proteínas usando una supercomputadora de petaflop" (PDF) . IBM Systems Journal . 40 (2). 2017-10-23.
^ "Una charla con el cerebro detrás de Blue Gene", BusinessWeek , 6 de noviembre de 2001, archivado desde el original el 11 de diciembre de 2014
^ "BlueGene/L". Archivado desde el original el 18 de julio de 2011. Consultado el 5 de octubre de 2007 .
^ "hpcwire.com". Archivado desde el original el 28 de septiembre de 2007.
^ "SC06". sc06.supercomputing.org . Consultado el 13 de octubre de 2017 .
^ "Concurso de premios HPC Challenge". Archivado desde el original el 11 de diciembre de 2006. Consultado el 3 de diciembre de 2006 .
^ "Cerebro de ratón simulado en computadora". BBC News. 27 de abril de 2007. Archivado desde el original el 25 de mayo de 2007.
^ "IBM100 - Blue Gene". 03.ibm.com . 7 de marzo de 2012. Archivado desde el original el 3 de abril de 2012 . Consultado el 13 de octubre de 2017 .
^ Kunkel, Julian M.; Ludwig, Thomas; Meuer, Hans (12 de junio de 2013). Supercomputing: 28th International Supercomputing Conference, ISC 2013, Leipzig, Alemania, 16-20 de junio de 2013. Actas. Springer. ISBN9783642387500. Recuperado el 13 de octubre de 2017 – vía Google Books.
^ "Blue Gene". Revista IBM de Investigación y Desarrollo . 49 (2/3). 2005.
^ Kissel, Lynn. "BlueGene/L Configuration". asc.llnl.gov . Archivado desde el original el 17 de febrero de 2013 . Consultado el 13 de octubre de 2017 .
^ "Compute Node Ruby para Bluegene/L". www.ece.iastate.edu . Archivado desde el original el 11 de febrero de 2009.
^ William Scullin (12 de marzo de 2011). Python para computación de alto rendimiento. Atlanta, GA.
^ Código fuente de Blue Matter, consultado el 28 de febrero de 2020
^ "IBM triplica el rendimiento de la supercomputadora más rápida y de mayor eficiencia energética del mundo". 27 de junio de 2007. Archivado desde el original el 8 de julio de 2007. Consultado el 24 de diciembre de 2011 .
^ "Descripción general del proyecto IBM Blue Gene/P". IBM Journal of Research and Development . 52 : 199–220. Enero de 2008. doi :10.1147/rd.521.0199.
^ "Supercomputación: Jülich vuelve a estar entre los líderes mundiales". Servicio de noticias IDG. 2007-11-12.
^ "Sala de prensa de IBM - 2009-02-10 El nuevo superordenador IBM Petaflop en el centro de investigación alemán Juelich será el más potente de Europa". 03.ibm.com. 2009-02-10. Archivado desde el original el 12 de febrero de 2009. Consultado el 2011-03-11 .
^ "La supercomputadora de Argonne nombrada la más rápida del mundo en ciencia abierta, tercera en la clasificación general". Mcs.anl.gov . Archivado desde el original el 8 de febrero de 2009. Consultado el 13 de octubre de 2017 .
^ "La Universidad Rice e IBM se asocian para traer la primera supercomputadora Blue Gene a Texas". news.rice.edu . Archivado desde el original el 2012-04-05 . Consultado el 2012-04-01 .
^ Вече си имаме и суперкомпютър Archivado el 23 de diciembre de 2009 en Wayback Machine , Dir.bg, 9 de septiembre de 2008.
^ "Sala de prensa de IBM - 2010-02-11 IBM colaborará con instituciones australianas líderes para ampliar los límites de la investigación médica - Australia". 03.ibm.com. 2010-02-11. Archivado desde el original el 16 de julio de 2012. Consultado el 2011-03-11 .
^ "Rutgers obtiene un arma de Big Data en la supercomputadora IBM - Hardware -". Archivado desde el original el 2013-03-06 . Consultado el 2013-09-07 .
^ "La Universidad de Rochester e IBM amplían su colaboración en pos de nuevas fronteras en materia de salud". Centro Médico de la Universidad de Rochester. 11 de mayo de 2012. Archivado desde el original el 11 de mayo de 2012.
^ "IBM y la Universidad de Brunei Darussalam colaborarán en la investigación sobre modelado climático". Sala de prensa de IBM. 13 de octubre de 2010. Archivado desde el original el 12 de diciembre de 2010. Consultado el 18 de octubre de 2012 .
^ Ronda, Rainier Allan. "La supercomputadora de DOST para científicos ya está operativa". Philstar.com . Consultado el 13 de octubre de 2017 .
^ "Entrenamiento de Topalov con el superordenador Blue Gene P". Players.chessdo.com . Archivado desde el original el 19 de mayo de 2013. Consultado el 13 de octubre de 2017 .
^ "Proyecto Kittyhawk: una computadora a escala global". Research.ibm.com . Consultado el 13 de octubre de 2017 .
^ Appavoo, Jonathan; Uhlig, Volkmar; Waterland, Amos. "Proyecto Kittyhawk: construcción de una computadora a escala global" (PDF) . Yorktown Heights, NY: IBM TJ Watson Research Center. Archivado desde el original el 2008-10-31 . Consultado el 2018-03-13 .{{cite web}}: CS1 maint: bot: estado de URL original desconocido ( enlace )
^ "Expertos liderados por Rutgers ensamblan una nube de supercomputadoras que abarca todo el mundo". News.rutgers.edu . 2011-07-06. Archivado desde el original el 2011-11-10 . Consultado el 2011-12-24 .
^ "Especulación de la memoria del chip informático Blue Gene/Q" . Consultado el 23 de diciembre de 2011 .
^ "El chip Blue Gene/Q Compute" (PDF) . Archivado desde el original (PDF) el 29 de abril de 2015 . Consultado el 23 de diciembre de 2011 .
^ "La supercomputadora IBM Blue Gene/Q ofrece computación a escala de petabytes para aplicaciones informáticas de alto rendimiento" (PDF) . 01.ibm.com . Consultado el 13 de octubre de 2017 .
^ abc "IBM revela un superordenador BlueGene/Q de 20 petaflops". The Register . 22 de noviembre de 2010 . Consultado el 25 de noviembre de 2010 .
^ "IBM anuncia un superordenador de 20 petaflops". Kurzweil. 18 de noviembre de 2011. Consultado el 13 de noviembre de 2012. IBM ha anunciado el superordenador Blue Gene/Q, con un rendimiento máximo de 20 petaflops .
^ Feldman, Michael (3 de febrero de 2009). "Lawrence Livermore se prepara para Blue Gene/Q de 20 petaflops". HPCwire. Archivado desde el original el 12 de febrero de 2009. Consultado el 11 de marzo de 2011 .
^ B Johnston, Donald (18 de junio de 2012). «La supercomputadora Sequoia de la NNSA clasificada como la más rápida del mundo». Archivado desde el original el 2 de septiembre de 2014. Consultado el 23 de junio de 2012 .
^ "Comunicado de prensa de TOP500". Archivado desde el original el 24 de junio de 2012.
^ "MIRA: la supercomputadora más rápida del mundo - Argonne Leadership Computing Facility". Alcf.anl.gov . Consultado el 13 de octubre de 2017 .
^ "Mira - Argonne Leadership Computing Facility". Alcf.anl.gov . Consultado el 13 de octubre de 2017 .
^ "Vulcan—desmantelado". hpc.llnl.gov . Consultado el 10 de abril de 2019 .
^ "Centro de innovación HPC". hpcinnovationcenter.llnl.gov . Consultado el 13 de octubre de 2017 .
^ "Vulcan de Lawrence Livermore aporta 5 petaflops de potencia informática a las colaboraciones con la industria y el mundo académico para hacer avanzar la ciencia y la tecnología". Llnl.gov . 11 de junio de 2013. Archivado desde el original el 9 de diciembre de 2013 . Consultado el 13 de octubre de 2017 .
^ "Ibm-Fermi | Scai". Archivado desde el original el 2013-10-30 . Consultado el 2013-05-13 .
^ "DiRAC BlueGene/Q". epcc.ed.ac.uk .
^ "Rensselaer a Petascale: AMOS entre las supercomputadoras más rápidas y potentes del mundo". News.rpi.edu . Consultado el 13 de octubre de 2017 .
^ Michael Mullaneyvar. "AMOS ocupa el primer lugar entre las supercomputadoras de las universidades privadas estadounidenses". News.rpi.edi . Consultado el 13 de octubre de 2017 .
^ "La supercomputadora más ecológica del mundo llega a Melbourne - The Melbourne Engineer". Themelbourneengineer.eng.unimelb.edu.au/ . 16 de febrero de 2012. Archivado desde el original el 2 de octubre de 2017 . Consultado el 13 de octubre de 2017 .
^ "Bioinformática de Melbourne: para todos los investigadores y estudiantes del distrito de investigación biomédica y de biociencias de Melbourne". Bioinformática de Melbourne . Consultado el 13 de octubre de 2017 .
^ "Acceso a sistemas de alta gama - Melbourne Bioinformatics". Vlsci.org.au . Consultado el 13 de octubre de 2017 .
^ "La Universidad de Rochester inaugura una nueva era en la investigación sobre atención sanitaria". Rochester.edu . Consultado el 13 de octubre de 2017 .
^ "Recursos - Centro de Informática de Investigación Integrada". Circ.rochester.edu . Consultado el 13 de octubre de 2017 .
^ "Página de inicio de EPFL BlueGene/L". Archivado desde el original el 2007-12-10 . Consultado el 2021-03-10 .
^ Utilisateur, Super. "À propos". Cadmos.org . Archivado desde el original el 10 de enero de 2016. Consultado el 13 de octubre de 2017 .
^ "Centro de recursos computacionales A*STAR". Acrc.a-star.edu.sg . Archivado desde el original el 20 de diciembre de 2016. Consultado el 24 de agosto de 2016 .
^ S. Habib; V. Morozov; H. Finkel; A. Pope; K. Heitmann ; K. Kumaran; T. Peterka; J. Insley; D. Daniel; P. Fasel; N. Frontiere y Z. Lukic (2012). "El universo a escala extrema: simulación del cielo multi-Petaflop en el BG/Q". arXiv : 1211.4864 [cs.DC].
^ "Proyecto de modelado cardíaco cardioide". Researcher.watson.ibm.com . 25 de julio de 2016. Archivado desde el original el 21 de mayo de 2013. Consultado el 13 de octubre de 2017 .
^ "Aventurándose en el corazón de las simulaciones informáticas de alto rendimiento". Str.llnl.gov . Archivado desde el original el 14 de febrero de 2013 . Consultado el 13 de octubre de 2017 .
^ Rossinelli, Diego; Hejazialhosseini, Babak; Hadjidoukas, Panagiotis; Bekas, Costas; Curioni, Alessandro; Bertsch, Adam; Futral, Scott; Schmidt, Steffen J.; Adams, Nikolaus A.; Koumoutsakos, Petros (17 de noviembre de 2013). "11 simulaciones PFLOP/S del colapso de la cavitación de las nubes". Actas de la Conferencia internacional sobre computación de alto rendimiento, redes, almacenamiento y análisis . SC '13. págs. 1–13. doi :10.1145/2503210.2504565. ISBN9781450323789.S2CID12651650 .
Enlaces externos
Historia de IBM: IBM Blue Gene
Supercomputadoras de próxima generación: descripción general de Blue Gene/P (pdf)