stringtranslate.com

Supercomputadora

La supercomputadora IBM Blue Gene/P "Intrepid" del Laboratorio Nacional Argonne utiliza 164.000 núcleos de procesador que utilizan el aire acondicionado normal de un centro de datos, agrupados en 40 bastidores/gabinetes conectados por una red toroidal 3D de alta velocidad . [1] [2]
Potencia de cálculo de la supercomputadora número uno cada año, medida en FLOPS

Una supercomputadora es un tipo de computadora con un alto nivel de rendimiento en comparación con una computadora de propósito general. El rendimiento de una supercomputadora se mide comúnmente en operaciones de punto flotante por segundo ( FLOPS ) en lugar de millones de instrucciones por segundo (MIPS). Desde 2022, existen supercomputadoras que pueden realizar más de 10 18  FLOPS, las llamadas supercomputadoras de exaescala . [3] A modo de comparación, una computadora de escritorio tiene un rendimiento en el rango de cientos de gigaFLOPS (10 11 ) a decenas de teraFLOPS (10 13 ). [4] [5] Desde noviembre de 2017, todas las 500 supercomputadoras más rápidas del mundo funcionan con sistemas operativos basados ​​en Linux . [6] Se están realizando investigaciones adicionales en los Estados Unidos, la Unión Europea, Taiwán, Japón y China para construir supercomputadoras de exaescala más rápidas, más potentes y tecnológicamente superiores. [7]

Las supercomputadoras desempeñan un papel importante en el campo de la ciencia computacional y se utilizan para una amplia gama de tareas computacionalmente intensivas en varios campos, incluyendo la mecánica cuántica , la predicción meteorológica , la investigación climática , la exploración de petróleo y gas , el modelado molecular (computación de las estructuras y propiedades de compuestos químicos, macromoléculas biológicas , polímeros y cristales) y simulaciones físicas (como simulaciones de los primeros momentos del universo, la aerodinámica de aviones y naves espaciales , la detonación de armas nucleares y la fusión nuclear ). Han sido esenciales en el campo del criptoanálisis . [8]

Las supercomputadoras se introdujeron en la década de 1960 y, durante varias décadas, la más rápida fue la fabricada por Seymour Cray en Control Data Corporation (CDC), Cray Research y las empresas posteriores que llevaban su nombre o monograma. Las primeras máquinas de este tipo eran diseños convencionales altamente optimizados que funcionaban más rápido que sus contemporáneas de propósito más general. A lo largo de la década, se añadieron cantidades cada vez mayores de paralelismo , siendo lo típico tener de uno a cuatro procesadores . En la década de 1970, los procesadores vectoriales que operaban con grandes conjuntos de datos llegaron a dominar. Un ejemplo notable es el exitoso Cray-1 de 1976. Las computadoras vectoriales siguieron siendo el diseño dominante hasta la década de 1990. Desde entonces hasta hoy, las supercomputadoras masivamente paralelas con decenas de miles de procesadores listos para usar se convirtieron en la norma. [9] [10]

Estados Unidos ha sido durante mucho tiempo el líder en el campo de las supercomputadoras, primero a través del dominio casi ininterrumpido de Cray en el campo, y luego a través de una variedad de empresas de tecnología. Japón hizo grandes avances en el campo en las décadas de 1980 y 1990, y China se volvió cada vez más activa en el campo. A partir de junio de 2024, la supercomputadora más rápida en la lista de supercomputadoras TOP500 es Frontier , en los EE. UU., con una puntuación de referencia LINPACK de 1,102 ExaFlop/s, seguida de Aurora . Estados Unidos tiene cinco de las 10 mejores; Japón, Finlandia, Suiza, Italia y España tienen uno cada uno. [11] En junio de 2018, todas las supercomputadoras combinadas en la lista TOP500 rompieron la marca de 1  exaFLOPS . [12]

Historia

Una placa de circuito del IBM 7030
El CDC 6600. Detrás de la consola del sistema se encuentran dos de los "brazos" del gabinete con forma de signo más con las tapas abiertas. Cada brazo de la máquina tenía hasta cuatro bastidores de este tipo. A la derecha se encuentra el sistema de refrigeración.
Un Cray-1 conservado en el Deutsches Museum

En 1960, UNIVAC construyó el Livermore Atomic Research Computer (LARC), considerado hoy entre los primeros superordenadores, para el Centro de Investigación y Desarrollo de la Armada de los EE. UU. Todavía utilizaba memoria de tambor de alta velocidad, en lugar de la tecnología de unidad de disco emergente . [13] Además, entre los primeros superordenadores estaba el IBM 7030 Stretch . El IBM 7030 fue construido por IBM para el Laboratorio Nacional de Los Álamos , que en 1955 había solicitado un ordenador 100 veces más rápido que cualquier ordenador existente. El IBM 7030 utilizaba transistores , memoria de núcleo magnético, instrucciones canalizadas , datos precargados a través de un controlador de memoria e incluía unidades de disco de acceso aleatorio pioneras. El IBM 7030 se completó en 1961 y, a pesar de no cumplir con el reto de un aumento de cien veces en el rendimiento, fue comprado por el Laboratorio Nacional de Los Álamos. Los clientes de Inglaterra y Francia también compraron el ordenador, y se convirtió en la base del IBM 7950 Harvest , un superordenador construido para el criptoanálisis . [14]

El tercer proyecto pionero de supercomputadoras a principios de los años 1960 fue el Atlas de la Universidad de Manchester , construido por un equipo dirigido por Tom Kilburn . Diseñó el Atlas para que tuviera espacio de memoria para hasta un millón de palabras de 48 bits, pero debido a que el almacenamiento magnético con tal capacidad era inasequible, la memoria central real del Atlas era de solo 16.000 palabras, con un tambor que proporcionaba memoria para otras 96.000 palabras. El Supervisor Atlas intercambiaba datos en forma de páginas entre el núcleo magnético y el tambor. El sistema operativo Atlas también introdujo el tiempo compartido en la supercomputación, de modo que se pudiera ejecutar más de un programa en la supercomputadora en cualquier momento. [15] Atlas fue una empresa conjunta entre Ferranti y la Universidad de Manchester y fue diseñado para operar a velocidades de procesamiento cercanas a un microsegundo por instrucción, aproximadamente un millón de instrucciones por segundo. [16]

El CDC 6600 , diseñado por Seymour Cray , se terminó en 1964 y marcó la transición de los transistores de germanio a los de silicio . Los transistores de silicio podían funcionar más rápido y el problema del sobrecalentamiento se resolvió introduciendo la refrigeración en el diseño de supercomputadoras. [17] De esta forma, el CDC6600 se convirtió en la computadora más rápida del mundo. Dado que el 6600 superó a todas las demás computadoras contemporáneas en aproximadamente 10 veces, se lo denominó supercomputadora y definió el mercado de la supercomputación, cuando se vendieron cien computadoras a 8 millones de dólares cada una. [18] [19] [20] [21]

Cray dejó CDC en 1972 para formar su propia empresa, Cray Research . [19] Cuatro años después de dejar CDC, Cray entregó el Cray-1 de 80 MHz en 1976, que se convirtió en uno de los superordenadores más exitosos de la historia. [22] [23] El Cray-2 fue lanzado en 1985. Tenía ocho unidades centrales de procesamiento (CPU), refrigeración líquida y el líquido refrigerante de la electrónica Fluorinert se bombeaba a través de la arquitectura del superordenador . Alcanzó 1,9  gigaFLOPS , lo que lo convirtió en el primer superordenador en romper la barrera del gigaflop. [24]

Diseños masivamente paralelos

Un gabinete del Blue Gene /L masivamente paralelo, que muestra las hojas apiladas , cada una con muchos procesadores

El único ordenador que desafió seriamente el rendimiento del Cray-1 en la década de 1970 fue el ILLIAC IV . Esta máquina fue el primer ejemplo real de un ordenador masivamente paralelo , en el que muchos procesadores trabajaban juntos para resolver diferentes partes de un único problema mayor. A diferencia de los sistemas vectoriales, que estaban diseñados para ejecutar un único flujo de datos lo más rápido posible, en este concepto, el ordenador alimenta partes separadas de los datos a procesadores completamente diferentes y luego recombina los resultados. El diseño del ILLIAC se finalizó en 1966 con 256 procesadores y ofrece una velocidad de hasta 1 GFLOPS, en comparación con el pico de 250 MFLOPS del Cray-1 de la década de 1970. Sin embargo, los problemas de desarrollo llevaron a que solo se construyeran 64 procesadores, y el sistema nunca pudo funcionar más rápido que unos 200 MFLOPS, a la vez que era mucho más grande y complejo que el Cray. Otro problema era que escribir software para el sistema era difícil, y obtener el máximo rendimiento de él era una cuestión de gran esfuerzo.

Pero el éxito parcial del ILLIAC IV fue visto ampliamente como un indicador del camino hacia el futuro de la supercomputación. Cray argumentó en contra de esto, bromeando con la famosa frase "Si estuvieras arando un campo, ¿qué preferirías usar? ¿Dos bueyes fuertes o 1024 pollos?" [25] Pero a principios de la década de 1980, varios equipos estaban trabajando en diseños paralelos con miles de procesadores, en particular la Connection Machine (CM) que se desarrolló a partir de la investigación en el MIT . El CM-1 utilizó nada menos que 65.536 microprocesadores personalizados simplificados conectados entre sí en una red para compartir datos. Le siguieron varias versiones actualizadas; el superordenador CM-5 es un ordenador de procesamiento paralelo masivo capaz de realizar muchos miles de millones de operaciones aritméticas por segundo. [26]

En 1982, el sistema de gráficos por computadora LINKS-1 de la Universidad de Osaka utilizó una arquitectura de procesamiento masivamente paralela , con 514 microprocesadores , incluidos 257 procesadores de control Zilog Z8001 y 257 procesadores de punto flotante iAPX 86/20 . Se utilizó principalmente para renderizar gráficos de computadora 3D realistas . [27] El VPP500 de Fujitsu de 1992 es inusual ya que, para lograr velocidades más altas, sus procesadores usaban GaAs , un material normalmente reservado para aplicaciones de microondas debido a su toxicidad. [28] La supercomputadora de túnel de viento numérico de Fujitsu usó 166 procesadores vectoriales para obtener el primer puesto en 1994 con una velocidad máxima de 1,7  gigaFLOPS (GFLOPS) por procesador. [29] [30] El Hitachi SR2201 obtuvo un rendimiento máximo de 600 GFLOPS en 1996 al utilizar 2048 procesadores conectados a través de una red de barras cruzadas tridimensional rápida . [31] [32] [33] El Intel Paragon podía tener de 1000 a 4000 procesadores Intel i860 en varias configuraciones y fue clasificado como el más rápido del mundo en 1993. El Paragon era una máquina MIMD que conectaba procesadores a través de una malla bidimensional de alta velocidad, lo que permitía que los procesos se ejecutaran en nodos separados, comunicándose a través de la interfaz de paso de mensajes . [34]

El desarrollo de software siguió siendo un problema, pero la serie CM desencadenó una considerable investigación sobre este tema. Muchas empresas realizaron diseños similares utilizando hardware personalizado, incluidas Evans & Sutherland ES-1 , MasPar , nCUBE , Intel iPSC y Goodyear MPP . Pero a mediados de la década de 1990, el rendimiento de las CPU de propósito general había mejorado tanto que se podía construir una supercomputadora utilizándolas como unidades de procesamiento individuales, en lugar de utilizar chips personalizados. A principios del siglo XXI, los diseños que presentaban decenas de miles de CPU de consumo eran la norma, y ​​las máquinas posteriores agregaron unidades gráficas a la mezcla. [9] [10]

En 1998, David Bader desarrolló la primera supercomputadora Linux usando componentes de consumo. [35] Mientras estaba en la Universidad de Nuevo México, Bader buscó construir una supercomputadora que ejecutara Linux usando componentes de consumo listos para usar y una red de interconexión de baja latencia y alta velocidad. El prototipo utilizó un "AltaCluster" de Alta Technologies de ocho computadoras duales Intel Pentium II de 333 MHz que ejecutaban un núcleo Linux modificado. Bader adaptó una cantidad significativa de software para brindar soporte Linux para los componentes necesarios, así como código de miembros de la National Computational Science Alliance (NCSA) para garantizar la interoperabilidad, ya que ninguno de ellos se había ejecutado en Linux anteriormente. [36] Usando el exitoso diseño del prototipo, dirigió el desarrollo de "RoadRunner", la primera supercomputadora Linux para uso abierto por la comunidad científica y de ingeniería nacional a través de la National Technology Grid de la National Science Foundation. RoadRunner se puso en producción en abril de 1999. En el momento de su implementación, se consideró una de las 100 supercomputadoras más rápidas del mundo. [36] [37] Aunque los clústeres basados ​​en Linux que usaban componentes de nivel de consumidor, como Beowulf , existían antes del desarrollo del prototipo de Bader y RoadRunner, carecían de la escalabilidad, el ancho de banda y las capacidades de computación paralela para ser considerados supercomputadoras "verdaderas". [36]

La cuota de CPU del TOP500
Diagrama de una interconexión de toro tridimensional utilizada por sistemas como Blue Gene, Cray XT3, etc.

Los sistemas con una gran cantidad de procesadores generalmente toman uno de dos caminos. En el enfoque de computación en cuadrícula , la potencia de procesamiento de muchas computadoras, organizadas como dominios administrativos distribuidos y diversos, se utiliza de manera oportunista siempre que haya una computadora disponible. [38] En otro enfoque, se utilizan muchos procesadores cerca unos de otros, por ejemplo, en un clúster de computadoras . En un sistema masivamente paralelo centralizado de este tipo , la velocidad y la flexibilidad de losLa interconexión se vuelve muy importante y las supercomputadoras modernas han utilizado varios enfoques que van desdeInfinibandinterconexiones de torotridimensionales.[39][40]El uso deprocesadores multinúcleocombinados con centralización es una dirección emergente, por ejemplo, como en elCyclops64.[41][42]

A medida que el precio, el rendimiento y la eficiencia energética de las unidades de procesamiento gráfico de propósito general (GPGPU) han mejorado, una serie de supercomputadoras de petaFLOPS como Tianhe-I y Nebulae han comenzado a depender de ellas. [43] Sin embargo, otros sistemas como la computadora K continúan utilizando procesadores convencionales como los diseños basados ​​en SPARC y la aplicabilidad general de las GPGPU en aplicaciones informáticas de alto rendimiento de propósito general ha sido objeto de debate, en el sentido de que, si bien una GPGPU puede ajustarse para obtener buenos resultados en puntos de referencia específicos, su aplicabilidad general a algoritmos cotidianos puede ser limitada a menos que se dedique un esfuerzo significativo a ajustar la aplicación a ella. [44] Sin embargo, las GPU están ganando terreno y en 2012 la supercomputadora Jaguar se transformó en Titan al modernizar las CPU con GPU. [45] [46] [47]

Las computadoras de alto rendimiento tienen un ciclo de vida esperado de aproximadamente tres años antes de requerir una actualización. [48] La supercomputadora Gyoukou es única porque utiliza un diseño masivamente paralelo y enfriamiento por inmersión líquida .

Supercomputadoras de propósito especial

Se han diseñado varios sistemas de propósito especial dedicados a un solo problema. Esto permite el uso de chips FPGA especialmente programados o incluso ASIC personalizados , lo que permite mejores relaciones precio/rendimiento al sacrificar la generalidad. Ejemplos de supercomputadoras de propósito especial incluyen Belle , [49] Deep Blue , [50] e Hydra [51] para jugar al ajedrez , Gravity Pipe para astrofísica, [52] MDGRAPE-3 para la predicción de la estructura de proteínas y la dinámica molecular, [53] y Deep Crack para descifrar el cifrado DES . [54]

Uso de energía y gestión del calor

La supercomputadora Summit fue, en noviembre de 2018, la supercomputadora más rápida del mundo. [55] Con una eficiencia energética medida de 14,668 GFlops/vatio, también es la tercera más eficiente energéticamente del mundo. [56]

A lo largo de las décadas, la gestión de la densidad de calor ha seguido siendo un tema clave para la mayoría de las supercomputadoras centralizadas. [57] [58] [59] La gran cantidad de calor generada por un sistema también puede tener otros efectos, por ejemplo, reducir la vida útil de otros componentes del sistema. [60] Ha habido diversos enfoques para la gestión del calor, desde bombear Fluorinert a través del sistema, hasta un sistema híbrido de enfriamiento líquido-aire o enfriamiento por aire con temperaturas de aire acondicionado normales . [61] [62] Una supercomputadora típica consume grandes cantidades de energía eléctrica, casi toda la cual se convierte en calor, lo que requiere enfriamiento. Por ejemplo, Tianhe-1A consume 4,04  megavatios (MW) de electricidad. [63] El costo de alimentar y enfriar el sistema puede ser significativo, por ejemplo, 4 MW a $ 0,10 / kWh son $ 400 por hora o aproximadamente $ 3,5 millones por año.

Una cuchilla IBM HS20

La gestión del calor es un problema importante en los dispositivos electrónicos complejos y afecta a los sistemas informáticos potentes de diversas maneras. [64] Los problemas de potencia de diseño térmico y disipación de potencia de la CPU en la supercomputación superan a los de las tecnologías de refrigeración informáticas tradicionales . Los premios de supercomputación para la computación ecológica reflejan esta cuestión. [65] [66] [67]

El hecho de juntar miles de procesadores genera inevitablemente una cantidad significativa de densidad térmica que es necesario controlar. El Cray-2 se enfriaba con líquido y utilizaba una "cascada de enfriamiento" Fluorinert que se impulsaba a través de los módulos bajo presión. [61] Sin embargo, el método de enfriamiento líquido sumergido no era práctico para los sistemas de múltiples gabinetes basados ​​en procesadores estándar, y en el Sistema X se desarrolló un sistema de enfriamiento especial que combinaba aire acondicionado con enfriamiento líquido en conjunto con la empresa Liebert . [62]

En el sistema Blue Gene , IBM utilizó deliberadamente procesadores de bajo consumo para lidiar con la densidad de calor. [68] El IBM Power 775 , lanzado en 2011, tiene elementos muy juntos que requieren refrigeración por agua. [69] El sistema IBM Aquasar utiliza refrigeración por agua caliente para lograr eficiencia energética, y el agua también se utiliza para calentar edificios. [70] [71]

La eficiencia energética de los sistemas informáticos se mide generalmente en términos de " FLOPS por vatio ". En 2008, Roadrunner de IBM operaba a 376  MFLOPS/W . [72] [73] En noviembre de 2010, el Blue Gene/Q alcanzó 1.684 MFLOPS/W [74] [75] y en junio de 2011 los dos primeros puestos de la lista Green 500 estaban ocupados por máquinas Blue Gene en Nueva York (una alcanzó 2097 MFLOPS/W) con el clúster DEGIMA en Nagasaki en tercer lugar con 1375 MFLOPS/W. [76]

Debido a que los cables de cobre pueden transferir energía a una supercomputadora con densidades de potencia mucho más altas que el aire forzado o los refrigerantes circulantes pueden eliminar el calor residual , [77] la capacidad de los sistemas de enfriamiento para eliminar el calor residual es un factor limitante. [78] [79] A partir de 2015 , muchas supercomputadoras existentes tienen más capacidad de infraestructura que la demanda máxima real de la máquina: los diseñadores generalmente diseñan de manera conservadora la infraestructura de energía y enfriamiento para manejar más que la potencia eléctrica máxima teórica consumida por la supercomputadora. Los diseños para futuras supercomputadoras están limitados en energía: la potencia de diseño térmico de la supercomputadora en su conjunto, la cantidad que la infraestructura de energía y enfriamiento puede manejar, es algo más que el consumo de energía normal esperado, pero menor que el consumo de energía pico teórico del hardware electrónico. [80]

Gestión de software y sistemas

Sistemas operativos

Desde finales del siglo XX, los sistemas operativos de las supercomputadoras han sufrido importantes transformaciones, basadas en los cambios en la arquitectura de las supercomputadoras . [81] Si bien los primeros sistemas operativos se adaptaron a cada supercomputadora para ganar velocidad, la tendencia ha sido alejarse de los sistemas operativos internos hacia la adaptación de software genérico como Linux . [82]

Dado que las supercomputadoras modernas masivamente paralelas suelen separar los cálculos de otros servicios mediante el uso de múltiples tipos de nodos , normalmente ejecutan diferentes sistemas operativos en diferentes nodos, por ejemplo, utilizando un núcleo liviano pequeño y eficiente como CNK o CNL en los nodos de cómputo, pero un sistema más grande como un derivado de Linux en los nodos de servidor y de E/S . [83] [84] [85]

Mientras que en un sistema informático multiusuario tradicional la programación de tareas es, en efecto, un problema de asignación de tareas para recursos de procesamiento y periféricos, en un sistema masivamente paralelo, el sistema de gestión de tareas necesita gestionar la asignación de recursos computacionales y de comunicación, así como lidiar con elegancia con las inevitables fallas de hardware cuando hay decenas de miles de procesadores presentes. [86]

Aunque la mayoría de las supercomputadoras modernas utilizan sistemas operativos basados ​​en Linux , cada fabricante tiene su propio derivado específico de Linux y no existe un estándar industrial, en parte debido al hecho de que las diferencias en las arquitecturas de hardware requieren cambios para optimizar el sistema operativo para cada diseño de hardware. [81] [87]

Herramientas de software y transmisión de mensajes

Vista gran angular del correlador de ALMA [88]

Las arquitecturas paralelas de las supercomputadoras a menudo exigen el uso de técnicas de programación especiales para aprovechar su velocidad. Las herramientas de software para el procesamiento distribuido incluyen API estándar como MPI [89] y PVM , VTL y software de código abierto como Beowulf .

En el escenario más común, se utilizan entornos como PVM y MPI para clústeres conectados de forma flexible y OpenMP para máquinas de memoria compartida estrechamente coordinadas. Se requiere un esfuerzo significativo para optimizar un algoritmo para las características de interconexión de la máquina en la que se ejecutará; el objetivo es evitar que alguna de las CPU pierda tiempo esperando datos de otros nodos. Las GPGPU tienen cientos de núcleos de procesador y se programan utilizando modelos de programación como CUDA u OpenCL .

Además, es bastante difícil depurar y probar programas paralelos. Es necesario utilizar técnicas especiales para probar y depurar dichas aplicaciones.

Supercomputación distribuida

Enfoques oportunistas

Ejemplo de arquitectura de un sistema de computación en red que conecta muchas computadoras personales a través de Internet

La supercomputación oportunista es una forma de computación en red en cuadrícula mediante la cual una "supercomputadora virtual" de muchas máquinas de computación voluntarias acopladas de forma flexible realiza tareas de computación muy grandes. La computación en cuadrícula se ha aplicado a una serie de problemas a gran escala vergonzosamente paralelos que requieren escalas de rendimiento de supercomputación. Sin embargo, los enfoques básicos de computación en cuadrícula y en la nube que se basan en la computación voluntaria no pueden manejar tareas de supercomputación tradicionales como las simulaciones de dinámica de fluidos. [90]

El sistema de computación en red más rápido es el proyecto de computación voluntaria Folding@home (F@h). En abril de 2020 , F@h informó de 2,5 exaFLOPS de potencia de procesamiento x86 . De esta cantidad, más de 100 PFLOPS son aportados por clientes que se ejecutan en varias GPU y el resto por varios sistemas de CPU. [91]

La plataforma Berkeley Open Infrastructure for Network Computing (BOINC) alberga una serie de proyectos informáticos voluntarios. En febrero de 2017 , BOINC registró una potencia de procesamiento de más de 166 petaFLOPS a través de más de 762 mil computadoras (hosts) activas en la red. [92]

En octubre de 2016 , la búsqueda Mersenne Prime distribuida de Great Internet Mersenne Prime Search (GIMPS) logró aproximadamente 0,313 PFLOPS a través de más de 1,3 millones de computadoras. [93] El servidor PrimeNet ha respaldado el enfoque de computación en cuadrícula de GIMPS, uno de los primeros proyectos de computación voluntaria, desde 1997.

Enfoques cuasi-oportunistas

La supercomputación cuasi-oportunista es una forma de computación distribuida en la que la "supercomputadora virtual" de muchas computadoras en red y geográficamente dispersas realiza tareas de computación que demandan una enorme potencia de procesamiento. [94] La supercomputación cuasi-oportunista tiene como objetivo proporcionar una mayor calidad de servicio que la computación en red oportunista logrando un mayor control sobre la asignación de tareas a recursos distribuidos y el uso de inteligencia sobre la disponibilidad y confiabilidad de sistemas individuales dentro de la red de supercomputación. Sin embargo, la ejecución distribuida cuasi-oportunista de software de computación paralela exigente en redes debe lograrse mediante la implementación de acuerdos de asignación a nivel de red, subsistemas de co-asignación, mecanismos de asignación que tengan en cuenta la topología de comunicación, bibliotecas de paso de mensajes tolerantes a fallas y preacondicionamiento de datos. [94]

Nubes de computación de alto rendimiento

La computación en la nube, con su reciente y rápida expansión y desarrollo, ha captado la atención de los usuarios y desarrolladores de computación de alto rendimiento (HPC) en los últimos años. La computación en la nube intenta proporcionar HPC como servicio exactamente como otras formas de servicios disponibles en la nube, como software como servicio , plataforma como servicio e infraestructura como servicio . Los usuarios de HPC pueden beneficiarse de la nube en diferentes ángulos, como la escalabilidad, los recursos a pedido, la rapidez y el bajo costo. Por otro lado, mover aplicaciones HPC también tiene un conjunto de desafíos. Buenos ejemplos de tales desafíos son la sobrecarga de virtualización en la nube, la multi-tenencia de recursos y los problemas de latencia de la red. Actualmente se están realizando muchas investigaciones para superar estos desafíos y hacer que la HPC en la nube sea una posibilidad más realista. [95] [96] [97] [98]

En 2016, Penguin Computing, Parallel Works, R-HPC, Amazon Web Services , Univa , Silicon Graphics International , Rescale , Sabalcore y Gomput comenzaron a ofrecer computación en la nube HPC . La nube Penguin On Demand (POD) es un modelo de computación de hardware para ejecutar código, pero a cada usuario se le proporciona un nodo de inicio de sesión virtualizado . Los nodos de computación POD están conectados a través de redes Ethernet de 10 Gbit/s no virtualizadas o InfiniBand QDR . La conectividad del usuario al centro de datos POD varía de 50 Mbit/s a 1 Gbit/s. [99] Citando EC2 Elastic Compute Cloud de Amazon, Penguin Computing argumenta que la virtualización de los nodos de computación no es adecuada para HPC. Penguin Computing también ha criticado que las nubes HPC pueden haber asignado nodos de computación a clientes que están muy separados, lo que provoca una latencia que perjudica el rendimiento de algunas aplicaciones HPC. [100]

Medición del desempeño

Capacidad versus capacidad

Las supercomputadoras generalmente apuntan a la máxima capacidad de computación en lugar de a la computación por capacidad. La computación por capacidad se considera típicamente como el uso de la máxima potencia de computación para resolver un único gran problema en el menor tiempo posible. A menudo, un sistema de capacidad es capaz de resolver un problema de un tamaño o complejidad que ninguna otra computadora puede, por ejemplo, una aplicación de simulación meteorológica muy compleja . [101]

Por el contrario, la computación de capacidad se considera generalmente como el uso de potencia informática eficiente y rentable para resolver unos pocos problemas relativamente grandes o muchos problemas pequeños. [101] Las arquitecturas que se prestan a dar soporte a muchos usuarios para tareas cotidianas rutinarias pueden tener mucha capacidad, pero no suelen considerarse supercomputadoras, dado que no resuelven un solo problema muy complejo. [101]

Métricas de rendimiento

Máximas velocidades de supercomputadoras: velocidad en escala logarítmica durante 60 años

En general, la velocidad de las supercomputadoras se mide y se evalúa en FLOPS (operaciones de punto flotante por segundo), y no en términos de MIPS (millones de instrucciones por segundo), como es el caso de las computadoras de propósito general. [102] Estas medidas se usan comúnmente con un prefijo SI como tera- , combinado en la abreviatura TFLOPS (10 12 FLOPS, pronunciado teraflops ), o peta- , combinado en la abreviatura PFLOPS (10 15 FLOPS, pronunciado petaflops ). Las supercomputadoras a petaescala pueden procesar un cuatrillón (10 15 ) (1000 billones) de FLOPS. La exaescala es el rendimiento computacional en el rango de exaFLOPS (EFLOPS). Un EFLOPS es un quintillón (10 18 ) de FLOPS (un millón de TFLOPS). Sin embargo, el rendimiento de una supercomputadora puede verse gravemente afectado por fluctuaciones provocadas por elementos como la carga del sistema, el tráfico de red y los procesos concurrentes, como lo mencionan Brehm y Bruhwiler (2015). [103]

Ningún número puede reflejar el rendimiento general de un sistema informático, pero el objetivo del benchmark Linpack es aproximarse a la velocidad con la que el ordenador resuelve problemas numéricos y se utiliza ampliamente en la industria. [104] La medición de FLOPS se cita en función del rendimiento teórico de punto flotante de un procesador (derivado de las especificaciones del procesador del fabricante y mostrado como "Rpeak" en las listas TOP500), que generalmente es inalcanzable cuando se ejecutan cargas de trabajo reales, o el rendimiento alcanzable, derivado de los benchmarks LINPACK y mostrado como "Rmax" en la lista TOP500. [105] El benchmark LINPACK normalmente realiza la descomposición LU de una matriz grande. [106] El rendimiento LINPACK da alguna indicación del rendimiento para algunos problemas del mundo real, pero no necesariamente coincide con los requisitos de procesamiento de muchas otras cargas de trabajo de supercomputadoras, que, por ejemplo, pueden requerir más ancho de banda de memoria, o pueden requerir un mejor rendimiento de computación de números enteros, o pueden necesitar un sistema de E/S de alto rendimiento para lograr altos niveles de rendimiento. [104]

La lista TOP500

Las 20 mejores supercomputadoras del mundo (junio de 2014)

Desde 1993, las supercomputadoras más rápidas se clasifican en la lista TOP500 según sus resultados en el análisis comparativo LINPACK . La lista no pretende ser imparcial ni definitiva, pero es una definición actual y ampliamente citada de la supercomputadora "más rápida" disponible en un momento dado.

Esta es una lista de las computadoras que aparecieron en la parte superior de la lista TOP500 desde junio de 1993, [107] y la "velocidad máxima" se da como la clasificación "Rmax". En 2018, Lenovo se convirtió en el proveedor más grande del mundo para las supercomputadoras TOP500 con 117 unidades producidas. [108]

Aplicaciones

Las etapas de la aplicación de una supercomputadora se pueden resumir en la siguiente tabla:

El ordenador IBM Blue Gene /P ha sido utilizado para simular un número de neuronas artificiales equivalente a aproximadamente el uno por ciento de la corteza cerebral humana, que contiene 1.600 millones de neuronas con aproximadamente 9 billones de conexiones. El mismo grupo de investigación también logró utilizar un superordenador para simular un número de neuronas artificiales equivalente a la totalidad del cerebro de una rata. [120]

Las predicciones meteorológicas modernas también dependen de supercomputadoras. La Administración Nacional Oceánica y Atmosférica utiliza supercomputadoras para procesar cientos de millones de observaciones que ayudan a hacer predicciones meteorológicas más precisas. [121]

En 2011, los desafíos y dificultades para ampliar los límites de la supercomputación quedaron subrayados por el abandono por parte de IBM del proyecto de petaescala Blue Waters . [122]

El Programa de Simulación y Computación Avanzada utiliza actualmente supercomputadoras para mantener y simular el arsenal nuclear de los Estados Unidos. [123]

A principios de 2020, la COVID-19 ocupaba un lugar central en el mundo. Las supercomputadoras utilizaban diferentes simulaciones para encontrar compuestos que pudieran detener la propagación. Estas computadoras funcionaban durante decenas de horas utilizando múltiples CPU que se ejecutaban en paralelo para modelar diferentes procesos. [124] [125] [126]

Taiwania 3 es una supercomputadora taiwanesa que ayudó a la comunidad científica a combatir el COVID-19 . Se lanzó en 2020 y tiene una capacidad de aproximadamente dos a tres petaflops .

Desarrollo y tendencias

Distribución de los superordenadores TOP500 entre los distintos países, en noviembre de 2015

En la década de 2010, China, Estados Unidos, la Unión Europea y otros compitieron para ser los primeros en crear una  supercomputadora de 1 exaFLOP (10 18 o un quintillón de FLOPS). [127] Erik P. DeBenedictis de Sandia National Laboratories ha teorizado que se requiere una computadora de zettaFLOPS (10 21 o un sextillón de FLOPS) para lograr un modelado meteorológico completo , que podría cubrir un lapso de tiempo de dos semanas con precisión. [128] [129] [130] Dichos sistemas podrían construirse alrededor de 2030. [131]

Muchas simulaciones de Monte Carlo utilizan el mismo algoritmo para procesar un conjunto de datos generados aleatoriamente; en particular, ecuaciones integro-diferenciales que describen procesos de transporte físico , trayectorias aleatorias , colisiones y depósitos de energía y momento de neutrones, fotones, iones, electrones, etc.El siguiente paso para los microprocesadores puede ser la tercera dimensión ; y especializándose en Monte Carlo, las muchas capas podrían ser idénticas, simplificando el proceso de diseño y fabricación. [132]

El costo de operar supercomputadoras de alto rendimiento ha aumentado, principalmente debido al creciente consumo de energía. A mediados de la década de 1990, una supercomputadora del top 10 requería en el rango de 100 kilovatios, en 2010 las 10 supercomputadoras más importantes requerían entre 1 y 2 megavatios. [133] Un estudio de 2010 encargado por DARPA identificó el consumo de energía como el desafío más generalizado para lograr la computación a exaescala . [134] En ese momento, un megavatio por año en consumo de energía costaba alrededor de 1 millón de dólares. Las instalaciones de supercomputación se construyeron para eliminar de manera eficiente la creciente cantidad de calor producida por las modernas unidades centrales de procesamiento de múltiples núcleos . Con base en el consumo de energía de la lista Green 500 de supercomputadoras entre 2007 y 2011, una supercomputadora con 1 exaFLOPS en 2011 habría requerido casi 500 megavatios. Se desarrollaron sistemas operativos para el hardware existente para conservar energía siempre que fuera posible. [135] Los núcleos de CPU que no se utilizaban durante la ejecución de una aplicación paralelizada se pusieron en estados de bajo consumo, lo que produjo ahorros de energía para algunas aplicaciones de supercomputación. [136]

El aumento del coste de funcionamiento de las supercomputadoras ha sido un factor impulsor de una tendencia hacia la agrupación de recursos a través de una infraestructura de supercomputadoras distribuida. Los centros nacionales de supercomputación surgieron primero en los EE. UU., seguidos por Alemania y Japón. La Unión Europea lanzó la Asociación para la Computación Avanzada en Europa (PRACE) con el objetivo de crear una infraestructura de supercomputadoras paneuropea persistente con servicios para apoyar a los científicos de toda la Unión Europea en la portabilidad, escalado y optimización de aplicaciones de supercomputación. [133] Islandia construyó la primera supercomputadora de cero emisiones del mundo. Ubicada en el Centro de Datos Thor en Reykjavík , Islandia, esta supercomputadora depende de fuentes completamente renovables para su energía en lugar de combustibles fósiles. El clima más frío también reduce la necesidad de enfriamiento activo, lo que la convierte en una de las instalaciones más ecológicas en el mundo de las computadoras. [137]

La financiación del hardware de los superordenadores también se hizo cada vez más difícil. A mediados de los años 1990, un superordenador de los 10 primeros puestos costaba unos 10 millones de euros, mientras que en 2010 los 10 primeros puestos requerían una inversión de entre 40 y 50 millones de euros. [133] En la década de 2000, los gobiernos nacionales pusieron en marcha diferentes estrategias para financiar los superordenadores. En el Reino Unido, el gobierno nacional financió los superordenadores en su totalidad y la informática de alto rendimiento quedó bajo el control de una agencia de financiación nacional. Alemania desarrolló un modelo de financiación mixto, que agrupaba la financiación estatal local y la financiación federal. [133]

En la ficción

Entre los ejemplos de supercomputadoras en la ficción se incluyen HAL 9000 , Multivac , The Machine Stops , GLaDOS , The Evitable Conflict , Vulcan's Hammer , Colossus , WOPR , AM y Deep Thought . Se mencionó una supercomputadora de Thinking Machines como la supercomputadora utilizada para secuenciar el ADN extraído de parásitos preservados en la serie Jurassic Park .

Véase también

Referencias

  1. ^ "Anuncio del gen IBM Blue". 03.ibm.com. 26 de junio de 2007. Archivado desde el original el 8 de julio de 2007. Consultado el 9 de junio de 2012 .
  2. ^ "Intrepid". Argonne Leadership Computing Facility . Laboratorio Nacional de Argonne . Archivado desde el original el 7 de mayo de 2013 . Consultado el 26 de marzo de 2020 .
  3. ^ "Frontier mantiene el primer puesto, pero Aurora se convierte oficialmente en la segunda máquina de exaescala". Top 500 . Consultado el 13 de octubre de 2024 .
  4. ^ "Especificaciones de la GPU de AMD Playstation 5". TechPowerUp . Consultado el 11 de septiembre de 2021 .
  5. ^ "Especificaciones de la NVIDIA GeForce GT 730". TechPowerUp . Consultado el 11 de septiembre de 2021 .
  6. ^ "Familia de sistemas operativos/Linux". TOP500.org . Consultado el 30 de noviembre de 2017 .
  7. ^ Anderson, Mark (21 de junio de 2017). "La carrera global hacia la exaescala impulsará la supercomputación y la inteligencia artificial a las masas". Spectrum.IEEE.org . Consultado el 20 de enero de 2019.
  8. ^ Lemke, Tim (8 de mayo de 2013). «NSA Breaks Ground on Massive Computing Center» (La NSA inaugura un centro de computación masivo) . Consultado el 11 de diciembre de 2013 .
  9. ^ ab Hoffman, Allan R.; et al. (1990). Supercomputadoras: direcciones en tecnología y aplicaciones . Academias Nacionales. págs. 35–47. ISBN 978-0-309-04088-4.
  10. ^ ab Hill, Mark Donald; Jouppi, Norman Paul ; Sohi, Gurindar (1999). Lecturas en arquitectura informática . Gulf Professional. págs. 40–49. ISBN 978-1-55860-539-8.
  11. ^ "Japón captura la corona del TOP500 con una supercomputadora impulsada por Arm - Sitio web TOP500" www.top500.org .
  12. ^ "Desarrollo del rendimiento". www.top500.org . Consultado el 27 de octubre de 2022 .
  13. ^ Eric G. Swedin; David L. Ferro (2007). Computadoras: la historia de vida de una tecnología . JHU Press. p. 57. ISBN 9780801887741.
  14. ^ Eric G. Swedin; David L. Ferro (2007). Computadoras: la historia de vida de una tecnología . JHU Press. p. 56. ISBN 9780801887741.
  15. ^ Eric G. Swedin; David L. Ferro (2007). Computadoras: la historia de vida de una tecnología . JHU Press. p. 58. ISBN 9780801887741.
  16. ^ Atlas, Universidad de Manchester, archivado desde el original el 28 de julio de 2012 , consultado el 21 de septiembre de 2010
  17. ^ Los superhombres , Charles Murray, Wiley & Sons, 1997.
  18. ^ Paul E. Ceruzzi (2003). Una historia de la informática moderna . Prensa del MIT. pag. 161.ISBN 978-0-262-53203-7.
  19. ^ ab Hannan, Caryn (2008). Diccionario biográfico de Wisconsin. Publicaciones de historia del estado. págs. 83-84. ISBN 978-1-878592-63-7.
  20. ^ John Impagliazzo; John AN Lee (2004). Historia de la informática en la educación. Springer Science & Business Media. pág. 172. ISBN 978-1-4020-8135-4.
  21. ^ Andrew RL Cayton; Richard Sisson; Chris Zacher (2006). El Medio Oeste americano: una enciclopedia interpretativa. Indiana University Press. pág. 1489. ISBN 978-0-253-00349-2.
  22. ^ Lecturas sobre arquitectura informática de Mark Donald Hill, Norman Paul Jouppi, Gurindar Sohi 1999 ISBN 978-1-55860-539-8 página 41-48 
  23. ^ Hitos en la informática y la tecnología de la información por Edwin D. Reilly 2003 ISBN 1-57356-521-0 página 65 
  24. ^ Debido a la propaganda soviética, a veces se puede leer que el superordenador soviético M13 fue el primero en alcanzar la barrera de los gigaflops. En realidad, la construcción del M13 comenzó en 1984, pero no estuvo operativo hasta 1986. Rogachev Yury Vasilievich, Museo Ruso de Computación Virtual
  25. ^ "Citas de Seymour Cray". BrainyQuote .
  26. ^ Steve Nelson (3 de octubre de 2014). "ComputerGK.com: Supercomputadoras".
  27. ^ "Sistema de gráficos por computadora LINKS-1-Museo de la Computación". museum.ipsj.or.jp .
  28. Fujitsu Global: VPP500 (1992) (en inglés )
  29. ^ "TOP500 Annual Report 1994". Netlib.org. 1 de octubre de 1996. Consultado el 9 de junio de 2012 .
  30. ^ N. Hirose y M. Fukuda (1997). "Investigación en túneles de viento numéricos (NWT) y CFD en el Laboratorio Aeroespacial Nacional". Actas de High Performance Computing on the Information Superhighway. HPC Asia '97 . Actas de HPC-Asia '97. IEEE Computer Society. Páginas. págs. 99-103. doi :10.1109/HPC.1997.592130. ISBN. 0-8186-7901-8.
  31. ^ H. Fujii, Y. Yasuda, H. Akashi, Y. Inagami, M. Koga, O. Ishihara, M. Syazwan, H. Wada, T. Sumimoto, Arquitectura y rendimiento del sistema de procesador masivamente paralelo Hitachi SR2201, Actas del 11º Simposio Internacional de Procesamiento Paralelo, abril de 1997, páginas 233–241.
  32. ^ Y. Iwasaki, El proyecto CP-PACS, Nuclear Physics B: Proceedings Supplements, Volumen 60, Números 1-2, enero de 1998, páginas 246-254.
  33. ^ AJ van der Steen, Descripción general de las supercomputadoras recientes, Publicación del NCF, Stichting Nationale Computer Faciliteiten, Países Bajos, enero de 1997.
  34. ^ Entrada/salida escalable: lograr el equilibrio del sistema por Daniel A. Reed 2003 ISBN 978-0-262-68142-1 página 182 
  35. ^ "David Bader seleccionado para recibir el premio Sidney Fernbach de la IEEE Computer Society 2021". IEEE Computer Society. 22 de septiembre de 2021. Consultado el 12 de octubre de 2023 .
  36. ^ abc Bader, David A. (2021). "Linux y supercomputación: cómo mi pasión por construir sistemas COTS condujo a una revolución de HPC". IEEE Annals of the History of Computing . 43 (3): 73–80. doi : 10.1109/MAHC.2021.3101415 . S2CID  237318907.
  37. ^ Fleck, John (8 de abril de 1999). "UNM lanzará hoy una supercomputadora de 400.000 dólares". Albuquerque Journal . p. D1.
  38. ^ Prodan, Radu; Fahringer, Thomas (2007). Computación en cuadrícula: gestión de experimentos, integración de herramientas y flujos de trabajo científicos . Springer. pp. 1–4. ISBN 978-3-540-69261-4.
  39. ^ Knight, Will: "IBM crea el ordenador más potente del mundo", servicio de noticias NewScientist.com , junio de 2007
  40. ^ NR Agida; et al. (2005). "Red de interconexión de toros Blue Gene/L | IBM Journal of Research and Development" (PDF) . Red de interconexión de toros . p. 265. Archivado desde el original (PDF) el 15 de agosto de 2011.
  41. ^ Niu, Yanwei; Hu, Ziang; Barner, Kenneth ; Gao, Guang R. (2005). "Modelado del rendimiento y optimización del acceso a la memoria en la arquitectura de computación celular Cyclops64" (PDF) . Computación en red y paralela . Apuntes de clase en informática. Vol. 3779. págs. 132–143. doi :10.1007/11577188_18. ISBN 978-3-540-29810-6. Archivado (PDF) del original el 9 de octubre de 2022.
  42. ^ Análisis y resultados de rendimiento del cálculo de la centralidad de intermediación en IBM Cyclops64 por Guangming Tan, Vugranam C. Sreedhar y Guang R. Gao The Journal of Supercomputing Volumen 56, Número 1, 1–24 Septiembre 2011
  43. ^ Prickett, Timothy (31 de mayo de 2010). "Top 500 supers – The Dawning of the GPUs" (Los 500 mejores supers: el amanecer de las GPU). Theregister.co.uk.
  44. ^ Hans Hacker; Carsten Trinitis; Josef Weidendorfer; Matthias Brehm (2010). "Considerando GPGPU para centros HPC: ¿Vale la pena el esfuerzo?". En Rainer Keller; David Kramer; Jan-Philipp Weiss (eds.). Enfrentando el desafío de los núcleos múltiples: aspectos de nuevos paradigmas y tecnologías en computación paralela . Springer Science & Business Media. págs. 118–121. ISBN . 978-3-642-16232-9.
  45. ^ Damon Poeter (11 de octubre de 2011). "La supercomputadora Titan de Cray para ORNL podría ser la más rápida del mundo". Pcmag.com.
  46. ^ Feldman, Michael (11 de octubre de 2011). "Las GPU transformarán el Jaguar de ORNL en un Titán de 20 petaflops". Hpcwire.com.
  47. ^ Timothy Prickett Morgan (11 de octubre de 2011). "Oak Ridge cambia el foco de Jaguar de las CPU a las GPU". Theregister.co.uk.
  48. ^ "La supercomputadora NETL" Archivado el 4 de septiembre de 2015 en Wayback Machine . página 2.
  49. ^ Condon, JH y K. Thompson, "Belle Chess Hardware", en Avances en ajedrez informático 3 (ed. MRBClarke), Pergamon Press, 1982.
  50. ^ Hsu, Feng-hsiung (2002). Detrás de Deep Blue: la construcción de la computadora que derrotó al campeón mundial de ajedrez . Princeton University Press . ISBN 978-0-691-09065-8.
  51. ^ C. Donninger, U. Lorenz. La hidra, el monstruo del ajedrez. Actas de la 14.ª Conferencia internacional sobre lógica programable en campo y aplicaciones (FPL), 2004, Amberes (Bélgica), LNCS 3203, págs. 927-932
  52. ^ J Makino y M. Taiji, Simulaciones científicas con computadoras de propósito especial: los sistemas GRAPE , Wiley. 1998.
  53. ^ Nota de prensa de RIKEN, Finalización de un sistema informático de un petaFLOPS para la simulación de dinámica molecular Archivado el 2 de diciembre de 2012 en Wayback Machine
  54. ^ Electronic Frontier Foundation (1998). Cracking DES – Secretos de la investigación de cifrado, políticas de escuchas telefónicas y diseño de chips. Oreilly & Associates Inc. ISBN 978-1-56592-520-5.
  55. ^ Lohr, Steve (8 de junio de 2018). «Hazte a un lado, China: Estados Unidos vuelve a ser el hogar de la supercomputadora más rápida del mundo». New York Times . Consultado el 19 de julio de 2018 .
  56. ^ "Green500 List - November 2018" (Lista Green500 - Noviembre 2018). TOP500 . Consultado el 19 de julio de 2018 .
  57. ^ Xue-June Yang; Xiang-Ke Liao; et al. (2011). "La supercomputadora TianHe-1A: su hardware y software". Revista de Ciencias Informáticas y Tecnología . 26 (3): 344–351. doi :10.1007/s02011-011-1137-8. S2CID  1389468.
  58. ^ Los superhombres: historia de Seymour Cray y los magos técnicos detrás de la supercomputadora , de Charles J. Murray, 1997, ISBN 0-471-04885-2 , páginas 133-135 
  59. ^ Dinámica de fluidos computacional paralela: avances recientes y direcciones futuras editado por Rupak Biswas 2010 ISBN 1-60595-022-X página 401 
  60. ^ Avances en la investigación de supercomputación por Yongge Huáng 2008, ISBN 1-60456-186-6 , páginas 313–314 
  61. ^ ab Computación paralela para el procesamiento y control de señales en tiempo real por MO Tokhi, Mohammad Alamgir Hossain 2003, ISBN 978-1-85233-599-1 , páginas 201–202 
  62. ^ ab Computational science – ICCS 2005: 5th international conference editado por Vaidy S. Sunderam 2005, ISBN 3-540-26043-9 , páginas 60–67 
  63. ^ "Las GPU Tesla de NVIDIA impulsan el superordenador más rápido del mundo" (nota de prensa). Nvidia. 29 de octubre de 2010. Archivado desde el original el 2 de marzo de 2014. Consultado el 21 de febrero de 2011 .
  64. ^ Balandin, Alexander A. (octubre de 2009). "Mejor computación a través del enfriamiento de la CPU". IEEE . Archivado desde el original el 14 de julio de 2012.
  65. ^ "The Green 500". Green500.org. Archivado desde el original el 26 de agosto de 2016. Consultado el 14 de agosto de 2011 .
  66. ^ "La lista Green 500 clasifica a las supercomputadoras". iTnews Australia . Archivado desde el original el 22 de octubre de 2008.
  67. ^ Wu-chun Feng (2003). "Defensa de la supercomputación eficiente | Revista ACM Queue, volumen 1, número 7, 10 de enero de 2003 doi 10.1145/957717.957772". Queue . 1 (7): 54. doi : 10.1145/957717.957772 . S2CID  11283177.
  68. ^ "IBM revela un superordenador BlueGene/Q de 20 petaflops". The Register . 22 de noviembre de 2010 . Consultado el 25 de noviembre de 2010 .
  69. ^ Prickett, Timothy (15 de julio de 2011). "The Register: El supernodo IBM 'Blue Waters' llega a la costa en agosto". Theregister.co.uk . Consultado el 9 de junio de 2012 .
  70. ^ "El superordenador refrigerado por agua de IBM entra en funcionamiento en la ETH de Zúrich". Sala de prensa de IBM . 2 de julio de 2010. Archivado desde el original el 10 de enero de 2011 . Consultado el 16 de marzo de 2020 .
  71. ^ Martin LaMonica (10 de mayo de 2010). «CNet 10 May 2010». News.cnet.com. Archivado desde el original el 1 de noviembre de 2013. Consultado el 9 de junio de 2012 .
  72. ^ "Gobierno presenta la computadora más rápida del mundo". CNN . Archivado desde el original el 10 de junio de 2008. Realiza 376 millones de cálculos por cada vatio de electricidad utilizado.
  73. ^ "IBM Roadrunner se lleva el oro en la carrera del petaflop". Archivado desde el original el 17 de diciembre de 2008. Consultado el 16 de marzo de 2020 .
  74. ^ "Top500 Supercomputing List Reveals Computing Trends". 20 de julio de 2010. IBM... sistema BlueGene/Q... estableciendo un récord en eficiencia energética con un valor de 1.680 MFLOPS/W, más del doble que el siguiente mejor sistema.
  75. ^ "IBM Research, claro ganador en Green 500". 18 de noviembre de 2010.
  76. ^ "Lista Green 500". Green500.org. Archivado desde el original el 3 de julio de 2011. Consultado el 16 de marzo de 2020 .
  77. ^ Saed G. Younis. "Cálculo de energía asintóticamente cero utilizando lógica de recuperación de carga de nivel dividido". 1994. página 14.
  78. ^ "Tema candente: el problema de enfriar las supercomputadoras" Archivado el 18 de enero de 2015 en Wayback Machine .
  79. ^ Anand Lal Shimpi. "Dentro de la supercomputadora Titan: 299.000 núcleos AMD x86 y 18.600 GPU NVIDIA". 2012.
  80. ^ Curtis Storlie; Joe Sexton; Scott Pakin; Michael Lang; Brian Reich; William Rust. "Modelado y predicción del consumo de energía en trabajos informáticos de alto rendimiento". 2014.
  81. ^ ab Enciclopedia de computación paralela de David Padua 2011 ISBN 0-387-09765-1 páginas 426–429 
  82. ^ Máquinas conocedoras: ensayos sobre el cambio técnico por Donald MacKenzie 1998 ISBN 0-262-63188-1 página 149-151 
  83. ^ Procesamiento paralelo Euro-Par 2004: Décima Conferencia Internacional Euro-Par 2004, por Marco Danelutto, Marco Vanneschi y Domenico Laforenza, ISBN 3-540-22924-8 , página 835 
  84. ^ Procesamiento paralelo Euro-Par 2006: 12.ª Conferencia internacional Euro-Par , 2006, por Wolfgang E. Nagel, Wolfgang V. Walter y Wolfgang Lehner ISBN 3-540-37783-2 página 
  85. ^ Una evaluación del Cray XT3 del Laboratorio Nacional de Oak Ridge por Sadaf R. Alam et al. Revista internacional de aplicaciones informáticas de alto rendimiento Febrero de 2008 vol. 22 núm. 1 52–80
  86. ^ Arquitectura de gestión de trabajos abiertos para la supercomputadora Blue Gene/L por Yariv Aridor et al. en Estrategias de programación de trabajos para procesamiento paralelo por Dror G. Feitelson 2005 ISBN 978-3-540-31024-2 páginas 95–101 
  87. ^ "Top500 OS chart". Top500.org. Archivado desde el original el 5 de marzo de 2012. Consultado el 31 de octubre de 2010 .
  88. ^ "Vista gran angular del correlacionador de ALMA". Nota de prensa de ESO . Consultado el 13 de febrero de 2013 .
  89. ^ Nielsen, Frank (2016). Introducción a HPC con MPI para la ciencia de datos . Springer. págs. 185–221. ISBN 978-3-319-21903-5.
  90. ^ Rahat, Nazmul. "Capítulo 03 Gestión de sistemas y software".
  91. ^ Laboratorio Pande. "Estadísticas de clientes por SO". Folding@home . Universidad de Stanford . Consultado el 10 de abril de 2020 .
  92. ^ "BOINC Combined". BOINCstats . BOINC . Archivado desde el original el 19 de septiembre de 2010 . Consultado el 30 de octubre de 2016 Tenga en cuenta que este enlace proporcionará estadísticas actuales, no las de la fecha de la última consulta.{{cite web}}: Mantenimiento de CS1: postscript ( enlace )
  93. ^ "Tecnología informática distribuida de servidores PrimeNet de Internet para la gran búsqueda de Mersenne Prime en Internet". GIMPS . Consultado el 6 de junio de 2011 .
  94. ^ ab Kravtsov, Valentin; Carmeli, David; Dubitzky, Werner; Orda, Ariel; Schuster, Assaf ; Yoshpa, Benny. "Supercomputación cuasi-oportunista en redes, artículo de actualidad (2007)". Simposio internacional IEEE sobre computación distribuida de alto rendimiento . IEEE. CiteSeerX 10.1.1.135.8993 . Consultado el 4 de agosto de 2011 . 
  95. ^ Jamalian, S.; Rajaei, H. (1 de marzo de 2015). "ASETS: Un sistema de programación de tareas potenciado por SDN para HPCaaS en la nube". Conferencia internacional IEEE de 2015 sobre ingeniería de la nube. págs. 329–334. doi :10.1109/IC2E.2015.56. ISBN 978-1-4799-8218-9.S2CID10974077  .​
  96. ^ Jamalian, S.; Rajaei, H. (1 de junio de 2015). "Programación de tareas de computación en la nube con uso intensivo de datos con SDN para habilitar la computación en la nube como servicio". 2015 IEEE 8th International Conference on Cloud Computing. págs. 596–603. doi :10.1109/CLOUD.2015.85. ISBN 978-1-4673-7287-9.S2CID10141367  .​
  97. ^ Gupta, A.; Milojicic, D. (1 de octubre de 2011). "Evaluación de aplicaciones HPC en la nube". Sexta Cumbre Open Cirrus de 2011. págs. 22–26. CiteSeerX 10.1.1.294.3936 . doi :10.1109/OCS.2011.10. ISBN.  978-0-7695-4650-6.S2CID 9405724  .
  98. ^ Kim, H.; el-Khamra, Y.; Jha, S.; Parashar, M. (1 de diciembre de 2009). "Un enfoque autónomo para el uso integrado de la red HPC y la nube". Quinta conferencia internacional IEEE sobre e-ciencia de 2009. págs. 366–373. CiteSeerX 10.1.1.455.7000 . doi :10.1109/e-Science.2009.58. ISBN .  978-1-4244-5340-5.S2CID11502126  .​
  99. ^ Eadline, Douglas. "Trasladar la informática de alto rendimiento a la nube". Revista Admin . Consultado el 30 de marzo de 2019 .
  100. ^ Niccolai, James (11 de agosto de 2009). "Penguin lleva la informática de alto rendimiento a la nube". PCWorld . IDG Consumer & SMB . Consultado el 6 de junio de 2016 .
  101. ^ abc El impacto potencial de la computación de alta capacidad en cuatro campos ilustrativos de la ciencia y la ingeniería por el Comité sobre el impacto potencial de la computación de alta capacidad en cuatro campos ilustrativos de la ciencia y la ingeniería y el Consejo Nacional de Investigación (28 de octubre de 2008) ISBN 0-309-12485-9 página 9 
  102. ^ Xingfu Wu (1999). Evaluación del rendimiento, predicción y visualización de sistemas paralelos. Springer Science & Business Media. pp. 114–117. ISBN 978-0-7923-8462-5.
  103. ^ Brehm, M. y Bruhwiler, DL (2015) 'Características de rendimiento de la aceleración Wakefield del plasma impulsada por haces de protones'. Journal of Physics: Serie de conferencias
  104. ^ ab Dongarra, Jack J.; Luszczek, Piotr; Petitet, Antoine (2003), "El punto de referencia LINPACK: pasado, presente y futuro" (PDF) , Concurrencia y computación: práctica y experiencia , 15 (9): 803–820, doi :10.1002/cpe.728, S2CID  1900724
  105. ^ "Comprensión de las medidas de rendimiento de supercomputadoras y capacidad de sistemas de almacenamiento". Universidad de Indiana . Consultado el 3 de diciembre de 2017 .
  106. ^ "Preguntas frecuentes". TOP500.org . Consultado el 3 de diciembre de 2017 .
  107. ^ "Top500 lists". Top500.org . Consultado el 3 de agosto de 2024 .
  108. ^ "Lenovo alcanza el estatus de mayor proveedor mundial de supercomputadoras TOP500". Business Wire . 25 de junio de 2018.
  109. ^ "Noviembre 2022 | TOP500". www.top500.org . Consultado el 7 de diciembre de 2022 .
  110. ^ ab "China encabeza el ranking de supercomputadoras con nueva máquina de 93 petaflops | TOP500". www.top500.org .
  111. ^ "Matrix-2000 - NUDT - WikiChip". en.wikichip.org . Consultado el 19 de julio de 2019 .
  112. ^ "Tianhe-2A - Clúster TH-IVB-FEP, Intel Xeon E5-2692v2 12C 2.2GHz, TH Express-2, Matrix-2000 | TOP500 Supercomputer Sites" (Sitios de supercomputadoras TOP500) . Consultado el 16 de noviembre de 2022 .
  113. ^ "El sistema informático Cray-1" (PDF) . Cray Research, Inc. Archivado (PDF) del original el 9 de octubre de 2022 . Consultado el 25 de mayo de 2011 .
  114. ^ Joshi, Rajani R. (9 de junio de 1998). "Un nuevo algoritmo heurístico para la optimización probabilística". Computers & Operations Research . 24 (7): 687–697. doi :10.1016/S0305-0548(96)00056-1.
  115. ^ "Resumen de SAMSY – Sistema modular de análisis de blindaje". Agencia de Energía Nuclear de la OCDE, Issy-les-Moulineaux, Francia . Consultado el 25 de mayo de 2011 .
  116. ^ "Código fuente del cracker EFF DES". cosic.esat.kuleuven.be . Consultado el 8 de julio de 2011 .
  117. ^ "Diplomacia del desarme: Programa de simulación de pruebas y supercomputación del Departamento de Energía". Acronym.org.uk. 22 de agosto de 2000. Archivado desde el original el 16 de mayo de 2013. Consultado el 8 de julio de 2011 .
  118. ^ "¡La inversión de China en supercomputación con GPU comienza a dar sus frutos!". Blogs.nvidia.com. Archivado desde el original el 5 de julio de 2011. Consultado el 8 de julio de 2011 .
  119. ^ Andrew, Scottie (19 de marzo de 2020). "La supercomputadora más rápida del mundo identificó sustancias químicas que podrían detener la propagación del coronavirus, un paso crucial hacia un tratamiento". CNN . Consultado el 12 de mayo de 2020 .
  120. ^ Kaku, Michio. Física del futuro (Nueva York: Doubleday, 2011), 65.
  121. ^ "Supercomputadoras más rápidas ayudan a hacer pronósticos meteorológicos". News.nationalgeographic.com. 28 de octubre de 2010. Archivado desde el original el 5 de septiembre de 2005. Consultado el 8 de julio de 2011 .
  122. ^ "IBM abandona el proyecto de supercomputadora 'Blue Waters'". International Business Times . 9 de agosto de 2011 . Consultado el 14 de diciembre de 2018 .  – vía EBSCO (requiere suscripción)
  123. ^ "Supercomputadoras". Departamento de Energía de Estados Unidos . Archivado desde el original el 7 de marzo de 2017. Consultado el 7 de marzo de 2017 .
  124. ^ "Las simulaciones de supercomputadoras ayudan a avanzar en la investigación de reacciones electroquímicas". ucsdnews.ucsd.edu . Consultado el 12 de mayo de 2020 .
  125. ^ "Cumbre de IBM: la supercomputadora que lucha contra el coronavirus". Revista electrónica MedicalExpo . 16 de abril de 2020. Consultado el 12 de mayo de 2020 .
  126. ^ "OSTP financia la investigación de supercomputadoras para combatir el COVID-19 – MeriTalk" . Consultado el 12 de mayo de 2020 .
  127. ^ "Proyecto de supercomputadora de 1,2 millones de dólares de la UE para varias computadoras de 10-100 PetaFLOP para 2020 y exaFLOP para 2022 | NextBigFuture.com". NextBigFuture.com . 4 de febrero de 2018 . Consultado el 21 de mayo de 2018 .
  128. ^ DeBenedictis, Erik P. (2004). "El camino hacia la computación extrema" (PDF) . Zettaflops . Sandia National Laboratories. Archivado desde el original (PDF) el 3 de agosto de 2007. Consultado el 9 de septiembre de 2020 .
  129. ^ Cohen, Reuven (28 de noviembre de 2013). "¡El poder computacional global de Bitcoin es ahora 256 veces más rápido que el de las 500 supercomputadoras más importantes juntas!". Forbes . Consultado el 1 de diciembre de 2017 .
  130. ^ DeBenedictis, Erik P. (2005). "Lógica reversible para supercomputación". Actas de la 2.ª conferencia sobre fronteras informáticas . ACM Press. pp. 391–402. ISBN 978-1-59593-019-4.
  131. ^ "IDF: Intel afirma que la Ley de Moore se mantendrá hasta 2029". Heise Online . 4 de abril de 2008. Archivado desde el original el 8 de diciembre de 2013.
  132. ^ Solem, JC (1985). "MECA: Un concepto de multiprocesador especializado en Monte Carlo". Métodos y aplicaciones de Monte Carlo en neutrónica, fotónica y física estadística . Apuntes de clase en física. Vol. 240. Actas de la reunión conjunta del Laboratorio Nacional de Los Álamos y el Comisariado de Energía Atómica celebrada en el castillo de Cadarache, Provenza, Francia, del 22 al 26 de abril de 1985; Métodos y aplicaciones de Monte Carlo en neutrónica, fotónica y física estadística, Alcouffe, R.; Dautray, R.; Forster, A.; Forster, G.; Mercier, B.; Eds. (Springer Verlag, Berlín). págs. 184–195. Código Bibliográfico :1985LNP...240..184S. ISBN : 978-0-822-2-42-0 978-3-540-16070-0.OSTI 5689714  .
  133. ^ abcd Yiannis Cotronis; Anthony Danalis; Dimitris Nikolopoulos; Jack Dongarra (2011). Avances recientes en la interfaz de paso de mensajes: 18.ª reunión del grupo de usuarios europeos de MPI, EuroMPI 2011, Santorini, Grecia, del 18 al 21 de septiembre de 2011. Actas . Springer Science & Business Media. ISBN 9783642244483.
  134. ^ James H. Laros III; Kevin Pedretti; Suzanne M. Kelly; Wei Shu; Kurt Ferreira; John Van Dyke; Courtenay Vaughan (2012). Computación de alto rendimiento y eficiencia energética: medición y ajuste . Springer Science & Business Media. pág. 1. ISBN 9781447144922.
  135. ^ James H. Laros III; Kevin Pedretti; Suzanne M. Kelly; Wei Shu; Kurt Ferreira; John Van Dyke; Courtenay Vaughan (2012). Computación de alto rendimiento y eficiencia energética: medición y ajuste . Springer Science & Business Media. pág. 2. ISBN 9781447144922.
  136. ^ James H. Laros III; Kevin Pedretti; Suzanne M. Kelly; Wei Shu; Kurt Ferreira; John Van Dyke; Courtenay Vaughan (2012). Computación de alto rendimiento y eficiencia energética: medición y ajuste . Springer Science & Business Media. pág. 3. ISBN 9781447144922.
  137. ^ "Supercomputadora verde procesa grandes cantidades de datos en Islandia". intelfreepress.com . 21 de mayo de 2015. Archivado desde el original el 20 de mayo de 2015 . Consultado el 18 de mayo de 2015 .

Enlaces externos