stringtranslate.com

Arquitectura de supercomputadora

Un superordenador SGI Altix con 23.000 procesadores en las instalaciones de CINES en Francia

Los enfoques de la arquitectura de supercomputadoras han dado giros dramáticos desde que se introdujeron los primeros sistemas en la década de 1960. Las primeras arquitecturas de supercomputadoras iniciadas por Seymour Cray se basaban en diseños innovadores compactos y paralelismo local para lograr un rendimiento computacional máximo superior. [1] Sin embargo, con el tiempo, la demanda de una mayor potencia computacional marcó el comienzo de la era de los sistemas masivamente paralelos .

Mientras que las supercomputadoras de la década de 1970 utilizaban sólo unos pocos procesadores , en la década de 1990 comenzaron a aparecer máquinas con miles de procesadores y, a finales del siglo XX, las supercomputadoras masivamente paralelas con decenas de miles de procesadores comerciales disponibles eran las más populares. norma. Las supercomputadoras del siglo XXI pueden utilizar más de 100.000 procesadores (algunos de ellos unidades gráficas ) conectados mediante conexiones rápidas. [2] [3]

A lo largo de las décadas, la gestión de la densidad térmica ha seguido siendo una cuestión clave para la mayoría de las supercomputadoras centralizadas. [4] [5] [6] La gran cantidad de calor generada por un sistema también puede tener otros efectos, como reducir la vida útil de otros componentes del sistema. [7] Ha habido diversos enfoques para el manejo del calor, desde bombear Fluorinert a través del sistema, hasta un sistema híbrido de enfriamiento líquido-aire o enfriamiento por aire con temperaturas normales de aire acondicionado . [8] [9]

Los sistemas con una gran cantidad de procesadores generalmente toman uno de dos caminos: en un enfoque, por ejemplo, en la computación grid, la potencia de procesamiento de una gran cantidad de computadoras en dominios administrativos diversos y distribuidos se utiliza de manera oportunista siempre que hay una computadora disponible. [10] En otro enfoque, se utiliza una gran cantidad de procesadores muy próximos entre sí, por ejemplo, en un grupo de computadoras . En un sistema centralizado masivamente paralelo, la velocidad y la flexibilidad de la interconexión se vuelven muy importantes, y las supercomputadoras modernas han utilizado varios enfoques que van desde sistemas Infiniband mejorados hasta interconexiones toroidales tridimensionales . [11] [12]

Contexto y descripción general

Desde finales de la década de 1960, el crecimiento del poder y la proliferación de las supercomputadoras ha sido dramático, y las direcciones arquitectónicas subyacentes de estos sistemas han dado cambios significativos. Mientras que las primeras supercomputadoras dependían de una pequeña cantidad de procesadores estrechamente conectados que accedían a la memoria compartida , las supercomputadoras del siglo XXI utilizan más de 100.000 procesadores conectados por redes rápidas. [2] [3]

A lo largo de las décadas, la gestión de la densidad térmica ha seguido siendo una cuestión clave para la mayoría de las supercomputadoras centralizadas. [4] El lema de Seymour Cray "quitar el calor" fue fundamental para su filosofía de diseño y ha seguido siendo un tema clave en las arquitecturas de supercomputadoras, por ejemplo, en experimentos a gran escala como Blue Waters . [4] [5] [6] La gran cantidad de calor generada por un sistema también puede tener otros efectos, como reducir la vida útil de otros componentes del sistema. [7]

Una hoja IBM HS22

Ha habido diversos enfoques para el manejo del calor, por ejemplo , el Cray 2 bombeó Fluorinert a través del sistema, mientras que el System X usó un sistema híbrido de enfriamiento líquido-aire y el Blue Gene/P se enfría por aire con temperaturas normales de aire acondicionado . [8] [13] [14] El calor de la supercomputadora Aquasar se utiliza para calentar un campus universitario. [15] [16]

La densidad de calor generada por una supercomputadora depende directamente del tipo de procesador utilizado en el sistema; los procesadores más potentes suelen generar más calor, dadas tecnologías de semiconductores subyacentes similares . [7] Si bien las primeras supercomputadoras usaban algunos procesadores rápidos y compactos que aprovechaban el paralelismo local (por ejemplo, canalización y procesamiento vectorial ), con el tiempo el número de procesadores creció y los nodos informáticos se podían ubicar más lejos, por ejemplo, en un grupo de computadoras , o podrían estar dispersos geográficamente en computación grid . [2] [17] A medida que crece el número de procesadores en una supercomputadora, la " tasa de falla de los componentes " comienza a convertirse en un problema grave. Si una supercomputadora utiliza miles de nodos, cada uno de los cuales puede fallar una vez al año en promedio, entonces el sistema experimentará varias fallas de nodos cada día. [9]

A medida que la relación precio/rendimiento de los procesadores gráficos de uso general (GPGPU) ha mejorado, varias supercomputadoras petaflop como Tianhe-I y Nebulae han comenzado a confiar en ellos. [18] Sin embargo, otros sistemas como la computadora K continúan usando procesadores convencionales como los diseños basados ​​en SPARC y la aplicabilidad general de las GPGPU en aplicaciones informáticas de alto rendimiento de propósito general ha sido objeto de debate, en el sentido de que si bien una GPGPU puede ser sintonizado para obtener una buena puntuación en puntos de referencia específicos, su aplicabilidad general a los algoritmos cotidianos puede ser limitada a menos que se dedique un esfuerzo significativo a ajustar la aplicación hacia ellos. [19] Sin embargo, las GPU están ganando terreno y en 2012 la supercomputadora Jaguar se transformó en Titan reemplazando las CPU por GPU. [20] [21] [22]

A medida que aumenta el número de procesadores independientes en una supercomputadora, se destaca la forma en que acceden a los datos en el sistema de archivos y cómo comparten y acceden a los recursos de almacenamiento secundario . A lo largo de los años se desarrollaron una serie de sistemas para la gestión de archivos distribuidos , por ejemplo , IBM General Parallel File System , BeeGFS , Parallel Virtual File System , Hadoop , etc. [23] [24] Varias supercomputadoras en la lista TOP100 , como Como Tianhe, uso el sistema de archivos Lustre de Linux . [4]

Primeros sistemas con algunos procesadores.

La serie de computadoras CDC 6600 fue un intento muy temprano de supercomputación y obtuvo su ventaja sobre los sistemas existentes al relegar el trabajo a dispositivos periféricos , liberando a la unidad central de procesamiento (CPU) para procesar datos reales. Con el compilador FORTRAN de Minnesota , el 6600 podría soportar 500 kiloflops en operaciones matemáticas estándar. [25]

La forma cilíndrica de las primeras computadoras Cray centralizaba el acceso, manteniendo distancias cortas y uniformes. [3]

Otras supercomputadoras tempranas, como Cray 1 y Cray 2 que aparecieron después, usaban una pequeña cantidad de procesadores rápidos que funcionaban en armonía y estaban conectados uniformemente a la mayor cantidad de memoria compartida que se podía administrar en ese momento. [3]

Estas primeras arquitecturas introdujeron el procesamiento paralelo a nivel de procesador, con innovaciones como el procesamiento vectorial , en el que el procesador puede realizar varias operaciones durante un ciclo de reloj , en lugar de tener que esperar ciclos sucesivos.

Con el tiempo, a medida que aumentó el número de procesadores, surgieron diferentes problemas arquitectónicos. Dos cuestiones que deben abordarse a medida que aumenta el número de procesadores son la distribución de la memoria y el procesamiento. En el enfoque de memoria distribuida, cada procesador está físicamente empaquetado junto con algo de memoria local. La memoria asociada a otros procesadores queda entonces "más alejada" según los parámetros de ancho de banda y latencia en un acceso no uniforme a la memoria .

En la década de 1960, la canalización se consideraba una innovación y, en la década de 1970, el uso de procesadores vectoriales estaba bien establecido. En la década de 1980, muchas supercomputadoras utilizaban procesadores vectoriales paralelos. [2]

La cantidad relativamente pequeña de procesadores en los primeros sistemas les permitía utilizar fácilmente una arquitectura de memoria compartida , que permite a los procesadores acceder a un grupo común de memoria. En los primeros días, un enfoque común era el uso de acceso uniforme a la memoria (UMA), en el que el tiempo de acceso a una ubicación de memoria era similar entre los procesadores. El uso de acceso a memoria no uniforme (NUMA) permitió a un procesador acceder a su propia memoria local más rápido que otras ubicaciones de memoria, mientras que las arquitecturas de memoria de solo caché (COMA) permitieron que la memoria local de cada procesador se usara como caché, por lo tanto requiriendo coordinación a medida que los valores de la memoria cambiaban. [26]

A medida que aumenta el número de procesadores, la comunicación y sincronización eficiente entre procesadores en una supercomputadora se convierte en un desafío. Se pueden utilizar varios enfoques para lograr este objetivo. Por ejemplo, a principios de la década de 1980, en el sistema Cray X-MP , se utilizaban registros compartidos . En este enfoque, todos los procesadores tenían acceso a registros compartidos que no movían datos de un lado a otro, sino que solo se usaban para la comunicación y sincronización entre procesadores. Sin embargo, los desafíos inherentes a la gestión de una gran cantidad de memoria compartida entre muchos procesadores dieron lugar a un cambio hacia arquitecturas más distribuidas . [27]

Paralelismo centralizado masivo

Un gabinete Blue Gene /L que muestra los blades apilados , cada uno con muchos procesadores

Durante la década de 1980, a medida que aumentaba la demanda de potencia informática, comenzó la tendencia hacia un número mucho mayor de procesadores, dando paso a la era de los sistemas masivamente paralelos , con memoria distribuida y sistemas de archivos distribuidos , dado que las arquitecturas de memoria compartida no podían escalar a un gran cantidad de procesadores. [2] [28] Los enfoques híbridos, como la memoria compartida distribuida, también aparecieron después de los primeros sistemas. [29]

El enfoque de agrupación de computadoras conecta varios nodos informáticos fácilmente disponibles (por ejemplo, computadoras personales utilizadas como servidores) a través de una red de área local privada y rápida . [30] Las actividades de los nodos informáticos están orquestadas por un "middleware de agrupación", una capa de software que se sitúa encima de los nodos y permite a los usuarios tratar el clúster como una unidad informática cohesiva, por ejemplo, a través de un concepto de imagen de sistema único . [30]

La agrupación de ordenadores se basa en un enfoque de gestión centralizada que hace que los nodos estén disponibles como servidores compartidos orquestados . Se diferencia de otros enfoques, como la computación peer-to-peer o grid , que también utilizan muchos nodos, pero con una naturaleza mucho más distribuida . [30] En el siglo XXI, la lista semestral de la organización TOP500 de las 500 supercomputadoras más rápidas a menudo incluye muchos clústeres, por ejemplo, la computadora K más rápida del mundo en 2011 con una arquitectura de clúster de memoria distribuida . [31] [32]

Cuando se utiliza un gran número de nodos informáticos locales semiindependientes (por ejemplo, en una arquitectura de clúster), la velocidad y la flexibilidad de la interconexión se vuelven muy importantes. Las supercomputadoras modernas han adoptado diferentes enfoques para abordar este problema; por ejemplo, Tianhe-1 utiliza una red patentada de alta velocidad basada en Infiniband QDR, mejorada con CPU FeiTeng-1000 . [4] Por otro lado, el sistema Blue Gene /L utiliza una interconexión toroidal tridimensional con redes auxiliares para comunicaciones globales. [11] En este enfoque, cada nodo está conectado a sus seis vecinos más cercanos. El Cray T3E utilizó un toro similar . [12]

Los sistemas centralizados masivos a veces utilizan procesadores de propósito especial diseñados para una aplicación específica y pueden usar chips de matrices de puertas programables en campo (FPGA) para ganar rendimiento sacrificando la generalidad. Ejemplos de supercomputadoras de propósito especial incluyen Belle , [33] Deep Blue , [34] e Hydra , [35] para jugar al ajedrez , Gravity Pipe para astrofísica, [36] MDGRAPE-3 para el cálculo de la estructura de proteínas y dinámica molecular [37] y Deep Crack , [38] para romper el cifrado DES .

Paralelismo distribuido masivo

Ejemplo de arquitectura de un sistema informático geográficamente disperso que conecta muchos nodos a través de una red

La computación grid utiliza una gran cantidad de computadoras en dominios administrativos diversos y distribuidos. Es un enfoque oportunista que utiliza los recursos siempre que estén disponibles. [10] Un ejemplo es BOINC , un sistema de cuadrícula oportunista basado en voluntarios . [39] Algunas aplicaciones BOINC han alcanzado niveles de múltiples petaflops utilizando cerca de medio millón de computadoras conectadas a Internet, siempre que haya recursos voluntarios disponibles. [40] Sin embargo, este tipo de resultados a menudo no aparecen en las calificaciones TOP500 porque no se ejecutan en el punto de referencia Linpack de propósito general .

Aunque la computación grid ha tenido éxito en la ejecución de tareas en paralelo, las exigentes aplicaciones de supercomputadoras, como las simulaciones meteorológicas o la dinámica de fluidos computacional, han quedado fuera de su alcance, en parte debido a las barreras en la subasignación confiable de un gran número de tareas, así como a la disponibilidad confiable. de recursos en un momento dado. [39] [41] [42]

En la supercomputación cuasi oportunista, un gran número de computadoras geográficamente dispersas están orquestadas con salvaguardias incorporadas . [43] El enfoque cuasi-oportunista va más allá de la computación voluntaria en sistemas altamente distribuidos como BOINC , o la computación grid general en un sistema como Globus, al permitir que el middleware proporcione un acceso casi fluido a muchos grupos informáticos para que los programas existentes en lenguajes como Fortran o C se pueden distribuir entre múltiples recursos informáticos. [43]

La supercomputación cuasi oportunista tiene como objetivo proporcionar una mayor calidad de servicio que el intercambio oportunista de recursos . [44] El enfoque cuasi oportunista permite la ejecución de aplicaciones exigentes dentro de redes informáticas mediante el establecimiento de acuerdos de asignación de recursos en red; y mensaje tolerante a fallas que se transmite para proteger de manera abstracta contra las fallas de los recursos subyacentes, manteniendo así cierto oportunismo, al tiempo que permite un mayor nivel de control. [10] [43] [45]

Tendencias arquitectónicas del siglo XXI

Una persona caminando entre los bastidores de una supercomputadora Cray XE6

La arquitectura de supercomputadora IBM Blue Gene refrigerada por aire cambia la velocidad del procesador por un bajo consumo de energía, de modo que se pueda utilizar una mayor cantidad de procesadores a temperatura ambiente, utilizando aire acondicionado normal. [14] [46] El sistema Blue Gene/P de segunda generación tiene procesadores con lógica de comunicación integrada de nodo a nodo. [47] Es energéticamente eficiente y alcanza 371 MFLOPS/W . [48]

La computadora K es un sistema de memoria distribuida , con procesador homogéneo, refrigerado por agua y con arquitectura de clúster . [32] [49] Utiliza más de 80.000 procesadores SPARC64 VIIIfx , cada uno con ocho núcleos , para un total de más de 700.000 núcleos, casi el doble que cualquier otro sistema. Consta de más de 800 gabinetes, cada uno con 96 nodos informáticos (cada uno con 16 GB de memoria) y 6 nodos de E/S. Aunque es más potente que los siguientes cinco sistemas de la lista TOP500 combinados, con 824,56 MFLOPS/W tiene la relación potencia-rendimiento más baja de cualquier sistema de supercomputadora importante actual. [50] [51] El sistema de seguimiento para la computadora K, llamado PRIMEHPC FX10, utiliza la misma interconexión toroidal de seis dimensiones, pero todavía solo un procesador por nodo. [52]

A diferencia de la computadora K, el sistema Tianhe-1A utiliza una arquitectura híbrida e integra CPU y GPU. [4] Utiliza más de 14.000 procesadores de uso general Xeon y más de 7.000 unidades de procesamiento de gráficos de uso general (GPGPU) Nvidia Tesla en aproximadamente 3.500 blades . [53] Tiene 112 gabinetes de computadora y 262 terabytes de memoria distribuida; Se implementan 2 petabytes de almacenamiento en disco a través de archivos agrupados de Lustre . [54] [55] [56] [4] Tianhe-1 utiliza una red de comunicación patentada de alta velocidad para conectar los procesadores. [4] La red de interconexión patentada se basó en Infiniband QDR, mejorada con CPU FeiTeng-1000 de fabricación china . [4] En el caso de la interconexión, el sistema es dos veces más rápido que Infiniband, pero más lento que algunas interconexiones en otras supercomputadoras. [57]

Los límites de enfoques específicos se siguen poniendo a prueba, ya que se alcanzan mediante experimentos a gran escala; por ejemplo, en 2011 IBM puso fin a su participación en el proyecto de petaflops Blue Waters de la Universidad de Illinois. [58] [59] La arquitectura de Blue Waters se basó en el procesador IBM POWER7 y pretendía tener 200.000 núcleos con un petabyte de "memoria direccionable globalmente" y 10 petabytes de espacio en disco. [6] El objetivo de un petaflop sostenido llevó a opciones de diseño que optimizaron el rendimiento de un solo núcleo y, por lo tanto, un menor número de núcleos. Se esperaba entonces que la menor cantidad de núcleos ayudara al rendimiento en programas que no se adaptaban bien a una gran cantidad de procesadores. [6] La gran arquitectura de memoria direccionable globalmente tenía como objetivo resolver problemas de dirección de memoria de manera eficiente, para el mismo tipo de programas. [6] Se esperaba que Blue Waters funcionara a velocidades sostenidas de al menos un petaflop y dependía del enfoque específico de refrigeración por agua para gestionar el calor. En los primeros cuatro años de funcionamiento, la Fundación Nacional de Ciencias gastó alrededor de 200 millones de dólares en el proyecto. IBM lanzó el nodo informático Power 775 derivado de la tecnología de ese proyecto poco después, pero abandonó efectivamente el enfoque de Blue Waters. [58] [59]

Los experimentos arquitectónicos continúan en varias direcciones, por ejemplo, el sistema Cyclops64 utiliza un enfoque de "supercomputadora en un chip", en una dirección que se aleja del uso de procesadores distribuidos masivos. [60] [61] Cada chip Cyclops64 de 64 bits contiene 80 procesadores y todo el sistema utiliza una arquitectura de memoria direccionable globalmente . [62] Los procesadores están conectados con un interruptor de barra transversal que no bloquea internamente y se comunican entre sí a través de una memoria entrelazada global. No hay caché de datos en la arquitectura, pero la mitad de cada banco SRAM se puede utilizar como memoria reutilizable. [62] Aunque este tipo de arquitectura permite el paralelismo no estructurado en un sistema de memoria dinámicamente no contiguo, también produce desafíos en el mapeo eficiente de algoritmos paralelos a un sistema de muchos núcleos . [61]

Ver también

Referencias

  1. ^ Sao-Jie Chen; Guang-Huei Lin; Pao-Ann Hsiung; Yu-Hen Hu (9 de febrero de 2009). Co-Diseño Hardware Software de una Plataforma Soc Multimedia. Saltador. págs. 70–72. ISBN 978-1-4020-9622-8. Consultado el 15 de junio de 2012 .
  2. ^ ABCDE Hoffman, Allan R. (1989). Supercomputadoras: direcciones en tecnología y aplicaciones . Washington, DC: Prensa de la Academia Nacional. págs. 35–47. ISBN 978-0-309-04088-4.
  3. ^ abcd Hill, Mark D.; Jouppi, Norman P .; Sohi, Gurindar (2000). Lecturas en arquitectura de ordenadores . San Francisco: Morgan Kaufmann. págs. 40–49. ISBN 978-1-55860-539-8.
  4. ^ abcdefghi Yang, Xue-Jun; Liao, Xiang-Ke; Lu, Kai; Hu, Qing-Feng; Canción, Jun-Qiang; Su, Jin-Shu (2011). "La supercomputadora TianHe-1A: su hardware y software". Revista de Ciencias y Tecnología de la Computación . 26 (3): 344–351. doi :10.1007/s02011-011-1137-8. S2CID  1389468.
  5. ^ ab Murray, Charles J. (1997). Los superhombres: la historia de Seymour Cray y los magos técnicos detrás de la supercomputadora. Nueva York: John Wiley. págs. 133-135. ISBN 978-0-471-04885-5.
  6. ^ abcde Biswas, Rupak, ed. (2010). Dinámica de fluidos computacional paralela: avances recientes y direcciones futuras: artículos de la 21ª Conferencia Internacional sobre Dinámica de fluidos computacional paralela . Lancaster, Pensilvania: Publicaciones DEStech. pag. 401.ISBN 978-1-60595-022-8.
  7. ^ a b C Yongge Huáng, ed. (2008). Avanza la investigación en supercomputación . Nueva York: Nova Science Publishers. págs. 313–314. ISBN 978-1-60456-186-9.
  8. ^ ab Tokhi, MO; Hossain, MA; Shaheed, MH (2003). Computación paralela para procesamiento y control de señales en tiempo real . Londres [ua]: Springer. págs. 201-202. ISBN 978-1-85233-599-1.
  9. ^ ab Vaidy S. Sunderam, ed. (2005). Ciencias computacionales - ICCS 2005. Quinta conferencia internacional, Atlanta, GA, EE. UU., 22 al 25 de mayo de 2005: actas (1ª ed.). Berlín: Springer. págs. 60–67. ISBN 978-3-540-26043-1.
  10. ^ abc Prodan, Radu; Thomas Fahringer (2007). Gestión de experimentos de computación grid, integración de herramientas y flujos de trabajo científicos . Berlín: Springer. págs. 1–4. ISBN 978-3-540-69261-4.
  11. ^ ab Knight, Will (27 de junio de 2007). "IBM crea la computadora más poderosa del mundo". Nuevo científico .
  12. ^ ab Adiga, NR; Blumrich, MA; Chen, D.; Coteo, P.; Gará, A.; Giampapa, ME; Heidelberger, P.; Singh, S.; Steinmacher-Burow, BD; Tomado, T.; Tsao, M.; Vranas, P. (marzo de 2005). «Red de interconexión toroidal Blue Gene/L» (PDF) . Revista IBM de investigación y desarrollo . 49 (2.3): 265–276. doi :10.1147/rd.492.0265. Archivado desde el original (PDF) el 15 de agosto de 2011.{{cite journal}}: Mantenimiento CS1: varios nombres: lista de autores ( enlace )
  13. ^ Varadarajan, S. (14 de marzo de 2005). "Keynote I: "System X construyendo la supercomputadora tecnológica de Virginia"". Actas de la 13ª Conferencia Internacional sobre Redes y Comunicaciones Informáticas (IEEE Cat No 04EX969) ICCCN-04 . p. 1. doi :10.1109/ICCCN.2004.1401570. ISBN 978-0-7803-8814-7. ISSN  1095-2055.
  14. ^ ab Prickett Morgan, Timothy (22 de noviembre de 2010). "IBM descubre BlueGene/Q super de 20 petaflops". El Registro .
  15. ^ "La supercomputadora IBM refrigerada por agua caliente entra en funcionamiento en ETH Zurich". Cable HPC . Zúrich. 2 de julio de 2010. Archivado desde el original el 13 de agosto de 2012.
  16. ^ LaMonica, Martín (10 de mayo de 2010). "La supercomputadora IBM refrigerada por líquido calienta el edificio". Tecnología verde . Cnet. Archivado desde el original el 1 de noviembre de 2013 . Consultado el 5 de febrero de 2012 .
  17. ^ Henderson, Harry (2008). "Arquitectura de supercomputadora". Enciclopedia de Ciencias y Tecnología de la Computación . pag. 217.ISBN 978-0-8160-6382-6.
  18. ^ Prickett Morgan, Timothy (31 de mayo de 2010). "Top 500 supers: el amanecer de las GPU". El Registro .
  19. ^ Rainer Keller; David Kramer; Jan-Philipp Weiss (1 de diciembre de 2010). Frente al desafío multinúcleo: aspectos de nuevos paradigmas y tecnologías en computación paralela. Saltador. págs. 118-121. ISBN 978-3-642-16232-9. Consultado el 15 de junio de 2012 .
  20. ^ Poeta, Damon (11 de octubre de 2011). "La supercomputadora Titan de Cray para ORNL podría ser la más rápida del mundo". Revista PC .
  21. ^ Feldman, Michael (11 de octubre de 2011). "Las GPU transformarán el Jaguar de ORNL en un Titán de 20 petaflop". Cable HPC .
  22. ^ Prickett Morgan, Timothy (11 de octubre de 2011). "Oak Ridge cambia los lugares de Jaguar de CPU a GPU". El Registro .
  23. ^ Hai-Xiang Lin; Miguel Alejandro; Martti Forsell, eds. (2010). Talleres de procesamiento paralelo Euro-Par 2009: HPPC, HeteroPar, PROPER, ROIA, UNICORE, VHPC, Delft, Países Bajos, 25 al 28 de agosto de 2009; talleres (Online-Ausg. ed.). Berlín: Springer. pag. 345.ISBN 978-3-642-14121-8.
  24. ^ Reiner Dumke; René Braungarten; Günter Büren (3 de diciembre de 2008). Medición de procesos y productos de software: conferencias internacionales, IWSM 2008, MetriKon 2008 y Mensura 2008, Munich, Alemania, 18 y 19 de noviembre de 2008: Actas. Saltador. págs. 144-117. ISBN 978-3-540-89402-5. Consultado el 15 de junio de 2012 .
  25. ^ Frisch, Michael J. (diciembre de 1972). "Observaciones sobre el algoritmo 352 [S22], algoritmo 385 [S13], algoritmo 392 [D3]". Comunicaciones de la ACM . 15 (12): 1074. doi : 10.1145/361598.361914 . S2CID  6571977.
  26. ^ El-Rewini, Hesham; Mostafa Abd-El-Barr (2005). Arquitectura informática avanzada y procesamiento paralelo . Hoboken, Nueva Jersey: Wiley-Interscience. págs. 77–80. ISBN 978-0-471-46740-3.
  27. ^ JJ Dongarra; L. Grandinetti; J. Kowalik; GR Joubert (13 de septiembre de 1995). Computación de alto rendimiento: tecnología, métodos y aplicaciones. Elsevier. págs. 123-125. ISBN 978-0-444-82163-8. Consultado el 15 de junio de 2012 .
  28. ^ Greg Astfalk (1996). Aplicaciones en Computadores de Arquitectura Avanzada. SIAM. págs. 61–64. ISBN 978-0-89871-368-8. Consultado el 15 de junio de 2012 .
  29. ^ Jelica Protic; Milo Tomašević; Milo Tomasevic; Veljko Milutinović (1998). Memoria compartida distribuida: conceptos y sistemas. Prensa de la Sociedad de Computación IEEE. págs. ix-x. ISBN 978-0-8186-7737-3. Consultado el 15 de junio de 2012 .
  30. ^ a b C Tomoya Enokido; Leonardo Barolli; Makoto Takizawa, eds. (2007). Sistemas de información basados ​​en redes: primera conferencia internacional, NBiS 2007, Ratisbona, Alemania, 3 al 7 de septiembre de 2007: actas . Berlín: Springer. pag. 375.ISBN 978-3-540-74572-3.
  31. ^ Lista TOP500 Para ver todos los clústeres en la lista TOP500, seleccione "clúster" como arquitectura en el "menú de sublista" en el sitio TOP500.
  32. ^ ab Yokokawa, M.; Shoji, Fumiyoshi; Uno, Atsuya; Kurokawa, Motoyoshi; Watanabe, Tadashi (22 de agosto de 2011). "La computadora K: proyecto japonés de desarrollo de supercomputadoras de próxima generación". Simposio internacional IEEE/ACM sobre diseño y electrónica de baja potencia . págs. 371–372. doi :10.1109/ISLPED.2011.5993668. ISBN 978-1-61284-658-3. S2CID  13436840.
  33. ^ Condon, JH y K.Thompson, "Belle Chess Hardware", en Advances in Computer Chess 3 (ed.MRBClarke), Pergamon Press, 1982.
  34. ^ Hsu, Feng-hsiung (2002). Detrás de Deep Blue: construyendo la computadora que derrotó al campeón mundial de ajedrez . Prensa de la Universidad de Princeton . ISBN 978-0-691-09065-8.
  35. ^ Donninger, Chrilly; Ulf Lorenz (2004). "La hidra del monstruo del ajedrez". Lógica y aplicación programables en campo . Apuntes de conferencias sobre informática. vol. 3203, págs. 927–932. doi :10.1007/978-3-540-30117-2_101. ISBN 978-3-540-22989-6. S2CID  5467762.
  36. ^ Makino, Junichiro; Makoto Taiji (1998). Simulaciones científicas con ordenadores de propósito especial: los sistemas GRAPE . Chichester [ua]: Wiley. ISBN 978-0-471-96946-4.
  37. ^ Comunicado de prensa de RIKEN, Finalización de un sistema informático de un petaflops para simulación de dinámica molecular Archivado el 2 de diciembre de 2012 en Wayback Machine.
  38. ^ Fundación Frontera Electrónica (1998). Cracking DES: secretos de la investigación de cifrado, política de escuchas telefónicas y diseño de chips. Oreilly & Associates Inc. ISBN 978-1-56592-520-5.
  39. ^ ab Vega, Francisco Fernández de Vega (2010). Erick Cantú-Paz (ed.). Inteligencia computacional paralela y distribuida (Online-Ausg. ed.). Berlín: Springer-Verlag. págs. 65–68. ISBN 978-3-642-10674-3.
  40. ^ Estadísticas BOIN, 2011 Archivado el 19 de septiembre de 2010 en la Wayback Machine.
  41. ^ Guang R. Gao, ed. (2010). Lenguajes y compiladores para computación paralela: 22º taller internacional, LCPC 2009, Newark, DE, EE. UU., 8 al 10 de octubre de 2009, artículos seleccionados revisados ​​(1ª ed.). Berlín: Springer. págs. 10-11. ISBN 978-3-642-13373-2.
  42. ^ Mario R. Guarracino, ed. (24 de junio de 2011). Euro-par 2010, Talleres de Procesamiento Paralelo Heteropar, Hpcc, Hibb, Coregrid, Uchpc, Hpcf, Proper, Ccpi, Vhpc, Iscia, Italia, 31 de agosto - 3 de septiembre de 2010 . Berlín [ua]: Springer-Verlag New York Inc. págs. ISBN 978-3-642-21877-4.
  43. ^ abc Kravtsov, Valentín; David Carmeli; Werner Dubitzky; Ariel Orda; Assaf Schuster; Benny Yoshpa (2007). "Supercomputación cuasi oportunista en redes". Simposio internacional IEEE sobre informática distribuida de alto rendimiento : 233–244.
  44. ^ Marian Bubak, ed. (2008). Ciencias computacionales - ICCS 2008: 8ª conferencia internacional, Cracovia, Polonia, 23 al 25 de junio de 2008; procedimientos (Online-Ausg. Ed.). Berlín: Springer. págs. 112-113. ISBN 978-3-540-69383-3.
  45. ^ Gabrielle Allen , ed. (2009). Ciencias computacionales - ICCS 2009: 9ª conferencia internacional, Baton Rouge, LA, EE. UU., 25 al 27 de mayo de 2009; diligencias . Berlín: Springer. págs. 387–388. ISBN 978-3-642-01969-2.
  46. ^ Cunha, José C. (2005). Procesamiento paralelo Euro-Par 2005 . [Nueva York]: Springer-Verlag Berlín/Heidelberg. págs. 560–567. ISBN 978-3-540-28700-1.
  47. ^ "IBM triplica el rendimiento de la supercomputadora más rápida y con mayor eficiencia energética del mundo". 2007-06-27 . Consultado el 24 de diciembre de 2011 .
  48. ^ "La lista Green500". Archivado desde el original el 26 de agosto de 2016 . Consultado el 13 de febrero de 2020 .
  49. ^ Lista TOP500 Archivado el 20 de enero de 2012 en Wayback Machine.
  50. ^ Takumi Maruyama (2009). SPARC64(TM) VIIIfx: procesador Octo Core de nueva generación de Fujitsu para informática a escala PETA (PDF) . Actas de Hot Chips 21. Sociedad de Computación IEEE.
  51. ^ "Instituto Avanzado RIKEN de Ciencias Computacionales" (PDF) . RIKEN . Archivado desde el original (PDF) el 27 de julio de 2011 . Consultado el 20 de junio de 2011 .
  52. ^ Fujitsu presenta el cable HPC de supercomputadora Post-K el 7 de noviembre de 2011
  53. ^ "MSN". Archivado desde el original el 7 de octubre de 2010.
  54. ^ "China ..." 28 de octubre de 2010.
  55. ^ "Top100 ..." 28 de octubre de 2010.
  56. ^ "Tianhe-1A". Archivado desde el original el 2020-04-20 . Consultado el 5 de febrero de 2012 .
  57. ^ Thibodeau, Patrick (4 de noviembre de 2010). "Estados Unidos dice que China está construyendo una supercomputadora 'completamente autóctona'". Mundo informático . Archivado desde el original el 11 de octubre de 2012 . Consultado el 5 de febrero de 2012 .
  58. ^ ab The Register: IBM tira de la cadena del súper 'Blue Waters'
  59. ^ ab "El negocio de computadoras Unix de Statesman IBM está en auge". Archivado desde el original el 6 de agosto de 2011 . Consultado el 5 de febrero de 2012 .
  60. ^ Niu, Yanwei; Ziang Hu; Kenneth Barner ; Guang R. Gao (2005). "Modelado de rendimiento y optimización del acceso a la memoria en la arquitectura de computadora celular Cyclops64". Red y Computación Paralela . Apuntes de conferencias sobre informática. vol. 3779, págs. 132-143. doi :10.1007/11577188_18. ISBN 978-3-540-29810-6. {{cite book}}: |journal=ignorado ( ayuda )
  61. ^ ab Tan, Guangming; Sreedhar, Vugranam C.; Gao, Guang R. (13 de noviembre de 2009). "Resultados de análisis y rendimiento de la centralidad de intermediación informática en IBM Cyclops64". La revista de supercomputación . 56 (1): 1–24. doi :10.1007/s11227-009-0339-9. S2CID  10976819.
  62. ^ ab Hai Jin; Daniel A. Reed; Wenbin Jiang (2005). Computación en red y paralela: Conferencia internacional IFIP, NPC 2005, Beijing, China, 30 de noviembre - 3 de diciembre de 2005; Actas. Birkhäuser. págs. 132-133. ISBN 978-3-540-29810-6. Consultado el 15 de junio de 2012 .