La computación a petaescala se refiere a sistemas informáticos capaces de calcular al menos 10 15 operaciones de punto flotante por segundo (1 peta FLOPS). La computación a petaescala permitió un procesamiento más rápido de las aplicaciones de supercomputadoras tradicionales . El primer sistema en alcanzar este hito fue el IBM Roadrunner en 2008. Las supercomputadoras a petaescala fueron sucedidas por las computadoras a exaescala .
Las operaciones de punto flotante por segundo (FLOPS) son una medida del rendimiento de una computadora . Las FLOPS se pueden registrar en diferentes medidas de precisión, sin embargo, la medida estándar (usada por la lista de supercomputadoras TOP500 ) utiliza operaciones de 64 bits ( formato de punto flotante de doble precisión ) por segundo utilizando el benchmark High Performance LINPACK (HPLinpack) . [1] [2]
La métrica se refiere típicamente a sistemas informáticos individuales, aunque puede utilizarse para medir sistemas informáticos distribuidos a efectos de comparación. Cabe señalar que existen medidas de precisión alternativas que utilizan los puntos de referencia LINPACK que no forman parte de la métrica/definición estándar. [2] Se ha reconocido que HPLinpack puede no ser una buena medida general de la utilidad de las supercomputadoras en aplicaciones del mundo real, sin embargo es el estándar común para la medición del rendimiento. [3] [4]
La barrera de los petaFLOPS fue superada por primera vez el 16 de septiembre de 2007 por el proyecto de computación distribuida Folding@home . [5] El primer sistema de una sola petaescala, el Roadrunner , entró en funcionamiento en 2008. [6] El Roadrunner , construido por IBM , tuvo un rendimiento sostenido de 1,026 petaFLOPS. El Jaguar se convirtió en el segundo ordenador en superar el hito de los petaFLOPS, más tarde en 2008, y alcanzó un rendimiento de 1,759 petaFLOPS después de una actualización en 2009. [7]
En 2018, Summit se había convertido en la supercomputadora más poderosa del mundo, con 200 petaFLOPS, antes de que Fugaku alcanzara los 415 petaFLOPS en junio de 2020.
Para 2024, Frontier y Aurora serán las supercomputadoras más potentes del mundo con 1.206 y 1.012 petaFLOPS, lo que las convierte en las únicas supercomputadoras a exaescala del mundo. [8]
Los sistemas de inteligencia artificial (IA) modernos requieren grandes cantidades de potencia computacional para entrenar los parámetros del modelo. OpenAI empleó 25.000 GPU Nvidia A100 para entrenar GPT-4 , utilizando 133 billones de operaciones de punto flotante. [9]