La computación a petaescala se refiere a sistemas informáticos capaces de realizar al menos 1 cuatrillón (10^15) de operaciones de punto flotante por segundo (FLOPS) . Estos sistemas suelen denominarse sistemas petaflops y representan un avance significativo con respecto a las supercomputadoras tradicionales en términos de rendimiento bruto, lo que les permite manejar grandes conjuntos de datos y cálculos complejos.
Las operaciones de punto flotante por segundo (FLOPS) son una medida del rendimiento de una computadora . Las FLOPS se pueden registrar en diferentes medidas de precisión, sin embargo, la medida estándar (usada por la lista de supercomputadoras TOP500 ) utiliza operaciones de 64 bits ( formato de punto flotante de doble precisión ) por segundo utilizando el benchmark High Performance LINPACK (HPLinpack) . [1] [2]
La métrica se refiere típicamente a sistemas informáticos individuales, aunque puede utilizarse para medir sistemas informáticos distribuidos a modo de comparación. Cabe señalar que existen medidas de precisión alternativas que utilizan los puntos de referencia LINPACK que no forman parte de la métrica/definición estándar. [2] Se ha reconocido que HPLinpack puede no ser una buena medida general de la utilidad de las supercomputadoras en aplicaciones del mundo real, sin embargo es el estándar común para la medición del rendimiento. [3] [4]
La barrera de los petaFLOPS fue superada por primera vez el 16 de septiembre de 2007 por el proyecto de computación distribuida Folding@home . [5] El primer sistema de un solo petaescala, el Roadrunner , entró en funcionamiento en 2008. [6] El Roadrunner , construido por IBM , tuvo un rendimiento sostenido de 1,026 petaFLOPS. El Jaguar se convirtió en el segundo ordenador en superar el hito de los petaFLOPS, más tarde en 2008, y alcanzó un rendimiento de 1,759 petaFLOPS después de una actualización en 2009. [7]
En 2020, Fugaku se convirtió en la supercomputadora más rápida del mundo, alcanzando 415 petaFLOPS en junio de 2020. Posteriormente, Fugaku logró un Rmax de 442 petaFLOPS en noviembre del mismo año.
En 2022, se alcanzó la computación a exaescala con el desarrollo de Frontier , superando a Fugaku con un Rmax de 1,102 exaFLOPS en junio de 2022. [8]
Los sistemas de inteligencia artificial (IA) modernos requieren grandes cantidades de potencia computacional para entrenar los parámetros del modelo. OpenAI empleó 25.000 GPU Nvidia A100 para entrenar GPT-4 , utilizando 133 billones de operaciones de punto flotante. [9]