La Red de Computación Mundial del LHC ( WLCG ), anteriormente (hasta 2006) [1] la Red de Computación del LHC ( LCG ), es un proyecto colaborativo internacional que consiste en una infraestructura de red informática basada en cuadrícula que incorpora más de 170 centros de computación en 42 países, a partir de 2017. [update]Fue diseñado por el CERN para manejar el prodigioso volumen de datos producidos por los experimentos del Gran Colisionador de Hadrones (LHC). [2] [3]
En 2012, se habían analizado datos de más de 300 billones (3×10 14 ) de colisiones protón-protón del LHC, [4] y se estaban produciendo datos de colisiones del LHC a un ritmo aproximado de 25 petabytes por año. En 2017, la red informática del LHC es la red informática[update] más grande del mundo que comprende más de 170 instalaciones informáticas en una red mundial en 42 países [4] [5] [6] repartidos por todo el mundo que producen una infraestructura informática distribuida masiva con alrededor de 1.000.000 de núcleos de CPU, que proporciona a más de 10.000 físicos de todo el mundo acceso casi en tiempo real a los datos del LHC y la capacidad para procesarlos.
Según el sitio web de WLCG, a partir de 2024: "WLCG combina alrededor de 1,4 millones de núcleos de computadora y 1,5 exabytes de almacenamiento de más de 170 sitios en 42 países [...] Ejecuta más de 2 millones de tareas por día y [...] las tasas de transferencia globales superaron los 260 GB/s". Esto indica que WLCG se actualizará sustancialmente con el tiempo más allá de su lanzamiento inicial.
El Gran Colisionador de Hadrones del CERN fue diseñado para probar la existencia del bosón de Higgs , un importante pero esquivo dato que los físicos de partículas habían buscado durante más de 40 años . Se necesitaba un acelerador de partículas muy potente , porque los bosones de Higgs podrían no verse en experimentos de menor energía y porque sería necesario estudiar un gran número de colisiones. Un colisionador de este tipo también produciría cantidades sin precedentes de datos de colisiones que requerirían análisis. Por lo tanto, se necesitaban instalaciones informáticas avanzadas para procesar los datos.
En 2005 se publicó un informe de diseño. [7] Se anunció que estaría listo para recibir datos el 3 de octubre de 2008. [8] Un popular artículo de prensa de 2008 predijo que "Internet pronto podría quedar obsoleto" por su tecnología. [9] El CERN tuvo que publicar sus propios artículos tratando de aclarar la confusión. [10] Incorpora tanto enlaces de cable de fibra óptica privados como porciones de alta velocidad existentes de la Internet pública . A fines de 2010, la red constaba de unos 200.000 núcleos de procesamiento y 150 petabytes de espacio de disco, distribuidos en 34 países. [11]
El flujo de datos de los detectores proporciona aproximadamente 300 GByte /s de datos, que después de filtrarlos en busca de "eventos interesantes", da como resultado un flujo de datos de unos 300 MByte /s. El centro de computación del CERN, considerado el "nivel 0" de la red de computación del LHC, tiene una conexión dedicada de 10 Gbit /s con la sala de recuento.
Se esperaba que el proyecto generara varios TB de datos brutos y datos de resumen de eventos, que representan el resultado de los cálculos realizados por la granja de CPU en el centro de datos del CERN. Estos datos se envían desde el CERN a trece instituciones académicas de nivel 1 en Europa, Asia y América del Norte, [12] a través de enlaces dedicados con 10 Gbit/s o más de ancho de banda. Esto se llama la Red Privada Óptica del LHC. [13] Más de 150 instituciones de nivel 2 están conectadas a las instituciones de nivel 1 mediante redes nacionales de investigación y educación de propósito general . [14] Se espera que los datos producidos por el LHC en toda su red de computación distribuida sumen hasta 200 PB de datos cada año. [15] En total, los cuatro detectores principales del LHC produjeron 13 petabytes de datos en 2010. [11]
Las instituciones de nivel 1 reciben subconjuntos específicos de los datos brutos, para los cuales sirven como repositorio de respaldo para el CERN. También realizan el reprocesamiento cuando es necesaria una recalibración. [14] La configuración principal de las computadoras utilizadas en la red se basa en CentOS . [16] En 2015, el CERN cambió de Scientific Linux a CentOS. [16]
Varias federaciones en Europa, Asia Pacífico y las Américas proporcionan recursos informáticos distribuidos para el análisis por parte de físicos usuarios finales.
{{cite book}}
: |work=
ignorado ( ayuda )