stringtranslate.com

TeraGrid

TeraGrid era una infraestructura de computación grid de e-Ciencia que combinaba recursos en once sitios asociados. El proyecto comenzó en 2001 y funcionó desde 2004 hasta 2011.

TeraGrid integró computadoras de alto rendimiento, recursos y herramientas de datos e instalaciones experimentales. Los recursos incluían más de un petaflops de capacidad informática y más de 30 petabytes de almacenamiento de datos en línea y de archivo, con rápido acceso y recuperación a través de conexiones de red informática de alto rendimiento . Los investigadores también podrían acceder a más de 100 bases de datos de disciplinas específicas.

TeraGrid fue coordinado a través del Grid Infrastructure Group (GIG) de la Universidad de Chicago , trabajando en asociación con los sitios proveedores de recursos en los Estados Unidos.

Historia

La Fundación Nacional de Ciencias de EE. UU. (NSF) emitió una solicitud solicitando una "instalación distribuida a teraescala" al director del programa, Richard L. Hilderbrandt. [1] El proyecto TeraGrid se lanzó en agosto de 2001 con una financiación de 53 millones de dólares para cuatro sitios: el Centro Nacional de Aplicaciones de Supercomputación (NCSA) de la Universidad de Illinois en Urbana-Champaign , el Centro de Supercomputación de San Diego (SDSC) de la Universidad de California, San Diego , el Laboratorio Nacional Argonne de la Universidad de Chicago y el Centro de Investigación en Computación Avanzada (CACR) del Instituto de Tecnología de California en Pasadena, California .

El diseño estaba destinado a ser un sistema abierto distribuido extensible desde el principio. [2] En octubre de 2002, el Centro de Supercomputación de Pittsburgh (PSC) de la Universidad Carnegie Mellon y la Universidad de Pittsburgh se unieron a TeraGrid como nuevos socios importantes cuando NSF anunció 35 millones de dólares en financiación suplementaria. La red TeraGrid se transformó a través del proyecto ETF de una malla de 4 sitios a una red troncal de doble centro con puntos de conexión en Los Ángeles y en las instalaciones de Starlight en Chicago .

En octubre de 2003, NSF otorgó $10 millones para agregar cuatro sitios a TeraGrid, así como para establecer un tercer centro de red en Atlanta . Estos nuevos sitios fueron el Laboratorio Nacional Oak Ridge (ORNL), la Universidad Purdue , la Universidad de Indiana y el Centro de Computación Avanzada de Texas (TACC) de la Universidad de Texas en Austin .

La construcción de TeraGrid también fue posible gracias a asociaciones corporativas con Sun Microsystems , IBM , Intel Corporation , Qwest Communications , Juniper Networks , Myricom , Hewlett-Packard Company y Oracle Corporation .

La construcción de TeraGrid se completó en octubre de 2004, momento en el que las instalaciones de TeraGrid comenzaron a producir en plena producción.

Operación

En agosto de 2005, la recién creada oficina de infraestructura cibernética de NSF amplió su apoyo por otros cinco años con un conjunto de subvenciones de 150 millones de dólares. Incluía 48 millones de dólares para coordinación y soporte a los usuarios del Grid Infrastructure Group de la Universidad de Chicago dirigido por Charlie Catlett . [3] Utilizando conexiones de red de alto rendimiento, TeraGrid contó con computadoras, recursos y herramientas de datos de alto rendimiento e instalaciones experimentales de alta gama en todo Estados Unidos. El trabajo apoyado por el proyecto a veces se denomina e-Ciencia . En 2006, la Escuela de Información de la Universidad de Michigan inició un estudio de TeraGrid. [4]

En mayo de 2007, los recursos integrados de TeraGrid incluían más de 250 teraflops de capacidad informática y más de 30 petabytes (cuatrillones de bytes) de almacenamiento de datos en línea y de archivo con rápido acceso y recuperación a través de redes de alto rendimiento. Los investigadores podrían acceder a más de 100 bases de datos de disciplinas específicas. A finales de 2009, los recursos de TeraGrid habían aumentado a 2 petaflops de capacidad informática y más de 60 petabytes de almacenamiento. A mediados de 2009, NSF amplió las operaciones de TeraGrid hasta 2011.

Transición a XSEDE

En mayo de 2011 se aprobó un proyecto de seguimiento. [5] En julio de 2011, una asociación de 17 instituciones anunció el Entorno de descubrimiento de ciencia e ingeniería extrema (XSEDE). NSF anunció la financiación del proyecto XSEDE durante cinco años, con 121 millones de dólares. [6] XSEDE está dirigido por John Towns en el Centro Nacional de Aplicaciones de Supercomputación de la Universidad de Illinois . [6]

Arquitectura

Equipo TeraGrid en UCSD en 2007

Los recursos de TeraGrid se integran a través de una arquitectura orientada a servicios en la que cada recurso proporciona un "servicio" que se define en términos de interfaz y operación. Los recursos computacionales ejecutan un conjunto de paquetes de software denominados "Software y servicios coordinados de TeraGrid" (CTSS). CTSS proporciona un entorno de usuario familiar en todos los sistemas TeraGrid, lo que permite a los científicos transferir código más fácilmente de un sistema a otro. CTSS también proporciona funciones integradoras como inicio de sesión único, envío remoto de trabajos, soporte de flujo de trabajo, herramientas de movimiento de datos, etc. CTSS incluye Globus Toolkit, Condor, software distribuido de contabilidad y gestión de cuentas, software de verificación y validación, y un conjunto de compiladores. herramientas de programación y variables de entorno .

TeraGrid utiliza una red troncal de fibra óptica dedicada de 10 Gigabits por segundo, con centros en Chicago, Denver y Los Ángeles. Todos los sitios de proveedores de recursos se conectan a un nodo troncal a 10 Gigabits por segundo. Los usuarios accedieron a las instalaciones a través de redes de investigación nacionales, como la red troncal Internet2 Abilene y National LambdaRail .

Uso

Los usuarios de TeraGrid procedían principalmente de universidades estadounidenses. Hay aproximadamente 4.000 usuarios en más de 200 universidades. Los investigadores académicos en los Estados Unidos pueden obtener asignaciones exploratorias o de desarrollo (aproximadamente en "horas de CPU") basadas en un resumen que describe el trabajo a realizar. Las asignaciones más amplias implican una propuesta que se revisa durante un proceso de revisión por pares trimestral. Todas las propuestas de asignación se manejan a través del sitio web de TeraGrid. Los proponentes seleccionan una disciplina científica que describa mejor su trabajo, lo que permite informar sobre la asignación y el uso de TeraGrid por disciplina científica. En julio de 2006, el perfil científico de las asignaciones y el uso de TeraGrid era:

Cada una de estas categorías disciplinarias corresponde a un área programática específica de la Fundación Nacional de Ciencias .

A partir de 2006, TeraGrid proporcionó servicios de aplicaciones específicas a los socios de Science Gateway , que prestan servicios (generalmente a través de un portal web) a comunidades científicas y educativas de disciplinas específicas. A través del programa Science Gateways, TeraGrid pretende ampliar el acceso al menos en un orden de magnitud en términos del número de científicos, estudiantes y educadores que pueden utilizar TeraGrid.

Proveedores de recursos

Proyectos similares

Referencias

  1. ^ Instalación de teraescala distribuida (DTF). Fundación Nacional de Ciencia . Enero de 2001 . Consultado el 23 de septiembre de 2011 . {{cite book}}: |work=ignorado ( ayuda )
  2. ^ Charlie Catlett (21 de mayo de 2002). La filosofía de TeraGrid: construcción de una instalación TeraScale abierta, extensible y distribuida . 2do Simposio Internacional IEEE/ACM sobre Computación en Clusters y Grid. pag. 8. doi :10.1109/CCGRID.2002.1017101. ISBN 0-7695-1582-7.
  3. ^ "El premio TeraGrid de 150 millones de dólares presagia una nueva era para la informática científica". Comunicado de prensa . Fundación Nacional de Ciencia. 17 de agosto de 2005 . Consultado el 23 de septiembre de 2011 .
  4. ^ Ana Zimmerman; Thomas A. Finholt (agosto de 2008). Informe del estudio de evaluación de TeraGrid, Parte 1: Hallazgos del proyecto (PDF) . Fundación Nacional de Ciencia . Consultado el 23 de septiembre de 2011 .
  5. ^ Junta Nacional de Ciencias (26 de mayo de 2011). «Informe resumido de la reunión del 10 y 11 de mayo de 2011» (PDF) . Consultado el 23 de septiembre de 2011 .
  6. ^ ab "El proyecto XSEDE brinda ciberinfraestructura avanzada, servicios digitales y experiencia a los científicos e ingenieros del país". Comunicado de prensa . Fundación Nacional de Ciencia. 25 de julio de 2011 . Consultado el 23 de septiembre de 2011 .
  7. ^ "Gran Rojo en IU". rt.uits.iu.edu . Consultado el 9 de febrero de 2015 .
  8. ^ "LONI obtiene financiación para la investigación de TeraGrid" (PDF) . Comunicado de prensa . Universidad Estatal de Luisiana. 9 de septiembre de 2009. Archivado desde el original (PDF) el 26 de julio de 2011 . Consultado el 23 de septiembre de 2011 .
  9. ^ S. Matsuokaet; et al. (Marzo de 2005). "Proyecto japonés de investigación de redes computacionales: NAREGI". Actas del IEEE . 93 (3): 522–533. doi :10.1109/JPROC.2004.842748. S2CID  22562197.

enlaces externos