stringtranslate.com

Red tera

TeraGrid era una infraestructura informática en red para la ciencia electrónica que combinaba recursos de once sitios asociados. El proyecto comenzó en 2001 y funcionó desde 2004 hasta 2011.

El TeraGrid integraba computadoras de alto rendimiento, recursos y herramientas de datos e instalaciones experimentales. Los recursos incluían más de un petaflops de capacidad de cómputo y más de 30 petabytes de almacenamiento de datos en línea y de archivo, con acceso y recuperación rápidos a través de conexiones de red de computadoras de alto rendimiento . Los investigadores también podían acceder a más de 100 bases de datos específicas de cada disciplina.

TeraGrid fue coordinado a través del Grupo de Infraestructura de Red (GIG) de la Universidad de Chicago , trabajando en asociación con los sitios proveedores de recursos en los Estados Unidos.

Historia

La Fundación Nacional de Ciencias de Estados Unidos (NSF) emitió una convocatoria pidiendo una "instalación distribuida de teraescala" al director del programa Richard L. Hilderbrandt. [1] El proyecto TeraGrid se lanzó en agosto de 2001 con $53 millones en financiación para cuatro sitios: el Centro Nacional para Aplicaciones de Supercomputación (NCSA) en la Universidad de Illinois en Urbana-Champaign , el Centro de Supercomputación de San Diego (SDSC) en la Universidad de California, San Diego , el Laboratorio Nacional Argonne de la Universidad de Chicago y el Centro de Investigación en Computación Avanzada (CACR) en el Instituto de Tecnología de California en Pasadena, California .

El diseño se concibió para ser un sistema abierto distribuido y extensible desde el principio. [2] En octubre de 2002, el Centro de Supercomputación de Pittsburgh (PSC) en la Universidad Carnegie Mellon y la Universidad de Pittsburgh se unieron a TeraGrid como nuevos socios importantes cuando la NSF anunció $35 millones en financiación complementaria. La red TeraGrid se transformó a través del proyecto ETF de una malla de 4 sitios a una red troncal de doble eje con puntos de conexión en Los Ángeles y en las instalaciones de Starlight en Chicago .

En octubre de 2003, la NSF otorgó 10 millones de dólares para añadir cuatro sitios a TeraGrid, así como para establecer un tercer centro de red en Atlanta . Estos nuevos sitios fueron Oak Ridge National Laboratory (ORNL), Purdue University , Indiana University y el Texas Advanced Computing Center (TACC) en la Universidad de Texas en Austin .

La construcción de TeraGrid también fue posible gracias a asociaciones corporativas con Sun Microsystems , IBM , Intel Corporation , Qwest Communications , Juniper Networks , Myricom , Hewlett-Packard Company y Oracle Corporation .

La construcción de TeraGrid se completó en octubre de 2004, momento en el que las instalaciones de TeraGrid comenzaron a producir a plena capacidad.

Operación

En agosto de 2005, la oficina de ciberinfraestructura de la NSF, creada recientemente, extendió el apoyo por otros cinco años con un conjunto de premios de 150 millones de dólares. Incluía 48 millones de dólares para la coordinación y el apoyo a los usuarios del Grupo de Infraestructura de Redes de la Universidad de Chicago , dirigido por Charlie Catlett . [3] Utilizando conexiones de red de alto rendimiento, TeraGrid contaba con ordenadores de alto rendimiento, recursos y herramientas de datos e instalaciones experimentales de alta gama en todo Estados Unidos. El trabajo respaldado por el proyecto a veces se denomina e-Science . En 2006, la Escuela de Información de la Universidad de Michigan comenzó un estudio de TeraGrid. [4]

En mayo de 2007, los recursos integrados de TeraGrid incluían más de 250 teraflops de capacidad de cómputo y más de 30 petabytes (cuatrillones de bytes) de almacenamiento de datos en línea y de archivo con acceso y recuperación rápidos a través de redes de alto rendimiento. Los investigadores podían acceder a más de 100 bases de datos específicas de cada disciplina. A fines de 2009, los recursos de TeraGrid habían crecido hasta alcanzar 2 petaflops de capacidad de cómputo y más de 60 petabytes de almacenamiento. A mediados de 2009, la NSF extendió el funcionamiento de TeraGrid hasta 2011.

Transición a XSEDE

En mayo de 2011 se aprobó un proyecto de seguimiento. [5] En julio de 2011, una asociación de 17 instituciones anunció el Extreme Science and Engineering Discovery Environment (XSEDE). La NSF anunció la financiación del proyecto XSEDE durante cinco años, por 121 millones de dólares. [6] XSEDE está dirigido por John Towns en el Centro Nacional de Aplicaciones de Supercomputación de la Universidad de Illinois . [6]

Arquitectura

Equipos TeraGrid en la UCSD en 2007

Los recursos de TeraGrid se integran a través de una arquitectura orientada a servicios , en la que cada recurso proporciona un "servicio" que se define en términos de interfaz y funcionamiento. Los recursos computacionales ejecutan un conjunto de paquetes de software denominados "Software y servicios coordinados de TeraGrid" (CTSS). CTSS proporciona un entorno de usuario familiar en todos los sistemas TeraGrid, lo que permite a los científicos transferir código de un sistema a otro con mayor facilidad. CTSS también proporciona funciones integradoras como inicio de sesión único, envío remoto de trabajos, soporte de flujo de trabajo, herramientas de movimiento de datos, etc. CTSS incluye el kit de herramientas Globus, Condor, software de contabilidad distribuida y gestión de cuentas, software de verificación y validación, y un conjunto de compiladores, herramientas de programación y variables de entorno .

TeraGrid utiliza una red troncal de fibra óptica dedicada de 10 Gigabits por segundo, con centros en Chicago, Denver y Los Ángeles. Todos los sitios de los proveedores de recursos se conectan a un nodo troncal a 10 Gigabits por segundo. Los usuarios accedieron a la instalación a través de redes de investigación nacionales como la red troncal de Internet2 Abilene y National LambdaRail .

Uso

Los usuarios de TeraGrid proceden principalmente de universidades estadounidenses. Hay aproximadamente 4.000 usuarios en más de 200 universidades. Los investigadores académicos de los Estados Unidos pueden obtener asignaciones exploratorias o de desarrollo (aproximadamente, en "horas de CPU") basándose en un resumen que describe el trabajo a realizar. Las asignaciones más extensas implican una propuesta que se revisa durante un proceso de revisión por pares trimestral. Todas las propuestas de asignación se gestionan a través del sitio web de TeraGrid. Los proponentes seleccionan una disciplina científica que describa mejor su trabajo, y esto permite informar sobre la asignación y el uso de TeraGrid por disciplina científica. A julio de 2006, el perfil científico de las asignaciones y el uso de TeraGrid era:

Cada una de estas categorías disciplinarias corresponde a un área de programa específica de la Fundación Nacional de la Ciencia .

A partir de 2006, TeraGrid ha proporcionado servicios específicos para aplicaciones a los socios de Science Gateway , que prestan servicios (generalmente a través de un portal web) a comunidades científicas y educativas de disciplinas específicas. A través del programa Science Gateways, TeraGrid pretende ampliar el acceso al menos en un orden de magnitud en términos de la cantidad de científicos, estudiantes y educadores que pueden utilizar TeraGrid.

Proveedores de recursos

Proyectos similares

Referencias

  1. ^ Distributed Terascale Facility (DTF). National Science Foundation . Enero de 2001. Consultado el 23 de septiembre de 2011 . {{cite book}}: |work=ignorado ( ayuda )
  2. ^ Charlie Catlett (21 de mayo de 2002). La filosofía de TeraGrid: creación de una instalación TeraScale abierta, extensible y distribuida . 2.º Simposio internacional IEEE/ACM sobre computación en clúster y la red. pág. 8. doi :10.1109/CCGRID.2002.1017101. ISBN 0-7695-1582-7.
  3. ^ "El premio TeraGrid de 150 millones de dólares anuncia una nueva era para la informática científica". Comunicado de prensa . National Science Foundation. 17 de agosto de 2005 . Consultado el 23 de septiembre de 2011 .
  4. ^ Ann Zimmerman; Thomas A. Finholt (agosto de 2008). Informe del estudio de evaluación de TeraGrid, parte 1: hallazgos del proyecto (PDF) . National Science Foundation . Consultado el 23 de septiembre de 2011 .
  5. ^ National Science Board (26 de mayo de 2011). «Summary Report of the May 10-11, 2011 Meeting» (PDF) . Consultado el 23 de septiembre de 2011 .
  6. ^ ab "El proyecto XSEDE aporta ciberinfraestructura avanzada, servicios digitales y experiencia a los científicos e ingenieros del país". Comunicado de prensa . National Science Foundation. 25 de julio de 2011 . Consultado el 23 de septiembre de 2011 .
  7. ^ "Big Red at IU" (Gran Rojo en IU). rt.uits.iu.edu . Consultado el 9 de febrero de 2015 .
  8. ^ "LONI obtiene financiación para la investigación de TeraGrid" (PDF) . Comunicado de prensa . Universidad Estatal de Luisiana. 9 de septiembre de 2009. Archivado desde el original (PDF) el 26 de julio de 2011 . Consultado el 23 de septiembre de 2011 .
  9. ^ S. Matsuokaet; et al. (marzo de 2005). "Proyecto de investigación de cuadrícula computacional japonesa: NAREGI". Actas del IEEE . 93 (3): 522–533. doi :10.1109/JPROC.2004.842748. S2CID  22562197.

Enlaces externos