stringtranslate.com

Masivamente paralelo

Masivamente paralelo es el término que se utiliza para referirse al uso de una gran cantidad de procesadores de computadora (o computadoras separadas) para realizar simultáneamente un conjunto de cálculos coordinados en paralelo . Las GPU son una arquitectura masivamente paralela con decenas de miles de subprocesos.

Un enfoque es la computación en red , donde la potencia de procesamiento de muchas computadoras en dominios administrativos distribuidos y diversos se utiliza de manera oportunista siempre que haya una computadora disponible. [1] Un ejemplo es BOINC , un sistema de red oportunista basado en voluntarios , mediante el cual la red proporciona energía solo en función del mejor esfuerzo. [2]

Otro enfoque consiste en agrupar muchos procesadores en proximidad cercana entre sí, como en un clúster de computadoras . En un sistema tan centralizado, la velocidad y la flexibilidad de la interconexión se vuelven muy importantes, y las supercomputadoras modernas han utilizado diversos enfoques que van desde sistemas InfiniBand mejorados hasta interconexiones toroidales tridimensionales . [3]

El término también se aplica a las matrices de procesadores masivamente paralelos (MPPAs), un tipo de circuito integrado con una matriz de cientos o miles de unidades centrales de procesamiento (CPU) y bancos de memoria de acceso aleatorio (RAM). Estos procesadores pasan trabajo entre sí a través de una interconexión reconfigurable de canales. Al aprovechar muchos procesadores que trabajan en paralelo, un chip MPPA puede realizar tareas más exigentes que los chips convencionales. [ cita requerida ] Los MPPA se basan en un modelo de programación paralela de software para desarrollar aplicaciones de sistemas integrados de alto rendimiento.

Goodyear MPP fue una implementación temprana de una arquitectura informática masivamente paralela. Las arquitecturas MPP son las segundas implementaciones de supercomputadoras más comunes después de los clústeres, a fecha de noviembre de 2013. [4]

Los dispositivos de almacenamiento de datos como Teradata , Netezza o PDW de Microsoft comúnmente implementan una arquitectura MPP para gestionar el procesamiento de grandes cantidades de datos en paralelo.

Véase también

Referencias

  1. ^ Computación en cuadrícula: gestión de experimentos, integración de herramientas y flujos de trabajo científicos por Radu Prodan, Thomas Fahringer 2007 ISBN  3-540-69261-4 páginas 1–4
  2. ^ Inteligencia computacional paralela y distribuida por Francisco Fernández de Vega 2010 ISBN 3-642-10674-9 páginas 65–68 
  3. ^ Knight, Will: "IBM crea el ordenador más potente del mundo", servicio de noticias NewScientist.com , junio de 2007
  4. ^ "Copia archivada". Archivado desde el original el 6 de diciembre de 2013. Consultado el 12 de enero de 2014 .{{cite web}}: CS1 maint: copia archivada como título ( enlace )