stringtranslate.com

Masivamente paralelo

Masivamente paralelo es el término que se refiere al uso de una gran cantidad de procesadores de computadora (o computadoras separadas) para realizar simultáneamente un conjunto de cálculos coordinados en paralelo . Las GPU son una arquitectura masivamente paralela con decenas de miles de subprocesos.

Un enfoque es la computación grid , donde la potencia de procesamiento de muchas computadoras en diversos dominios administrativos distribuidos se utiliza de manera oportunista siempre que hay una computadora disponible. [1] Un ejemplo es BOINC , un sistema de red oportunista basado en voluntarios , mediante el cual la red proporciona energía sólo en base al mejor esfuerzo. [2]

Otro enfoque consiste en agrupar muchos procesadores muy cerca unos de otros, como en un grupo de ordenadores . En un sistema tan centralizado, la velocidad y la flexibilidad de la interconexión se vuelven muy importantes, y las supercomputadoras modernas han utilizado varios enfoques que van desde sistemas InfiniBand mejorados hasta interconexiones toroidales tridimensionales . [3]

El término también se aplica a las matrices de procesadores masivamente paralelos (MPPA), un tipo de circuito integrado con una matriz de cientos o miles de unidades centrales de procesamiento (CPU) y bancos de memoria de acceso aleatorio (RAM). Estos procesadores se pasan trabajo entre sí a través de una interconexión de canales reconfigurable. Al aprovechar muchos procesadores que trabajan en paralelo, un chip MPPA puede realizar tareas más exigentes que los chips convencionales. [ cita necesaria ] Los MPPA se basan en un modelo de programación paralela de software para desarrollar aplicaciones de sistemas integrados de alto rendimiento.

Goodyear MPP fue una implementación temprana de una arquitectura informática masivamente paralela. Las arquitecturas MPP son las segundas implementaciones de supercomputadoras más comunes después de los clústeres, en noviembre de 2013. [4]

Los dispositivos de almacenamiento de datos como Teradata , Netezza o PDW de Microsoft comúnmente implementan una arquitectura MPP para manejar el procesamiento de grandes cantidades de datos en paralelo.

Ver también

Referencias

  1. ^ Computación grid: gestión de experimentos, integración de herramientas y flujos de trabajo científicos por Radu Prodan, Thomas Fahringer 2007 ISBN  3-540-69261-4 páginas 1–4
  2. ^ Inteligencia Computacional Paralela y Distribuida por Francisco Fernández de Vega 2010 ISBN 3-642-10674-9 páginas 65–68 
  3. ^ Knight, Will: "IBM crea la computadora más poderosa del mundo", servicio de noticias NewScientist.com , junio de 2007
  4. ^ "Copia archivada". Archivado desde el original el 6 de diciembre de 2013 . Consultado el 12 de enero de 2014 .{{cite web}}: Mantenimiento CS1: copia archivada como título ( enlace )