La taxonomía de Flynn es una clasificación de arquitecturas de computadoras , propuesta por Michael J. Flynn en 1966 [1] y ampliada en 1972. [2] El sistema de clasificación se ha mantenido y se ha utilizado como herramienta en el diseño de procesadores modernos y sus funcionalidades. Desde el surgimiento de las unidades centrales de procesamiento (CPU) multiprocesadoras , ha evolucionado un contexto de multiprogramación como una extensión del sistema de clasificación. El procesamiento vectorial , cubierto por la taxonomía de Duncan , [3] no está en el trabajo de Flynn porque el Cray-1 se lanzó en 1977: el segundo artículo de Flynn se publicó en 1972.
Las cuatro clasificaciones iniciales definidas por Flynn se basan en la cantidad de secuencias de instrucciones (o control) y secuencias de datos concurrentes disponibles en la arquitectura. [4] Flynn definió tres subcategorías adicionales de SIMD en 1972. [2]
Una computadora secuencial que no explota el paralelismo ni en las secuencias de instrucciones ni en las de datos. Una sola unidad de control (UC) obtiene una sola secuencia de instrucciones (IS) de la memoria. Luego, la UC genera señales de control apropiadas para indicarle a un solo elemento de procesamiento (PE) que opere en una sola secuencia de datos (DS), es decir, una operación a la vez.
Ejemplos de arquitecturas SISD son las máquinas monoprocesador tradicionales , como las computadoras personales (PC) más antiguas (en 2010, muchas PC tenían múltiples núcleos) y las computadoras mainframe .
Una única instrucción se aplica simultáneamente a múltiples flujos de datos diferentes. Las instrucciones se pueden ejecutar de forma secuencial, como por ejemplo mediante segmentación, o en paralelo por múltiples unidades funcionales. El artículo de Flynn de 1972 subdividió el SIMD en tres categorías más: [2]
El término moderno para un procesador de matriz es " instrucción única, múltiples subprocesos " (SIMT). Esta es una clasificación distinta en la taxonomía de Flynn de 1972, como una subcategoría de SIMD. Es identificable por los subelementos paralelos que tienen su propio archivo de registros y memoria independientes (memoria caché y de datos). Los artículos originales de Flynn citan dos ejemplos históricos de procesadores SIMT: SOLOMON e ILLIAC IV .
Nvidia utiliza comúnmente el término en sus materiales de marketing y documentos técnicos, donde defiende la novedad de su arquitectura. [6] SOLOMON es anterior a Nvidia en más de 60 años.
El procesador de cadenas asociativo (ASP) de Aspex Microelectronics [7] se categorizó a sí mismo en su material de marketing como "SIMD masivo y ancho", pero tenía ALU de nivel de bit y predicción de nivel de bit (taxonomía de Flynn: procesamiento asociativo), y cada uno de los 4096 procesadores tenía sus propios registros y memoria (taxonomía de Flynn: procesamiento de matriz). El Linedancer, lanzado en 2010, contenía 4096 ALU SIMD de 2 bits con predicción, cada una con su propia memoria direccionable por contenido , y era capaz de procesar 800 mil millones de instrucciones por segundo. [8] El procesador SIMT de matriz asociativa ASP de Aspex es anterior a NVIDIA por 20 años. [9] [10]
En el momento en que Flynn escribió su artículo de 1972, muchos sistemas utilizaban la memoria principal como recurso desde el cual los pipelines leían y escribían. Cuando el recurso desde el cual todos los "pipelines" leen y escriben es el archivo de registros en lugar de la memoria principal, surgen variantes modernas de SIMD. Algunos ejemplos son Altivec , NEON y AVX .
Un nombre alternativo para este tipo de SIMD basado en registros es "SIMD empaquetado" [11] y otro es SIMD dentro de un registro (SWAR) . Cuando se aplica la predicación, se convierte en procesamiento asociativo (abajo)
El término moderno para procesador asociativo es SIMD " predicado " (o enmascarado). Algunos ejemplos son AVX-512 .
Algunos diseños modernos ( GPU en particular) toman características de más de una de estas subcategorías: Las GPU de hoy son SIMT pero también son asociativas, es decir, cada elemento de procesamiento en la matriz SIMT también está predicado.
Varias instrucciones operan en un flujo de datos. Se trata de una arquitectura poco común que se utiliza generalmente para la tolerancia a fallos. Los sistemas heterogéneos operan en el mismo flujo de datos y deben coincidir en el resultado. Algunos ejemplos incluyen la computadora de control de vuelo del transbordador espacial . [12]
Varios procesadores autónomos ejecutan simultáneamente distintas instrucciones sobre distintos datos. Las arquitecturas MIMD incluyen procesadores superescalares multinúcleo y sistemas distribuidos que utilizan un espacio de memoria compartida o un espacio de memoria distribuida.
A continuación se muestran visualmente estas cuatro arquitecturas. Cada unidad de procesamiento (PU) se muestra para una computadora de un solo núcleo o de varios núcleos:
A partir de 2006 [update], todas las 10 mejores supercomputadoras y la mayoría de las TOP500 se basan en una arquitectura MIMD.
Aunque estos no son parte del trabajo de Flynn, algunos dividen aún más la categoría MIMD en las dos categorías siguientes, [13] [14] [15] [16] [17] e incluso a veces se consideran subdivisiones adicionales. [18]
Múltiples procesadores autónomos que ejecutan simultáneamente el mismo programa (pero en puntos independientes, en lugar de en el mismo orden de pasos que impone SIMD) sobre diferentes datos. También denominado proceso único, múltiples datos [17] - el uso de esta terminología para SPMD es técnicamente incorrecto, ya que SPMD es un modelo de ejecución paralela y supone que múltiples procesadores cooperan ejecutando un programa. SPMD es el estilo más común de programación paralela explícita. [19] El modelo SPMD y el término fueron propuestos por Frederica Darema del equipo RP3. [20]
Múltiples procesadores autónomos que operan simultáneamente al menos dos programas independientes. En contextos de HPC, estos sistemas suelen elegir un nodo para que sea el "host" ("el modelo de programación host/nodo explícito") o el "administrador" (la estrategia "Administrador/Trabajador"), que ejecuta un programa que distribuye datos a todos los demás nodos, que ejecutan un segundo programa. Estos otros nodos luego devuelven sus resultados directamente al administrador. Un ejemplo de esto sería la consola de juegos Sony PlayStation 3, con su procesador SPU/PPU .
MPMD es común en contextos que no son de HPC. Por ejemplo, el sistema de compilación make puede crear múltiples dependencias en paralelo, utilizando programas dependientes del objetivo además del ejecutable make en sí. MPMD también suele adoptar la forma de pipelines. Un simple comando de shell de Unix como ls | grep "A" | more lanza tres procesos que ejecutan programas separados en paralelo y la salida de uno se utiliza como entrada para el siguiente.
Ambos métodos se diferencian de la programación paralela explícita que se utiliza en HPC en el sentido de que los programas individuales son bloques de construcción genéricos en lugar de implementar parte de un algoritmo paralelo específico. En el enfoque de segmentación, la cantidad de paralelismo disponible no aumenta con el tamaño del conjunto de datos.