stringtranslate.com

matriz de bloques

En matemáticas , una matriz de bloques o una matriz particionada es una matriz que se interpreta como dividida en secciones llamadas bloques o submatrices . [1] Intuitivamente, una matriz interpretada como una matriz de bloques se puede visualizar como la matriz original con una colección de líneas horizontales y verticales, que la dividen, o la dividen , en una colección de matrices más pequeñas. [2] Cualquier matriz puede interpretarse como una matriz de bloques de una o más maneras, y cada interpretación se define por cómo se dividen sus filas y columnas.

Esta noción se puede hacer más precisa para una matriz by dividiéndola en una colección y luego dividiéndola en una colección . La matriz original se considera entonces como el "total" de estos grupos, en el sentido de que la entrada de la matriz original corresponde de forma 1 a 1 con alguna entrada compensada de some , donde y .

El álgebra matricial de bloques surge en general a partir de biproductos en categorías de matrices. [3]

Ejemplo

Una matriz de bloques de elementos de 168 × 168 con submatrices de 12 × 12, 12 × 24, 24 × 12 y 24 × 24. Los elementos distintos de cero están en azul, los elementos cero están en gris.

La matriz

se puede dividir en cuatro bloques de 2×2

La matriz particionada se puede escribir entonces como

Multiplicación de matrices de bloques

Es posible utilizar un producto matricial dividido en bloques que involucre solo álgebra en submatrices de los factores. Sin embargo, la partición de los factores no es arbitraria y requiere " particiones conformes " [4] entre dos matrices y tales que todos los productos de submatriz que se utilizarán estén definidos. [5] Dada una matriz con particiones de filas y particiones de columnas

y una matriz con particiones de filas y particiones de columnas

que sean compatibles con las particiones de , el producto matricial

se puede realizar en bloques, dando como resultado una matriz con particiones de filas y particiones de columnas. Las matrices de la matriz resultante se calculan multiplicando:

O, usando la notación de Einstein que implícitamente suma índices repetidos:

Inversión de matriz de bloques

Si una matriz se divide en cuatro bloques, se puede invertir en bloques de la siguiente manera:

donde A y D son bloques cuadrados de tamaño arbitrario, y B y C son compatibles con ellos para la partición. Además, A y el complemento de Schur de A en P : P / A = DCA −1 B deben ser invertibles. [6]

De manera equivalente, permutando los bloques:

Aquí, D y el complemento de Schur de D en P : P / D = ABD −1 C deben ser invertibles.

Si A y D son ambos invertibles, entonces:

Según la identidad de Weinstein-Aronszajn , una de las dos matrices en la matriz diagonal de bloques es invertible exactamente cuando la otra lo es.

Determinante de matriz de bloques

La fórmula anterior para el determinante de una matriz sigue siendo válida, bajo supuestos adicionales apropiados, para una matriz compuesta de cuatro submatrices . La fórmula más sencilla, que puede demostrarse utilizando la fórmula de Leibniz o una factorización que incluya el complemento de Schur , es

Usando esta fórmula, podemos derivar que los polinomios característicos de y son iguales e iguales al producto de los polinomios característicos de y . Además, si o es diagonalizable , entonces y también lo son. Lo contrario es falso; simplemente verifique .

Si es invertible (y de manera similar si es invertible [7] ), se tiene

Si es una matriz, esto se simplifica a .

Si los bloques son matrices cuadradas del mismo tamaño, se cumplen más fórmulas. Por ejemplo, si y conmutan (es decir, ), entonces

[8]

Esta fórmula se ha generalizado a matrices compuestas por más de bloques, nuevamente bajo condiciones de conmutatividad apropiadas entre los bloques individuales. [9]

Para y , la siguiente fórmula es válida (incluso si y no conmutan) [ cita necesaria ]

Matrices diagonales de bloques

Una matriz diagonal de bloques es una matriz de bloques que es una matriz cuadrada tal que los bloques de la diagonal principal son matrices cuadradas y todos los bloques fuera de la diagonal son matrices cero. Es decir, una matriz diagonal de bloques A tiene la forma

donde A k es una matriz cuadrada para todo k = 1, ..., n . En otras palabras, la matriz A es la suma directa de A 1 , ... , An . También se puede indicar como A 1  ⊕  A 2  ⊕ ... ⊕  A n o diag( A 1 , A 2 , ..., An ) (siendo este último el mismo formalismo utilizado para una matriz diagonal ). Cualquier matriz cuadrada puede considerarse trivialmente una matriz diagonal de bloques con un solo bloque.

Para el determinante y la traza , se cumplen las siguientes propiedades

Una matriz diagonal de bloques es invertible si y sólo si cada uno de sus bloques de la diagonal principal es invertible, y en este caso su inversa es otra matriz diagonal de bloques dada por

Los valores propios y vectores propios de son simplemente los de s combinados.

Bloquear matrices tridiagonales

Una matriz tridiagonal de bloques es otra matriz de bloques especial, que es como la matriz diagonal de bloques una matriz cuadrada , que tiene matrices cuadradas (bloques) en la diagonal inferior, la diagonal principal y la diagonal superior, siendo todos los demás bloques matrices cero. Es esencialmente una matriz tridiagonal pero tiene submatrices en lugar de escalares. Una matriz tridiagonal de bloques A tiene la forma

donde A k , B k y C k son submatrices cuadradas de la diagonal inferior, principal y superior respectivamente.

Las matrices tridiagonales de bloques se encuentran a menudo en soluciones numéricas de problemas de ingeniería (p. ej., dinámica de fluidos computacional ). Se encuentran disponibles métodos numéricos optimizados para la factorización LU y, por lo tanto, algoritmos de solución eficientes para sistemas de ecuaciones con una matriz tridiagonal de bloques como matriz de coeficientes. El algoritmo de Thomas , utilizado para la solución eficiente de sistemas de ecuaciones que involucran una matriz tridiagonal , también se puede aplicar usando operaciones matriciales para bloquear matrices tridiagonales (consulte también Descomposición de LU en bloque ).

Bloquear matrices de Toeplitz

Una matriz de Toeplitz de bloques es otra matriz de bloques especial, que contiene bloques que se repiten en las diagonales de la matriz, ya que una matriz de Toeplitz tiene elementos repetidos en la diagonal.

Una matriz de Toeplitz A en bloques tiene la forma

Transponer bloque

También se puede definir una forma especial de transposición de matrices para matrices de bloques, donde los bloques individuales se reordenan pero no se transponen. Sea una matriz de bloques con bloques , la transpuesta de bloques es la matriz de bloques con bloques . [10]

Al igual que con el operador de traza convencional, la transposición de bloque es un mapeo lineal tal que . Sin embargo, en general la propiedad no se mantiene a menos que las cuadras de y conmuten.

Suma directa

Para cualquier matriz arbitraria A (de tamaño m  ×  n ) y B (de tamaño p  ×  q ), tenemos la suma directa de A y B , denotada por A  B y definida como  

Por ejemplo,

Esta operación se generaliza naturalmente a matrices dimensionadas arbitrariamente (siempre que A y B tengan el mismo número de dimensiones).

Tenga en cuenta que cualquier elemento en la suma directa de dos espacios vectoriales de matrices podría representarse como una suma directa de dos matrices.

Solicitud

En términos de álgebra lineal , el uso de una matriz de bloques corresponde a tener un mapeo lineal pensado en términos de 'grupos' correspondientes de vectores base . Esto nuevamente coincide con la idea de haber distinguido descomposiciones de suma directa del dominio y rango . Siempre es particularmente significativo si un bloque es la matriz cero ; que transporta la información que un sumando asigna a una subsuma.

Dada la interpretación mediante asignaciones lineales y sumas directas, existe un tipo especial de matriz de bloques que ocurre para matrices cuadradas (el caso m = n ). Para aquellos, podemos asumir una interpretación como un endomorfismo de un espacio V de n dimensiones ; la estructura de bloques en la que el agrupamiento de filas y columnas es el mismo es importante porque corresponde a tener una única descomposición de suma directa en V (en lugar de dos). En ese caso, por ejemplo, los bloques diagonales en el sentido obvio son todos cuadrados. Este tipo de estructura es necesaria para describir la forma normal de Jordan .

Esta técnica se utiliza para reducir los cálculos de matrices, expansiones de filas de columnas y muchas aplicaciones informáticas , incluido el diseño de chips VLSI . Un ejemplo es el algoritmo de Strassen para la multiplicación rápida de matrices , así como la codificación Hamming(7,4) para la detección y recuperación de errores en las transmisiones de datos.

La técnica también se puede utilizar cuando los elementos de las matrices A, B, C y D no requieren todos el mismo campo para sus elementos. Por ejemplo, la matriz A puede estar sobre el campo de números complejos, mientras que la matriz D puede estar sobre el campo de números reales. Esto puede conducir a operaciones válidas que involucran las matrices, al tiempo que simplifica las operaciones dentro de una de las matrices. Por ejemplo, si D solo tiene elementos reales, encontrar su inverso requiere menos cálculos que si se deben considerar elementos complejos. Pero los reales son un subcampo de los números complejos (además se puede considerar una proyección), por lo que las operaciones con matrices pueden estar bien definidas.

Ver también

Notas

  1. ^ Evas, Howard (1980). Teoría de matrices elementales (reimpresión ed.). Nueva York: Dover. pag. 37.ISBN _ 0-486-63946-0. Consultado el 24 de abril de 2013 . Encontraremos que a veces resulta conveniente subdividir una matriz en bloques rectangulares de elementos. Esto nos lleva a considerar las llamadas matrices particionadas o de bloques .
  2. ^ Antón, Howard (1994). Álgebra lineal elemental (7ª ed.). Nueva York: John Wiley. pag. 30.ISBN _ 0-471-58742-7. Una matriz se puede subdividir o dividir en matrices más pequeñas insertando reglas horizontales y verticales entre las filas y columnas seleccionadas.
  3. ^ Macedo, HD; Oliveira, JN (2013). "Escribiendo álgebra lineal: un enfoque orientado a biproductos". Ciencia de la programación informática . 78 (11): 2160–2191. arXiv : 1312.4818 . doi :10.1016/j.scico.2012.07.012.
  4. ^ Evas, Howard (1980). Teoría de matrices elementales (reimpresión ed.). Nueva York: Dover. pag. 37.ISBN _ 0-486-63946-0. Consultado el 24 de abril de 2013 . Una partición como la del teorema 1.9.4 se denomina partición conforme de A y B.
  5. ^ Antón, Howard (1994). Álgebra lineal elemental (7ª ed.). Nueva York: John Wiley. pag. 36.ISBN _ 0-471-58742-7. ...siempre que los tamaños de las submatrices de A y B sean tales que se puedan realizar las operaciones indicadas.
  6. ^ Bernstein, Dennis (2005). Matemáticas matriciales . Prensa de la Universidad de Princeton. pag. 44.ISBN _ 0-691-11802-7.
  7. ^ Taboga, Marco (2021). "Determinante de una matriz de bloques", Conferencias sobre álgebra matricial.
  8. ^ Silvester, JR (2000). "Determinantes de matrices de bloques" (PDF) . Matemáticas. Gaz . 84 (501): 460–467. doi :10.2307/3620776. JSTOR  3620776. Archivado desde el original (PDF) el 18 de marzo de 2015 . Consultado el 25 de junio de 2021 .
  9. ^ Sothanaphan, Nat (enero de 2017). "Determinantes de matrices de bloques con bloques no conmutantes". Álgebra lineal y sus aplicaciones . 512 : 202–218. arXiv : 1805.06027 . doi :10.1016/j.laa.2016.10.004. S2CID  119272194.
  10. ^ Mackey, D. Steven (2006). Linealizaciones estructuradas para polinomios matriciales (PDF) (Tesis). Universidad de Manchester. ISSN  1749-9097. OCLC  930686781.

Referencias