Matriz definida utilizando matrices más pequeñas llamadas bloques
En matemáticas , una matriz de bloques o una matriz particionada es una matriz que se interpreta como dividida en secciones llamadas bloques o submatrices . [1] Intuitivamente, una matriz interpretada como una matriz de bloques se puede visualizar como la matriz original con una colección de líneas horizontales y verticales, que la dividen, o la dividen , en una colección de matrices más pequeñas. [2] Cualquier matriz puede interpretarse como una matriz de bloques de una o más maneras, y cada interpretación se define por cómo se dividen sus filas y columnas.
Esta noción se puede hacer más precisa para una matriz by dividiéndola en una colección y luego dividiéndola en una colección . La matriz original se considera entonces como el "total" de estos grupos, en el sentido de que la entrada de la matriz original corresponde de forma 1 a 1 con alguna entrada compensada de some , donde y .
El álgebra matricial de bloques surge en general a partir de biproductos en categorías de matrices. [3]
Ejemplo
Una matriz de bloques de elementos de 168 × 168 con submatrices de 12 × 12, 12 × 24, 24 × 12 y 24 × 24. Los elementos distintos de cero están en azul, los elementos cero están en gris.
La matriz
se puede dividir en cuatro bloques de 2×2
La matriz particionada se puede escribir entonces como
Multiplicación de matrices de bloques
Es posible utilizar un producto matricial dividido en bloques que involucre solo álgebra en submatrices de los factores. Sin embargo, la partición de los factores no es arbitraria y requiere " particiones conformes " [4] entre dos matrices y tales que todos los productos de submatriz que se utilizarán estén definidos. [5] Dada una matriz con particiones de filas y particiones de columnas
y una matriz con particiones de filas y particiones de columnas
que sean compatibles con las particiones de , el producto matricial
se puede realizar en bloques, dando como resultado una matriz con particiones de filas y particiones de columnas. Las matrices de la matriz resultante se calculan multiplicando:
Si una matriz se divide en cuatro bloques, se puede invertir en bloques de la siguiente manera:
donde A y D son bloques cuadrados de tamaño arbitrario, y B y C son compatibles con ellos para la partición. Además, A y el complemento de Schur de A en P : P / A = D − CA −1 B deben ser invertibles. [6]
De manera equivalente, permutando los bloques:
Aquí, D y el complemento de Schur de D en P : P / D = A − BD −1 C deben ser invertibles.
Si A y D son ambos invertibles, entonces:
Según la identidad de Weinstein-Aronszajn , una de las dos matrices en la matriz diagonal de bloques es invertible exactamente cuando la otra lo es.
Determinante de matriz de bloques
La fórmula anterior para el determinante de una matriz sigue siendo válida, bajo supuestos adicionales apropiados, para una matriz compuesta de cuatro submatrices . La fórmula más sencilla, que puede demostrarse utilizando la fórmula de Leibniz o una factorización que incluya el complemento de Schur , es
Usando esta fórmula, podemos derivar que los polinomios característicos de y son iguales e iguales al producto de los polinomios característicos de y . Además, si o es diagonalizable , entonces y también lo son. Lo contrario es falso; simplemente verifique .
Si es invertible (y de manera similar si es invertible [7] ), se tiene
Si es una matriz, esto se simplifica a .
Si los bloques son matrices cuadradas del mismo tamaño, se cumplen más fórmulas. Por ejemplo, si y conmutan (es decir, ), entonces
[8]
Esta fórmula se ha generalizado a matrices compuestas por más de bloques, nuevamente bajo condiciones de conmutatividad apropiadas entre los bloques individuales. [9]
Para y , la siguiente fórmula es válida (incluso si y no conmutan) [ cita necesaria ]
Matrices diagonales de bloques
Una matriz diagonal de bloques es una matriz de bloques que es una matriz cuadrada tal que los bloques de la diagonal principal son matrices cuadradas y todos los bloques fuera de la diagonal son matrices cero. Es decir, una matriz diagonal de bloques A tiene la forma
donde A k es una matriz cuadrada para todo k = 1, ..., n . En otras palabras, la matriz A es la suma directa de A 1 , ... , An . También se puede indicar como A 1 ⊕ A 2 ⊕ ... ⊕ A n o diag( A 1 , A 2 , ..., An ) (siendo este último el mismo formalismo utilizado para una matriz diagonal ). Cualquier matriz cuadrada puede considerarse trivialmente una matriz diagonal de bloques con un solo bloque.
Una matriz diagonal de bloques es invertible si y sólo si cada uno de sus bloques de la diagonal principal es invertible, y en este caso su inversa es otra matriz diagonal de bloques dada por
Una matriz tridiagonal de bloques es otra matriz de bloques especial, que es como la matriz diagonal de bloques una matriz cuadrada , que tiene matrices cuadradas (bloques) en la diagonal inferior, la diagonal principal y la diagonal superior, siendo todos los demás bloques matrices cero. Es esencialmente una matriz tridiagonal pero tiene submatrices en lugar de escalares. Una matriz tridiagonal de bloques A tiene la forma
donde A k , B k y C k son submatrices cuadradas de la diagonal inferior, principal y superior respectivamente.
Las matrices tridiagonales de bloques se encuentran a menudo en soluciones numéricas de problemas de ingeniería (p. ej., dinámica de fluidos computacional ). Se encuentran disponibles métodos numéricos optimizados para la factorización LU y, por lo tanto, algoritmos de solución eficientes para sistemas de ecuaciones con una matriz tridiagonal de bloques como matriz de coeficientes. El algoritmo de Thomas , utilizado para la solución eficiente de sistemas de ecuaciones que involucran una matriz tridiagonal , también se puede aplicar usando operaciones matriciales para bloquear matrices tridiagonales (consulte también Descomposición de LU en bloque ).
Bloquear matrices de Toeplitz
Una matriz de Toeplitz de bloques es otra matriz de bloques especial, que contiene bloques que se repiten en las diagonales de la matriz, ya que una matriz de Toeplitz tiene elementos repetidos en la diagonal.
Una matriz de Toeplitz A en bloques tiene la forma
Al igual que con el operador de traza convencional, la transposición de bloque es un mapeo lineal tal que . Sin embargo, en general la propiedad no se mantiene a menos que las cuadras de y conmuten.
Suma directa
Para cualquier matriz arbitraria A (de tamaño m × n ) y B (de tamaño p × q ), tenemos la suma directa de A y B , denotada por A B y definida como
Por ejemplo,
Esta operación se generaliza naturalmente a matrices dimensionadas arbitrariamente (siempre que A y B tengan el mismo número de dimensiones).
Tenga en cuenta que cualquier elemento en la suma directa de dos espacios vectoriales de matrices podría representarse como una suma directa de dos matrices.
Solicitud
En términos de álgebra lineal , el uso de una matriz de bloques corresponde a tener un mapeo lineal pensado en términos de 'grupos' correspondientes de vectores base . Esto nuevamente coincide con la idea de haber distinguido descomposiciones de suma directa del dominio y rango . Siempre es particularmente significativo si un bloque es la matriz cero ; que transporta la información que un sumando asigna a una subsuma.
Dada la interpretación mediante asignaciones lineales y sumas directas, existe un tipo especial de matriz de bloques que ocurre para matrices cuadradas (el caso m = n ). Para aquellos, podemos asumir una interpretación como un endomorfismo de un espacio V de n dimensiones ; la estructura de bloques en la que el agrupamiento de filas y columnas es el mismo es importante porque corresponde a tener una única descomposición de suma directa en V (en lugar de dos). En ese caso, por ejemplo, los bloques diagonales en el sentido obvio son todos cuadrados. Este tipo de estructura es necesaria para describir la forma normal de Jordan .
La técnica también se puede utilizar cuando los elementos de las matrices A, B, C y D no requieren todos el mismo campo para sus elementos. Por ejemplo, la matriz A puede estar sobre el campo de números complejos, mientras que la matriz D puede estar sobre el campo de números reales. Esto puede conducir a operaciones válidas que involucran las matrices, al tiempo que simplifica las operaciones dentro de una de las matrices. Por ejemplo, si D solo tiene elementos reales, encontrar su inverso requiere menos cálculos que si se deben considerar elementos complejos. Pero los reales son un subcampo de los números complejos (además se puede considerar una proyección), por lo que las operaciones con matrices pueden estar bien definidas.
Ver también
Producto de Kronecker (producto directo de matriz que da como resultado una matriz de bloques)
Notas
^ Evas, Howard (1980). Teoría de matrices elementales (reimpresión ed.). Nueva York: Dover. pag. 37.ISBN _ 0-486-63946-0. Consultado el 24 de abril de 2013 . Encontraremos que a veces resulta conveniente subdividir una matriz en bloques rectangulares de elementos. Esto nos lleva a considerar las llamadas matrices particionadas o de bloques .
^ Antón, Howard (1994). Álgebra lineal elemental (7ª ed.). Nueva York: John Wiley. pag. 30.ISBN _0-471-58742-7. Una matriz se puede subdividir o dividir en matrices más pequeñas insertando reglas horizontales y verticales entre las filas y columnas seleccionadas.
^ Macedo, HD; Oliveira, JN (2013). "Escribiendo álgebra lineal: un enfoque orientado a biproductos". Ciencia de la programación informática . 78 (11): 2160–2191. arXiv : 1312.4818 . doi :10.1016/j.scico.2012.07.012.
^ Evas, Howard (1980). Teoría de matrices elementales (reimpresión ed.). Nueva York: Dover. pag. 37.ISBN _0-486-63946-0. Consultado el 24 de abril de 2013 . Una partición como la del teorema 1.9.4 se denomina partición conforme de A y B.
^ Antón, Howard (1994). Álgebra lineal elemental (7ª ed.). Nueva York: John Wiley. pag. 36.ISBN _0-471-58742-7. ...siempre que los tamaños de las submatrices de A y B sean tales que se puedan realizar las operaciones indicadas.
^ Bernstein, Dennis (2005). Matemáticas matriciales . Prensa de la Universidad de Princeton. pag. 44.ISBN _0-691-11802-7.
^ Taboga, Marco (2021). "Determinante de una matriz de bloques", Conferencias sobre álgebra matricial.
^ Silvester, JR (2000). "Determinantes de matrices de bloques" (PDF) . Matemáticas. Gaz . 84 (501): 460–467. doi :10.2307/3620776. JSTOR 3620776. Archivado desde el original (PDF) el 18 de marzo de 2015 . Consultado el 25 de junio de 2021 .
^ Sothanaphan, Nat (enero de 2017). "Determinantes de matrices de bloques con bloques no conmutantes". Álgebra lineal y sus aplicaciones . 512 : 202–218. arXiv : 1805.06027 . doi :10.1016/j.laa.2016.10.004. S2CID 119272194.
^ Mackey, D. Steven (2006). Linealizaciones estructuradas para polinomios matriciales (PDF) (Tesis). Universidad de Manchester. ISSN 1749-9097. OCLC 930686781.
Referencias
Strang, Gilbert (1999). "Tema 3: Multiplicación y matrices inversas". Software de curso abierto del MIT. 18:30–21:10.