Matriz definida utilizando matrices más pequeñas llamadas bloques
En matemáticas , una matriz de bloques o una matriz particionada es una matriz que se interpreta como si hubiera sido dividida en secciones llamadas bloques o submatrices . [1] [2]
Intuitivamente, una matriz interpretada como una matriz de bloques se puede visualizar como la matriz original con una colección de líneas horizontales y verticales, que la dividen, o la dividen , en una colección de matrices más pequeñas. [3] [2] Por ejemplo, la matriz 3x4 presentada a continuación está dividida por líneas horizontales y verticales en cuatro bloques: el bloque superior izquierdo 2x3, el bloque superior derecho 2x1, el bloque inferior izquierdo 1x3 y el bloque inferior derecho 1x1.
Cualquier matriz puede interpretarse como una matriz de bloques de una o más maneras, y cada interpretación está definida por cómo se dividen sus filas y columnas.
Esta noción se puede hacer más precisa para una matriz por particionándola en una colección y luego particionándola en una colección . La matriz original se considera entonces como el "total" de estos grupos, en el sentido de que la entrada de la matriz original se corresponde de manera uno a uno con alguna entrada de desplazamiento de algún , donde y . [4]
El álgebra matricial de bloques surge en general a partir de biproductos en categorías de matrices. [5]
Ejemplo
La matriz
se puede visualizar dividido en cuatro bloques, como
.
Las líneas horizontales y verticales no tienen un significado matemático especial, [6] [7] pero son una forma común de visualizar una partición. [6] [7] Mediante esta partición, se divide en cuatro bloques de 2×2, como
La matriz particionada puede entonces escribirse como
[8]
Definición formal
Sea . Una partición de es una representación de en la forma
,
donde son submatrices contiguas, , y . [9] Los elementos de la partición se denominan bloques . [9]
Según esta definición, los bloques de cualquier columna deben tener todos el mismo número de columnas. [9] De manera similar, los bloques de cualquier fila deben tener el mismo número de filas. [9]
Métodos de particionamiento
Una matriz se puede dividir en particiones de muchas maneras. [9] Por ejemplo, se dice que una matriz está dividida en columnas si se escribe como
,
donde es la columna ésima de . [9] Una matriz también se puede dividir por filas :
,
¿Dónde está la fila th de . [9]
Particiones comunes
A menudo, [9] nos encontramos con la partición 2x2
, [9]
particularmente en la forma donde es un escalar:
. [9]
Operaciones con matrices de bloques
Transponer
Dejar
donde . (Esta matriz se reutilizará en § Adición y § Multiplicación). Entonces su transpuesta es
, [9] [10]
y la misma ecuación se cumple con la transpuesta reemplazada por la transpuesta conjugada. [9]
Transposición de bloque
También se puede definir una forma especial de transposición de matriz para matrices de bloques, donde los bloques individuales se reordenan pero no se transponen. Sea una matriz de bloques con bloques , la transposición de bloques de es la matriz de bloques con bloques . [11] Al igual que con el operador de traza convencional, la transposición de bloques es una aplicación lineal tal que . [10] Sin embargo, en general la propiedad no se cumple a menos que los bloques de y conmuten.
Suma
Dejar
,
donde , y sea la matriz definida en § Transposición. (Esta matriz se reutilizará en § Multiplicación). Entonces, si , , , y , entonces
. [9]
Multiplicación
Es posible utilizar un producto matricial particionado en bloques que involucre únicamente álgebra sobre submatrices de los factores. Sin embargo, la partición de los factores no es arbitraria y requiere " particiones conformes " [12] entre dos matrices y de tal manera que todos los productos de submatrices que se utilizarán estén definidos. [13]
Se dice que dos matrices y están particionadas conformemente para el producto , cuando y están particionadas en submatrices y si la multiplicación se lleva a cabo tratando las submatrices como si fueran escalares, pero manteniendo el orden, y cuando todos los productos y sumas de las submatrices involucradas están definidos.
— Arak M. Mathai y Hans J. Haubold, Álgebra lineal: un curso para físicos e ingenieros [14]
Sea la matriz definida en § Transposición, y sea la matriz definida en § Adición. Entonces el producto de matrices
se puede realizar por bloques, obteniéndose una matriz. Las matrices de la matriz resultante se calculan multiplicando:
[6]
O, utilizando la notación de Einstein que suma implícitamente sobre índices repetidos:
Representando como una matriz, tenemos
. [9]
Inversión
Si una matriz se divide en cuatro bloques, se puede invertir en bloques de la siguiente manera:
donde A y D son bloques cuadrados de tamaño arbitrario, y B y C son conformes con ellos para la partición. Además, A y el complemento de Schur de A en P : P / A = D − CA −1 B deben ser invertibles. [15]
De manera equivalente, permutando los bloques:
[16]
Aquí, D y el complemento de Schur de D en P : P / D = A − BD −1 C deben ser invertibles.
Si A y D son ambos invertibles, entonces:
Por la identidad de Weinstein-Aronszajn , una de las dos matrices en la matriz diagonal de bloques es invertible exactamente cuando la otra lo es.
Determinante
La fórmula para el determinante de una matriz -descrita anteriormente sigue siendo válida, bajo supuestos adicionales apropiados, para una matriz compuesta por cuatro submatrices . La fórmula más sencilla de este tipo, que se puede demostrar utilizando la fórmula de Leibniz o una factorización que involucre el complemento de Schur , es
[16]
Usando esta fórmula, podemos deducir que los polinomios característicos de y son iguales al producto de los polinomios característicos de y . Además, si o es diagonalizable , entonces y también lo son. La inversa es falsa; simplemente verifique .
Si los bloques son matrices cuadradas del mismo tamaño, se aplican otras fórmulas. Por ejemplo, si y conmutan (es decir, ), entonces
[18]
Esta fórmula se ha generalizado a matrices compuestas de más de bloques, nuevamente bajo condiciones de conmutatividad apropiadas entre los bloques individuales. [19]
Para y , se cumple la siguiente fórmula (incluso si y no conmutan)
[16]
Tipos especiales de matrices de bloques
Sumas directas y matrices diagonales por bloques
Suma directa
Para cualquier matriz arbitraria A (de tamaño m × n ) y B (de tamaño p × q ), tenemos la suma directa de A y B , denotada por A B y definida como
[10]
Por ejemplo,
Esta operación se generaliza naturalmente a matrices de dimensiones arbitrarias (siempre que A y B tengan el mismo número de dimensiones).
Nótese que cualquier elemento de la suma directa de dos espacios vectoriales de matrices podría representarse como una suma directa de dos matrices.
Matrices diagonales en bloques
Una matriz diagonal de bloques es una matriz de bloques que es una matriz cuadrada tal que los bloques de la diagonal principal son matrices cuadradas y todos los bloques fuera de la diagonal son matrices cero. [16] Es decir, una matriz diagonal de bloques A tiene la forma
donde A k es una matriz cuadrada para todo k = 1, ..., n . En otras palabras, la matriz A es la suma directa de A 1 , ..., A n . [16] También se puede indicar como A 1 ⊕ A 2 ⊕ ... ⊕ A n [10] o diag( A 1 , A 2 , ..., A n ) [10] (siendo este último el mismo formalismo utilizado para una matriz diagonal ). Cualquier matriz cuadrada puede considerarse trivialmente una matriz diagonal de bloques con un solo bloque.
Una matriz diagonal de bloques es invertible si y solo si cada uno de sus bloques diagonales principales son invertibles, y en este caso su inversa es otra matriz diagonal de bloques dada por
Una matriz tridiagonal de bloques es otra matriz de bloques especial, que es como la matriz diagonal de bloques, una matriz cuadrada , que tiene matrices cuadradas (bloques) en la diagonal inferior, la diagonal principal y la diagonal superior, y todos los demás bloques son matrices cero. Es esencialmente una matriz tridiagonal pero tiene submatrices en lugar de escalares. Una matriz tridiagonal de bloques tiene la forma
donde , y son submatrices cuadradas de las diagonales inferior, principal y superior respectivamente. [24] [25]
Las matrices tridiagonales en bloques se encuentran a menudo en soluciones numéricas de problemas de ingeniería (por ejemplo, dinámica de fluidos computacional ). Se encuentran disponibles métodos numéricos optimizados para la factorización LU [26] y, por lo tanto, algoritmos de solución eficientes para sistemas de ecuaciones con una matriz tridiagonal en bloques como matriz de coeficientes. El algoritmo de Thomas , utilizado para la solución eficiente de sistemas de ecuaciones que involucran una matriz tridiagonal, también se puede aplicar utilizando operaciones matriciales para matrices tridiagonales en bloques (ver también Descomposición LU en bloques ).
Matrices triangulares en bloques
Bloque superior triangular
Una matriz es triangular en bloques superiores (o triangular en bloques superiores [27] ) si
,
donde para todos . [23] [27]
Bloque inferior triangular
Una matriz es triangular de bloque inferior si
,
donde para todos . [23]
Matrices de Toeplitz en bloques
Una matriz de Toeplitz en bloques es otra matriz de bloques especial, que contiene bloques que se repiten a lo largo de las diagonales de la matriz, ya que una matriz de Toeplitz tiene elementos repetidos a lo largo de la diagonal.
Una matriz es un bloque de Toeplitz si para todo , es decir,
,
donde . [23]
Matrices de Hankel en bloque
Una matriz es bloque Hankel si para todo , es decir,
,
donde . [23]
Véase también
Producto Kronecker (producto directo matricial que da como resultado una matriz de bloques)
Forma normal de Jordan (forma canónica de un operador lineal en un espacio vectorial complejo de dimensión finita)
Algoritmo de Strassen (algoritmo de multiplicación de matrices que es más rápido que el algoritmo de multiplicación de matrices convencional)
Notas
^ Eves, Howard (1980). Teoría de matrices elementales (edición reimpresa). Nueva York: Dover. p. 37. ISBN 0-486-63946-0. Recuperado el 24 de abril de 2013. Descubriremos que a veces es conveniente subdividir una matriz en bloques rectangulares de elementos. Esto nos lleva a considerar las denominadas matrices particionadas o en bloque .
^ ab Dobrushkin, Vladimir. "Matrices de partición". Álgebra lineal con Mathematica . Consultado el 24 de marzo de 2024 .
^ Anton, Howard (1994). Álgebra lineal elemental (7.ª ed.). Nueva York: John Wiley. pág. 30. ISBN0-471-58742-7Una matriz se puede subdividir o dividir en matrices más pequeñas insertando reglas horizontales y verticales entre filas y columnas seleccionadas .
^ Indhumathi, D.; Sarala, S. (16 de mayo de 2014). "Análisis de fragmentos y generación de casos de prueba utilizando F-Measure para pruebas aleatorias adaptativas y pruebas aleatorias adaptativas basadas en bloques particionados" (PDF) . Revista internacional de aplicaciones informáticas . 93 (6): 13. doi :10.5120/16218-5662.
^ Macedo, HD; Oliveira, JN (2013). "Tipificación de álgebra lineal: un enfoque orientado a biproductos". Ciencia de la programación informática . 78 (11): 2160–2191. arXiv : 1312.4818 . doi :10.1016/j.scico.2012.07.012.
^ abc Johnston, Nathaniel (2021). Introducción al álgebra lineal y matricial . Cham, Suiza: Springer Nature. pp. 30, 425. ISBN978-3-030-52811-9.
^ ab Johnston, Nathaniel (2021). Álgebra lineal y matricial avanzada . Cham, Suiza: Springer Nature. pág. 298. ISBN978-3-030-52814-0.
^ Jeffrey, Alan (2010). Operaciones matriciales para ingenieros y científicos: una guía esencial de álgebra lineal. Dordrecht [Países Bajos]; Nueva York: Springer. p. 54. ISBN978-90-481-9273-1.OCLC 639165077 .
^ abcdefghijklmn Stewart, Gilbert W. (1998). Algoritmos matriciales. 1: Descomposiciones básicas . Filadelfia, PA: Sociedad de Matemáticas Industriales y Aplicadas. pp. 18–20. ISBN978-0-89871-414-2.
^ abcde Gentle, James E. (2007). Álgebra matricial: teoría, cálculos y aplicaciones en estadística . Springer Texts in Statistics. Nueva York, NY: Springer New York Springer e-books. págs. 47, 487. ISBN978-0-387-70873-7.
^ Mackey, D. Steven (2006). Linealizaciones estructuradas para polinomios matriciales (PDF) (Tesis). Universidad de Manchester. ISSN 1749-9097. OCLC 930686781.
^ Eves, Howard (1980). Teoría de matrices elementales (edición reimpresa). Nueva York: Dover. p. 37. ISBN0-486-63946-0. Recuperado el 24 de abril de 2013. Una partición como la del Teorema 1.9.4 se denomina partición conforme de A y B.
^ Anton, Howard (1994). Álgebra lineal elemental (7.ª ed.). Nueva York: John Wiley. pág. 36. ISBN0-471-58742-7... siempre que los tamaños de las submatrices de A y B sean tales que se puedan realizar las operaciones indicadas.
^ Mathai, Arakaparampil M.; Haubold, Hans J. (2017). Álgebra lineal: un curso para físicos e ingenieros . Libro de texto de De Gruyter. Berlín, Boston: De Gruyter. pág. 162. ISBN978-3-11-056259-0.
^ Bernstein, Dennis (2005). Matemáticas matriciales . Princeton University Press. pág. 44. ISBN0-691-11802-7.
^ abcdefgh Abadir, Karim M.; Magnus, Jan R. (2005). Álgebra matricial . Cambridge University Press. págs. 97, 100, 106, 111, 114, 118. ISBN9781139443647.
^ Taboga, Marco (2021). "Determinante de una matriz de bloques", Lecciones sobre álgebra matricial.
^ Silvester, JR (2000). "Determinantes de matrices de bloques" (PDF) . Math. Gaz . 84 (501): 460–467. doi :10.2307/3620776. JSTOR 3620776. Archivado desde el original (PDF) el 2015-03-18 . Consultado el 2021-06-25 .
^ Sothanaphan, Nat (enero de 2017). "Determinantes de matrices de bloques con bloques no conmutativos". Álgebra lineal y sus aplicaciones . 512 : 202–218. arXiv : 1805.06027 . doi :10.1016/j.laa.2016.10.004. S2CID 119272194.
^ Quarteroni, Alfio; Sacco, Riccardo; Saleri, Fausto (2000). Matemática numérica . Textos de matemáticas aplicadas. Nueva York: Springer. pp. 10, 13. ISBN.978-0-387-98959-4.
^ abc George, Raju K.; Ajayakumar, Abhijith (2024). "Un curso de álgebra lineal". Textos Universitarios en Ciencias Matemáticas : 35, 407. doi :10.1007/978-981-99-8680-4. ISBN978-981-99-8679-8. ISSN 2731-9318.
^ Prince, Simon JD (2012). Visión artificial: modelos, aprendizaje e inferencia . Nueva York: Cambridge University Press. pág. 531. ISBN978-1-107-01179-3.
^ abcde Bernstein, Dennis S. (2009). Matemáticas matriciales: teoría, hechos y fórmulas (2.ª ed.). Princeton, NJ: Princeton University Press. pp. 168, 298. ISBN978-0-691-14039-1.
^ Dietl, Guido KE (2007). Estimación y detección lineal en subespacios de Krylov. Fundamentos de procesamiento de señales, comunicaciones y redes. Berlín; Nueva York: Springer. pp. 85, 87. ISBN978-3-540-68478-7.OCLC 85898525 .
^ Horn, Roger A.; Johnson, Charles R. (2017). Análisis de matrices (segunda edición, reimpresión corregida). Nueva York, NY: Cambridge University Press. p. 36. ISBN978-0-521-83940-2.