stringtranslate.com

matriz de bloques

En matemáticas , una matriz de bloques o una matriz particionada es una matriz que se interpreta como dividida en secciones llamadas bloques o submatrices . [1] [2]

Intuitivamente, una matriz interpretada como una matriz de bloques se puede visualizar como la matriz original con una colección de líneas horizontales y verticales, que la dividen o dividen en una colección de matrices más pequeñas. [3] [2] Por ejemplo, la matriz de 3x4 que se presenta a continuación está dividida por líneas horizontales y verticales en cuatro bloques: el bloque de 2x3 superior izquierdo, el bloque de 2x1 superior derecho, el bloque de 1x3 inferior izquierdo y el bloque de 2x3 inferior izquierdo. cuadra derecha 1x1.

Cualquier matriz puede interpretarse como una matriz de bloques de una o más maneras, y cada interpretación se define por cómo se dividen sus filas y columnas.

Esta noción se puede hacer más precisa para una matriz by dividiéndola en una colección y luego dividiéndola en una colección . La matriz original se considera entonces como el "total" de estos grupos, en el sentido de que la entrada de la matriz original corresponde de forma 1 a 1 con alguna entrada compensada de some , donde y . [4]

El álgebra matricial de bloques surge en general a partir de biproductos en categorías de matrices. [5]

Una matriz de bloques de elementos de 168 × 168 con submatrices de 12 × 12, 12 × 24, 24 × 12 y 24 × 24. Los elementos distintos de cero están en azul, los elementos cero están en gris.

Ejemplo

La matriz

se puede visualizar dividido en cuatro bloques, como

.

Las líneas horizontales y verticales no tienen ningún significado matemático especial, [6] [7] pero son una forma común de visualizar una partición. [6] [7] Mediante esta partición, se divide en cuatro bloques de 2×2, como

La matriz particionada se puede escribir entonces como

[8]

Definicion formal

Dejar . Una partición de es una representación de en la forma

,

donde están las submatrices contiguas, y . [9] Los elementos de la partición se denominan bloques . [9]

Según esta definición, todos los bloques de cualquier columna deben tener el mismo número de columnas. [9] De manera similar, los bloques en cualquier fila deben tener el mismo número de filas. [9]

Métodos de partición

Una matriz se puede dividir de muchas maneras. [9] Por ejemplo, se dice que una matriz está dividida por columnas si se escribe como

,

¿Dónde está la enésima columna de ? [9] Una matriz también se puede dividir por filas :

,

¿Dónde está la fila número 1 de ? [9]

particiones comunes

A menudo, [9] nos encontramos con la partición 2x2

, [9]

particularmente en la forma donde es un escalar:

. [9]

Operaciones matriciales de bloques

Transponer

Dejar

dónde . (Esta matriz se reutilizará en § Suma y § Multiplicación). Entonces su transpuesta es

, [9] [10]

y la misma ecuación se cumple con la transpuesta reemplazada por la transpuesta conjugada. [9]

Transponer bloque

También se puede definir una forma especial de transposición de matrices para matrices de bloques, donde los bloques individuales se reordenan pero no se transponen. Sea una matriz de bloques con bloques , la transpuesta de bloques es la matriz de bloques con bloques . [11] Al igual que con el operador de traza convencional, la transposición de bloque es un mapeo lineal tal que . [10] Sin embargo, en general la propiedad no se mantiene a menos que las cuadras de y conmuten.

Suma

Dejar

,

donde y sea la matriz definida en § Transponer. (Esta matriz se reutilizará en § Multiplicación). Entonces , si , , y , entonces

. [9]

Multiplicación

Es posible utilizar un producto matricial dividido en bloques que involucre solo álgebra en submatrices de los factores. Sin embargo, la partición de los factores no es arbitraria y requiere " particiones conformes " [12] entre dos matrices y tales que todos los productos de submatriz que se utilizarán estén definidos. [13]

Dos matrices y se dice que están divididas conforme para el producto , cuando y se dividen en submatrices y si la multiplicación se realiza tratando las submatrices como si fueran escalares, pero manteniendo el orden, y cuando todos los productos y sumas de las submatrices involucradas son definido.

—  Arak M. Mathai y Hans J. Haubold, Álgebra lineal: un curso para físicos e ingenieros [14]

Sea la matriz definida en § Transposición y sea la matriz definida en § Suma. Entonces el producto matricial

se puede realizar en bloques, dando como resultado una matriz. Las matrices de la matriz resultante se calculan multiplicando:

[6]

O, usando la notación de Einstein que implícitamente suma índices repetidos:

Representando como una matriz, tenemos

. [9]

inversión

Si una matriz se divide en cuatro bloques, se puede invertir en bloques de la siguiente manera:

donde A y D son bloques cuadrados de tamaño arbitrario, y B y C son compatibles con ellos para la partición. Además, A y el complemento de Schur de A en P : P / A = DCA −1 B deben ser invertibles. [15]

De manera equivalente, permutando los bloques:

[dieciséis]

Aquí, D y el complemento de Schur de D en P : P / D = ABD −1 C deben ser invertibles.

Si A y D son ambos invertibles, entonces:

Según la identidad de Weinstein-Aronszajn , una de las dos matrices en la matriz diagonal de bloques es invertible exactamente cuando la otra lo es.

Determinante

La fórmula anterior para el determinante de una matriz sigue siendo válida, bajo supuestos adicionales apropiados, para una matriz compuesta de cuatro submatrices . La fórmula más sencilla, que puede demostrarse utilizando la fórmula de Leibniz o una factorización que incluya el complemento de Schur , es

[dieciséis]

Usando esta fórmula, podemos derivar que los polinomios característicos de y son iguales e iguales al producto de los polinomios característicos de y . Además, si o es diagonalizable , entonces y también lo son. Lo contrario es falso; simplemente verifique .

Si es invertible , se tiene

[dieciséis]

y si es invertible, se tiene

[17] [16]

Si los bloques son matrices cuadradas del mismo tamaño, se cumplen más fórmulas. Por ejemplo, si y conmutan (es decir, ), entonces

[18]

Esta fórmula se ha generalizado a matrices compuestas por más de bloques, nuevamente bajo condiciones de conmutatividad apropiadas entre los bloques individuales. [19]

Para y , se cumple la siguiente fórmula (incluso si y no conmutan)

[dieciséis]

Tipos especiales de matrices de bloques.

Sumas directas y matrices diagonales en bloque

Suma directa

Para cualquier matriz arbitraria A (de tamaño m  ×  n ) y B (de tamaño p  ×  q ), tenemos la suma directa de A y B , denotada por A  B y definida como  

[10]

Por ejemplo,

Esta operación se generaliza naturalmente a matrices dimensionadas arbitrariamente (siempre que A y B tengan el mismo número de dimensiones).

Tenga en cuenta que cualquier elemento en la suma directa de dos espacios vectoriales de matrices podría representarse como una suma directa de dos matrices.

Matrices diagonales de bloques

Una matriz diagonal de bloques es una matriz de bloques que es una matriz cuadrada tal que los bloques de la diagonal principal son matrices cuadradas y todos los bloques fuera de la diagonal son matrices cero. [16] Es decir, una matriz diagonal de bloques A tiene la forma

donde A k es una matriz cuadrada para todo k = 1, ..., n . En otras palabras, la matriz A es la suma directa de A 1 , ..., An . [16] También se puede indicar como A 1  ⊕  A 2  ⊕ ... ⊕  A n [10] o diag( A 1 , A 2 , ..., A n ) [10]  (siendo este último el mismo formalismo utilizado para una matriz diagonal ). Cualquier matriz cuadrada puede considerarse trivialmente una matriz diagonal de bloques con un solo bloque.

Para el determinante y la traza , se cumplen las siguientes propiedades:

[20] [21] y
[16] [21]

Una matriz diagonal de bloques es invertible si y sólo si cada uno de sus bloques de la diagonal principal es invertible, y en este caso su inversa es otra matriz diagonal de bloques dada por

[22]

Los valores propios [23] y los vectores propios de son simplemente los de s combinados. [21]

Bloquear matrices tridiagonales

Una matriz tridiagonal de bloques es otra matriz de bloques especial, que es como la matriz diagonal de bloques una matriz cuadrada , que tiene matrices cuadradas (bloques) en la diagonal inferior, la diagonal principal y la diagonal superior, siendo todos los demás bloques matrices cero. Es esencialmente una matriz tridiagonal pero tiene submatrices en lugar de escalares. Una matriz tridiagonal de bloques tiene la forma

donde , y son submatrices cuadradas de la diagonal inferior, principal y superior respectivamente. [24] [25]

Las matrices tridiagonales de bloques se encuentran a menudo en soluciones numéricas de problemas de ingeniería (p. ej., dinámica de fluidos computacional ). Se encuentran disponibles métodos numéricos optimizados para la factorización LU [26] y, por lo tanto, algoritmos de solución eficientes para sistemas de ecuaciones con una matriz tridiagonal de bloques como matriz de coeficientes. El algoritmo de Thomas , utilizado para la solución eficiente de sistemas de ecuaciones que involucran una matriz tridiagonal, también se puede aplicar usando operaciones matriciales para bloquear matrices tridiagonales (ver también Descomposición LU en bloque ).

Matrices triangulares de bloques

Bloque superior triangular

Una matriz es triangular de bloque superior (o triangular de bloque superior [27] ) si

,

donde para todos . [23] [27]

Bloque inferior triangular

Una matriz es triangular de bloque inferior si

,

donde para todos . [23]

Bloquear matrices de Toeplitz

Una matriz de bloques de Toeplitz es otra matriz de bloques especial, que contiene bloques que se repiten en las diagonales de la matriz, ya que una matriz de Toeplitz tiene elementos repetidos en la diagonal.

Una matriz es el bloque Toeplitz si es para todos , es decir,

,

dónde . [23]

Bloquear matrices de Hankel

Una matriz es el bloque Hankel si es para todos , es decir,

,

dónde . [23]

Ver también

Notas

  1. ^ Evas, Howard (1980). Teoría de matrices elementales (reimpresión ed.). Nueva York: Dover. pag. 37.ISBN​ 0-486-63946-0. Consultado el 24 de abril de 2013 . Veremos que a veces resulta conveniente subdividir una matriz en bloques rectangulares de elementos. Esto nos lleva a considerar las llamadas matrices particionadas o de bloques .
  2. ^ ab Dobrushkin, Vladimir. "Matrices de partición". Álgebra lineal con Mathematica . Consultado el 24 de marzo de 2024 .
  3. ^ Antón, Howard (1994). Álgebra lineal elemental (7ª ed.). Nueva York: John Wiley. pag. 30.ISBN 0-471-58742-7. Una matriz se puede subdividir o dividir en matrices más pequeñas insertando reglas horizontales y verticales entre las filas y columnas seleccionadas.
  4. ^ Indhumathi, D.; Sarala, S. (16 de mayo de 2014). "Análisis de fragmentos y generación de casos de prueba utilizando F-Measure para pruebas aleatorias adaptativas y pruebas aleatorias adaptativas basadas en bloques particionados" (PDF) . Revista Internacional de Aplicaciones Informáticas . 93 (6): 13. doi :10.5120/16218-5662.
  5. ^ Macedo, HD; Oliveira, JN (2013). "Escribiendo álgebra lineal: un enfoque orientado a biproductos". Ciencia de la programación informática . 78 (11): 2160–2191. arXiv : 1312.4818 . doi :10.1016/j.scico.2012.07.012.
  6. ^ abc Johnston, Nathaniel (2021). Introducción al álgebra lineal y matricial . Cham, Suiza: Springer Nature. págs.30, 425. ISBN 978-3-030-52811-9.
  7. ^ ab Johnston, Nathaniel (2021). Álgebra lineal y matricial avanzada . Cham, Suiza: Springer Nature. pag. 298.ISBN 978-3-030-52814-0.
  8. ^ Jeffrey, Alan (2010). Operaciones matriciales para ingenieros y científicos: una guía esencial en álgebra lineal. Dordrecht [Países Bajos]; Nueva York: Springer. pag. 54.ISBN 978-90-481-9273-1. OCLC  639165077.
  9. ^ abcdefghijklmn Stewart, Gilbert W. (1998). Algoritmos matriciales. 1: Descomposiciones básicas . Filadelfia, PA: Soc. de Matemática Industrial y Aplicada. págs. 18-20. ISBN 978-0-89871-414-2.
  10. ^ abcde Suave, James E. (2007). Álgebra matricial: teoría, cálculos y aplicaciones en estadística . Textos Springer en Estadística. Nueva York, NY: Libros electrónicos de Springer New York Springer. págs.47, 487. ISBN 978-0-387-70873-7.
  11. ^ Mackey, D. Steven (2006). Linealizaciones estructuradas para polinomios matriciales (PDF) (Tesis). Universidad de Manchester. ISSN  1749-9097. OCLC  930686781.
  12. ^ Evas, Howard (1980). Teoría de matrices elementales (reimpresión ed.). Nueva York: Dover. pag. 37.ISBN 0-486-63946-0. Consultado el 24 de abril de 2013 . Una partición como la del teorema 1.9.4 se denomina partición conforme de A y B.
  13. ^ Antón, Howard (1994). Álgebra lineal elemental (7ª ed.). Nueva York: John Wiley. pag. 36.ISBN 0-471-58742-7. ...siempre que los tamaños de las submatrices de A y B sean tales que se puedan realizar las operaciones indicadas.
  14. ^ Mathai, Arakaparampil M.; Haubold, Hans J. (2017). Álgebra lineal: un curso para físicos e ingenieros . Libro de texto de Gruyter. Berlín Boston: De Gruyter. pag. 162.ISBN 978-3-11-056259-0.
  15. ^ Bernstein, Dennis (2005). Matemáticas matriciales . Prensa de la Universidad de Princeton. pag. 44.ISBN 0-691-11802-7.
  16. ^ abcdefgh Abadir, Karim M.; Magnus, enero R. (2005). Álgebra matricial . Prensa de la Universidad de Cambridge. págs.97, 100, 106, 111, 114, 118. ISBN 9781139443647.
  17. ^ Taboga, Marco (2021). "Determinante de una matriz de bloques", Conferencias sobre álgebra matricial.
  18. ^ Silvester, JR (2000). "Determinantes de matrices de bloques" (PDF) . Matemáticas. Gaz . 84 (501): 460–467. doi :10.2307/3620776. JSTOR  3620776. Archivado desde el original (PDF) el 18 de marzo de 2015 . Consultado el 25 de junio de 2021 .
  19. ^ Sothanaphan, Nat (enero de 2017). "Determinantes de matrices de bloques con bloques no conmutantes". Álgebra lineal y sus aplicaciones . 512 : 202–218. arXiv : 1805.06027 . doi :10.1016/j.laa.2016.10.004. S2CID  119272194.
  20. ^ Quarteroni, Alfio; Sacco, Ricardo; Saleri, Fausto (2000). Matemáticas numéricas . Textos de matemática aplicada. Nueva York: Springer. págs.10, 13. ISBN 978-0-387-98959-4.
  21. ^ abc George, Raju K.; Ajayakumar, Abhijith (2024). "Un curso de álgebra lineal". Textos Universitarios en Ciencias Matemáticas : 35, 407. doi :10.1007/978-981-99-8680-4. ISBN 978-981-99-8679-8. ISSN  2731-9318.
  22. ^ Príncipe, Simon JD (2012). Visión por computadora: modelos, aprendizaje e inferencia . Nueva York: prensa de la Universidad de Cambridge. pag. 531.ISBN 978-1-107-01179-3.
  23. ^ abcde Bernstein, Dennis S. (2009). Matemáticas matriciales: teoría, hechos y fórmulas (2 ed.). Princeton, Nueva Jersey: Princeton University Press. págs.168, 298. ISBN 978-0-691-14039-1.
  24. ^ Dietl, Guido KE (2007). Estimación lineal y detección en subespacios de Krylov. Fundamentos en procesamiento de señales, comunicaciones y networking. Berlín; Nueva York: Springer. págs.85, 87. ISBN 978-3-540-68478-7. OCLC  85898525.
  25. ^ Cuerno, Roger A.; Johnson, Charles R. (2017). Análisis matricial (Segunda edición, reimpresión corregida). Nueva York, Nueva York: Cambridge University Press. pag. 36.ISBN 978-0-521-83940-2.
  26. ^ Datta, Biswa Nath (2010). Álgebra lineal numérica y aplicaciones (2 ed.). Filadelfia, Pensilvania: SIAM. pag. 168.ISBN 978-0-89871-685-6.
  27. ^ ab Stewart, Gilbert W. (2001). Algoritmos matriciales. 2: Sistemas propios . Filadelfia, Pensilvania: Soc. de Matemática Industrial y Aplicada. pag. 5.ISBN 978-0-89871-503-3.

Referencias