stringtranslate.com

Descomposición matricial

En la disciplina matemática del álgebra lineal , una descomposición matricial o factorización matricial es una factorización de una matriz en un producto de matrices. Hay muchas descomposiciones matriciales diferentes; cada uno encuentra uso entre una clase particular de problemas.

Ejemplo

En el análisis numérico se utilizan diferentes descomposiciones para implementar algoritmos matriciales eficientes .

Por ejemplo, al resolver un sistema de ecuaciones lineales , la matriz A se puede descomponer mediante la descomposición LU . La descomposición LU factoriza una matriz en una matriz triangular inferior L y una matriz triangular superior U. Los sistemas requieren menos sumas y multiplicaciones para resolverse, en comparación con el sistema original , aunque es posible que se requieran muchos más dígitos en aritmética inexacta, como la coma flotante .

De manera similar, la descomposición QR expresa A como QR con Q una matriz ortogonal y R una matriz triangular superior. El sistema Q ( R x ) = b se resuelve mediante R x = Q T b = c , y el sistema R x = c se resuelve mediante ' sustitución hacia atrás '. El número de sumas y multiplicaciones requeridas es aproximadamente el doble que el del solucionador LU, pero no se requieren más dígitos en aritmética inexacta porque la descomposición QR es numéricamente estable .

Descomposiciones relacionadas con la resolución de sistemas de ecuaciones lineales.

Descomposición LU

reducción de LU

Descomposición de LU en bloque

Factorización de rango

Descomposición de Cholesky

descomposición QR

factorización RRQR

Descomposición interpolativa

Descomposiciones basadas en valores propios y conceptos relacionados.

Descomposición propia

Descomposición de Jordania

La forma normal de Jordan y la descomposición Jordan-Chevalley

descomposición de Schur

Descomposición real de Schur

descomposición QZ

Factorización de Takagi

Valor singular de descomposición

Descomposiciones invariantes de escala

Se refiere a variantes de descomposiciones matriciales existentes, como la SVD, que son invariantes con respecto al escalamiento diagonal.

Se pueden derivar descomposiciones análogas de invariantes de escala a partir de otras descomposiciones matriciales; por ejemplo, para obtener valores propios invariantes de escala. [3] [4]

descomposición de Hessenberg

Descomposición ortogonal completa

Otras descomposiciones

Descomposición polar

Descomposición polar algebraica

descomposición de mostow

Forma normal de fregadero

Descomposición sectorial

Forma normal de Williamson

Raíz cuadrada de la matriz

Generalizaciones

Existen análogos de las factorizaciones SVD, QR, LU y Cholesky para cuasimatrices y cmatrices o matrices continuas . [13] Una 'cuasimatriz' es, como una matriz, un esquema rectangular cuyos elementos están indexados, pero un índice discreto es reemplazado por un índice continuo. Asimismo, una 'cmatrix' es continua en ambos índices. Como ejemplo de cmatrix, se puede pensar en el núcleo de un operador integral .

Estas factorizaciones se basan en los primeros trabajos de Fredholm (1903), Hilbert (1904) y Schmidt (1907). Para consultar un relato y una traducción al inglés de los artículos fundamentales, consulte Stewart (2011).

Ver también

Referencias

Notas

  1. ^ Sin embargo, si se utiliza una matriz no cuadrada, entonces la matriz U también tendrá la misma forma rectangular que la matriz A original . Por lo tanto, llamar a la matriz U triangular superior sería incorrecto ya que el término correcto sería que U es la 'forma escalonada por filas' de A. Aparte de esto, no existen diferencias en la factorización LU para matrices cuadradas y no cuadradas.

Citas

  1. ^ Lay, David C. (2016). Álgebra lineal y sus aplicaciones. Steven R. Lay, Judith McDonald (Quinta edición global). Harlow. pag. 142.ISBN​ 978-1-292-09223-2. OCLC  920463015.{{cite book}}: CS1 maint: location missing publisher (link)
  2. ^ Piziak, R.; Odell, PL (1 de junio de 1999). "Factorización de matrices de rango completo". Revista Matemáticas . 72 (3): 193. doi : 10.2307/2690882. JSTOR  2690882.
  3. ^ Uhlmann, JK (2018), "Una matriz inversa generalizada que es consistente con respecto a las transformaciones diagonales", Revista SIAM sobre análisis y aplicaciones de matrices , 239 (2): 781–800, doi :10.1137/17M113890X
  4. ^ Uhlmann, JK (2018), "Una matriz inversa generalizada que preserva el rango para la coherencia con respecto a la similitud", IEEE Control Systems Letters , 3 : 91–95, arXiv : 1804.07334 , doi : 10.1109/LCSYS.2018.2854240, ISSN  2475- 1456, S2CID  5031440
  5. ^ Choudhury y Horn 1987, págs. 219-225
  6. ^ abc Bhatia, Rajendra (15 de noviembre de 2013). "La descomposición bipolar". Álgebra lineal y sus aplicaciones . 439 (10): 3031–3037. doi :10.1016/j.laa.2013.09.006.
  7. ^ Horn y Merino 1995, págs. 43–92
  8. ^ Mostow, GD (1955), Algunos teoremas de descomposición nuevos para grupos semisimples, Mem. América. Matemáticas. Soc., vol. 14, Sociedad Estadounidense de Matemáticas, págs. 31–54
  9. ^ Nielsen, Frank; Bhatia, Rajendra (2012). Geometría de información matricial . Saltador. pag. 224. arXiv : 1007.4402 . doi :10.1007/978-3-642-30232-9. ISBN 9783642302329. S2CID  118466496.
  10. ^ Zhang, Fuzhen (30 de junio de 2014). "Una descomposición matricial y sus aplicaciones". Álgebra lineal y multilineal . 63 (10): 2033-2042. doi :10.1080/03081087.2014.933219. S2CID  19437967.
  11. ^ Drury, SW (noviembre de 2013). "Desigualdades determinantes de Fischer y conjetura de Higham". Álgebra lineal y sus aplicaciones . 439 (10): 3129–3133. doi : 10.1016/j.laa.2013.08.031 .
  12. ^ Idel, Martín; Soto Gaona, Sebastián; Lobo, Michael M. (15 de julio de 2017). "Límites de perturbación para la forma normal simpléctica de Williamson". Álgebra lineal y sus aplicaciones . 525 : 45–58. arXiv : 1609.01338 . doi :10.1016/j.laa.2017.03.013. S2CID  119578994.
  13. ^ Townsend y Trefethen 2015

Bibliografía


enlaces externos