stringtranslate.com

Descomposición matricial

En la disciplina matemática del álgebra lineal , una descomposición matricial o factorización matricial es una factorización de una matriz en un producto de matrices. Existen muchas descomposiciones matriciales diferentes; cada una se utiliza en una clase particular de problemas.

Ejemplo

En el análisis numérico , se utilizan diferentes descomposiciones para implementar algoritmos matriciales eficientes .

Por ejemplo, al resolver un sistema de ecuaciones lineales , la matriz A se puede descomponer mediante la descomposición LU . La descomposición LU factoriza una matriz en una matriz triangular inferior L y una matriz triangular superior U. Los sistemas y requieren menos sumas y multiplicaciones para resolverse, en comparación con el sistema original , aunque se podrían requerir significativamente más dígitos en aritmética inexacta, como el punto flotante .

De manera similar, la descomposición QR expresa A como QR con Q una matriz ortogonal y R una matriz triangular superior. El sistema Q ( R x ) = b se resuelve mediante R x = Q T b = c , y el sistema R x = c se resuelve mediante ' sustitución hacia atrás '. El número de adiciones y multiplicaciones requeridas es aproximadamente el doble que el que se requiere para usar el solucionador LU, pero no se requieren más dígitos en aritmética inexacta porque la descomposición QR es numéricamente estable .

Descomposiciones relacionadas con la resolución de sistemas de ecuaciones lineales

Descomposición LU

Reducción de LU

Descomposición del bloque LU

Factorización de rango

Descomposición de Cholesky

Descomposición QR

Factorización RRQR

Descomposición interpolativa

Descomposiciones basadas en valores propios y conceptos relacionados

Descomposición propia

Descomposición de Jordania

La forma normal de Jordan y la descomposición de Jordan-Chevalley

Descomposición de Schur

Descomposición real de Schur

Descomposición QZ

Factorización de Takagi

Descomposición en valores singulares

Descomposiciones invariantes de escala

Se refiere a variantes de descomposiciones matriciales existentes, como la SVD, que son invariantes con respecto a la escala diagonal.

Se pueden derivar descomposiciones invariantes de escala análogas a partir de otras descomposiciones matriciales; por ejemplo, para obtener valores propios invariantes de escala. [3] [4]

Descomposición de Hessenberg

Descomposición ortogonal completa

Otras descomposiciones

Descomposición polar

Descomposición polar algebraica

Descomposición de Mostow

Forma normal de Sinkhorn

Descomposición sectorial

Forma normal de Williamson

Raíz cuadrada de la matriz

Generalizaciones

Existen análogos de las factorizaciones SVD, QR, LU y Cholesky para cuasimatriz y cmatrices o matrices continuas . [13] Una 'cuasimatriz' es, como una matriz, un esquema rectangular cuyos elementos están indexados, pero un índice discreto es reemplazado por un índice continuo. Del mismo modo, una 'matriz cm' es continua en ambos índices. Como ejemplo de una matriz cm, se puede pensar en el núcleo de un operador integral .

Estas factorizaciones se basan en trabajos iniciales de Fredholm (1903), Hilbert (1904) y Schmidt (1907). Para una descripción y una traducción al inglés de los artículos fundamentales, véase Stewart (2011).

Véase también

Referencias

Notas

  1. ^ Sin embargo, si se utiliza una matriz no cuadrada, la matriz U también tendrá la misma forma rectangular que la matriz original A. Por lo tanto, llamar a la matriz U triangular superior sería incorrecto, ya que el término correcto sería que U es la "forma escalonada por filas" de A. Aparte de esto, no hay diferencias en la factorización LU para matrices cuadradas y no cuadradas.

Citas

  1. ^ Lay, David C. (2016). Álgebra lineal y sus aplicaciones. Steven R. Lay, Judith McDonald (quinta edición global). Harlow. pág. 142. ISBN 978-1-292-09223-2.OCLC 920463015  .{{cite book}}: CS1 maint: location missing publisher (link)
  2. ^ Piziak, R.; Odell, PL (1 de junio de 1999). "Factorización de rango completo de matrices". Revista de matemáticas . 72 (3): 193. doi :10.2307/2690882. JSTOR  2690882.
  3. ^ Uhlmann, JK (2018), "Una matriz inversa generalizada que es consistente con respecto a las transformaciones diagonales", Revista SIAM sobre análisis de matrices y aplicaciones , 239 (2): 781–800, doi :10.1137/17M113890X
  4. ^ Uhlmann, JK (2018), "Una matriz inversa generalizada que preserva el rango para lograr consistencia con respecto a la similitud", IEEE Control Systems Letters , 3 : 91–95, arXiv : 1804.07334 , doi : 10.1109/LCSYS.2018.2854240, ISSN  2475-1456, S2CID  5031440
  5. ^ Choudhury y Horn 1987, págs. 219-225
  6. ^ abc Bhatia, Rajendra (15 de noviembre de 2013). "La descomposición bipolar". Álgebra lineal y sus aplicaciones . 439 (10): 3031–3037. doi :10.1016/j.laa.2013.09.006.
  7. ^ Horn y Merino 1995, págs. 43-92
  8. ^ Mostow, GD (1955), Algunos nuevos teoremas de descomposición para grupos semisimples, Mem. Amer. Math. Soc., vol. 14, American Mathematical Society, págs. 31–54
  9. ^ Nielsen, Frank; Bhatia, Rajendra (2012). Geometría de la información matricial . Springer. pág. 224. arXiv : 1007.4402 . doi :10.1007/978-3-642-30232-9. ISBN . 9783642302329.S2CID118466496  .​
  10. ^ Zhang, Fuzhen (30 de junio de 2014). "Una descomposición matricial y sus aplicaciones". Álgebra lineal y multilineal . 63 (10): 2033–2042. doi :10.1080/03081087.2014.933219. S2CID  19437967.
  11. ^ Drury, SW (noviembre de 2013). "Desigualdades determinantes de Fischer y conjetura de Higham". Álgebra lineal y sus aplicaciones . 439 (10): 3129–3133. doi : 10.1016/j.laa.2013.08.031 .
  12. ^ Idel, Martin; Soto Gaona, Sebastián; Wolf, Michael M. (15 de julio de 2017). "Límites de perturbación para la forma normal simpléctica de Williamson". Álgebra lineal y sus aplicaciones . 525 : 45–58. arXiv : 1609.01338 . doi :10.1016/j.laa.2017.03.013. S2CID  119578994.
  13. ^ Townsend y Trefethen 2015

Bibliografía


Enlaces externos