Representación de una matriz como producto.
En la disciplina matemática del álgebra lineal , una descomposición matricial o factorización matricial es una factorización de una matriz en un producto de matrices. Hay muchas descomposiciones matriciales diferentes; cada uno encuentra uso entre una clase particular de problemas.
Ejemplo
En el análisis numérico se utilizan diferentes descomposiciones para implementar algoritmos matriciales eficientes .
Por ejemplo, al resolver un sistema de ecuaciones lineales , la matriz A se puede descomponer mediante la descomposición LU . La descomposición LU factoriza una matriz en una matriz triangular inferior L y una matriz triangular superior U. Los sistemas requieren menos sumas y multiplicaciones para resolverse, en comparación con el sistema original , aunque es posible que se requieran muchos más dígitos en aritmética inexacta, como la coma flotante .
De manera similar, la descomposición QR expresa A como QR con Q una matriz ortogonal y R una matriz triangular superior. El sistema Q ( R x ) = b se resuelve mediante R x = Q T b = c , y el sistema R x = c se resuelve mediante ' sustitución hacia atrás '. El número de sumas y multiplicaciones requeridas es aproximadamente el doble que el del solucionador LU, pero no se requieren más dígitos en aritmética inexacta porque la descomposición QR es numéricamente estable .
Descomposiciones relacionadas con la resolución de sistemas de ecuaciones lineales.
Descomposición LU
Reducción de LU
Descomposición de LU en bloque
Factorización de rango
Descomposición de Cholesky
- Aplicable a: matriz definida positiva , hermitiana y cuadrada
- Descomposición: , donde es triangular superior con entradas diagonales reales positivas
- Comentario: si la matriz es hermitiana y semidefinida positiva, entonces tiene una descomposición de la forma si se permite que las entradas diagonales de sean cero
- Unicidad: para matrices definidas positivas la descomposición de Cholesky es única. Sin embargo, no es único en el caso semidefinido positivo.
- Comentario: si es real y simétrico, tiene todos los elementos reales.
- Comentario: Una alternativa es la descomposición de LDL , que puede evitar la extracción de raíces cuadradas.
descomposición QR
- Aplicable a: matriz A m -by- n con columnas linealmente independientes
- Descomposición: donde es una matriz unitaria de tamaño m -por- m y es una matriz triangular superior de tamaño m -por- n
- Unicidad: en general no es único, pero si es de rango completo , entonces existe uno único que tiene todos los elementos diagonales positivos. Si es cuadrado, también es único.
- Comentario: La descomposición QR proporciona una forma eficaz de resolver el sistema de ecuaciones . El hecho de que sea ortogonal significa que es equivalente a , lo cual es muy fácil de resolver ya que es triangular .
factorización RRQR
Descomposición interpolativa
Descomposiciones basadas en valores propios y conceptos relacionados.
Descomposición propia
- También llamada descomposición espectral .
- Aplicable a: matriz cuadrada A con vectores propios linealmente independientes (no necesariamente valores propios distintos).
- Descomposición: , donde D es una matriz diagonal formada a partir de los valores propios de A , y las columnas de V son los vectores propios correspondientes de A .
- Existencia: Una matriz A de n por n siempre tiene n valores propios (complejos), que se pueden ordenar (en más de una manera) para formar una matriz diagonal D de n por n y una matriz correspondiente de columnas V distintas de cero que satisface la ecuación de valores propios . es invertible si y sólo si los n vectores propios son linealmente independientes (es decir, cada valor propio tiene multiplicidad geométrica igual a su multiplicidad algebraica ). Una condición suficiente (pero no necesaria) para que esto suceda es que todos los valores propios sean diferentes (en este caso la multiplicidad geométrica y algebraica son iguales a 1)
- Comentario: Siempre se pueden normalizar los vectores propios para que tengan longitud uno (consulte la definición de la ecuación de valores propios)
- Comentario: Toda matriz normal A (es decir, matriz para la cual , donde es una transpuesta conjugada ) se puede descomponer de manera propia. Para una matriz normal A (y sólo para una matriz normal), los vectores propios también pueden hacerse ortonormales ( ) y la descomposición propia se lee como . En particular, todas las matrices unitarias , hermitianas o sesgadas-hermitianas (en el caso de valores reales, todas las matrices ortogonales , simétricas o sesgadas-simétricas , respectivamente) son normales y, por lo tanto, poseen esta propiedad.
- Comentario: Para cualquier matriz simétrica real A , la descomposición propia siempre existe y se puede escribir como , donde tanto D como V tienen valores reales.
- Comentario: La descomposición propia es útil para comprender la solución de un sistema de ecuaciones diferenciales ordinarias lineales o ecuaciones en diferencias lineales. Por ejemplo, la ecuación en diferencias a partir de la condición inicial se resuelve mediante , que es equivalente a , donde V y D son las matrices formadas a partir de los vectores propios y valores propios de A. Dado que D es diagonal, elevarlo a la potencia simplemente implica elevar cada elemento en la diagonal a la potencia t . Esto es mucho más fácil de hacer y entender que elevar A a la potencia t , ya que A no suele ser diagonal.
Descomposición de Jordania
La forma normal de Jordan y la descomposición Jordan-Chevalley
- Aplicable a: matriz cuadrada A
- Comentario: la forma normal de Jordan generaliza la descomposición propia a casos en los que hay valores propios repetidos y no se pueden diagonalizar; la descomposición de Jordan-Chevalley lo hace sin elegir una base.
descomposición de Schur
Descomposición real de Schur
- Aplicable a: matriz cuadrada A
- Descomposición: Esta es una versión de la descomposición de Schur donde y solo contiene números reales. Siempre se puede escribir donde V es una matriz ortogonal real , es la transpuesta de V y S es una matriz triangular superior de bloque llamada forma real de Schur . Los bloques en la diagonal de S son de tamaño 1×1 (en cuyo caso representan valores propios reales) o 2×2 (en cuyo caso se derivan de pares de valores propios conjugados complejos ).
descomposición QZ
- También llamado: descomposición de Schur generalizada
- Aplicable a: matrices cuadradas A y B
- Comentario: existen dos versiones de esta descomposición: compleja y real.
- Descomposición (versión compleja): y donde Q y Z son matrices unitarias , el superíndice * representa la transpuesta conjugada y S y T son matrices triangulares superiores .
- Comentario: en la descomposición QZ compleja, las razones de los elementos diagonales de S a los elementos diagonales correspondientes de T , son los valores propios generalizados que resuelven el problema de valores propios generalizados (donde es un escalar desconocido y v es un vector desconocido distinto de cero).
- Descomposición (versión real): y donde A , B , Q , Z , S y T son matrices que contienen únicamente números reales. En este caso, Q y Z son matrices ortogonales , el superíndice T representa la transposición y S y T son matrices triangulares superiores en bloque . Los bloques en la diagonal de S y T son de tamaño 1×1 o 2×2.
Factorización de Takagi
- Aplicable a: matriz A cuadrada, compleja y simétrica .
- Descomposición: , donde D es una matriz diagonal real no negativa y V es unitaria . denota la transpuesta de matriz de V .
- Comentario: Los elementos diagonales de D son las raíces cuadradas no negativas de los valores propios de .
- Comentario: V puede ser complejo incluso si A es real.
- Comentario: Este no es un caso especial de descomposición propia (ver arriba), que usa en lugar de . Además, si A no es real, no es hermitiano y la forma usando tampoco se aplica.
Descomposición de valores singulares
- Aplicable a: m -por- n matriz A .
- Descomposición: , donde D es una matriz diagonal no negativa y U y V satisfacen . Aquí está la transpuesta conjugada de V (o simplemente la transpuesta , si V contiene solo números reales), y I denota la matriz identidad (de alguna dimensión).
- Comentario: Los elementos diagonales de D se llaman valores singulares de A.
- Comentario: Al igual que la descomposición propia anterior, la descomposición en valores singulares implica encontrar direcciones de bases a lo largo de las cuales la multiplicación de matrices es equivalente a la multiplicación escalar, pero tiene mayor generalidad ya que no es necesario que la matriz bajo consideración sea cuadrada.
- Unicidad: los valores singulares de siempre están determinados de forma única. y no es necesario que sea único en general.
Descomposiciones invariantes de escala
Se refiere a variantes de descomposiciones matriciales existentes, como la SVD, que son invariantes con respecto al escalamiento diagonal.
- Aplicable a: m -por- n matriz A .
- Descomposición de valores singulares invariantes de escala unitaria: , donde S es una matriz diagonal única no negativa de valores singulares invariantes de escala, U y V son matrices unitarias , es la transpuesta conjugada de V y matrices diagonales positivas D y E.
- Comentario: Es análogo al SVD excepto que los elementos diagonales de S son invariantes con respecto a la multiplicación izquierda y/o derecha de A por matrices diagonales arbitrarias no singulares, a diferencia del SVD estándar para el cual los valores singulares son invariantes con respecto a la izquierda. y/o multiplicación correcta de A por matrices unitarias arbitrarias.
- Comentario: Es una alternativa al SVD estándar cuando se requiere invariancia con respecto a transformaciones diagonales en lugar de unitarias de A.
- Unicidad: Los valores singulares invariantes de escala de (dados por los elementos diagonales de S ) siempre están determinados de forma única. Las matrices diagonales D y E , y las unitarias U y V , no son necesariamente únicas en general.
- Comentario: Las matrices U y V no son las mismas que las del SVD.
Se pueden derivar descomposiciones análogas de invariantes de escala a partir de otras descomposiciones matriciales; por ejemplo, para obtener valores propios invariantes de escala. [3] [4]
descomposición de Hessenberg
- Aplicable a: matriz cuadrada A.
- Descomposición: donde está la matriz de Hessenberg y es una matriz unitaria .
- Comentario: a menudo el primer paso en la descomposición de Schur.
Descomposición ortogonal completa
- También conocido como: descomposición UTV , descomposición ULV , descomposición URV .
- Aplicable a: m -por- n matriz A .
- Descomposición: , donde T es una matriz triangular , y U y V son matrices unitarias .
- Comentario: Similar a la descomposición en valores singulares y a la descomposición de Schur.
Otras descomposiciones
Descomposición polar
- Aplicable a: cualquier matriz compleja cuadrada A.
- Descomposición: (descomposición polar derecha) o (descomposición polar izquierda), donde U es una matriz unitaria y P y P' son matrices hermitianas semidefinidas positivas .
- Unicidad: es siempre única e igual a (que siempre es hermitiana y semidefinida positiva). Si es invertible, entonces es única.
- Comentario: Dado que cualquier matriz hermitiana admite una descomposición espectral con una matriz unitaria, se puede escribir como . Como es semidefinido positivo, todos los elementos son no negativos. Dado que el producto de dos matrices unitarias es unitario, tomando se puede escribir cuál es la descomposición en valor singular. Por tanto, la existencia de la descomposición polar es equivalente a la existencia de la descomposición en valores singulares.
Descomposición polar algebraica
- Aplicable a: matriz A cuadrada, compleja y no singular . [5]
- Descomposición: , donde Q es una matriz ortogonal compleja y S es una matriz simétrica compleja.
- Unicidad: si no tiene valores propios reales negativos, entonces la descomposición es única. [6]
- Comentario: La existencia de esta descomposición equivale a ser similar a . [7]
- Comentario: Una variante de esta descomposición es , donde R es una matriz real y C es una matriz circular. [6]
descomposición de mostow
- Aplicable a: matriz A cuadrada, compleja y no singular . [8] [9]
- Descomposición: , donde U es unitario, M es real antisimétrico y S es real simétrico.
- Comentario: La matriz A también se puede descomponer como , donde U 2 es unitario, M 2 es real antisimétrico y S 2 es real simétrico. [6]
Forma normal de fregadero
- Aplicable a: matriz real cuadrada A con elementos estrictamente positivos.
- Descomposición: , donde S es doblemente estocástica y D 1 y D 2 son matrices diagonales reales con elementos estrictamente positivos.
Descomposición sectorial
- Aplicable a: matriz A cuadrada y compleja con rango numérico contenido en el sector .
- Descomposición: , donde C es una matriz compleja invertible y con todos . [10] [11]
Forma normal de Williamson
- Aplicable a: matriz real A cuadrada, definida positiva, de orden 2 n × 2 n .
- Descomposición: , donde es una matriz simpléctica y D es una matriz diagonal no negativa de n por n . [12]
Raíz cuadrada de matriz
- Descomposición: , no única en general.
- En el caso de semidefinida positiva , existe una semidefinida positiva única tal que .
Generalizaciones
Existen análogos de las factorizaciones SVD, QR, LU y Cholesky para cuasimatrices y cmatrices o matrices continuas . [13] Una 'cuasimatriz' es, como una matriz, un esquema rectangular cuyos elementos están indexados, pero un índice discreto es reemplazado por un índice continuo. Asimismo, una 'cmatrix' es continua en ambos índices. Como ejemplo de cmatrix, se puede pensar en el núcleo de un operador integral .
Estas factorizaciones se basan en los primeros trabajos de Fredholm (1903), Hilbert (1904) y Schmidt (1907). Para consultar un relato y una traducción al inglés de los artículos fundamentales, consulte Stewart (2011).
Ver también
Referencias
Notas
- ^ Sin embargo, si se utiliza una matriz no cuadrada, entonces la matriz U también tendrá la misma forma rectangular que la matriz A original . Por lo tanto, llamar a la matriz U triangular superior sería incorrecto ya que el término correcto sería que U es la 'forma escalonada por filas' de A. Aparte de esto, no existen diferencias en la factorización LU para matrices cuadradas y no cuadradas.
Citas
- ^ Lay, David C. (2016). Álgebra lineal y sus aplicaciones. Steven R. Lay, Judith McDonald (Quinta edición global). Harlow. pag. 142.ISBN 978-1-292-09223-2. OCLC 920463015.
{{cite book}}
: CS1 maint: location missing publisher (link) - ^ Piziak, R.; Odell, PL (1 de junio de 1999). "Factorización de matrices de rango completo". Revista Matemáticas . 72 (3): 193. doi : 10.2307/2690882. JSTOR 2690882.
- ^ Uhlmann, JK (2018), "Una matriz inversa generalizada que es consistente con respecto a las transformaciones diagonales", Revista SIAM sobre análisis y aplicaciones de matrices , 239 (2): 781–800, doi :10.1137/17M113890X
- ^ Uhlmann, JK (2018), "Una matriz inversa generalizada que preserva el rango para la coherencia con respecto a la similitud", IEEE Control Systems Letters , 3 : 91–95, arXiv : 1804.07334 , doi : 10.1109/LCSYS.2018.2854240, ISSN 2475- 1456, S2CID 5031440
- ^ Choudhury y Horn 1987, págs. 219-225
- ^ abc Bhatia, Rajendra (15 de noviembre de 2013). "La descomposición bipolar". Álgebra lineal y sus aplicaciones . 439 (10): 3031–3037. doi :10.1016/j.laa.2013.09.006.
- ^ Horn y Merino 1995, págs. 43–92
- ^ Mostow, GD (1955), Algunos teoremas de descomposición nuevos para grupos semisimples, Mem. América. Matemáticas. Soc., vol. 14, Sociedad Estadounidense de Matemáticas, págs. 31–54
- ^ Nielsen, Frank; Bhatia, Rajendra (2012). Geometría de información matricial . Saltador. pag. 224. arXiv : 1007.4402 . doi :10.1007/978-3-642-30232-9. ISBN 9783642302329. S2CID 118466496.
- ^ Zhang, Fuzhen (30 de junio de 2014). "Una descomposición matricial y sus aplicaciones". Álgebra lineal y multilineal . 63 (10): 2033-2042. doi :10.1080/03081087.2014.933219. S2CID 19437967.
- ^ Drury, SW (noviembre de 2013). "Desigualdades determinantes de Fischer y conjetura de Higham". Álgebra lineal y sus aplicaciones . 439 (10): 3129–3133. doi : 10.1016/j.laa.2013.08.031 .
- ^ Idel, Martín; Soto Gaona, Sebastián; Lobo, Michael M. (15 de julio de 2017). "Límites de perturbación para la forma normal simpléctica de Williamson". Álgebra lineal y sus aplicaciones . 525 : 45–58. arXiv : 1609.01338 . doi :10.1016/j.laa.2017.03.013. S2CID 119578994.
- ^ Townsend y Trefethen 2015
Bibliografía
- Choudhury, Dipa; Horn, Roger A. (abril de 1987). "Un análogo complejo ortogonal-simétrico de la descomposición polar". Revista SIAM de Métodos Algebraicos y Discretos . 8 (2): 219–225. doi :10.1137/0608019.
- Fredholm, I. (1903), "Sur une classe d''equations fonctionnelles", Acta Mathematica (en francés), 27 : 365–390, doi : 10.1007/bf02421317
- Hilbert, D. (1904), "Grundzüge einer allgemeinen Theorie der linearen Integralgleichungen", Nachr. Königl. Ges. Gött (en alemán), 1904 : 49–91
- Cuerno, Roger A.; Merino, Dennis I. (enero de 1995). "Equivalencia contragrediente: una forma canónica y algunas aplicaciones". Álgebra lineal y sus aplicaciones . 214 : 43–92. doi : 10.1016/0024-3795(93)00056-6 .
- Meyer, CD (2000), Análisis matricial y álgebra lineal aplicada, SIAM , ISBN 978-0-89871-454-8
- Schmidt, E. (1907), "Zur Theorie der linearen und nichtlinearen Integralgleichungen. I Teil. Entwicklung willkürlichen Funktionen nach System vorgeschriebener", Mathematische Annalen (en alemán), 63 (4): 433–476, doi :10.1007/bf01449770
- Simón, C.; Blume, L. (1994). Matemáticas para economistas . Norton. ISBN 978-0-393-95733-4.
- Stewart, GW (2011), Fredholm, Hilbert, Schmidt: tres artículos fundamentales sobre ecuaciones integrales (PDF) , consultado el 6 de enero de 2015
- Townsend, A.; Trefethen, LN (2015), "Análogos continuos de factorizaciones matriciales", Proc. R. Soc. A , 471 (2173): 20140585, Bibcode : 2014RSPSA.47140585T, doi : 10.1098/rspa.2014.0585, PMC 4277194 , PMID 25568618
- Jun, Lu (2021), Descomposición de matrices numéricas y sus aplicaciones modernas: un primer curso riguroso , arXiv : 2107.02579
Enlaces externos
- Calculadora matricial en línea
- Cálculo de descomposición de matriz alfa de Wolfram »Descomposición LU y QR
- Enciclopedia Springer de Matemáticas » Factorización matricial
- GraphLab Biblioteca de filtrado colaborativo GraphLab , implementación paralela a gran escala de métodos de descomposición matricial (en C++) para multinúcleo.