Representación de una matriz como producto
En la disciplina matemática del álgebra lineal , una descomposición matricial o factorización matricial es una factorización de una matriz en un producto de matrices. Existen muchas descomposiciones matriciales diferentes; cada una se utiliza en una clase particular de problemas.
Ejemplo
En el análisis numérico , se utilizan diferentes descomposiciones para implementar algoritmos matriciales eficientes .
Por ejemplo, al resolver un sistema de ecuaciones lineales , la matriz A se puede descomponer mediante la descomposición LU . La descomposición LU factoriza una matriz en una matriz triangular inferior L y una matriz triangular superior U. Los sistemas y requieren menos sumas y multiplicaciones para resolverse, en comparación con el sistema original , aunque se podrían requerir significativamente más dígitos en aritmética inexacta, como el punto flotante .
De manera similar, la descomposición QR expresa A como QR con Q una matriz ortogonal y R una matriz triangular superior. El sistema Q ( R x ) = b se resuelve mediante R x = Q T b = c , y el sistema R x = c se resuelve mediante ' sustitución hacia atrás '. El número de adiciones y multiplicaciones requeridas es aproximadamente el doble que el que se requiere para usar el solucionador LU, pero no se requieren más dígitos en aritmética inexacta porque la descomposición QR es numéricamente estable .
Descomposiciones relacionadas con la resolución de sistemas de ecuaciones lineales
Descomposición LU
- Tradicionalmente se aplica a: matriz cuadrada A , aunque también se pueden aplicar matrices rectangulares. [1] [nb 1]
- Descomposición: , donde L es triangular inferior y U es triangular superior .
- Relacionado: la descomposición LDU es , donde L es triangular inferior con unos en la diagonal, U es triangular superior con unos en la diagonal y D es una matriz diagonal .
- Relacionado: la descomposición LUP es , donde L es triangular inferior , U es triangular superior y P es una matriz de permutación .
- Existencia: Existe una descomposición LUP para cualquier matriz cuadrada A. Cuando P es una matriz identidad , la descomposición LUP se reduce a la descomposición LU.
- Comentarios: Las descomposiciones LUP y LU son útiles para resolver un sistema de ecuaciones lineales de n por n . Estas descomposiciones resumen el proceso de eliminación gaussiana en forma matricial. La matriz P representa cualquier intercambio de filas realizado en el proceso de eliminación gaussiana. Si la eliminación gaussiana produce la forma escalonada de filas sin requerir ningún intercambio de filas, entonces P = I , por lo que existe una descomposición LU.
Reducción de LU
Descomposición del bloque LU
Factorización de rango
- Aplicable a: matriz A de m por n de rango r
- Descomposición: donde C es una matriz de rango de columna completa de m por r y F es una matriz de rango de fila completa de r por n
- Comentario: La factorización de rango se puede utilizar para calcular la pseudoinversa de Moore-Penrose de A , [2] que se puede aplicar para obtener todas las soluciones del sistema lineal .
Descomposición de Cholesky
- Aplicable a: matriz cuadrada , hermítica , definida positiva
- Descomposición: , donde es triangular superior con entradas diagonales positivas reales
- Comentario: si la matriz es hermítica y semidefinida positiva, entonces tiene una descomposición de la forma si se permite que las entradas diagonales de sean cero
- Unicidad: para matrices definidas positivas la descomposición de Cholesky es única. Sin embargo, no es única en el caso de matrices semidefinidas positivas.
- Comentario: si es real y simétrico, tiene todos los elementos reales
- Comentario: Una alternativa es la descomposición de LDL , que puede evitar la extracción de raíces cuadradas.
Descomposición QR
- Aplicable a: matriz A de m por n con columnas linealmente independientes
- Descomposición: donde es una matriz unitaria de tamaño m -por- m , y es una matriz triangular superior de tamaño m -por- n
- Unicidad: En general no es único, pero si es de rango completo , entonces existe uno que tiene todos los elementos diagonales positivos. Si es cuadrado, también es único.
- Comentario: La descomposición QR proporciona una forma eficaz de resolver el sistema de ecuaciones . El hecho de que sea ortogonal significa que , por lo que es equivalente a , que es muy fácil de resolver ya que es triangular .
Factorización RRQR
Descomposición interpolativa
Descomposiciones basadas en valores propios y conceptos relacionados
Descomposición propia
- También llamada descomposición espectral .
- Aplicable a: matriz cuadrada A con vectores propios linealmente independientes (no necesariamente valores propios distintos).
- Descomposición: , donde D es una matriz diagonal formada a partir de los valores propios de A , y las columnas de V son los vectores propios correspondientes de A .
- Existencia: Una matriz A de n por n siempre tiene n valores propios (complejos), que pueden ordenarse (de más de una manera) para formar una matriz diagonal D de n por n y una matriz correspondiente de columnas distintas de cero V que satisface la ecuación de valores propios . es invertible si y solo si los n vectores propios son linealmente independientes (es decir, cada valor propio tiene una multiplicidad geométrica igual a su multiplicidad algebraica ). Una condición suficiente (pero no necesaria) para que esto suceda es que todos los valores propios sean diferentes (en este caso, la multiplicidad geométrica y algebraica son iguales a 1)
- Comentario: Siempre se pueden normalizar los vectores propios para que tengan una longitud de uno (véase la definición de la ecuación de valores propios)
- Comentario: Toda matriz normal A (es decir, matriz para la cual , donde es una transpuesta conjugada ) puede descomponerse de forma propia. Para una matriz normal A (y solo para una matriz normal), los vectores propios también pueden hacerse ortonormales ( ) y la descomposición propia se lee como . En particular, todas las matrices unitarias , hermíticas o antihermíticas (en el caso de valores reales, todas las ortogonales , simétricas o antisimétricas , respectivamente) son normales y, por lo tanto, poseen esta propiedad.
- Comentario: Para cualquier matriz simétrica real A , la descomposición propia siempre existe y puede escribirse como , donde tanto D como V son valores reales.
- Comentario: La descomposición propia es útil para entender la solución de un sistema de ecuaciones diferenciales ordinarias lineales o ecuaciones en diferencias lineales. Por ejemplo, la ecuación en diferencias que comienza con la condición inicial se resuelve con , que es equivalente a , donde V y D son las matrices formadas a partir de los vectores propios y los valores propios de A . Como D es diagonal, elevarla a la potencia , solo implica elevar cada elemento de la diagonal a la potencia t . Esto es mucho más fácil de hacer y entender que elevar A a la potencia t , ya que A no suele ser diagonal.
Descomposición de Jordania
La forma normal de Jordan y la descomposición de Jordan-Chevalley
- Aplicable a: matriz cuadrada A
- Comentario: la forma normal de Jordan generaliza la descomposición propia a los casos en los que hay valores propios repetidos y no se pueden diagonalizar; la descomposición de Jordan-Chevalley lo hace sin elegir una base.
Descomposición de Schur
Descomposición real de Schur
- Aplicable a: matriz cuadrada A
- Descomposición: Esta es una versión de la descomposición de Schur donde y solo contienen números reales. Siempre se puede escribir donde V es una matriz ortogonal real , es la transpuesta de V y S es una matriz triangular superior en bloques llamada forma real de Schur . Los bloques en la diagonal de S son de tamaño 1×1 (en cuyo caso representan valores propios reales) o 2×2 (en cuyo caso se derivan de pares de valores propios conjugados complejos ).
Descomposición QZ
- También llamada: descomposición de Schur generalizada
- Aplicable a: matrices cuadradas A y B
- Comentario: hay dos versiones de esta descomposición: compleja y real.
- Descomposición (versión compleja): y donde Q y Z son matrices unitarias , el superíndice * representa la transpuesta conjugada , y S y T son matrices triangulares superiores .
- Comentario: en la descomposición QZ compleja, las razones de los elementos diagonales de S a los elementos diagonales correspondientes de T , , son los valores propios generalizados que resuelven el problema de valores propios generalizados (donde es un escalar desconocido y v es un vector desconocido distinto de cero).
- Descomposición (versión real): y donde A , B , Q , Z , S y T son matrices que contienen solo números reales. En este caso, Q y Z son matrices ortogonales , el superíndice T representa la transposición y S y T son matrices triangulares superiores en bloques . Los bloques en la diagonal de S y T tienen un tamaño de 1×1 o 2×2.
Factorización de Takagi
- Aplicable a: matriz cuadrada, compleja y simétrica A.
- Descomposición: , donde D es una matriz diagonal no negativa real , y V es unitaria . denota la matriz transpuesta de V .
- Comentario: Los elementos diagonales de D son las raíces cuadradas no negativas de los valores propios de .
- Comentario: V puede ser complejo incluso si A es real.
- Comentario: Este no es un caso especial de la descomposición propia (ver arriba), que utiliza en lugar de . Además, si A no es real, no es hermítico y la forma que utiliza tampoco se aplica.
Descomposición en valores singulares
- Aplicable a : matriz m por n A.
- Descomposición: , donde D es una matriz diagonal no negativa , y U y V satisfacen . Aquí está la transpuesta conjugada de V (o simplemente la transpuesta , si V contiene solo números reales), e I denota la matriz identidad (de alguna dimensión).
- Comentario : Los elementos diagonales de D se denominan valores singulares de A.
- Comentario: Al igual que la descomposición propia anterior, la descomposición en valores singulares implica encontrar direcciones base a lo largo de las cuales la multiplicación de matrices es equivalente a la multiplicación escalar, pero tiene mayor generalidad ya que la matriz en consideración no necesita ser cuadrada.
- Unicidad: los valores singulares de siempre están determinados de forma única y no necesitan ser únicos en general.
Descomposiciones invariantes de escala
Se refiere a variantes de descomposiciones matriciales existentes, como la SVD, que son invariantes con respecto a la escala diagonal.
- Aplicable a : matriz m por n A.
- Descomposición en valores singulares invariantes en escala unitaria: , donde S es una matriz diagonal no negativa única de valores singulares invariantes en escala, U y V son matrices unitarias , es la transpuesta conjugada de V , y las matrices diagonales positivas D y E .
- Comentario: Es análogo a la SVD excepto que los elementos diagonales de S son invariantes con respecto a la multiplicación izquierda y/o derecha de A por matrices diagonales no singulares arbitrarias, a diferencia de la SVD estándar para la cual los valores singulares son invariantes con respecto a la multiplicación izquierda y/o derecha de A por matrices unitarias arbitrarias.
- Comentario: Es una alternativa a la SVD estándar cuando se requiere invariancia con respecto a transformaciones diagonales en lugar de unitarias de A.
- Unicidad: Los valores singulares invariantes de escala de (dados por los elementos diagonales de S ) siempre están determinados de forma única. Las matrices diagonales D y E , y las unitarias U y V , no son necesariamente únicas en general.
- Comentario: Las matrices U y V no son las mismas que las de la SVD.
Se pueden derivar descomposiciones invariantes de escala análogas a partir de otras descomposiciones matriciales; por ejemplo, para obtener valores propios invariantes de escala. [3] [4]
Descomposición de Hessenberg
- Aplicable a: matriz cuadrada A.
- Descomposición: donde es la matriz de Hessenberg y es una matriz unitaria .
- Comentario: a menudo el primer paso en la descomposición de Schur.
Descomposición ortogonal completa
- También conocido como: descomposición UTV , descomposición ULV , descomposición URV .
- Aplicable a : matriz m por n A.
- Descomposición: , donde T es una matriz triangular , y U y V son matrices unitarias .
- Comentario: Similar a la descomposición en valores singulares y a la descomposición de Schur.
Otras descomposiciones
Descomposición polar
- Aplicable a: cualquier matriz compleja cuadrada A.
- Descomposición: (descomposición polar derecha) o (descomposición polar izquierda), donde U es una matriz unitaria y P y P' son matrices hermíticas semidefinidas positivas .
- Unicidad: es siempre única e igual a (que siempre es hermítica y semidefinida positiva). Si es invertible, entonces es única.
- Comentario: Como cualquier matriz hermítica admite una descomposición espectral con una matriz unitaria, se puede escribir como . Como es semidefinida positiva, todos los elementos en son no negativos. Como el producto de dos matrices unitarias es unitario, tomando uno se puede escribir que es la descomposición en valores singulares. Por lo tanto, la existencia de la descomposición polar es equivalente a la existencia de la descomposición en valores singulares.
Descomposición polar algebraica
- Aplicable a: matriz cuadrada, compleja, no singular A. [5 ]
- Descomposición: , donde Q es una matriz ortogonal compleja y S es una matriz simétrica compleja.
- Unicidad: Si no tiene valores propios reales negativos, entonces la descomposición es única. [6]
- Comentario: La existencia de esta descomposición es equivalente a ser similar a . [7]
- Comentario: Una variante de esta descomposición es , donde R es una matriz real y C es una matriz circular. [6]
Descomposición de Mostow
- Aplicable a: matriz A cuadrada, compleja y no singular . [8] [9]
- Descomposición: , donde U es unitario, M es real antisimétrico y S es real simétrico.
- Comentario: La matriz A también se puede descomponer como , donde U 2 es unitaria, M 2 es realmente antisimétrica y S 2 es realmente simétrica. [6]
Forma normal de Sinkhorn
- Aplicable a: matriz real cuadrada A con elementos estrictamente positivos.
- Descomposición: , donde S es doblemente estocástico y D 1 y D 2 son matrices diagonales reales con elementos estrictamente positivos.
Descomposición sectorial
- Aplicable a: matriz A cuadrada y compleja con rango numérico contenido en el sector .
- Descomposición: , donde C es una matriz compleja invertible y con todos los . [10] [11]
Forma normal de Williamson
- Aplicable a: matriz real cuadrada, positiva y definida A con orden 2 n ×2 n .
- Descomposición: , donde es una matriz simpléctica y D es una matriz diagonal no negativa de n por n . [12]
Raíz cuadrada de la matriz
- Descomposición: , no único en general.
- En el caso de semidefinida positiva , existe una única semidefinida positiva tal que .
Generalizaciones
Existen análogos de las factorizaciones SVD, QR, LU y Cholesky para cuasimatriz y cmatrices o matrices continuas . [13] Una 'cuasimatriz' es, como una matriz, un esquema rectangular cuyos elementos están indexados, pero un índice discreto es reemplazado por un índice continuo. Del mismo modo, una 'matriz cm' es continua en ambos índices. Como ejemplo de una matriz cm, se puede pensar en el núcleo de un operador integral .
Estas factorizaciones se basan en trabajos iniciales de Fredholm (1903), Hilbert (1904) y Schmidt (1907). Para una descripción y una traducción al inglés de los artículos fundamentales, véase Stewart (2011).
Véase también
Referencias
Notas
- ^ Sin embargo, si se utiliza una matriz no cuadrada, la matriz U también tendrá la misma forma rectangular que la matriz original A. Por lo tanto, llamar a la matriz U triangular superior sería incorrecto, ya que el término correcto sería que U es la "forma escalonada por filas" de A. Aparte de esto, no hay diferencias en la factorización LU para matrices cuadradas y no cuadradas.
Citas
- ^ Lay, David C. (2016). Álgebra lineal y sus aplicaciones. Steven R. Lay, Judith McDonald (quinta edición global). Harlow. pág. 142. ISBN 978-1-292-09223-2.OCLC 920463015 .
{{cite book}}
: CS1 maint: location missing publisher (link) - ^ Piziak, R.; Odell, PL (1 de junio de 1999). "Factorización de rango completo de matrices". Revista de matemáticas . 72 (3): 193. doi :10.2307/2690882. JSTOR 2690882.
- ^ Uhlmann, JK (2018), "Una matriz inversa generalizada que es consistente con respecto a las transformaciones diagonales", Revista SIAM sobre análisis de matrices y aplicaciones , 239 (2): 781–800, doi :10.1137/17M113890X
- ^ Uhlmann, JK (2018), "Una matriz inversa generalizada que preserva el rango para lograr consistencia con respecto a la similitud", IEEE Control Systems Letters , 3 : 91–95, arXiv : 1804.07334 , doi : 10.1109/LCSYS.2018.2854240, ISSN 2475-1456, S2CID 5031440
- ^ Choudhury y Horn 1987, págs. 219-225
- ^ abc Bhatia, Rajendra (15 de noviembre de 2013). "La descomposición bipolar". Álgebra lineal y sus aplicaciones . 439 (10): 3031–3037. doi :10.1016/j.laa.2013.09.006.
- ^ Horn y Merino 1995, págs. 43-92
- ^ Mostow, GD (1955), Algunos nuevos teoremas de descomposición para grupos semisimples, Mem. Amer. Math. Soc., vol. 14, American Mathematical Society, págs. 31–54
- ^ Nielsen, Frank; Bhatia, Rajendra (2012). Geometría de la información matricial . Springer. pág. 224. arXiv : 1007.4402 . doi :10.1007/978-3-642-30232-9. ISBN . 9783642302329.S2CID118466496 .
- ^ Zhang, Fuzhen (30 de junio de 2014). "Una descomposición matricial y sus aplicaciones". Álgebra lineal y multilineal . 63 (10): 2033–2042. doi :10.1080/03081087.2014.933219. S2CID 19437967.
- ^ Drury, SW (noviembre de 2013). "Desigualdades determinantes de Fischer y conjetura de Higham". Álgebra lineal y sus aplicaciones . 439 (10): 3129–3133. doi : 10.1016/j.laa.2013.08.031 .
- ^ Idel, Martin; Soto Gaona, Sebastián; Wolf, Michael M. (15 de julio de 2017). "Límites de perturbación para la forma normal simpléctica de Williamson". Álgebra lineal y sus aplicaciones . 525 : 45–58. arXiv : 1609.01338 . doi :10.1016/j.laa.2017.03.013. S2CID 119578994.
- ^ Townsend y Trefethen 2015
Bibliografía
- Choudhury, Dipa; Horn, Roger A. (abril de 1987). "Un análogo ortogonal-simétrico complejo de la descomposición polar". Revista SIAM sobre métodos algebraicos y discretos . 8 (2): 219–225. doi :10.1137/0608019.
- Fredholm, I. (1903), "Sur une classe d''equations fonctionnelles", Acta Mathematica (en francés), 27 : 365–390, doi : 10.1007/bf02421317
- Hilbert, D. (1904), "Grundzüge einer allgemeinen Theorie der linearen Integralgleichungen", Nachr. Königl. Ges. Gött (en alemán), 1904 : 49–91
- Horn, Roger A.; Merino, Dennis I. (enero de 1995). "Equivalencia de contragredientes: una forma canónica y algunas aplicaciones". Álgebra lineal y sus aplicaciones . 214 : 43–92. doi : 10.1016/0024-3795(93)00056-6 .
- Meyer, CD (2000), Análisis matricial y álgebra lineal aplicada, SIAM , ISBN 978-0-89871-454-8
- Schmidt, E. (1907), "Zur Theorie der linearen und nichtlinearen Integralgleichungen. I Teil. Entwicklung willkürlichen Funktionen nach System vorgeschriebener", Mathematische Annalen (en alemán), 63 (4): 433–476, doi :10.1007/bf01449770
- Simon, C.; Blume, L. (1994). Matemáticas para economistas . Norton. ISBN 978-0-393-95733-4.
- Stewart, GW (2011), Fredholm, Hilbert, Schmidt: tres artículos fundamentales sobre ecuaciones integrales (PDF) , consultado el 6 de enero de 2015
- Townsend, A.; Trefethen, LN (2015), "Análogos continuos de factorizaciones matriciales", Proc. R. Soc. A , 471 (2173): 20140585, Bibcode :2014RSPSA.47140585T, doi :10.1098/rspa.2014.0585, PMC 4277194 , PMID 25568618
- Jun, Lu (2021), Descomposición de matrices numéricas y sus aplicaciones modernas: un primer curso riguroso , arXiv : 2107.02579
Enlaces externos
- Calculadora de matrices en línea
- Cálculo de descomposición matricial de Wolfram Alpha » Descomposición LU y QR
- Enciclopedia Springer de Matemáticas » Factorización de matrices
- Biblioteca de filtrado colaborativo GraphLab , implementación paralela a gran escala de métodos de descomposición matricial (en C++) para múltiples núcleos.