stringtranslate.com

descomposición de Schur

En la disciplina matemática del álgebra lineal , la descomposición de Schur o triangulación de Schur , llamada así en honor a Issai Schur , es una descomposición matricial . Permite escribir una matriz cuadrada compleja arbitraria como unitariamente equivalente a una matriz triangular superior cuyos elementos diagonales son los valores propios de la matriz original.

Declaración

La descomposición de Schur dice lo siguiente: si A es una matriz cuadrada de n × n con entradas complejas , entonces A se puede expresar como [1] [2] [3]

Qmatriz unitariaQ −1transpuesta conjugada QQUmatriz triangular superiorSchurA. UsimilarAespectrovalores propiosU.

La descomposición de Schur implica que existe una secuencia anidada de A -subespacios invariantes {0} = V 0V 1 ⊂ ⋯ ⊂ V n = C n , y que existe una base ortonormal ordenada (para la forma hermitiana estándar de C n ) de modo que los primeros vectores de base i abarcan Vi para cada i que ocurre en la secuencia anidada. Expresada de manera algo diferente, la primera parte dice que un operador lineal J en un espacio vectorial complejo de dimensión finita estabiliza una bandera completa ( V 1 , ..., V n ) .

Prueba

Una prueba constructiva de la descomposición de Schur es la siguiente: cada operador A en un espacio vectorial complejo de dimensión finita tiene un valor propio λ , correspondiente a algún espacio propio V λ . Sea V λ su complemento ortogonal. Está claro que, con respecto a esta descomposición ortogonal, A tiene representación matricial (se puede elegir aquí cualquier base ortonormal Z 1 y Z 2 que abarque V λ y V λ respectivamente)

I λV λA 22A 22V λnC n y el procedimiento habrá dado el resultado deseado. [4]

El argumento anterior se puede reformular ligeramente de la siguiente manera: sea λ un valor propio de A , correspondiente a algún espacio propio V λ . A induce un operador T en el espacio cociente C n / V λ . Este operador es precisamente la submatriz A 22 vista desde arriba. Como antes, T tendría un espacio propio, digamos W μC n módulo V λ . Observe que la preimagen de W μ bajo el mapa de cociente es un subespacio invariante de A que contiene V λ . Continúe de esta manera hasta que el espacio cociente resultante tenga dimensión 0. Luego, las preimágenes sucesivas de los espacios propios encontradas en cada paso forman una bandera que A estabiliza.

Notas

Aunque toda matriz cuadrada tiene una descomposición de Schur, en general esta descomposición no es única. Por ejemplo, el espacio propio V λ puede tener dimensión > 1, en cuyo caso cualquier base ortonormal para V λ conduciría al resultado deseado.

Escriba la matriz triangular U como U = D + N , donde D es diagonal y N es estrictamente triangular superior (y por lo tanto una matriz nilpotente ). La matriz diagonal D contiene los valores propios de A en orden arbitrario (de ahí que su norma de Frobenius, al cuadrado, es la suma de los módulos al cuadrado de los valores propios de A , mientras que la norma de Frobenius de A , al cuadrado, es la suma de los valores singulares al cuadrado de A ). La parte nilpotente N generalmente tampoco es única, pero su norma de Frobenius está determinada únicamente por A (solo porque la norma de Frobenius de A es igual a la norma de Frobenius de U = D + N ). [5]

Está claro que si A es una matriz normal , entonces U a partir de su descomposición de Schur debe ser una matriz diagonal y los vectores columna de Q son los vectores propios de A. Por tanto, la descomposición de Schur amplía la descomposición espectral . En particular, si A es definida positiva , la descomposición de Schur de A , su descomposición espectral y su descomposición en valor singular coinciden.

Una familia conmutante { A i } de matrices puede triangularizarse simultáneamente, es decir, existe una matriz unitaria Q tal que, para cada Ai en la familia dada, QA i Q* es triangular superior. Esto se puede deducir fácilmente de la prueba anterior. Tome el elemento A de { A i } y considere nuevamente un espacio propio V A. Entonces V A es invariante bajo todas las matrices en { A i }. Por lo tanto, todas las matrices en { A i } deben compartir un vector propio común en V A . La inducción entonces prueba la afirmación. Como corolario, tenemos que toda familia conmutadora de matrices normales puede diagonalizarse simultáneamente .

En el entorno de dimensión infinita, no todos los operadores acotados en un espacio de Banach tienen un subespacio invariante. Sin embargo, la triangularización superior de una matriz cuadrada arbitraria se generaliza a operadores compactos . Todo operador compacto en un espacio de Banach complejo tiene un nido de subespacios invariantes cerrados.

Cálculo

La descomposición de Schur de una matriz determinada se calcula numéricamente mediante el algoritmo QR o sus variantes. En otras palabras, las raíces del polinomio característico correspondiente a la matriz no necesariamente se calculan con antelación para obtener su descomposición de Schur. Por el contrario, el algoritmo QR se puede utilizar para calcular las raíces de cualquier polinomio característico determinado encontrando la descomposición de Schur de su matriz compañera . De manera similar, el algoritmo QR se utiliza para calcular los valores propios de cualquier matriz dada, que son las entradas diagonales de la matriz triangular superior de la descomposición de Schur. Aunque el algoritmo QR es formalmente una secuencia infinita de operaciones, la convergencia a la precisión de la máquina prácticamente se logra en las operaciones. [6] Consulte la sección Problemas propios no simétricos en la Guía del usuario de LAPACK . [7]

Aplicaciones

Las aplicaciones de la teoría de la mentira incluyen:

Descomposición de Schur generalizada

Dadas las matrices cuadradas A y B , la descomposición generalizada de Schur factoriza ambas matrices como y , donde Q y Z son unitarios , y S y T son triangulares superiores . La descomposición generalizada de Schur también se denomina a veces descomposición QZ . [2] : 375  [8]

Los valores propios generalizados que resuelven el problema de valores propios generalizados ( donde x es un vector desconocido distinto de cero) se pueden calcular como la relación entre los elementos diagonales de S y los de T. Es decir, al utilizar subíndices para denotar elementos de la matriz, el i -ésimo valor propio generalizado satisface .

Referencias

  1. ^ Cuerno, RA y Johnson, CR (1985). Análisis matricial . Prensa de la Universidad de Cambridge. ISBN 0-521-38632-2.(Sección 2.3 y siguientes en la pág. 79)
  2. ^ ab Golub, GH y Van Loan, CF (1996). Cálculos matriciales (3ª ed.). Prensa de la Universidad Johns Hopkins. ISBN 0-8018-5414-8.(Sección 7.7 en la pág. 313)
  3. ^ Schott, James R. (2016). Análisis matricial para estadística (3ª ed.). Nueva York: John Wiley & Sons. págs. 175-178. ISBN 978-1-119-09247-6.
  4. ^ Wagner, David. "Demostración del teorema de Schur" (PDF) . Apuntes sobre álgebra lineal .
  5. ^ Higham, Nick. "¿Qué es una descomposición de Schur?".
  6. ^ Trefethen, Lloyd N.; Bau, David (1997). Álgebra lineal numérica. Filadelfia: Sociedad de Matemáticas Industriales y Aplicadas. págs. 193-194. ISBN 0-89871-361-7. OCLC  36084666.{{cite book}}: Mantenimiento CS1: fecha y año ( enlace )
  7. ^ Anderson, E; Bai, Z; Bischof, C; Blackford, S; Demmel, J; Dongarra, J; Du Croz, J; Greenbaum, A; Hammarling, S; McKenny, A; Sorensen, D (1995). Guía de uso de LAPACK. Filadelfia, PA: Sociedad de Matemáticas Industriales y Aplicadas. ISBN 0-89871-447-8.
  8. ^ Daniel Kressner: "Métodos numéricos para problemas de valores propios generales y estructurados", Capítulo 2, Springer, LNCSE-46 (2005).