stringtranslate.com

Descomposición de Schur

En la disciplina matemática del álgebra lineal , la descomposición de Schur o triangulación de Schur , llamada así por Issai Schur , es una descomposición matricial que permite escribir una matriz cuadrada compleja arbitraria como unitariamente similar a una matriz triangular superior cuyos elementos diagonales son los valores propios de la matriz original.

Declaración

La descomposición compleja de Schur se lee de la siguiente manera: si A es una matriz cuadrada n × n con entradas complejas , entonces A puede expresarse como [1] [2] [3] para alguna matriz unitaria Q (de modo que la inversa Q −1 es también la transpuesta conjugada Q * de Q ), y alguna matriz triangular superior U . Esto se llama una forma de Schur de A . Dado que U es similar a A , tiene el mismo espectro , y dado que es triangular, sus valores propios son las entradas diagonales de U .

La descomposición de Schur implica que existe una secuencia anidada de subespacios A -invariantes {0} = V 0V 1 ⊂ ⋯ ⊂ V n = C n , y que existe una base ortonormal ordenada (para la forma hermítica estándar de C n ) tal que los primeros i vectores de base abarcan V i para cada i que ocurre en la secuencia anidada. Expresado de manera algo diferente, la primera parte dice que un operador lineal J en un espacio vectorial complejo de dimensión finita estabiliza una bandera completa ( V 1 , ..., V n ) .

También existe una descomposición de Schur real. Si A es una matriz cuadrada n × n con elementos reales , entonces A puede expresarse como [4] donde Q es una matriz ortogonal y H es Hessenberg superior o inferior . Al igual que en el caso complejo, una familia de matrices reales conmutativas { A i } puede llevarse simultáneamente a la forma de Hessenberg mediante una matriz ortogonal. Existe una matriz ortogonal Q tal que, para cada A i en la familia dada, es Hessenberg superior.

Prueba

Una prueba constructiva para la descomposición de Schur es la siguiente: cada operador A en un espacio vectorial complejo de dimensión finita tiene un valor propio λ , correspondiente a algún espacio propio V λ . Sea V λ su complemento ortogonal. Está claro que, con respecto a esta descomposición ortogonal, A tiene representación matricial (aquí se puede elegir cualquier base ortonormal Z 1 y Z 2 que abarque V λ y V λ respectivamente) donde I λ es el operador identidad en V λ . La matriz anterior sería triangular superior excepto por el bloque A 22 . Pero exactamente el mismo procedimiento se puede aplicar a la submatriz A 22 , vista como un operador en V λ , y sus submatrices. Continúe de esta manera hasta que la matriz resultante sea triangular superior. Dado que cada conjugación aumenta la dimensión del bloque triangular superior en al menos uno, este proceso toma como máximo n pasos. De esta forma, el espacio C n se agotará y el procedimiento habrá producido el resultado deseado. [5]

El argumento anterior puede reformularse ligeramente de la siguiente manera: sea λ un valor propio de A , correspondiente a algún espacio propio V λ . A induce un operador T en el espacio cociente C n / V λ . Este operador es precisamente la submatriz A 22 de arriba. Como antes, T tendría un espacio propio, digamos W μC n módulo V λ . Observe que la preimagen de W μ bajo el mapa cociente es un subespacio invariante de A que contiene a V λ . Continúe de esta manera hasta que el espacio cociente resultante tenga dimensión 0. Luego, las preimágenes sucesivas de los espacios propios encontrados en cada paso forman una bandera que A estabiliza.

Notas

Aunque cada matriz cuadrada tiene una descomposición de Schur, en general esta descomposición no es única. Por ejemplo, el espacio propio V λ puede tener dimensión > 1, en cuyo caso cualquier base ortonormal para V λ conduciría al resultado deseado.

Escriba la matriz triangular U como U = D + N , donde D es diagonal y N es estrictamente triangular superior (y por lo tanto una matriz nilpotente ). La matriz diagonal D contiene los valores propios de A en orden arbitrario (por lo tanto, su norma de Frobenius, al cuadrado, es la suma de los módulos al cuadrado de los valores propios de A , mientras que la norma de Frobenius de A , al cuadrado, es la suma de los valores singulares al cuadrado de A ). La parte nilpotente N generalmente tampoco es única, pero su norma de Frobenius está determinada de manera única por A (simplemente porque la norma de Frobenius de A es igual a la norma de Frobenius de U = D + N ). [6]

Está claro que si A es una matriz normal , entonces U a partir de su descomposición de Schur debe ser una matriz diagonal y los vectores columna de Q son los vectores propios de A. Por lo tanto, la descomposición de Schur extiende la descomposición espectral . En particular, si A es definida positiva , la descomposición de Schur de A , su descomposición espectral y su descomposición en valores singulares coinciden.

Una familia conmutativa { A i } de matrices puede triangularizarse simultáneamente, es decir, existe una matriz unitaria Q tal que, para cada A i en la familia dada, QA i Q* es triangular superior. Esto se puede deducir fácilmente de la prueba anterior. Tome el elemento A de { A i } y considere nuevamente un espacio propio V A . Entonces V A es invariante bajo todas las matrices en { A i }. Por lo tanto, todas las matrices en { A i } deben compartir un vector propio común en V A . La inducción entonces prueba la afirmación. Como corolario, tenemos que cada familia conmutativa de matrices normales puede diagonalizarse simultáneamente .

En el entorno de dimensión infinita, no todos los operadores acotados en un espacio de Banach tienen un subespacio invariante. Sin embargo, la triangularización superior de una matriz cuadrada arbitraria sí se generaliza a operadores compactos . Cada operador compacto en un espacio de Banach complejo tiene un nido de subespacios invariantes cerrados.

Cálculo

La descomposición de Schur de una matriz dada se calcula numéricamente mediante el algoritmo QR o sus variantes. En otras palabras, las raíces del polinomio característico correspondiente a la matriz no se calculan necesariamente de antemano para obtener su descomposición de Schur. Por el contrario, el algoritmo QR se puede utilizar para calcular las raíces de cualquier polinomio característico dado al encontrar la descomposición de Schur de su matriz compañera . De manera similar, el algoritmo QR se utiliza para calcular los valores propios de cualquier matriz dada, que son las entradas diagonales de la matriz triangular superior de la descomposición de Schur. Aunque el algoritmo QR es formalmente una secuencia infinita de operaciones, la convergencia a la precisión de la máquina se logra prácticamente en las operaciones. [7] Consulte la sección Problemas propios no simétricos en la Guía del usuario de LAPACK . [8]

Aplicaciones

Las aplicaciones de la teoría de la mentira incluyen:

Descomposición generalizada de Schur

Dadas las matrices cuadradas A y B , la descomposición de Schur generalizada factoriza ambas matrices como y , donde Q y Z son unitarias , y S y T son triangulares superiores . La descomposición de Schur generalizada también se denomina a veces descomposición QZ . [2] : 375  [9]

Los valores propios generalizados que resuelven el problema de valores propios generalizados (donde x es un vector desconocido distinto de cero) se pueden calcular como la relación entre los elementos diagonales de S y los de T. Es decir, utilizando subíndices para denotar elementos de la matriz, el i -ésimo valor propio generalizado satisface .

Referencias

  1. ^ Horn, RA y Johnson, CR (1985). Análisis de matrices . Cambridge University Press. ISBN 0-521-38632-2.(Sección 2.3 y más adelante en la pág. 79)
  2. ^ ab Golub, GH y Van Loan, CF (1996). Cálculos matriciales (3.ª ed.). Johns Hopkins University Press. ISBN 0-8018-5414-8.(Sección 7.7, pág. 313)
  3. ^ Schott, James R. (2016). Análisis de matrices para estadística (3.ª ed.). Nueva York: John Wiley & Sons. pp. 175–178. ISBN 978-1-119-09247-6.
  4. ^ Horn, RA y Johnson, CR (1985). Análisis de matrices . Cambridge University Press. ISBN 0-521-38632-2.(Sección 2.3 y más adelante en la pág. 82)
  5. ^ Wagner, David. "Demostración del teorema de Schur" (PDF) . Notas sobre álgebra lineal .
  6. ^ Higham, Nick. "¿Qué es una descomposición de Schur?".
  7. ^ Trefethen, Lloyd N.; Bau, David (1997). Álgebra lineal numérica. Filadelfia: Sociedad de Matemáticas Industriales y Aplicadas. pp. 193–194. ISBN 0-89871-361-7.OCLC 36084666  .{{cite book}}: Mantenimiento CS1: fecha y año ( enlace )
  8. ^ Anderson, E; Bai, Z; Bischof, C; Blackford, S; Demmel, J; Dongarra, J; Du Croz, J; Greenbaum, A; Hammarling, S; McKenny, A; Sorensen, D (1995). Guía del usuario de LAPACK. Filadelfia, PA: Sociedad de Matemáticas Industriales y Aplicadas. ISBN 0-89871-447-8.
  9. ^ Daniel Kressner: "Métodos numéricos para problemas de valores propios generales y estructurados", Cap-2, Springer, LNCSE-46 (2005).