stringtranslate.com

Descomposición QR

En álgebra lineal , una descomposición QR , también conocida como factorización QR o factorización QU , es una descomposición de una matriz A en un producto A  =  QR de una matriz ortonormal Q y una matriz triangular superior R. La descomposición QR se utiliza a menudo para resolver el problema de mínimos cuadrados lineales (LLS) y es la base de un algoritmo de valor propio particular , el algoritmo QR .

Casos y definiciones

Matriz cuadrada

Cualquier matriz cuadrada real A puede descomponerse como

donde Q es una matriz ortogonal (sus columnas son vectores unitarios ortogonales , es decir , ) y R es una matriz triangular superior (también llamada matriz triangular recta). Si A es invertible , entonces la factorización es única si requerimos que los elementos diagonales de R sean positivos.

Si en cambio A es una matriz cuadrada compleja, entonces existe una descomposición A = QR donde Q es una matriz unitaria (por lo que la transpuesta conjugada es ).

Si A tiene n columnas linealmente independientes , entonces las primeras n columnas de Q forman una base ortonormal para el espacio de columnas de A . De manera más general, las primeras k columnas de Q forman una base ortonormal para el espacio de las primeras k columnas de A para cualquier 1 ≤ kn . [1] El hecho de que cualquier columna k de A solo dependa de las primeras k columnas de Q corresponde a la forma triangular de  R . [1]

Matriz rectangular

De manera más general, podemos factorizar una matriz compleja m × n A , con mn , como el producto de una matriz unitaria m × m Q y una matriz triangular superior m × n R . Como las filas inferiores ( mn ) de una matriz triangular superior m × n consisten completamente en ceros, a menudo es útil particionar R , o tanto R como Q :

donde R 1 es una matriz triangular superior n × n , 0 es una matriz cero ( mnn , Q 1 es m × n , Q 2 es m ×( mn ) , y Q 1 y Q 2 tienen columnas ortogonales.

Golub y Van Loan (1996, §5.2) llaman a Q 1 R 1 la factorización QR delgada de A ; Trefethen y Bau la llaman la factorización QR reducida . [1] Si A es de rango completo n y requerimos que los elementos diagonales de R 1 sean positivos, entonces R 1 y Q 1 son únicos, pero en general Q 2 no lo es. R 1 es entonces igual al factor triangular superior de la descomposición de Cholesky de A * A (=  A T A si A es real).

Descomposiciones QL, RQ y LQ

De manera análoga, podemos definir descomposiciones QL, RQ y LQ, siendo L una matriz triangular inferior .

Cálculo de la descomposición QR

Existen varios métodos para calcular la descomposición QR, como el proceso de Gram-Schmidt , las transformaciones de Householder o las rotaciones de Givens . Cada uno de ellos tiene una serie de ventajas y desventajas.

Utilizando el proceso de Gram-Schmidt

Consideremos el proceso de Gram-Schmidt aplicado a las columnas de la matriz de rango de columna completa , con producto interno (o para el caso complejo).

Definir la proyección :

entonces:

Ahora podemos expresar s sobre nuestra base ortonormal recién calculada:

donde . Esto se puede escribir en forma matricial:

dónde:

y

Ejemplo

Considere la descomposición de

Recordemos que una matriz ortonormal tiene la propiedad .

Luego podemos calcular mediante Gram–Schmidt lo siguiente:

Así pues, tenemos

Relación con la descomposición RQ

La descomposición RQ transforma una matriz A en el producto de una matriz triangular superior R (también conocida como triangular derecha) y una matriz ortogonal Q. La única diferencia con la descomposición QR es el orden de estas matrices.

La descomposición QR es la ortogonalización de Gram-Schmidt de las columnas de A , iniciada desde la primera columna.

La descomposición RQ es la ortogonalización de Gram-Schmidt de las filas de A , comenzando desde la última fila.

Ventajas y desventajas

El proceso de Gram-Schmidt es inherentemente inestable numéricamente. Si bien la aplicación de las proyecciones tiene una analogía geométrica atractiva con la ortogonalización, la ortogonalización en sí misma es propensa a errores numéricos. Una ventaja significativa es la facilidad de implementación.

Utilizando las reflexiones de los jefes de hogar

Reflexión de Householder para descomposición QR: el objetivo es encontrar una transformación lineal que cambie el vector en un vector de la misma longitud que sea colineal a . Podríamos usar una proyección ortogonal (Gram-Schmidt), pero esto será numéricamente inestable si los vectores y son casi ortogonales. En cambio, la reflexión de Householder se refleja a través de la línea de puntos (elegida para bisecar el ángulo entre y ). El ángulo máximo con esta transformación es de 45 grados.

Una reflexión de Householder (o transformación de Householder ) es una transformación que toma un vector y lo refleja sobre algún plano o hiperplano . Podemos utilizar esta operación para calcular la factorización QR de una matriz m por n con mn .

Q se puede utilizar para reflejar un vector de tal manera que todas las coordenadas excepto una desaparezcan.

Sea un vector columna real arbitrario de dimensión m de tal que para un escalar α . Si el algoritmo se implementa utilizando aritmética de punto flotante , entonces α debe tener el signo opuesto como la coordenada k -ésima de , donde debe ser la coordenada pivote después de la cual todas las entradas son 0 en la forma triangular superior final de la matriz A , para evitar la pérdida de significancia . En el caso complejo, establezca [2]

y sustituir la transposición por la transposición conjugada en la construcción de Q a continuación.

Entonces, donde es el vector [1 0 ⋯ 0] T , || · || es la norma euclidiana y es una matriz identidad m × m , establecida

O si es complejo

es una matriz Householder de m por m , que es a la vez simétrica y ortogonal (hermítica y unitaria en el caso complejo), y

Esto se puede utilizar para transformar gradualmente una matriz A de m por n a la forma triangular superior . Primero, multiplicamos A por la matriz de jefes de hogar Q 1 que obtenemos cuando elegimos la primera columna de la matriz para x . Esto da como resultado una matriz Q 1 A con ceros en la columna izquierda (excepto en la primera fila).

Esto se puede repetir para A ′ (obtenido de Q 1 A eliminando la primera fila y la primera columna), lo que da como resultado una matriz de jefes de hogar Q2 . Nótese que Q2 es menor que Q 1 . Como queremos que realmente opere en Q 1 A en lugar de A ′ , necesitamos expandirlo hacia la parte superior izquierda, completando con un 1, o en general:

Después de iteraciones de este proceso, ,

es una matriz triangular superior. Por lo tanto, con

es una descomposición QR de .

Este método tiene mayor estabilidad numérica que el método de Gram-Schmidt mencionado anteriormente.

La siguiente tabla muestra el número de operaciones en el k -ésimo paso de la descomposición QR por la transformación de Householder, asumiendo una matriz cuadrada con tamaño n .

Sumando estos números en los pasos n − 1 (para una matriz cuadrada de tamaño n ), la complejidad del algoritmo (en términos de multiplicaciones de punto flotante) viene dada por

Ejemplo

Calculemos la descomposición de

Primero, necesitamos encontrar una reflexión que transforme la primera columna de la matriz A , el vector , en .

Ahora,

y

Aquí,

y

Por lo tanto

y , y luego

Ahora observe:

Así que ya tenemos una matriz casi triangular. Solo nos falta poner a cero la entrada (3, 2).

Tome el menor (1, 1) y luego aplique el proceso nuevamente a

Por el mismo método que el anterior, obtenemos la matriz de transformación Householder

después de realizar una suma directa con 1 para asegurarse de que el siguiente paso del proceso funciona correctamente.

Ahora, encontramos

O, hasta cuatro dígitos decimales,

La matriz Q es ortogonal y R es triangular superior, por lo que A = QR es la descomposición QR requerida.

Ventajas y desventajas

El uso de transformaciones de Householder es inherentemente el más simple de los algoritmos de descomposición QR numéricamente estables debido al uso de reflexiones como mecanismo para producir ceros en la matriz R. Sin embargo, el algoritmo de reflexión de Householder requiere mucho ancho de banda y no es paralelizable, ya que cada reflexión que produce un nuevo elemento cero cambia la totalidad de las matrices Q y R.

Uso de rotaciones Givens

Las descomposiciones QR también se pueden calcular con una serie de rotaciones Givens . Cada rotación pone a cero un elemento en la subdiagonal de la matriz, formando la matriz R. La concatenación de todas las rotaciones Givens forma la matriz ortogonal Q.

En la práctica, las rotaciones Givens no se realizan construyendo una matriz completa y haciendo una multiplicación de matrices. En su lugar, se utiliza un procedimiento de rotación Givens que hace el equivalente de la multiplicación de matrices Givens dispersas, sin el trabajo adicional de manejar los elementos dispersos. El procedimiento de rotación Givens es útil en situaciones en las que solo es necesario poner a cero relativamente pocos elementos fuera de la diagonal y es más fácil de paralelizar que las transformaciones Householder .

Ejemplo

Calculemos la descomposición de

Primero, necesitamos formar una matriz de rotación que ponga a cero el elemento más inferior izquierdo, . Formamos esta matriz usando el método de rotación de Givens y llamamos a la matriz . Primero rotaremos el vector , para que apunte a lo largo del eje X. Este vector tiene un ángulo . Creamos la matriz de rotación ortogonal de Givens, :

Y el resultado de ahora tiene un cero en el elemento.

De manera similar, podemos formar matrices Givens y , que pondrán a cero los elementos subdiagonales y , formando una matriz triangular . La matriz ortogonal se forma a partir del producto de todas las matrices Givens . Por lo tanto, tenemos , y la descomposición QR es .

Ventajas y desventajas

La descomposición QR mediante rotaciones de Givens es la más complicada de implementar, ya que el ordenamiento de las filas necesarias para explotar completamente el algoritmo no es fácil de determinar. Sin embargo, tiene una ventaja significativa en el sentido de que cada nuevo elemento cero afecta solo a la fila con el elemento que se va a poner a cero ( i ) y a una fila superior ( j ). Esto hace que el algoritmo de rotación de Givens sea más eficiente en cuanto al ancho de banda y paralelizable que la técnica de reflexión de Householder.

Conexión con un determinante o un producto de valores propios

Podemos utilizar la descomposición QR para hallar el determinante de una matriz cuadrada. Supongamos que una matriz se descompone como . Entonces tenemos

se puede elegir de tal manera que . Por lo tanto,

donde son las entradas en la diagonal de . Además, como el determinante es igual al producto de los valores propios, tenemos

donde son valores propios de .

Podemos extender las propiedades anteriores a una matriz compleja no cuadrada introduciendo la definición de descomposición QR para matrices complejas no cuadradas y reemplazando los valores propios con valores singulares.

Comencemos con una descomposición QR para una matriz no cuadrada A :

donde denota la matriz cero y es una matriz unitaria.

A partir de las propiedades de la descomposición en valores singulares (SVD) y del determinante de una matriz, tenemos

donde son los valores singulares de .

Nótese que los valores singulares de y son idénticos, aunque sus valores propios complejos pueden ser diferentes. Sin embargo, si A es cuadrado, entonces

De ello se deduce que la descomposición QR se puede utilizar para calcular eficientemente el producto de los valores propios o valores singulares de una matriz.

Columna pivotante

El QR pivotado se diferencia del Gram-Schmidt ordinario en que toma la columna restante más grande al comienzo de cada nuevo paso (pivotamiento de columnas) [3] y, por lo tanto, introduce una matriz de permutación P :

El pivoteo de columnas es útil cuando A es (casi) deficiente en rango , o se sospecha que lo es. También puede mejorar la precisión numérica. P se elige generalmente de modo que los elementos diagonales de R no sean crecientes: . Esto se puede utilizar para encontrar el rango (numérico) de A con un menor costo computacional que una descomposición en valores singulares , formando la base de los llamados algoritmos QR de revelación de rango .

Uso para la solución de problemas inversos lineales

En comparación con la matriz inversa directa, las soluciones inversas que utilizan la descomposición QR son numéricamente más estables, como lo evidencian sus números de condición reducidos . [4]

Para resolver el problema lineal subdeterminado ( ) donde la matriz tiene dimensiones y rango , primero encuentre la factorización QR de la transpuesta de : , donde Q es una matriz ortogonal (es decir ), y R tiene una forma especial: . Aquí hay una matriz triangular recta cuadrada, y la matriz cero tiene dimensión . Después de algo de álgebra, se puede demostrar que una solución al problema inverso se puede expresar como: donde uno puede encontrar por eliminación gaussiana o calcular directamente por sustitución hacia adelante . La última técnica disfruta de una mayor precisión numérica y cálculos más bajos.

Para encontrar una solución al problema sobredeterminado ( ) que minimice la norma , primero encuentre la factorización QR de : . La solución puede entonces expresarse como , donde es una matriz que contiene las primeras columnas de la base ortonormal completa y donde es como antes. Equivalente al caso subdeterminado, se puede utilizar la sustitución hacia atrás para encontrar esto de forma rápida y precisa sin invertir explícitamente . ( y a menudo las bibliotecas numéricas las proporcionan como una descomposición QR "económica").

Generalizaciones

La descomposición de Iwasawa generaliza la descomposición QR a grupos de Lie semisimples.

Véase también

Referencias

  1. ^ abc Trefethen, Lloyd N. ; Bau, David III (1997). Álgebra lineal numérica . Filadelfia, PA: Sociedad de Matemáticas Industriales y Aplicadas . ISBN 978-0-898713-61-9.
  2. ^ Stoer, Josef; Bulirsch, Roland (2002), Introducción al análisis numérico (3.ª ed.), Springer, pág. 225, ISBN 0-387-95452-X
  3. ^ Strang, Gilbert (2019). Álgebra lineal y aprendizaje a partir de datos (1.ª ed.). Wellesley: Wellesley Cambridge Press. pág. 143. ISBN 978-0-692-19638-0.
  4. ^ Parker, Robert L. (1994). Teoría inversa geofísica. Princeton, NJ: Princeton University Press. Sección 1.13. ISBN 978-0-691-20683-7.OCLC 1134769155  .

Lectura adicional

Enlaces externos