En álgebra lineal , una matriz ortogonal , o matriz ortonormal , es una matriz cuadrada real cuyas columnas y filas son vectores ortonormales .
Una forma de expresar esto es donde Q T es la transpuesta de Q e I es la matriz identidad .
Esto conduce a la caracterización equivalente: una matriz Q es ortogonal si su transpuesta es igual a su inversa : donde Q −1 es la inversa de Q .
Una matriz ortogonal Q es necesariamente invertible (con inversa Q −1 = Q T ), unitaria ( Q −1 = Q ∗ ), donde Q ∗ es la adjunta hermítica ( transpuesta conjugada ) de Q , y por lo tanto normal ( Q ∗ Q = QQ ∗ ) sobre los números reales . El determinante de cualquier matriz ortogonal es +1 o −1. Como transformación lineal , una matriz ortogonal conserva el producto interno de los vectores y, por lo tanto, actúa como una isometría del espacio euclidiano , como una rotación , reflexión o rotorreflexión . En otras palabras, es una transformación unitaria .
El conjunto de matrices ortogonales n × n , al ser multiplicadas, forma el grupo O( n ) , conocido como grupo ortogonal . El subgrupo SO( n ) constituido por matrices ortogonales con determinante +1 se denomina grupo ortogonal especial , y cada uno de sus elementos es una matriz ortogonal especial. Como transformación lineal, toda matriz ortogonal especial actúa como una rotación.
Una matriz ortogonal es la especialización real de una matriz unitaria y, por lo tanto, siempre es una matriz normal . Aunque aquí sólo consideramos matrices reales, la definición se puede utilizar para matrices con entradas de cualquier cuerpo . Sin embargo, las matrices ortogonales surgen naturalmente de los productos escalares y, para matrices de números complejos, eso conduce en cambio al requisito unitario. Las matrices ortogonales conservan el producto escalar, [1] por lo que, para los vectores u y v en un espacio euclidiano real n -dimensional donde Q es una matriz ortogonal. Para ver la conexión del producto interno, considere un vector v en un espacio euclidiano real n -dimensional . Escrito con respecto a una base ortonormal, la longitud al cuadrado de v es v T v . Si una transformación lineal, en forma matricial Q v , conserva las longitudes de los vectores, entonces
De este modo, las isometrías lineales de dimensión finita (rotaciones, reflexiones y sus combinaciones) producen matrices ortogonales. Lo inverso también es cierto: las matrices ortogonales implican transformaciones ortogonales. Sin embargo, el álgebra lineal incluye transformaciones ortogonales entre espacios que pueden no ser ni de dimensión finita ni de la misma dimensión, y estos no tienen una matriz ortogonal equivalente.
Las matrices ortogonales son importantes por varias razones, tanto teóricas como prácticas. Las matrices ortogonales n × n forman un grupo en la multiplicación de matrices, el grupo ortogonal denotado por O( n ) , que, con sus subgrupos, se utiliza ampliamente en matemáticas y ciencias físicas. Por ejemplo, el grupo puntual de una molécula es un subgrupo de O(3). Debido a que las versiones de punto flotante de las matrices ortogonales tienen propiedades ventajosas, son clave para muchos algoritmos en álgebra lineal numérica, como la descomposición QR . Como otro ejemplo, con la normalización apropiada, la transformada de coseno discreta (utilizada en la compresión MP3 ) se representa mediante una matriz ortogonal.
A continuación se muestran algunos ejemplos de pequeñas matrices ortogonales y posibles interpretaciones.
Las matrices ortogonales más simples son las matrices 1 × 1 [1] y [−1], que podemos interpretar como la identidad y un reflejo de la línea real que pasa por el origen.
Las matrices 2 × 2 tienen la forma que la ortogonalidad exige que satisfaga las tres ecuaciones
Teniendo en cuenta la primera ecuación, sin pérdida de generalidad, sea p = cos θ , q = sen θ ; entonces t = − q , u = p o t = q , u = − p . Podemos interpretar el primer caso como una rotación por θ (donde θ = 0 es la identidad), y el segundo como una reflexión a través de una línea en un ángulo de θ/2 .
El caso especial de la matriz de reflexión con θ = 90° genera una reflexión sobre la línea a 45° dada por y = x y por lo tanto intercambia x e y ; es una matriz de permutación , con un solo 1 en cada columna y fila (y en caso contrario 0):
La identidad también es una matriz de permutación.
Una reflexión es su propia inversa , lo que implica que una matriz de reflexión es simétrica (igual a su transpuesta) y ortogonal. El producto de dos matrices de rotación es una matriz de rotación , y el producto de dos matrices de reflexión también es una matriz de rotación.
Independientemente de la dimensión, siempre es posible clasificar las matrices ortogonales como puramente rotacionales o no, pero para matrices de 3 × 3 y mayores, las matrices no rotacionales pueden ser más complicadas que las reflexiones. Por ejemplo,
representan una inversión a través del origen y una rotoinversión , respectivamente, alrededor del eje z .
Las rotaciones se vuelven más complicadas en dimensiones superiores; ya no se pueden caracterizar completamente por un ángulo y pueden afectar a más de un subespacio plano. Es común describir una matriz de rotación 3 × 3 en términos de un eje y un ángulo , pero esto solo funciona en tres dimensiones. Por encima de tres dimensiones se necesitan dos o más ángulos, cada uno asociado con un plano de rotación .
Sin embargo, tenemos bloques de construcción elementales para permutaciones, reflexiones y rotaciones que se aplican en general.
La permutación más elemental es una transposición, que se obtiene a partir de la matriz identidad intercambiando dos filas. Cualquier matriz de permutación n × n se puede construir como un producto de no más de n − 1 transposiciones.
Una reflexión de Householder se construye a partir de un vector no nulo v como
Aquí el numerador es una matriz simétrica mientras que el denominador es un número, el cuadrado de la magnitud de v . Esta es una reflexión en el hiperplano perpendicular a v (negando cualquier componente vectorial paralela a v ). Si v es un vector unitario, entonces Q = I − 2 vv T es suficiente. Una reflexión Householder se utiliza típicamente para poner a cero simultáneamente la parte inferior de una columna. Cualquier matriz ortogonal de tamaño n × n se puede construir como un producto de como máximo n de tales reflexiones.
Una rotación de Givens actúa sobre un subespacio bidimensional (planar) abarcado por dos ejes de coordenadas, que gira en un ángulo elegido. Normalmente se utiliza para poner a cero una única entrada subdiagonal. Cualquier matriz de rotación de tamaño n × n se puede construir como un producto de como máximo n ( n - 1)/2 tales rotaciones. En el caso de matrices 3 × 3 , tres de esas rotaciones son suficientes; y al fijar la secuencia podemos describir todas las matrices de rotación 3 × 3 (aunque no de manera única) en términos de los tres ángulos utilizados, a menudo llamados ángulos de Euler .
Una rotación de Jacobi tiene la misma forma que una rotación de Givens, pero se utiliza para poner a cero ambas entradas fuera de la diagonal de una submatriz simétrica de 2 × 2 .
Una matriz cuadrada real es ortogonal si y solo si sus columnas forman una base ortonormal del espacio euclidiano R n con el producto escalar euclidiano ordinario , lo que es el caso si y solo si sus filas forman una base ortonormal de R n . Puede ser tentador suponer que una matriz con columnas ortogonales (no ortonormales) se llamaría matriz ortogonal, pero tales matrices no tienen ningún interés especial ni ningún nombre especial; solo satisfacen M T M = D , con D una matriz diagonal .
El determinante de cualquier matriz ortogonal es +1 o -1. Esto se desprende de los hechos básicos sobre determinantes, como sigue:
Lo contrario no es cierto; tener un determinante de ±1 no es garantía de ortogonalidad, incluso con columnas ortogonales, como lo muestra el siguiente contraejemplo.
En las matrices de permutación, el determinante coincide con la signatura , siendo +1 o −1 según la paridad de la permutación sea par o impar, ya que el determinante es una función alternada de las filas.
Más fuerte que la restricción del determinante es el hecho de que una matriz ortogonal siempre se puede diagonalizar sobre los números complejos para exhibir un conjunto completo de valores propios , todos los cuales deben tener módulo (complejo) 1.
La inversa de cada matriz ortogonal es a su vez ortogonal, como lo es el producto matricial de dos matrices ortogonales. De hecho, el conjunto de todas las matrices ortogonales n × n satisface todos los axiomas de un grupo . Es un grupo de Lie compacto de dimensión n ( n - 1)/2 , llamado grupo ortogonal y denotado por O( n ) .
Las matrices ortogonales cuyo determinante es +1 forman un subgrupo normal conexo de caminos de O( n ) de índice 2, el grupo ortogonal especial SO( n ) de rotaciones. El grupo cociente O( n )/SO( n ) es isomorfo a O(1) , y la función de proyección elige [+1] o [−1] según el determinante. Las matrices ortogonales con determinante −1 no incluyen la identidad, por lo que no forman un subgrupo sino solo una clase lateral ; también están (separadamente) conectadas. Por lo tanto, cada grupo ortogonal se divide en dos partes; y debido a que la función de proyección se divide en , O( n ) es un producto semidirecto de SO( n ) por O(1) . En términos prácticos, una afirmación comparable es que cualquier matriz ortogonal se puede producir tomando una matriz de rotación y posiblemente negando una de sus columnas, como vimos con matrices de 2 × 2 . Si n es impar, entonces el producto semidirecto es de hecho un producto directo y cualquier matriz ortogonal se puede obtener tomando una matriz de rotación y posiblemente negando todas sus columnas. Esto se desprende de la propiedad de los determinantes de que al negar una columna se niega el determinante y, por lo tanto, al negar un número impar (pero no par) de columnas se niega el determinante.
Consideremos ahora matrices ortogonales ( n + 1) × ( n + 1) con entrada inferior derecha igual a 1. El resto de la última columna (y última fila) debe ser cero, y el producto de dos matrices cualesquiera de estas tiene la misma forma. El resto de la matriz es una matriz ortogonal n × n ; por lo tanto, O( n ) es un subgrupo de O( n + 1) (y de todos los grupos superiores).
Dado que una reflexión elemental en forma de matriz Householder puede reducir cualquier matriz ortogonal a esta forma restringida, una serie de tales reflexiones puede llevar cualquier matriz ortogonal a la identidad; por lo tanto, un grupo ortogonal es un grupo de reflexión . La última columna se puede fijar a cualquier vector unitario, y cada elección da una copia diferente de O( n ) en O( n + 1) ; de esta manera, O( n + 1) es un fibrado sobre la esfera unitaria S n con fibra O( n ) .
De manera similar, SO( n ) es un subgrupo de SO( n + 1) ; y cualquier matriz ortogonal especial puede generarse mediante rotaciones del plano de Givens utilizando un procedimiento análogo. La estructura de fibrado persiste: SO( n ) ↪ SO( n + 1) → S n . Una sola rotación puede producir un cero en la primera fila de la última columna, y una serie de n − 1 rotaciones pondrá a cero todas las filas de la última columna de una matriz de rotación n × n , excepto la última . Como los planos son fijos, cada rotación tiene solo un grado de libertad, su ángulo. Por inducción, SO( n ) tiene, por lo tanto, grados de libertad, y también los tiene O( n ) .
Las matrices de permutación son aún más simples; forman, no un grupo de Lie, sino sólo un grupo finito, el grupo simétrico de orden n S n . Por el mismo tipo de argumento, S n es un subgrupo de S n + 1 . Las permutaciones pares producen el subgrupo de matrices de permutación de determinante +1, el orden ¡no !/2 grupo alterno .
En términos más generales, el efecto de cualquier matriz ortogonal se divide en acciones independientes sobre subespacios ortogonales bidimensionales. Es decir, si Q es ortogonal especial, siempre se puede encontrar una matriz ortogonal P , un cambio de base (rotacional) , que lleve a Q a la forma diagonal en bloque:
donde las matrices R 1 , ..., R k son matrices de rotación de 2 × 2 , y con las entradas restantes cero. Excepcionalmente, un bloque de rotación puede ser diagonal, ± I . Por lo tanto, negando una columna si es necesario, y notando que una reflexión de 2 × 2 diagonaliza a +1 y −1, cualquier matriz ortogonal puede llevarse a la forma
Las matrices R 1 , ..., R k dan pares conjugados de valores propios que se encuentran en el círculo unitario en el plano complejo ; por lo que esta descomposición confirma que todos los valores propios tienen valor absoluto 1. Si n es impar, hay al menos un valor propio real, +1 o −1; para una rotación de 3 × 3 , el vector propio asociado con +1 es el eje de rotación.
Supongamos que las entradas de Q son funciones diferenciables de t , y que t = 0 da Q = I . Al diferenciar la condición de ortogonalidad se obtiene
La evaluación en t = 0 ( Q = I ) implica entonces
En términos de grupos de Lie, esto significa que el álgebra de Lie de un grupo de matrices ortogonales consta de matrices antisimétricas . En la dirección opuesta, la matriz exponencial de cualquier matriz antisimétrica es una matriz ortogonal (de hecho, ortogonal especial).
Por ejemplo, la física de objetos tridimensionales llama velocidad angular a una rotación diferencial, por lo tanto, un vector en el álgebra de Lie tangente a SO(3) . Dado ω = ( xθ , yθ , zθ ) , con v = ( x , y , z ) siendo un vector unitario, la forma matricial antisimétrica correcta de ω es
La exponencial de esto es la matriz ortogonal para la rotación alrededor del eje v por el ángulo θ ; estableciendo c = cos θ/2 , s = sen θ/2 ,
El análisis numérico aprovecha muchas de las propiedades de las matrices ortogonales para el álgebra lineal numérica, y surgen de forma natural. Por ejemplo, a menudo es deseable calcular una base ortonormal para un espacio, o un cambio ortogonal de bases; ambos toman la forma de matrices ortogonales. Tener determinante ±1 y todos los valores propios de magnitud 1 es de gran beneficio para la estabilidad numérica . Una implicación es que el número de condición es 1 (que es el mínimo), por lo que los errores no se magnifican al multiplicar con una matriz ortogonal. Muchos algoritmos utilizan matrices ortogonales como las reflexiones de Householder y las rotaciones de Givens por esta razón. También es útil que, no solo una matriz ortogonal es invertible, sino que su inversa está disponible esencialmente gratis, intercambiando índices.
Las permutaciones son esenciales para el éxito de muchos algoritmos, incluido el clásico algoritmo de eliminación gaussiana con pivoteo parcial (donde las permutaciones realizan el pivoteo). Sin embargo, rara vez aparecen explícitamente como matrices; su forma especial permite una representación más eficiente, como una lista de n índices.
De la misma manera, los algoritmos que utilizan matrices Householder y Givens suelen utilizar métodos especializados de multiplicación y almacenamiento. Por ejemplo, una rotación Givens afecta sólo a dos filas de una matriz que multiplica, lo que cambia una multiplicación completa de orden n 3 a una de orden n mucho más eficiente . Cuando el uso de estas reflexiones y rotaciones introduce ceros en una matriz, el espacio que queda libre es suficiente para almacenar datos suficientes para reproducir la transformación y hacerlo de forma robusta. (Siguiendo a Stewart (1976), no almacenamos un ángulo de rotación, que es costoso y tiene un mal comportamiento).
Varias descomposiciones matriciales importantes (Golub y Van Loan 1996) involucran matrices ortogonales, entre las que se incluyen especialmente:
Consideremos un sistema sobredeterminado de ecuaciones lineales , como podría ocurrir con mediciones repetidas de un fenómeno físico para compensar errores experimentales. Escriba A x = b , donde A es m × n , m > n . Una descomposición QR reduce A a R triangular superior . Por ejemplo, si A es 5 × 3 entonces R tiene la forma
El problema de mínimos cuadrados lineales es encontrar la x que minimiza ‖ A x − b ‖ , lo que es equivalente a proyectar b al subespacio abarcado por las columnas de A . Suponiendo que las columnas de A (y por lo tanto R ) son independientes, la solución de proyección se encuentra a partir de A T A x = A T b . Ahora A T A es cuadrado ( n × n ) e invertible, y también igual a R T R . Pero las filas inferiores de ceros en R son superfluas en el producto, que por lo tanto ya está en forma factorizada triangular inferior-triangular superior, como en la eliminación gaussiana ( descomposición de Cholesky ). Aquí la ortogonalidad es importante no solo para reducir A T A = ( R T Q T ) QR a R T R , sino también para permitir la solución sin magnificar los problemas numéricos.
En el caso de un sistema lineal que está subdeterminado, o de una matriz que no es invertible , la descomposición en valores singulares (SVD) es igualmente útil. Con A factorizado como U Σ V T , una solución satisfactoria utiliza la pseudoinversa de Moore-Penrose , V Σ + U T , donde Σ + simplemente reemplaza cada entrada diagonal distinta de cero con su recíproco. Fije x en V Σ + U T b .
El caso de una matriz cuadrada invertible también tiene interés. Supongamos, por ejemplo, que A es una matriz de rotación de 3 × 3 que se ha calculado como la composición de numerosos giros y vueltas. El punto flotante no coincide con el ideal matemático de los números reales, por lo que A ha perdido gradualmente su verdadera ortogonalidad. Un proceso de Gram-Schmidt podría ortogonalizar las columnas, pero no es el método más fiable, ni el más eficiente, ni el más invariante. La descomposición polar factoriza una matriz en un par, uno de los cuales es la matriz ortogonal única más cercana a la matriz dada, o una de las más cercanas si la matriz dada es singular. (La proximidad puede medirse mediante cualquier norma matricial invariante bajo un cambio ortogonal de base, como la norma espectral o la norma de Frobenius). Para una matriz casi ortogonal, la convergencia rápida al factor ortogonal puede lograrse mediante un enfoque de " método de Newton " debido a Higham (1986) (1990), promediando repetidamente la matriz con su transpuesta inversa. Dubrulle (1999) ha publicado un método acelerado con una prueba de convergencia conveniente.
Por ejemplo, considere una matriz no ortogonal para la cual el algoritmo de promedio simple toma siete pasos y cuya aceleración se recorta a dos pasos (con γ = 0,353553, 0,565685).
Gram-Schmidt produce una solución inferior, demostrada por una distancia de Frobenius de 8,28659 en lugar del mínimo de 8,12404.
Algunas aplicaciones numéricas, como los métodos de Monte Carlo y la exploración de espacios de datos de alta dimensión, requieren la generación de matrices ortogonales aleatorias uniformemente distribuidas . En este contexto, "uniforme" se define en términos de la medida de Haar , que esencialmente requiere que la distribución no cambie si se multiplica por cualquier matriz ortogonal elegida libremente. La ortogonalización de matrices con entradas aleatorias independientes uniformemente distribuidas no da como resultado matrices ortogonales uniformemente distribuidas [ cita requerida ] , pero la descomposición QR de entradas aleatorias independientes normalmente distribuidas sí lo hace, siempre que la diagonal de R contenga solo entradas positivas (Mezzadri 2006). Stewart (1980) reemplazó esto con una idea más eficiente que Diaconis y Shahshahani (1987) luego generalizaron como el "algoritmo de subgrupo" (en cuya forma funciona igual de bien para permutaciones y rotaciones). Para generar una matriz ortogonal ( n + 1) × ( n + 1) , tome un n × n uno y un vector unitario uniformemente distribuido de dimensión n + 1 . Construya una reflexión de Householder a partir del vector, luego aplíquela a la matriz más pequeña (incrustada en el tamaño más grande con un 1 en la esquina inferior derecha).
El problema de encontrar la matriz ortogonal Q más cercana a una matriz dada M está relacionado con el problema de Procrustes ortogonal . Existen varias formas diferentes de obtener la solución única, la más simple de las cuales es tomar la descomposición en valores singulares de M y reemplazar los valores singulares por unos. Otro método expresa R explícitamente pero requiere el uso de una raíz cuadrada de matriz : [2]
Esto puede combinarse con el método babilónico para extraer la raíz cuadrada de una matriz para dar una recurrencia que converge a una matriz ortogonal cuadráticamente: donde Q 0 = M .
Estas iteraciones son estables siempre que el número de condición de M sea menor que tres. [3]
Usando una aproximación de primer orden de la inversa y los mismos resultados de inicialización en la iteración modificada:
Un sutil problema técnico afecta algunos usos de matrices ortogonales. No sólo los componentes del grupo con determinante +1 y −1 no están conectados entre sí, incluso el componente +1, SO( n ) , no está simplemente conectado (excepto para SO(1), que es trivial). Por lo tanto, a veces es ventajoso, o incluso necesario, trabajar con un grupo de cobertura de SO( n ), el grupo de espín , Spin( n ) . Del mismo modo, O( n ) tiene grupos de cobertura, los grupos pin , Pin( n ). Para n > 2 , Spin( n ) está simplemente conectado y, por lo tanto, es el grupo de cobertura universal para SO( n ) . Con mucho, el ejemplo más famoso de un grupo de espín es Spin(3) , que no es nada más que SU(2) , o el grupo de cuaterniones unitarios .
Los grupos Pin y Spin se encuentran dentro de las álgebras de Clifford , que a su vez pueden construirse a partir de matrices ortogonales.
Si Q no es una matriz cuadrada, entonces las condiciones Q T Q = I y QQ T = I no son equivalentes. La condición Q T Q = I dice que las columnas de Q son ortonormales. Esto solo puede suceder si Q es una matriz m × n con n ≤ m (debido a la dependencia lineal). De manera similar, QQ T = I dice que las filas de Q son ortonormales, lo que requiere n ≥ m .
No existe una terminología estándar para estas matrices. Se las denomina "matrices semiortogonales", "matrices ortonormales", "matrices ortogonales" y, a veces, simplemente "matrices con filas/columnas ortonormales".
Para el caso n ≤ m , las matrices con columnas ortonormales pueden denominarse k-marcos ortogonales y son elementos de la variedad Stiefel .