En álgebra lineal , la descomposición propia es la factorización de una matriz en una forma canónica , mediante la cual la matriz se representa en términos de sus valores propios y vectores propios . De esta forma sólo se pueden factorizar matrices diagonalizables . Cuando la matriz que se factoriza es una matriz simétrica normal o real , la descomposición se denomina "descomposición espectral", derivada del teorema espectral .
Un vector v (distinto de cero) de dimensión N es un vector propio de una matriz A cuadrada N × N si satisface una ecuación lineal de la forma para algún escalar λ . Entonces λ se llama valor propio correspondiente a v . Geométricamente hablando, los vectores propios de A son los vectores que A simplemente se alarga o encoge, y la cantidad en la que se alargan/encogen es el valor propio. La ecuación anterior se llama ecuación de valores propios o problema de valores propios.
Esto produce una ecuación para los valores propios. Llamamos p ( λ ) el polinomio característico , y la ecuación, llamada ecuación característica, es una ecuación polinómica de orden N en la incógnita λ . Esta ecuación tendrá N λ soluciones distintas, donde 1 ≤ N λ ≤ N . El conjunto de soluciones, es decir, los valores propios, se llama espectro de A. [1] [2] [3]
Si el campo de escalares es algebraicamente cerrado , entonces podemos factorizar p como El número entero n i se denomina multiplicidad algebraica del valor propio λ i . Las multiplicidades algebraicas suman N :
Para cada valor propio λ i , tenemos una ecuación de valor propio específica. Habrá 1 ≤ m i ≤ n i soluciones linealmente independientes para cada ecuación de valor propio. Las combinaciones lineales de las m i soluciones (excepto la que da el vector cero) son los vectores propios asociados con el valor propio λ i . El número entero m i se denomina multiplicidad geométrica de λ i . Es importante tener en cuenta que la multiplicidad algebraica n i y la multiplicidad geométrica m i pueden ser iguales o no, pero siempre tenemos m i ≤ n i . El caso más simple es, por supuesto, cuando m i = n i = 1 . El número total de vectores propios linealmente independientes, N v , se puede calcular sumando las multiplicidades geométricas
Los vectores propios se pueden indexar mediante valores propios, utilizando un índice doble, siendo v ij el jésimo vector propio para el iésimo valor propio. Los vectores propios también se pueden indexar utilizando la notación más simple de un único índice v k , con k = 1, 2, ..., N v .
Sea A una matriz cuadrada n × n con n vectores propios linealmente independientes q i (donde i = 1, ..., n ). Entonces A se puede factorizar como donde Q es la matriz cuadrada n × n cuya i- ésima columna es el vector propio q i de A , y Λ es la matriz diagonal cuyos elementos diagonales son los valores propios correspondientes, Λ ii = λ i . Tenga en cuenta que sólo se pueden factorizar de esta manera matrices diagonalizables . Por ejemplo, la matriz defectuosa (que es una matriz de corte ) no se puede diagonalizar.
Los n vectores propios q i suelen estar normalizados, pero no es necesario que lo estén. Un conjunto no normalizado de n vectores propios, v i, también se puede utilizar como columnas de Q. Esto puede entenderse observando que la magnitud de los vectores propios en Q se cancela en la descomposición por la presencia de Q −1 . Si uno de los valores propios λ i tiene múltiples vectores propios linealmente independientes (es decir, la multiplicidad geométrica de λ i es mayor que 1), entonces estos vectores propios para este valor propio λ i pueden elegirse para que sean mutuamente ortogonales ; sin embargo, si dos vectores propios pertenecen a dos valores propios diferentes, puede resultar imposible que sean ortogonales entre sí (consulte el ejemplo a continuación). Un caso especial es que si A es una matriz normal, entonces, según el teorema espectral, siempre es posible diagonalizar A en una base ortonormal {q i } .
La descomposición se puede derivar de la propiedad fundamental de los vectores propios: los vectores propios linealmente independientes q i con valores propios distintos de cero forman una base (no necesariamente ortonormal) para todos los productos posibles A x , para x ∈ C n , que es lo mismo que la imagen ( o rango ) de la transformación matricial correspondiente , y también el espacio de columnas de la matriz A . El número de vectores propios linealmente independientes q i con valores propios distintos de cero es igual al rango de la matriz A , y también a la dimensión de la imagen (o rango) de la transformación matricial correspondiente, así como a su espacio de columnas.
Los vectores propios linealmente independientes q i con un valor propio de cero forman una base (que puede elegirse como ortonormal) para el espacio nulo (también conocido como núcleo) de la transformación matricial A.
La matriz real A de 2 × 2 se puede descomponer en una matriz diagonal mediante la multiplicación de una matriz no singular Q
Luego, para alguna matriz diagonal real .
Multiplicar ambos lados de la ecuación de la izquierda por Q : La ecuación anterior se puede descomponer en dos ecuaciones simultáneas : Factorizar los valores propios x e y : Dejar esto nos da dos ecuaciones vectoriales: Y se puede representar mediante una única ecuación vectorial que involucre dos soluciones como valores propios: donde λ representa los dos valores propios x e y , y u representa los vectores a y b .
Desplazando λ u hacia el lado izquierdo y factorizando u . Dado que Q no es singular, es esencial que u sea distinto de cero. Por lo tanto, dándonos así las soluciones de los valores propios de la matriz A como λ = 1 o λ = 3 , y la matriz diagonal resultante de la descomposición propia de A es así .
Volviendo a poner las soluciones en las ecuaciones simultáneas anteriores.
Resolviendo las ecuaciones, tenemos Por lo tanto, la matriz Q requerida para la descomposición propia de A es es decir:
Si una matriz A puede descomponerse propiamente y si ninguno de sus valores propios es cero, entonces A es invertible y su inversa está dada por If es una matriz simétrica, ya que se forma a partir de los vectores propios de , se garantiza que será una matriz ortogonal , por lo tanto . Además, debido a que Λ es una matriz diagonal , su inversa es fácil de calcular:
Cuando se utiliza la descomposición propia en una matriz de datos reales medidos , lo inverso puede ser menos válido cuando todos los valores propios se utilizan sin modificar en la forma anterior. Esto se debe a que a medida que los valores propios se vuelven relativamente pequeños, su contribución a la inversión es grande. Aquellos cerca de cero o en el "ruido" del sistema de medición tendrán una influencia indebida y podrían dificultar las soluciones (detección) usando lo inverso. [4]
Se han propuesto dos mitigaciones: truncar valores propios pequeños o nulos y extender el valor propio confiable más bajo a aquellos que están debajo de él. Véase también la regularización de Tikhonov como un método estadísticamente motivado pero sesgado para eliminar valores propios a medida que quedan dominados por el ruido.
El primer método de mitigación es similar a una muestra escasa de la matriz original, eliminando componentes que no se consideran valiosos. Sin embargo, si la solución o el proceso de detección está cerca del nivel de ruido, el truncamiento puede eliminar componentes que influyen en la solución deseada.
La segunda mitigación extiende el valor propio de modo que los valores más bajos tengan mucha menos influencia sobre la inversión, pero aún contribuyen, de modo que aún se encontrarán soluciones cercanas al ruido.
El valor propio confiable se puede encontrar suponiendo que los valores propios de valor extremadamente similar y bajo son una buena representación del ruido de medición (que se supone bajo para la mayoría de los sistemas).
Si los valores propios están ordenados por valor, entonces el valor propio confiable se puede encontrar minimizando el laplaciano de los valores propios ordenados: [5] donde los valores propios están subíndices con una s para indicar que están ordenados. La posición de minimización es el valor propio confiable más bajo. En los sistemas de medición, la raíz cuadrada de este valor propio confiable es el ruido promedio de los componentes del sistema.
La descomposición propia permite un cálculo mucho más sencillo de series de potencias de matrices. Si f ( x ) está dada por entonces sabemos que debido a que Λ es una matriz diagonal , las funciones de Λ son muy fáciles de calcular:
Los elementos fuera de la diagonal de f ( Λ ) son cero; es decir, f ( Λ ) también es una matriz diagonal. Por lo tanto, calcular f ( A ) se reduce a simplemente calcular la función en cada uno de los valores propios.
Una técnica similar funciona de forma más general con el cálculo funcional holomorfo , utilizándose desde arriba. Una vez más encontramos que
que son ejemplos de las funciones . Además, la matriz es exponencial .
Las matrices espectrales son matrices que poseen valores propios distintos y un conjunto completo de vectores propios. Esta característica permite que las matrices espectrales sean completamente diagonalizables, lo que significa que se pueden descomponer en formas más simples mediante descomposición propia. Este proceso de descomposición revela conocimientos fundamentales sobre la estructura y el comportamiento de la matriz, particularmente en campos como la mecánica cuántica, el procesamiento de señales y el análisis numérico. [6]
Una matriz cuadrada de valores complejos es normal (es decir , donde está la transpuesta conjugada ) si y solo si se puede descomponer como , donde es una matriz unitaria (es decir ) y diag( ) es una matriz diagonal . [7] Las columnas de forman una base ortonormal y son vectores propios de con sus correspondientes valores propios . [8]
Por ejemplo, considere la matriz normal de 2 x 2 .
Los valores propios son y .
Los vectores propios (normalizados) correspondientes a estos valores propios son y .
La diagonalización es , donde , y .
La verificación es .
Este ejemplo ilustra el proceso de diagonalizar una matriz normal encontrando sus valores propios y vectores propios, formando la matriz unitaria , la matriz diagonal y verificando la descomposición.
Como caso especial, para cada matriz simétrica real de n × n , los valores propios son reales y los vectores propios pueden elegirse reales y ortonormales . Por lo tanto , una matriz simétrica real A se puede descomponer como , donde Q es una matriz ortogonal cuyas columnas son los vectores propios ortonormales reales de A , y Λ es una matriz diagonal cuyas entradas son los valores propios de A. [9]
Las matrices diagonalizables se pueden descomponer mediante descomposición propia, siempre que tengan un conjunto completo de vectores propios linealmente independientes. Se pueden expresar como , donde es una matriz cuyas columnas son vectores propios de y es una matriz diagonal que consta de los valores propios correspondientes de . [8]
Las matrices definidas positivas son matrices para las cuales todos los valores propios son positivos. Se pueden descomponer utilizando la descomposición de Cholesky , donde hay una matriz triangular inferior. [10]
Las matrices unitarias satisfacen (caso real) o (caso complejo), donde denota la transpuesta conjugada y denota la transpuesta conjugada. Se diagonalizan mediante transformaciones unitarias . [8]
Las matrices hermitianas satisfacen , donde denota la transpuesta conjugada. Se pueden diagonalizar mediante matrices unitarias u ortogonales . [8]
Supongamos que queremos calcular los valores propios de una matriz determinada. Si la matriz es pequeña, podemos calcularla simbólicamente usando el polinomio característico . Sin embargo, esto suele ser imposible para matrices más grandes, en cuyo caso debemos utilizar un método numérico .
En la práctica, los valores propios de matrices grandes no se calculan utilizando el polinomio característico. Calcular el polinomio se vuelve costoso en sí mismo, y las raíces exactas (simbólicas) de un polinomio de alto grado pueden ser difíciles de calcular y expresar: el teorema de Abel-Ruffini implica que las raíces de polinomios de alto grado (5 o superior) en general no pueden expresarse simplemente usando n- ésimas raíces. Por tanto, los algoritmos generales para encontrar vectores propios y valores propios son iterativos .
Existen algoritmos numéricos iterativos para aproximar raíces de polinomios, como el método de Newton , pero en general no es práctico calcular el polinomio característico y luego aplicar estos métodos. Una razón es que pequeños errores de redondeo en los coeficientes del polinomio característico pueden conducir a grandes errores en los valores propios y vectores propios: las raíces son una función de los coeficientes extremadamente mal condicionada . [11]
Un método iterativo simple y preciso es el método de la potencia : se elige un vector aleatorio v y se calcula una secuencia de vectores unitarios como
Esta secuencia casi siempre convergerá a un vector propio correspondiente al valor propio de mayor magnitud, siempre que v tenga un componente distinto de cero de este vector propio en la base del vector propio (y también siempre que haya solo un valor propio de mayor magnitud). Este sencillo algoritmo es útil en algunas aplicaciones prácticas; por ejemplo, Google lo utiliza para calcular el ranking de páginas de documentos en su motor de búsqueda. [12] Además, el método de la potencia es el punto de partida para muchos algoritmos más sofisticados. Por ejemplo, manteniendo no sólo el último vector de la secuencia, sino observando el intervalo de todos los vectores de la secuencia, se puede obtener una mejor aproximación (convergente más rápida) para el vector propio, y esta idea es la base de Arnoldi. iteración . [11] Alternativamente, el importante algoritmo QR también se basa en una transformación sutil de un método de potencia. [11]
Una vez que se calculan los valores propios, los vectores propios se pueden calcular resolviendo la ecuación mediante eliminación gaussiana o cualquier otro método para resolver ecuaciones matriciales .
Sin embargo, en los métodos prácticos de valores propios a gran escala, los vectores propios suelen calcularse de otras maneras, como subproducto del cálculo de los valores propios. En la iteración de potencia , por ejemplo, el vector propio en realidad se calcula antes que el valor propio (que normalmente se calcula mediante el cociente de Rayleigh del vector propio). [11] En el algoritmo QR para una matriz hermitiana (o cualquier matriz normal), los vectores propios ortonormales se obtienen como producto de las matrices Q a partir de los pasos del algoritmo. [11] (Para matrices más generales, el algoritmo QR produce primero la descomposición de Schur , a partir de la cual se pueden obtener los vectores propios mediante un procedimiento de sustitución inversa . [13] ) Para matrices hermitianas, el algoritmo de valores propios de divide y vencerás es más eficiente que el algoritmo QR si se desean tanto vectores propios como valores propios. [11]
Recuerde que la multiplicidad geométrica de un valor propio se puede describir como la dimensión del espacio propio asociado, el espacio nulo de λ I − A. La multiplicidad algebraica también puede considerarse como una dimensión: es la dimensión del espacio propio generalizado asociado (primer sentido), que es el espacio nulo de la matriz ( λ I − A ) k para cualquier k suficientemente grande . Es decir, es el espacio de vectores propios generalizados (primer sentido), donde un vector propio generalizado es cualquier vector que eventualmente se vuelve 0 si se le aplica λ I − A suficientes veces seguidas. Cualquier vector propio es un vector propio generalizado, por lo que cada espacio propio está contenido en el espacio propio generalizado asociado. Esto proporciona una prueba sencilla de que la multiplicidad geométrica es siempre menor o igual que la multiplicidad algebraica.
Este uso no debe confundirse con el problema de valores propios generalizado que se describe a continuación.
Un vector propio conjugado o vector coneigen es un vector enviado después de la transformación a un múltiplo escalar de su conjugado, donde el escalar se denomina valor propio conjugado o valor coneigen de la transformación lineal. Los vectores propios y valores propios representan esencialmente la misma información y significado que los vectores propios y valores propios regulares, pero surgen cuando se utiliza un sistema de coordenadas alternativo. La ecuación correspondiente es. Por ejemplo, en la teoría coherente de la dispersión electromagnética, la transformación lineal A representa la acción realizada por el objeto de dispersión y los vectores propios representan los estados de polarización de la onda electromagnética. En óptica , el sistema de coordenadas se define desde el punto de vista de la onda, conocido como Alineación de dispersión hacia adelante (FSA), y da lugar a una ecuación de valor propio regular, mientras que en el radar , el sistema de coordenadas se define desde el punto de vista del radar, conocido como Atrás. Alineación de dispersión (BSA) y da lugar a una ecuación de valor coneigen.
Un problema de valores propios generalizado (segundo sentido) es el problema de encontrar un vector v (distinto de cero) que obedezca donde A y B son matrices. Si v obedece a esta ecuación, con algo de λ , entonces llamamos a v el vector propio generalizado de A y B (en el segundo sentido), y a λ se llama el valor propio generalizado de A y B (en el segundo sentido) que corresponde al vector propio generalizado de A y B (en el segundo sentido). vector propio v . Los posibles valores de λ deben obedecer a la siguiente ecuación
Si se pueden encontrar n vectores linealmente independientes { v 1 , …, v n } , tales que para cada i ∈ {1, …, n } , Av i = λ i Bv i , entonces definimos las matrices P y D tales que Entonces se cumple la siguiente igualdad y la prueba es
Y como P es invertible, multiplicamos la ecuación de la derecha por su inversa, terminando la prueba.
Al conjunto de matrices de la forma A − λ B , donde λ es un número complejo, se le llama lápiz ; el término lápiz de matriz también puede referirse al par ( A , B ) de matrices. [14]
Si B es invertible, entonces el problema original se puede escribir en la forma de un problema de valores propios estándar. Sin embargo, en la mayoría de las situaciones es preferible no realizar la inversión, sino resolver el problema de valores propios generalizado como se indicó originalmente. Esto es especialmente importante si A y B son matrices hermitianas , ya que en este caso B −1 A generalmente no es hermitiana y propiedades importantes de la solución ya no son evidentes.
Si A y B son simétricos o hermitianos, y B también es una matriz definida positiva , los valores propios λ i son reales y los vectores propios v 1 y v 2 con valores propios distintos son B -ortogonales ( v 1 * Bv 2 = 0 ). [15] En este caso, los vectores propios se pueden elegir de modo que la matriz P definida anteriormente satisfaga o y exista una base de vectores propios generalizados (no es un problema defectuoso ). [14] Este caso a veces se denomina lápiz definido hermitiano o lápiz definido . [14]