Descomposición en valores propios de una matriz

En álgebra lineal, la descomposición en valores propios de una matriz es su factorización en una forma canónica, de manera que se representa mediante sus valores y vectores propios (también denominados autovalores y autovectores).Hablando geométricamente, los vectores propios de A son los vectores que la transformación representada por la matriz A simplemente alarga o encoge, y la cantidad en la que se alargan/encogen es el valor propio.El entero mi se denomina multiplicidad geométrica de λi.Los vectores propios también se pueden indexar usando la notación más simple de un solo índice vk, con k= 1, 2, ..., Nv.Entonces A puede ser factorizada como donde Q es la matriz cuadrada de orden n × n cuya columna i-ésima es el vector propio qi de A, y Λ es la matriz diagonal cuyos elementos diagonales son los valores propios correspondientes, Λii= λi.Téngase en cuenta que solo las matrices diagonalizables se pueden factorizar de esta manera.Los vectores propios n qi suelen estar normalizados, pero no es necesario que lo estén.Los vectores propios linealmente independientes qi con un valor propio de cero forman una base (que se puede elegir para que sea ortonormal) para el núcleo (también conocido como kernel) de la transformación matricial A.Poniendo las soluciones de nuevo en las ecuaciones simultáneas anteriores Resolviendo las ecuaciones, se obtiene Por lo tanto, la matriz B requerida para la descomposición propia de A es y por lo tanto: Si una matriz A puede autodescomponerse y ninguno de sus autovalores es cero, entonces A es invertible y su inversa viene dada por Si[4]​ Se han propuesto dos mitigaciones: truncar valores propios pequeños o cero, y extender el valor propio fiable más bajo a los que están debajo de él.Sin embargo, si la solución o el proceso de detección está cerca del nivel de ruido, el truncamiento puede eliminar componentes que influyen en la solución deseada.La segunda mitigación extiende el valor propio, de modo que los valores más bajos tienen mucha menos influencia sobre la inversión, pero todavía contribuyen, de modo que aún se encontrarán soluciones cercanas al ruido.Una técnica similar funciona más generalmente con el cálculo funcional holomórfico, usando visto anteriormente.[7]​ Supóngase que se quieren calcular los valores propios de una matriz dada.Sin embargo, esto es a menudo imposible para matrices más grandes, en cuyo caso debe usarse un método numérico.En la práctica, los valores propios de matrices grandes no se calculan utilizando el polinomio característico.Existen algoritmos numéricos iterativos para aproximar raíces de polinomios, como el método de Newton, pero en general no es práctico calcular el polinomio característico y luego aplicar estos métodos.Una razón es que los errores de redondeo en los coeficientes pequeños del polinomio característico pueden dar lugar a grandes errores en los valores y vectores propios: las raíces son una función extremadamente condicionada por el valor exacto de los coeficientes.Por ejemplo, al mantener no solo el último vector en la secuencia, sino observar el sistema generador de "todos" los vectores en la secuencia, se puede obtener una mejor aproximación (convergencia más rápida) para el vector propio, y esta idea es la base de la iteración de Arnoldi.[8]​ Una vez que se calculan los valores propios, los vectores propios se pueden calcular resolviendo la ecuación utilizando la eliminación de Gauss-Jordan o cualquier otro método para resolver la ecuación matricial.[8]​ En el algoritmo QR para una matriz hermítica (o cualquier matriz normal), los vectores propios ortonormales se obtienen como un producto de las matrices Q de los pasos del algoritmo.[8]​ Para matrices más generales, el algoritmo QR genera primero la factorización de Schur, a partir de la que se pueden obtener los vectores propios mediante un procedimiento basado en una matriz triangular.[10]​ Para las matrices hermíticas, el algoritmo eigenvalue divide y vencerás es más eficiente que el algoritmo QR si se desean tanto los vectores propios como los valores propios.La multiplicidad algebraica también se puede considerar como una dimensión: es la dimensión del espacio de valores propios generalizado asociado (en su primer sentido), que es el espacio nulo de la matriz (λI − A)k para cualquier k suficientemente grande.Es decir, es el espacio de valores propios generalizado (en su primer sentido), donde un vector propio generalizado es cualquier vector que eventualmente se convierte en 0 si se le aplica λI − A suficientes veces sucesivas.Este uso no debe confundirse con el problema de valor propio generalizado que se describe a continuación.Si v obedece a esta ecuación, con algún λ, entonces se denomina a v el vector propio generalizado de A y B (en el segundo sentido), y λ se llama el valor propio generalizado de A y B (en el segundo sentido) que corresponde al vector propio generalizado v.Los posibles valores de λ deben obedecer a la siguiente ecuación Si se pueden encontrar n vectores linealmente independientes {v1, …, vn}, tales que para cada i ∈ {1, …, n}, Avi= λiBvi, entonces se definen las matrices P y D tales que Entonces se cumple la siguiente igualdad Y la prueba es que Y como P es invertible, se multiplica la ecuación de la derecha por su inversa, terminando la demostración.Esto es especialmente importante si A y B son matrices hermíticas, ya que en este caso B−1A generalmente no es hermítica y las propiedades importantes de la solución ya no son evidentes.[12]​ En este caso, los vectores propios se pueden elegir de modo que la matriz P definida anteriormente satisfaga y existe una base de vectores propios generalizados (no es un problema defectivo).
Subconjuntos de clases importantes de matrices