stringtranslate.com

Descomposición propia de una matriz.

En álgebra lineal , la descomposición propia es la factorización de una matriz en una forma canónica , mediante la cual la matriz se representa en términos de sus valores propios y vectores propios . De esta forma sólo se pueden factorizar matrices diagonalizables . Cuando la matriz que se factoriza es una matriz simétrica normal o real , la descomposición se denomina "descomposición espectral", derivada del teorema espectral .

Teoría fundamental de los vectores propios y valores propios matriciales.

Un vector (distinto de cero) v de dimensión N es un vector propio de una matriz A cuadrada N × N si satisface una ecuación lineal de la forma

para algún escalar λ . Entonces λ se llama valor propio correspondiente a v . Geométricamente hablando, los vectores propios de A son los vectores que A simplemente se alarga o encoge, y la cantidad en la que se alargan/encogen es el valor propio. La ecuación anterior se llama ecuación de valores propios o problema de valores propios.

Esto produce una ecuación para los valores propios.

Llamamos a p ( λ ) el polinomio característico , y la ecuación, llamada ecuación característica, es una ecuación polinómica de orden N en la incógnita λ . Esta ecuación tendrá N λ soluciones distintas, donde 1 ≤ N λN . El conjunto de soluciones, es decir, los valores propios, se llama espectro de A. [1] [2] [3]

Si el campo de escalares es algebraicamente cerrado , entonces podemos factorizar p como

El número entero n i se denomina multiplicidad algebraica de valor propio λ i . Las multiplicidades algebraicas suman N :

Para cada valor propio λ i , tenemos una ecuación de valor propio específica

Habrá 1 ≤ m in i soluciones linealmente independientes para cada ecuación de valores propios. Las combinaciones lineales de las m i soluciones (excepto la que da el vector cero) son los vectores propios asociados con el valor propio λ i . El número entero m i se denomina multiplicidad geométrica de λ i . Es importante tener en cuenta que la multiplicidad algebraica n i y la multiplicidad geométrica m i pueden ser iguales o no, pero siempre tenemos m in i . El caso más simple es, por supuesto, cuando m i = n i = 1 . El número total de vectores propios linealmente independientes, N v , se puede calcular sumando las multiplicidades geométricas

Los vectores propios se pueden indexar mediante valores propios, utilizando un índice doble, siendo v ij el jésimo vector propio para el iésimo valor propio. Los vectores propios también se pueden indexar utilizando la notación más simple de un único índice v k , con k = 1, 2, ..., N v .

Descomposición propia de una matriz.

Sea A una matriz cuadrada n × n con n vectores propios linealmente independientes q i (donde i = 1, ..., n ). Entonces A se puede factorizar como

donde Q es la matriz cuadrada n × n cuya i -ésima columna es el vector propio q i de A , y Λ es la matriz diagonal cuyos elementos diagonales son los valores propios correspondientes, Λ ii = λ i . Tenga en cuenta que de esta manera sólo se pueden factorizar matrices diagonalizables . Por ejemplo, la matriz defectuosa (que es una matriz de corte ) no se puede diagonalizar.

Los n vectores propios q i suelen estar normalizados, pero no es necesario que lo estén. Un conjunto no normalizado de n vectores propios, v i, también se puede utilizar como columnas de Q. Esto se puede entender observando que la magnitud de los vectores propios en Q se cancela en la descomposición por la presencia de Q −1 . Si uno de los valores propios λ i tiene múltiples vectores propios linealmente independientes (es decir, la multiplicidad geométrica de λ i es mayor que 1), entonces estos vectores propios para este valor propio λ i pueden elegirse para que sean mutuamente ortogonales ; sin embargo, si dos vectores propios pertenecen a dos valores propios diferentes, puede resultar imposible que sean ortogonales entre sí (consulte el ejemplo a continuación). Un caso especial es que si A es una matriz normal, entonces, según el teorema espectral, siempre es posible diagonalizar A en una base ortonormal {q i } .

La descomposición se puede derivar de la propiedad fundamental de los vectores propios:

Los vectores propios linealmente independientes q i con valores propios distintos de cero forman una base (no necesariamente ortonormal) para todos los productos posibles A x , para xC n , que es la misma que la imagen (o rango ) de la transformación matricial correspondiente , y también la espacio columna de la matriz A . El número de vectores propios linealmente independientes q i con valores propios distintos de cero es igual al rango de la matriz A , y también a la dimensión de la imagen (o rango) de la transformación matricial correspondiente, así como a su espacio de columnas.

Los vectores propios linealmente independientes q i con un valor propio de cero forman una base (que puede elegirse como ortonormal) para el espacio nulo (también conocido como núcleo) de la transformación matricial A.

Ejemplo

La matriz real A 2 × 2

se puede descomponer en una matriz diagonal mediante la multiplicación de una matriz B no singular

Entonces

para alguna matriz diagonal real .

Multiplicando ambos lados de la ecuación de la izquierda por B :

La ecuación anterior se puede descomponer en dos ecuaciones simultáneas :

Factorizando los valores propios x e y :

dejando

esto nos da dos ecuaciones vectoriales:

Y puede representarse mediante una única ecuación vectorial que involucra dos soluciones como valores propios:

donde λ representa los dos valores propios x e y , y u representa los vectores a y b .

Desplazando λ u hacia el lado izquierdo y factorizando u

Como B no es singular, es esencial que u sea distinto de cero. Por lo tanto,

De este modo

dándonos las soluciones de los valores propios de la matriz A como λ = 1 o λ = 3 , y la matriz diagonal resultante de la descomposición propia de A es así .

Volviendo a poner las soluciones en las ecuaciones simultáneas anteriores.

Resolviendo las ecuaciones tenemos

Por tanto, la matriz B requerida para la descomposición propia de A es

eso es:

Matriz inversa mediante descomposición propia

Si una matriz A puede descomponerse propiamente y ninguno de sus valores propios es cero, entonces A es invertible y su inversa está dada por

Si es una matriz simétrica, dado que está formada a partir de los vectores propios de , se garantiza que será una matriz ortogonal , por lo tanto . Además, debido a que Λ es una matriz diagonal , su inversa es fácil de calcular:

Implicaciones prácticas

Cuando se utiliza la descomposición propia en una matriz de datos reales medidos , lo inverso puede ser menos válido cuando todos los valores propios se utilizan sin modificar en la forma anterior. Esto se debe a que a medida que los valores propios se vuelven relativamente pequeños, su contribución a la inversión es grande. Aquellos cerca de cero o en el "ruido" del sistema de medición tendrán una influencia indebida y podrían dificultar las soluciones (detección) usando lo inverso. [4]

Se han propuesto dos mitigaciones: truncar valores propios pequeños o nulos y extender el valor propio confiable más bajo a aquellos que están debajo de él. Véase también la regularización de Tikhonov como un método estadísticamente motivado pero sesgado para eliminar valores propios a medida que quedan dominados por el ruido.

El primer método de mitigación es similar a una muestra escasa de la matriz original, eliminando componentes que no se consideran valiosos. Sin embargo, si la solución o el proceso de detección está cerca del nivel de ruido, el truncamiento puede eliminar componentes que influyen en la solución deseada.

La segunda mitigación extiende el valor propio de modo que los valores más bajos tengan mucha menos influencia sobre la inversión, pero aún contribuyen, de modo que aún se encontrarán soluciones cercanas al ruido.

El valor propio confiable se puede encontrar suponiendo que los valores propios de valor extremadamente similar y bajo son una buena representación del ruido de medición (que se supone bajo para la mayoría de los sistemas).

Si los valores propios están ordenados por valor, entonces el valor propio confiable se puede encontrar minimizando el laplaciano de los valores propios ordenados: [5]

donde los valores propios están subíndices con una s para indicar que están ordenados. La posición de minimización es el valor propio confiable más bajo. En los sistemas de medición, la raíz cuadrada de este valor propio confiable es el ruido promedio de los componentes del sistema.

calculo funcional

La descomposición propia permite un cálculo mucho más sencillo de series de potencias de matrices. Si f  ( x ) está dada por

entonces sabemos que

Debido a que Λ es una matriz diagonal , las funciones de Λ son muy fáciles de calcular:

Los elementos fuera de la diagonal de f  ( Λ ) son cero; es decir, f  ( Λ ) también es una matriz diagonal. Por lo tanto, calcular f  ( A ) se reduce a simplemente calcular la función en cada uno de los valores propios.

Una técnica similar funciona de manera más general con el cálculo funcional holomorfo , utilizando

desde arriba. Una vez más encontramos que

Ejemplos

que son ejemplos de las funciones . Además, la matriz es exponencial .

Descomposición para matrices especiales.

Subconjuntos de clases importantes de matrices.

Cuando A es una matriz simétrica normal o real, la descomposición se denomina "descomposición espectral", derivada del teorema espectral.

Matrices normales

Una matriz cuadrada A de valores complejos es normal (es decir, A * A = AA * , donde A * es la transpuesta conjugada ) si y sólo si se puede descomponer como

donde U es una matriz unitaria (es decir, U * = U −1 ) y Λ = diag( λ 1 , ..., λ n ) es una matriz diagonal . [6] Las columnas u 1 , ..., u n de U forman una base ortonormal y son vectores propios de A con sus correspondientes valores propios λ 1 , ..., λ n .

Si A está restringida a ser una matriz hermitiana ( A = A * ), entonces Λ solo tiene entradas con valores reales. Si A está restringido a una matriz unitaria, entonces Λ toma todos sus valores en el círculo unitario complejo, es decir, | λ yo | = 1 .

Matrices simétricas reales

Como caso especial, para cada matriz simétrica real de n × n , los valores propios son reales y los vectores propios pueden elegirse reales y ortonormales . Por tanto, una matriz simétrica real A se puede descomponer como

donde Q es una matriz ortogonal cuyas columnas son los vectores propios ortonormales reales de A , y Λ es una matriz diagonal cuyas entradas son los valores propios de A. [7]

Datos útiles

Datos útiles sobre los valores propios

Datos útiles sobre los vectores propios

Datos útiles sobre la descomposición propia

Datos útiles sobre la matriz inversa

Cálculos numéricos

Cálculo numérico de valores propios.

Supongamos que queremos calcular los valores propios de una matriz determinada. Si la matriz es pequeña, podemos calcularla simbólicamente usando el polinomio característico . Sin embargo, esto suele ser imposible para matrices más grandes, en cuyo caso debemos utilizar un método numérico .

En la práctica, los valores propios de matrices grandes no se calculan utilizando el polinomio característico. Calcular el polinomio se vuelve costoso en sí mismo, y las raíces exactas (simbólicas) de un polinomio de alto grado pueden ser difíciles de calcular y expresar: el teorema de Abel-Ruffini implica que las raíces de polinomios de alto grado (5 o superior) en general no pueden expresarse simplemente usando n- ésimas raíces. Por tanto, los algoritmos generales para encontrar vectores propios y valores propios son iterativos .

Existen algoritmos numéricos iterativos para aproximar raíces de polinomios, como el método de Newton , pero en general no es práctico calcular el polinomio característico y luego aplicar estos métodos. Una razón es que pequeños errores de redondeo en los coeficientes del polinomio característico pueden conducir a grandes errores en los valores propios y vectores propios: las raíces son una función de los coeficientes extremadamente mal condicionada . [8]

Un método iterativo simple y preciso es el método de la potencia : se elige un vector aleatorio v y se calcula una secuencia de vectores unitarios como

Esta secuencia casi siempre convergerá a un vector propio correspondiente al valor propio de mayor magnitud, siempre que v tenga un componente distinto de cero de este vector propio en la base del vector propio (y también siempre que haya solo un valor propio de mayor magnitud). Este sencillo algoritmo es útil en algunas aplicaciones prácticas; por ejemplo, Google lo utiliza para calcular el ranking de páginas de documentos en su motor de búsqueda. [9] Además, el método de la potencia es el punto de partida para muchos algoritmos más sofisticados. Por ejemplo, manteniendo no sólo el último vector de la secuencia, sino observando el intervalo de todos los vectores de la secuencia, se puede obtener una mejor aproximación (convergente más rápida) para el vector propio, y esta idea es la base de Arnoldi. iteración . [8] Alternativamente, el importante algoritmo QR también se basa en una transformación sutil de un método de potencia. [8]

Cálculo numérico de vectores propios.

Una vez que se calculan los valores propios, los vectores propios se pueden calcular resolviendo la ecuación

utilizando eliminación gaussiana o cualquier otro método para resolver ecuaciones matriciales .

Sin embargo, en los métodos prácticos de valores propios a gran escala, los vectores propios generalmente se calculan de otras maneras, como un subproducto del cálculo del valor propio. En la iteración de potencia , por ejemplo, el vector propio en realidad se calcula antes que el valor propio (que normalmente se calcula mediante el cociente de Rayleigh del vector propio). [8] En el algoritmo QR para una matriz hermitiana (o cualquier matriz normal), los vectores propios ortonormales se obtienen como producto de las matrices Q a partir de los pasos del algoritmo. [8] (Para matrices más generales, el algoritmo QR produce primero la descomposición de Schur , a partir de la cual se pueden obtener los vectores propios mediante un procedimiento de sustitución inversa . [10] ) Para matrices hermitianas, el algoritmo de valores propios de divide y vencerás es más eficiente que el algoritmo QR si se desean tanto vectores propios como valores propios. [8]

Temas adicionales

Espacios propios generalizados

Recuerde que la multiplicidad geométrica de un valor propio se puede describir como la dimensión del espacio propio asociado, el espacio nulo de λ IA. La multiplicidad algebraica también puede considerarse como una dimensión: es la dimensión del espacio propio generalizado asociado (primer sentido), que es el espacio nulo de la matriz ( λ IA ) k para cualquier k suficientemente grande . Es decir, es el espacio de vectores propios generalizados (primer sentido), donde un vector propio generalizado es cualquier vector que eventualmente se vuelve 0 si se le aplica λ IA suficientes veces seguidas. Cualquier vector propio es un vector propio generalizado, por lo que cada espacio propio está contenido en el espacio propio generalizado asociado. Esto proporciona una prueba sencilla de que la multiplicidad geométrica es siempre menor o igual que la multiplicidad algebraica.

Este uso no debe confundirse con el problema de valores propios generalizado que se describe a continuación.

Vector propio conjugado

Un vector propio conjugado o vector coneigen es un vector enviado después de la transformación a un múltiplo escalar de su conjugado, donde el escalar se llama valor propio conjugado o valor coneigen de la transformación lineal. Los vectores propios y valores propios representan esencialmente la misma información y significado que los vectores propios y valores propios regulares, pero surgen cuando se utiliza un sistema de coordenadas alternativo. La ecuación correspondiente es

Por ejemplo, en la teoría coherente de la dispersión electromagnética, la transformación lineal A representa la acción realizada por el objeto en dispersión, y los vectores propios representan los estados de polarización de la onda electromagnética. En óptica , el sistema de coordenadas se define desde el punto de vista de la onda, conocido como Alineación de dispersión hacia adelante (FSA), y da lugar a una ecuación de valor propio regular, mientras que en el radar , el sistema de coordenadas se define desde el punto de vista del radar, conocido como Atrás. Alineación de dispersión (BSA) y da lugar a una ecuación de valor coneigen.

Problema de valores propios generalizado

Un problema de valores propios generalizado (segundo sentido) es el problema de encontrar un vector v (distinto de cero) que obedezca

donde A y B son matrices. Si v obedece a esta ecuación, con algo de λ , entonces llamamos a v el vector propio generalizado de A y B (en el segundo sentido), y a λ se llama el valor propio generalizado de A y B (en el segundo sentido) que corresponde al vector propio generalizado de A y B (en el segundo sentido). vector propio v . Los posibles valores de λ deben obedecer a la siguiente ecuación

Si se pueden encontrar n vectores linealmente independientes { v 1 , …, v n } , tales que para cada i ∈ {1, …, n } , Av i = λ i Bv i , entonces definimos las matrices P y D tales que

Entonces se cumple la siguiente igualdad

Y la prueba es

Y como P es invertible, multiplicamos la ecuación de la derecha por su inversa, terminando la prueba.

Al conjunto de matrices de la forma Aλ B , donde λ es un número complejo, se le llama lápiz ; el término lápiz de matriz también puede referirse al par ( A , B ) de matrices. [11]

Si B es invertible, entonces el problema original se puede escribir en la forma

que es un problema de valores propios estándar. Sin embargo, en la mayoría de las situaciones es preferible no realizar la inversión, sino resolver el problema de valores propios generalizado como se indicó originalmente. Esto es especialmente importante si A y B son matrices hermitianas , ya que en este caso B −1 A generalmente no es hermitiana y propiedades importantes de la solución ya no son evidentes.

Si A y B son ambos simétricos o hermitianos, y B también es una matriz definida positiva , los valores propios λ i son reales y los vectores propios v 1 y v 2 con valores propios distintos son B -ortogonales ( v 1 * Bv 2 = 0 ). [12] En este caso, los vectores propios se pueden elegir de modo que la matriz P definida anteriormente satisfaga

o ,

y existe una base de vectores propios generalizados (no es un problema defectuoso ). [11] Este caso a veces se denomina lápiz definido hermitiano o lápiz definido . [11]

Ver también

Notas

  1. ^ Préstamo Golub y Van (1996, pág. 310)
  2. ^ Kreyszig (1972, pág.273)
  3. ^ Nering (1970, pág.270)
  4. ^ Hayde, AF; Twede, DR (2002). Shen, Sylvia S. (ed.). "Observaciones sobre la relación entre valores propios, ruido de instrumentos y rendimiento de detección". Espectrometría de imágenes VIII . Actas de SPIE. 4816 : 355. Código bibliográfico : 2002SPIE.4816..355H. doi : 10.1117/12.453777. S2CID  120953647.
  5. ^ Twede, DR; Hayden, AF (2004). Shen, Sylvia S; Lewis, Paul E (eds.). "Refinamiento y generalización del método de extensión de inversión de matriz de covarianza por regularización". Espectrometría de imágenes IX . Actas de SPIE. 5159 : 299. Código bibliográfico : 2004SPIE.5159..299T. doi :10.1117/12.506993. S2CID  123123072.
  6. ^ Cuerno y Johnson (1985), pág. 133, Teorema 2.5.3
  7. ^ Cuerno y Johnson (1985), pág. 136, Corolario 2.5.11
  8. ^ abcdef Trefethen, Lloyd N .; Bau, David (1997). Álgebra lineal numérica . SIAM. ISBN 978-0-89871-361-9.
  9. ^ Ipsen, Ilse y Rebecca M. Wills, Análisis y computación del PageRank de Google Archivado el 21 de septiembre de 2018 en Wayback Machine , Séptimo Simposio internacional IMACS sobre métodos iterativos en informática científica, Fields Institute, Toronto, Canadá, 5 a 8 de mayo 2005.
  10. ^ Quarteroni, Alfio ; Sacco, Ricardo; Saleri, Fausto (2000). "sección 5.8.2". Matemáticas numéricas. Saltador. pag. 15.ISBN _ 978-0-387-98959-4.
  11. ^ abc Bai, Z.; Demmel, J .; Dongarra, J.; Ruhe, A.; Van Der Vorst, H., eds. (2000). "Problemas de valores propios hermitianos generalizados". Plantillas para la solución de problemas algebraicos de valores propios: una guía práctica. Filadelfia: SIAM. ISBN 978-0-89871-471-5. Archivado desde el original el 21 de agosto de 2010 . Consultado el 9 de septiembre de 2022 .
  12. ^ Parlett, Beresford N. (1998). El problema del valor propio simétrico (Reimpresión. Ed.). Filadelfia: Sociedad de Matemáticas Industriales y Aplicadas. pag. 345. doi :10.1137/1.9781611971163. ISBN 978-0-89871-402-9.

Referencias

enlaces externos