stringtranslate.com

Descomposición propia de una matriz

En álgebra lineal , la descomposición propia es la factorización de una matriz en una forma canónica , en la que la matriz se representa en términos de sus valores propios y vectores propios . Solo las matrices diagonalizables pueden factorizarse de esta manera. Cuando la matriz que se factoriza es una matriz normal o simétrica real , la descomposición se denomina "descomposición espectral", derivada del teorema espectral .

Teoría fundamental de los vectores propios y valores propios de la matriz

Un vector (distinto de cero) v de dimensión N es un vector propio de una matriz cuadrada N × N A si satisface una ecuación lineal de la forma para algún escalar λ . Entonces λ se llama el valor propio correspondiente a v . Geométricamente hablando, los vectores propios de A son los vectores que A simplemente alarga o encoge, y la cantidad en que se alargan o encogen es el valor propio. La ecuación anterior se llama ecuación de valor propio o problema de valor propio.

Esto produce una ecuación para los valores propios Llamamos p ( λ ) al polinomio característico , y la ecuación, llamada ecuación característica, es una ecuación polinómica de orden N en la incógnita λ . Esta ecuación tendrá N λ soluciones distintas, donde 1 ≤ N λN . El conjunto de soluciones, es decir, los valores propios, se llama espectro de A . [1] [2] [3]

Si el campo de escalares está algebraicamente cerrado , entonces podemos factorizar p como El entero n i se denomina multiplicidad algebraica del valor propio λ i . Las multiplicidades algebraicas suman N :

Para cada valor propio λ i , tenemos una ecuación de valor propio específica Habrá 1 ≤ m in i soluciones linealmente independientes para cada ecuación de valor propio. Las combinaciones lineales de las soluciones m i (excepto la que da el vector cero) son los vectores propios asociados con el valor propio λ i . El entero m i se denomina multiplicidad geométrica de λ i . Es importante tener en cuenta que la multiplicidad algebraica n i y la multiplicidad geométrica m i pueden ser iguales o no, pero siempre tenemos m in i . El caso más simple es, por supuesto, cuando m i = n i = 1 . El número total de vectores propios linealmente independientes, N v , se puede calcular sumando las multiplicidades geométricas

Los vectores propios pueden indexarse ​​por valores propios, utilizando un índice doble, donde v ij es el j º vector propio para el i º valor propio. Los vectores propios también pueden indexarse ​​utilizando la notación más simple de un único índice v k , con k = 1, 2, ..., N v .

Descomposición propia de una matriz

Sea A una matriz cuadrada n × n con n vectores propios linealmente independientes q i (donde i = 1, ..., n ). Entonces A puede factorizarse como donde Q es la matriz cuadrada n × n cuya i ésima columna es el vector propio q i de A , y Λ es la matriz diagonal cuyos elementos diagonales son los valores propios correspondientes, Λ ii = λ i . Nótese que solo las matrices diagonalizables pueden factorizarse de esta manera. Por ejemplo, la matriz defectuosa (que es una matriz de corte ) no puede diagonalizarse.

Los n vectores propios q i suelen estar normalizados, pero no tienen por qué estarlo. Un conjunto no normalizado de n vectores propios, v i, también se puede utilizar como columnas de Q. Esto se puede entender observando que la magnitud de los vectores propios en Q se cancela en la descomposición por la presencia de Q −1 . Si uno de los valores propios λ i tiene múltiples vectores propios linealmente independientes (es decir, la multiplicidad geométrica de λ i es mayor que 1), entonces estos vectores propios para este valor propio λ i se pueden elegir para que sean mutuamente ortogonales ; sin embargo, si dos vectores propios pertenecen a dos valores propios diferentes, puede ser imposible que sean ortogonales entre sí (ver el Ejemplo a continuación). Un caso especial es que si A es una matriz normal, entonces por el teorema espectral, siempre es posible diagonalizar A en una base ortonormal {q i } .

La descomposición se puede derivar de la propiedad fundamental de los vectores propios: Los vectores propios linealmente independientes q i con valores propios distintos de cero forman una base (no necesariamente ortonormal) para todos los productos posibles A x , para xC n , que es la misma que la imagen (o rango ) de la transformación matricial correspondiente , y también el espacio columna de la matriz A . El número de vectores propios linealmente independientes q i con valores propios distintos de cero es igual al rango de la matriz A , y también a la dimensión de la imagen (o rango) de la transformación matricial correspondiente, así como a su espacio columna.

Los vectores propios linealmente independientes q i con un valor propio de cero forman una base (que puede elegirse para que sea ortonormal) para el espacio nulo (también conocido como núcleo) de la transformación matricial A .

Ejemplo

La matriz real A de 2 × 2 se puede descomponer en una matriz diagonal mediante la multiplicación de una matriz no singular Q

Luego, para alguna matriz diagonal real .

Multiplicando ambos lados de la ecuación de la izquierda por Q : La ecuación anterior se puede descomponer en dos ecuaciones simultáneas : Factorizando los valores propios x e y : Dejando esto nos da dos ecuaciones vectoriales: Y se puede representar mediante una única ecuación vectorial que involucra dos soluciones como valores propios: donde λ representa los dos valores propios x e y , y u representa los vectores a y b .

Desplazando λ u al lado izquierdo y factorizando u Como Q no es singular, es esencial que u no sea cero. Por lo tanto, Dándonos así las soluciones de los valores propios para la matriz A como λ = 1 o λ = 3 , y la matriz diagonal resultante de la descomposición propia de A es entonces .

Volviendo a poner las soluciones en las ecuaciones simultáneas anteriores

Resolviendo las ecuaciones, tenemos Por lo tanto la matriz Q requerida para la descomposición propia de A es que es:

Matriz inversa mediante descomposición propia

Si una matriz A puede descomponerse de forma propia y ninguno de sus valores propios es cero, entonces A es invertible y su inversa está dada por Si es una matriz simétrica, ya que se forma a partir de los vectores propios de , se garantiza que es una matriz ortogonal , por lo tanto . Además, como Λ es una matriz diagonal , su inversa es fácil de calcular:

Implicaciones prácticas

Cuando se utiliza la descomposición propia en una matriz de datos reales medidos , la inversa puede ser menos válida cuando todos los valores propios se utilizan sin modificaciones en la forma anterior. Esto se debe a que, a medida que los valores propios se vuelven relativamente pequeños, su contribución a la inversión es grande. Aquellos que están cerca de cero o en el "ruido" del sistema de medición tendrán una influencia indebida y podrían obstaculizar las soluciones (detección) utilizando la inversa. [4]

Se han propuesto dos mitigaciones: truncar los valores propios pequeños o nulos y extender el valor propio más bajo y confiable a los que están por debajo de él. Véase también la regularización de Tikhonov como un método estadísticamente motivado pero sesgado para eliminar los valores propios a medida que se ven dominados por el ruido.

El primer método de mitigación es similar a una muestra dispersa de la matriz original, en la que se eliminan los componentes que no se consideran valiosos. Sin embargo, si la solución o el proceso de detección están cerca del nivel de ruido, el truncamiento puede eliminar los componentes que influyen en la solución deseada.

La segunda mitigación extiende el valor propio de modo que los valores más bajos tienen mucha menos influencia sobre la inversión, pero aún contribuyen, de modo que aún se encontrarán soluciones cerca del ruido.

El valor propio confiable se puede encontrar asumiendo que los valores propios de valor extremadamente similar y bajo son una buena representación del ruido de medición (que se supone bajo para la mayoría de los sistemas).

Si los valores propios se ordenan por rango, entonces el valor propio confiable se puede encontrar mediante la minimización del laplaciano de los valores propios ordenados: [5] donde los valores propios están subíndices con una s para indicar que están ordenados. La posición de la minimización es el valor propio confiable más bajo. En los sistemas de medición, la raíz cuadrada de este valor propio confiable es el ruido promedio sobre los componentes del sistema.

Cálculo funcional

La descomposición propia permite un cálculo mucho más sencillo de series de potencias de matrices. Si f  ( x ) está dada por entonces sabemos que Como Λ es una matriz diagonal , las funciones de Λ son muy fáciles de calcular:

Los elementos fuera de la diagonal de f  ( Λ ) son cero; es decir, f  ( Λ ) también es una matriz diagonal. Por lo tanto, el cálculo de f  ( A ) se reduce simplemente a calcular la función en cada uno de los valores propios.

Una técnica similar funciona de manera más general con el cálculo funcional holomorfo , utilizando lo anterior. Una vez más, encontramos que

Ejemplos

que son ejemplos de las funciones . Además, la matriz es exponencial .

Descomposición para matrices espectrales

Las matrices espectrales son matrices que poseen valores propios distintos y un conjunto completo de vectores propios. Esta característica permite que las matrices espectrales sean totalmente diagonalizables, lo que significa que pueden descomponerse en formas más simples mediante la descomposición propia. Este proceso de descomposición revela conocimientos fundamentales sobre la estructura y el comportamiento de la matriz, en particular en campos como la mecánica cuántica, el procesamiento de señales y el análisis numérico. [6]

Matrices normales

Una matriz cuadrada de valor complejo es normal (es decir, , donde es la transpuesta conjugada ) si y solo si se puede descomponer como , donde es una matriz unitaria (es decir, ) y diag( ) es una matriz diagonal . [7] Las columnas de forman una base ortonormal y son vectores propios de con valores propios correspondientes . [8]

Por ejemplo, considere la matriz normal 2 x 2 .

Los valores propios son y .

Los vectores propios (normalizados) correspondientes a estos valores propios son y .

La diagonalización es , donde , y .

La verificación es .

Este ejemplo ilustra el proceso de diagonalización de una matriz normal encontrando sus valores propios y vectores propios, formando la matriz unitaria , la matriz diagonal y verificando la descomposición.

Subconjuntos de clases importantes de matrices

Matrices simétricas reales

Como caso especial, para cada matriz simétrica real n × n , los valores propios son reales y los vectores propios pueden elegirse como reales y ortonormales . Por lo tanto, una matriz simétrica real A puede descomponerse como , donde Q es una matriz ortogonal cuyas columnas son los vectores propios reales y ortonormales de A , y Λ es una matriz diagonal cuyas entradas son los valores propios de A . [9]

Matrices diagonalizables

Las matrices diagonalizables se pueden descomponer mediante descomposición propia, siempre que tengan un conjunto completo de vectores propios linealmente independientes. Se pueden expresar como , donde es una matriz cuyas columnas son vectores propios de y es una matriz diagonal que consta de los valores propios correspondientes de . [8]

Matrices definidas positivas

Las matrices definidas positivas son matrices en las que todos los valores propios son positivos. Se pueden descomponer mediante la descomposición de Cholesky , donde es una matriz triangular inferior. [10]

Matrices unitarias y hermíticas

Las matrices unitarias satisfacen (caso real) o (caso complejo), donde denota la transpuesta conjugada y denota la transpuesta conjugada. Se diagonalizan utilizando transformaciones unitarias . [8]

Las matrices hermíticas satisfacen , donde denota la transpuesta conjugada. Pueden diagonalizarse utilizando matrices unitarias u ortogonales . [8]

Datos útiles

Datos útiles sobre los valores propios

Datos útiles sobre los vectores propios

Datos útiles sobre la descomposición propia

Datos útiles sobre la matriz inversa

Cálculos numéricos

Cálculo numérico de valores propios

Supongamos que queremos calcular los valores propios de una matriz dada. Si la matriz es pequeña, podemos calcularlos simbólicamente utilizando el polinomio característico . Sin embargo, esto suele ser imposible para matrices más grandes, en cuyo caso debemos utilizar un método numérico .

En la práctica, los valores propios de matrices grandes no se calculan utilizando el polinomio característico. Calcular el polinomio resulta costoso en sí mismo, y las raíces exactas (simbólicas) de un polinomio de alto grado pueden ser difíciles de calcular y expresar: el teorema de Abel-Ruffini implica que las raíces de los polinomios de alto grado (5 o más) no pueden, en general, expresarse simplemente utilizando raíces n- ésimas. Por lo tanto, los algoritmos generales para encontrar vectores propios y valores propios son iterativos .

Existen algoritmos numéricos iterativos para aproximar raíces de polinomios, como el método de Newton , pero en general no es práctico calcular el polinomio característico y luego aplicar estos métodos. Una razón es que pequeños errores de redondeo en los coeficientes del polinomio característico pueden conducir a grandes errores en los valores y vectores propios: las raíces son una función extremadamente mal condicionada de los coeficientes. [11]

Un método iterativo simple y preciso es el método de potencia : se elige un vector aleatorio v y se calcula una secuencia de vectores unitarios como

Esta secuencia casi siempre convergerá a un vector propio correspondiente al valor propio de mayor magnitud, siempre que v tenga un componente distinto de cero de este vector propio en la base del vector propio (y también siempre que haya solo un valor propio de mayor magnitud). Este algoritmo simple es útil en algunas aplicaciones prácticas; por ejemplo, Google lo usa para calcular el ranking de páginas de documentos en su motor de búsqueda. [12] Además, el método de potencia es el punto de partida para muchos algoritmos más sofisticados. Por ejemplo, al mantener no solo el último vector en la secuencia, sino en su lugar mirando el lapso de todos los vectores en la secuencia, uno puede obtener una mejor aproximación (convergente más rápida) para el vector propio, y esta idea es la base de la iteración de Arnoldi . [11] Alternativamente, el importante algoritmo QR también se basa en una transformación sutil de un método de potencia. [11]

Cálculo numérico de vectores propios

Una vez calculados los valores propios, los vectores propios se pueden calcular resolviendo la ecuación utilizando la eliminación gaussiana o cualquier otro método para resolver ecuaciones matriciales .

Sin embargo, en los métodos prácticos de valores propios a gran escala, los vectores propios se calculan normalmente de otras formas, como un subproducto del cálculo del valor propio. En la iteración de potencia , por ejemplo, el vector propio se calcula en realidad antes que el valor propio (que normalmente se calcula mediante el cociente de Rayleigh del vector propio). [11] En el algoritmo QR para una matriz hermítica (o cualquier matriz normal), los vectores propios ortonormales se obtienen como un producto de las matrices Q a partir de los pasos del algoritmo. [11] (Para matrices más generales, el algoritmo QR produce primero la descomposición de Schur , a partir de la cual se pueden obtener los vectores propios mediante un procedimiento de sustitución hacia atrás . [13] ) Para las matrices hermíticas, el algoritmo de valores propios de divide y vencerás es más eficiente que el algoritmo QR si se desean tanto vectores propios como valores propios. [11]

Temas adicionales

Espacios propios generalizados

Recordemos que la multiplicidad geométrica de un valor propio puede describirse como la dimensión del espacio propio asociado, el espacio nulo de λ IA . La multiplicidad algebraica también puede considerarse como una dimensión: es la dimensión del espacio propio generalizado asociado (primer sentido), que es el espacio nulo de la matriz ( λ IA ) k para cualquier k suficientemente grande . Es decir, es el espacio de vectores propios generalizados (primer sentido), donde un vector propio generalizado es cualquier vector que eventualmente se convierte en 0 si λ IA se le aplica suficientes veces sucesivas. Cualquier vector propio es un vector propio generalizado, y por lo tanto cada espacio propio está contenido en el espacio propio generalizado asociado. Esto proporciona una prueba fácil de que la multiplicidad geométrica es siempre menor o igual que la multiplicidad algebraica.

Este uso no debe confundirse con el problema de valor propio generalizado que se describe a continuación.

Vector propio conjugado

Un vector propio conjugado o vector propio conjugado es un vector enviado después de la transformación a un múltiplo escalar de su conjugado, donde el escalar se llama valor propio conjugado o valor propio conjugado de la transformación lineal. Los vectores propios conjugados y los valores propios conjugados representan esencialmente la misma información y significado que los vectores propios y los valores propios regulares, pero surgen cuando se utiliza un sistema de coordenadas alternativo. La ecuación correspondiente es Por ejemplo, en la teoría de dispersión electromagnética coherente, la transformación lineal A representa la acción realizada por el objeto de dispersión, y los vectores propios representan estados de polarización de la onda electromagnética. En óptica , el sistema de coordenadas se define desde el punto de vista de la onda, conocido como Alineación de dispersión frontal (FSA), y da lugar a una ecuación de valor propio regular, mientras que en radar , el sistema de coordenadas se define desde el punto de vista del radar, conocido como Alineación de dispersión posterior (BSA), y da lugar a una ecuación de valor propio conjugado.

Problema de valor propio generalizado

Un problema de valor propio generalizado (segundo sentido) es el problema de encontrar un vector v (distinto de cero) que obedezca donde A y B son matrices. Si v obedece esta ecuación, con algún λ , entonces llamamos v al vector propio generalizado de A y B (en el segundo sentido), y λ se llama el valor propio generalizado de A y B (en el segundo sentido) que corresponde al vector propio generalizado v . Los posibles valores de λ deben obedecer la siguiente ecuación

Si se pueden encontrar n vectores linealmente independientes { v 1 , …, v n } , tales que para cada i ∈ {1, …, n } , Av i = λ i Bv i , entonces definimos las matrices P y D tales que Entonces se cumple la siguiente igualdad Y la prueba es

Y como P es invertible, multiplicamos la ecuación de la derecha por su inversa, terminando la prueba.

El conjunto de matrices de la forma Aλ B , donde λ es un número complejo, se denomina lápiz ; el término matriz lápiz también puede referirse al par ( A , B ) de matrices. [14]

Si B es invertible, entonces el problema original puede escribirse en la forma que corresponde a un problema de valor propio estándar. Sin embargo, en la mayoría de las situaciones es preferible no realizar la inversión, sino resolver el problema de valor propio generalizado como se planteó originalmente. Esto es especialmente importante si A y B son matrices hermíticas , ya que en este caso B −1 A no es generalmente hermítica y las propiedades importantes de la solución ya no son evidentes.

Si A y B son ambos simétricos o hermíticos, y B es también una matriz definida positiva , los valores propios λ i son reales y los vectores propios v 1 y v 2 con valores propios distintos son B -ortogonales ( v 1 * Bv 2 = 0 ). [15] En este caso, los vectores propios pueden elegirse de modo que la matriz P definida anteriormente satisfaga o y exista una base de vectores propios generalizados (no es un problema defectuoso ). [14] Este caso a veces se denomina lápiz definido hermítico o lápiz definido . [14]

Véase también

Notas

  1. ^ Golub, Gene H.; Van Loan, Charles F. (1996), Cálculos matriciales (3.ª ed.), Baltimore: Johns Hopkins University Press , pág. 310, ISBN 978-0-8018-5414-9
  2. ^ Kreyszig, Erwin (1972), Matemáticas avanzadas de ingeniería (3.ª ed.), Nueva York: Wiley , pág. 273, ISBN 978-0-471-50728-4
  3. ^ Nering, Evar D. (1970). Álgebra lineal y teoría de matrices (2.ª ed.). Nueva York: Wiley . p. 270. LCCN  76091646.
  4. ^ Hayde, AF; Twede, DR (2002). Shen, Sylvia S. (ed.). "Observaciones sobre la relación entre los valores propios, el ruido del instrumento y el rendimiento de la detección". Espectrometría de imágenes VIII . Actas de SPIE. 4816 : 355. Bibcode :2002SPIE.4816..355H. doi :10.1117/12.453777. S2CID  120953647.
  5. ^ Twede, DR; Hayden, AF (2004). Shen, Sylvia S; Lewis, Paul E (eds.). "Refinamiento y generalización del método de extensión de la inversión de la matriz de covarianza por regularización". Espectrometría de imágenes IX . Actas de SPIE. 5159 : 299. Bibcode :2004SPIE.5159..299T. doi :10.1117/12.506993. S2CID  123123072.
  6. ^ Allaire, Gregoire (2008). Álgebra lineal numérica. ISBN 978-0-387-34159-0.
  7. ^ Horn & Johnson 1985, pág. 133, Teorema 2.5.3
  8. ^ abcd Shores, Thomas S (2006). "Álgebra lineal aplicada y análisis matricial".
  9. ^ Horn & Johnson 1985, pág. 136, Corolario 2.5.11
  10. ^ Carl D. Meyer (2023). Análisis matricial y álgebra lineal aplicada (2.ª ed.). Sociedad de Matemáticas Industriales y Aplicadas. ISBN 9781611977431.
  11. ^ abcdef Trefethen, Lloyd N. ; Bau, David (1997). Álgebra lineal numérica . SIAM. ISBN 978-0-89871-361-9.
  12. ^ Ipsen, Ilse y Rebecca M. Wills, Análisis y cálculo del PageRank de Google Archivado el 21 de septiembre de 2018 en Wayback Machine , 7º Simposio internacional IMACS sobre métodos iterativos en computación científica, Fields Institute, Toronto, Canadá, 5-8 de mayo de 2005.
  13. ^ Quarteroni, Alfio ; Sacco, Ricardo; Saleri, Fausto (2000). "sección 5.8.2". Matemáticas Numéricas. Saltador. pag. 15.ISBN 978-0-387-98959-4.
  14. ^ abc Bai, Z.; Demmel, J .; Dongarra, J.; Ruhe, A.; Van Der Vorst, H., eds. (2000). "Problemas de valores propios hermíticos generalizados". Plantillas para la solución de problemas de valores propios algebraicos: una guía práctica. Filadelfia: SIAM. ISBN 978-0-89871-471-5Archivado desde el original el 21 de agosto de 2010. Consultado el 9 de septiembre de 2022 .
  15. ^ Parlett, Beresford N. (1998). El problema del valor propio simétrico (ed. reimpresa). Filadelfia: Society for Industrial and Applied Mathematics. p. 345. doi :10.1137/1.9781611971163. ISBN 978-0-89871-402-9.

Referencias

Enlaces externos