stringtranslate.com

Matriz diagonalizable

En álgebra lineal , una matriz cuadrada  se denomina diagonalizable o no defectuosa si es similar a una matriz diagonal . Es decir, si existe una matriz invertible  y una matriz diagonal tales que . Esto es equivalente a . (Tales , no son únicas). Esta propiedad existe para cualquier función lineal: para un espacio vectorial de dimensión finita , una función lineal  se denomina diagonalizable si existe una base ordenada de que  consiste en vectores propios de . Estas definiciones son equivalentes: si  tiene una representación matricial como la anterior, entonces los vectores columna de  forman una base que consiste en vectores propios de , y las entradas diagonales de son los valores propios  correspondientes de ; con respecto a esta base de vector propio,  se representa por .

La diagonalización es el proceso de hallar los valores anteriores  y facilita muchos cálculos posteriores. Se puede elevar una matriz diagonal  a una potencia simplemente elevando las entradas diagonales a esa potencia. El determinante de una matriz diagonal es simplemente el producto de todas las entradas diagonales. Dichos cálculos se generalizan fácilmente a .

La transformación geométrica representada por una matriz diagonalizable es una dilatación no homogénea (o escala anisotrópica ). Es decir, puede escalar el espacio en una cantidad diferente en diferentes direcciones. La dirección de cada vector propio se escala mediante un factor dado por el valor propio correspondiente.

Una matriz cuadrada que no es diagonalizable se llama defectuosa . Puede ocurrir que una matriz con valores reales sea defectuosa sobre los números reales, es decir, que sea imposible que sea invertible y diagonal con valores reales, pero sí es posible con valores complejos , es decir, que sea diagonalizable sobre los números complejos. Por ejemplo, este es el caso de una matriz de rotación genérica .

Muchos resultados para matrices diagonalizables se cumplen solo en un campo algebraicamente cerrado (como los números complejos). En este caso, las matrices diagonalizables son densas en el espacio de todas las matrices, lo que significa que cualquier matriz defectuosa puede deformarse en una matriz diagonalizable mediante una pequeña perturbación ; y la descomposición de Jordan-Chevalley establece que cualquier matriz es únicamente la suma de una matriz diagonalizable y una matriz nilpotente . En un campo algebraicamente cerrado, las matrices diagonalizables son equivalentes a matrices semisimples .

Definición

Una matriz cuadrada con entradas en un campo se denomina diagonalizable o no defectuosa si existe una matriz invertible (es decir, un elemento del grupo lineal general GL n ( F )), tal que es una matriz diagonal.

Caracterización

El hecho fundamental sobre los mapas y matrices diagonalizables se expresa de la siguiente manera:

La siguiente condición suficiente (pero no necesaria) suele ser útil.

Sea una matriz sobre . Si es diagonalizable, entonces también lo es cualquier potencia de ella. A la inversa, si es invertible, es algebraicamente cerrada y es diagonalizable para algún polinomio que no sea un múltiplo entero de la característica de , entonces es diagonalizable. Demostración: Si es diagonalizable, entonces es aniquilada por algún polinomio , que no tiene raíz múltiple (ya que ) y es dividida por el polinomio mínimo de .

Sobre los números complejos , casi todas las matrices son diagonalizables. Más precisamente: el conjunto de matrices complejas que no son diagonalizables sobre , considerado como un subconjunto de , tiene medida de Lebesgue cero. También se puede decir que las matrices diagonalizables forman un subconjunto denso con respecto a la topología de Zariski : las matrices no diagonalizables se encuentran dentro del conjunto nulo del discriminante del polinomio característico, que es una hipersuperficie . De ahí se sigue también la densidad en la topología usual ( fuerte ) dada por una norma . Lo mismo no es cierto sobre .

La descomposición de Jordan-Chevalley expresa un operador como la suma de su parte semisimple (es decir, diagonalizable) y su parte nilpotente . Por lo tanto, una matriz es diagonalizable si y solo si su parte nilpotente es cero. Dicho de otra manera, una matriz es diagonalizable si cada bloque en su forma de Jordan no tiene una parte nilpotente; es decir, cada "bloque" es una matriz de uno por uno.

Diagonalización

Consideremos las dos bases arbitrarias siguientes y . Supongamos que existe una transformación lineal representada por una matriz que se escribe con respecto a la base E. Supongamos también que existe la siguiente ecuación propia:

Los vectores propios alfa se escriben también con respecto a la base E. Dado que el conjunto F es a la vez un conjunto de vectores propios para la matriz A y abarca un espacio vectorial arbitrario, entonces decimos que existe una matriz que es una matriz diagonal que es similar a . En otras palabras, es una matriz diagonalizable si la matriz está escrita en la base F. Realizamos el cálculo del cambio de base utilizando la matriz de transición , que cambia la base de E a F de la siguiente manera:

,

donde es la matriz de transición de base E a base F. La inversa puede entonces equipararse a una nueva matriz de transición que cambia la base de F a E, y así tenemos la siguiente relación:

Tanto las matrices de transición como las de transición son invertibles. Por lo tanto, podemos manipular las matrices de la siguiente manera: La matriz se denotará como , que todavía está en la base E. De manera similar, la matriz diagonal está en la base F.

La diagonalización de una matriz simétrica puede interpretarse como una rotación de los ejes para alinearlos con los vectores propios.

Si una matriz se puede diagonalizar, es decir,

entonces:

La matriz de transición S tiene los vectores de base E como columnas escritas en la base F. Inversamente, la matriz de transición inversa P tiene vectores de base F escritos en la base de E de modo que podemos representar P en forma de matriz de bloques de la siguiente manera:

Como resultado podemos escribir:

En forma de matriz de bloques, podemos considerar que la matriz A es una matriz de dimensiones 1x1, mientras que P es una matriz de dimensiones 1xn. La matriz D se puede escribir en forma completa con todos los elementos diagonales como una matriz de dimensiones nxn:

Realizando la multiplicación de matrices anterior obtenemos el siguiente resultado: Tomando cada componente de la matriz de bloques individualmente en ambos lados, obtenemos lo siguiente:

Por lo tanto, los vectores columna de son vectores propios derechos de , y la entrada diagonal correspondiente es el valor propio correspondiente . La invertibilidad de también sugiere que los vectores propios son linealmente independientes y forman una base de . Esta es la condición necesaria y suficiente para la diagonalizabilidad y el enfoque canónico de la diagonalización. Los vectores fila de son los vectores propios izquierdos de .

Cuando una matriz compleja es una matriz hermítica (o, más generalmente, una matriz normal ), los vectores propios de pueden elegirse para formar una base ortonormal de , y pueden elegirse para que sean una matriz unitaria . Si, además, es una matriz simétrica real , entonces sus vectores propios pueden elegirse para que sean una base ortonormal de y pueden elegirse para que sean una matriz ortogonal .

En la mayoría de los casos, las matrices se diagonalizan numéricamente mediante software informático. Existen muchos algoritmos para lograrlo.

Diagonalización simultánea

Se dice que un conjunto de matrices es diagonalizable simultáneamente si existe una única matriz invertible tal que sea una matriz diagonal para cada una de las matrices del conjunto. El siguiente teorema caracteriza a las matrices diagonalizables simultáneamente: Un conjunto de matrices diagonalizables conmuta si y sólo si el conjunto es diagonalizable simultáneamente. [1] : p. 64 

El conjunto de todas las matrices diagonalizables (sobre ) con no es diagonalizable simultáneamente. Por ejemplo, las matrices

son diagonalizables pero no simultáneamente diagonalizables porque no conmutan.

Un conjunto está formado por matrices normales conmutativas si y sólo si es simultáneamente diagonalizable por una matriz unitaria ; es decir, existe una matriz unitaria tal que es diagonal para cada una de las matrices del conjunto.

En el lenguaje de la teoría de Lie , un conjunto de matrices diagonalizables simultáneamente genera un álgebra de Lie toral .

Ejemplos

Matrices diagonalizables

Matrices que no son diagonalizables

En general, una matriz de rotación no es diagonalizable sobre los números reales, pero todas las matrices de rotación son diagonalizables sobre el cuerpo complejo. Incluso si una matriz no es diagonalizable, siempre es posible "hacer lo mejor que se pueda" y encontrar una matriz con las mismas propiedades que consista en valores propios en la diagonal principal y unos o ceros en la superdiagonal, conocida como forma normal de Jordan .

Algunas matrices no son diagonalizables sobre ningún cuerpo, sobre todo las matrices nilpotentes no nulas . Esto sucede de forma más general si las multiplicidades algebraicas y geométricas de un valor propio no coinciden. Por ejemplo, considere

Esta matriz no es diagonalizable: no existe ninguna matriz que sea diagonal. En efecto, tiene un valor propio (es decir, cero) y este valor propio tiene multiplicidad algebraica 2 y multiplicidad geométrica 1.

Algunas matrices reales no son diagonalizables sobre los números reales. Consideremos, por ejemplo, la matriz

La matriz no tiene ningún valor propio real, por lo que no existe una matriz real que sea una matriz diagonal. Sin embargo, podemos diagonalizar si permitimos números complejos. De hecho, si tomamos

Entonces es diagonal. Es fácil encontrar que es la matriz de rotación que gira en sentido antihorario un ángulo

Tenga en cuenta que los ejemplos anteriores muestran que la suma de matrices diagonalizables no necesita ser diagonalizable.

Cómo diagonalizar una matriz

La diagonalización de una matriz es el mismo proceso que hallar sus valores propios y vectores propios , en el caso de que los vectores propios formen una base. Por ejemplo, considere la matriz

Las raíces del polinomio característico son los valores propios . Resolviendo el sistema lineal se obtienen los vectores propios y , mientras que se obtiene ; es decir, para . Estos vectores forman una base de , por lo que podemos ensamblarlos como vectores columna de una matriz de cambio de base para obtener: Podemos ver esta ecuación en términos de transformaciones: toma la base estándar a la base propia, , por lo que tenemos: de modo que tiene la base estándar como sus vectores propios, que es la propiedad definitoria de .

Tenga en cuenta que no existe un orden preferido de los vectores propios en ; cambiar el orden de los vectores propios en solo cambia el orden de los valores propios en la forma diagonalizada de . [2]

Aplicación a funciones matriciales

La diagonalización se puede utilizar para calcular de manera eficiente las potencias de una matriz :

Y este último es fácil de calcular ya que solo involucra las potencias de una matriz diagonal. Por ejemplo, para la matriz con valores propios en el ejemplo anterior calculamos:

Este enfoque se puede generalizar a funciones matriciales exponenciales y otras funciones matriciales que se pueden definir como series de potencias. Por ejemplo, al definir , tenemos:

Esto es particularmente útil para encontrar expresiones en forma cerrada para términos de secuencias recursivas lineales , como los números de Fibonacci .

Aplicación particular

Por ejemplo, considere la siguiente matriz:

El cálculo de las distintas potencias revela un patrón sorprendente:

El fenómeno anterior se puede explicar diagonalizando . Para lograrlo, necesitamos una base de que consista en vectores propios de . Una de esas bases de vectores propios viene dada por

donde e i denota la base estándar de R n . El cambio inverso de base se da por

Cálculos sencillos muestran que

Por lo tanto, a y b son los valores propios correspondientes a u y v , respectivamente. Por linealidad de la multiplicación de matrices, tenemos que

Volviendo a la base estándar, tenemos

Las relaciones anteriores, expresadas en forma matricial, son

Lo que explica el fenómeno antes mencionado.

Aplicación de la mecánica cuántica

En los cálculos de mecánica cuántica y química cuántica , la diagonalización de matrices es uno de los procesos numéricos que se aplican con más frecuencia. La razón básica es que la ecuación de Schrödinger , independiente del tiempo , es una ecuación de valores propios, aunque en la mayoría de las situaciones físicas se da en un espacio de Hilbert de dimensión infinita .

Una aproximación muy común consiste en truncar el espacio de Hilbert a una dimensión finita, tras lo cual la ecuación de Schrödinger puede formularse como un problema de valores propios de una matriz hermítica compleja o simétrica real. Formalmente, esta aproximación se basa en el principio variacional , válido para hamiltonianos acotados desde abajo.

La teoría de perturbación de primer orden también conduce al problema del valor propio de la matriz para estados degenerados.

Véase también

Notas

Referencias

  1. ^ Horn, Roger A.; Johnson, Charles R. (2013). Análisis de matrices, segunda edición . Cambridge University Press. ISBN 9780521839402.
  2. ^ Anton, H.; Rorres, C. (22 de febrero de 2000). Álgebra lineal elemental (versión de aplicaciones) (8.ª ed.). John Wiley & Sons. ISBN 978-0-471-17052-5.