En álgebra lineal , una matriz cuadrada se denomina diagonalizable o no defectuosa si es similar a una matriz diagonal . Es decir, si existe una matriz invertible y una matriz diagonal tales que . Esto es equivalente a . (Tales , no son únicas). Esta propiedad existe para cualquier función lineal: para un espacio vectorial de dimensión finita , una función lineal se denomina diagonalizable si existe una base ordenada de que consiste en vectores propios de . Estas definiciones son equivalentes: si tiene una representación matricial como la anterior, entonces los vectores columna de forman una base que consiste en vectores propios de , y las entradas diagonales de son los valores propios correspondientes de ; con respecto a esta base de vector propio, se representa por .
La diagonalización es el proceso de hallar los valores anteriores y facilita muchos cálculos posteriores. Se puede elevar una matriz diagonal a una potencia simplemente elevando las entradas diagonales a esa potencia. El determinante de una matriz diagonal es simplemente el producto de todas las entradas diagonales. Dichos cálculos se generalizan fácilmente a .
La transformación geométrica representada por una matriz diagonalizable es una dilatación no homogénea (o escala anisotrópica ). Es decir, puede escalar el espacio en una cantidad diferente en diferentes direcciones. La dirección de cada vector propio se escala mediante un factor dado por el valor propio correspondiente.
Una matriz cuadrada que no es diagonalizable se llama defectuosa . Puede ocurrir que una matriz con valores reales sea defectuosa sobre los números reales, es decir, que sea imposible que sea invertible y diagonal con valores reales, pero sí es posible con valores complejos , es decir, que sea diagonalizable sobre los números complejos. Por ejemplo, este es el caso de una matriz de rotación genérica .
Muchos resultados para matrices diagonalizables se cumplen solo en un campo algebraicamente cerrado (como los números complejos). En este caso, las matrices diagonalizables son densas en el espacio de todas las matrices, lo que significa que cualquier matriz defectuosa puede deformarse en una matriz diagonalizable mediante una pequeña perturbación ; y la descomposición de Jordan-Chevalley establece que cualquier matriz es únicamente la suma de una matriz diagonalizable y una matriz nilpotente . En un campo algebraicamente cerrado, las matrices diagonalizables son equivalentes a matrices semisimples .
Definición
Una matriz cuadrada con entradas en un campo se denomina diagonalizable o no defectuosa si existe una matriz invertible (es decir, un elemento del grupo lineal general GL n ( F )), tal que es una matriz diagonal.
Caracterización
El hecho fundamental sobre los mapas y matrices diagonalizables se expresa de la siguiente manera:
Una matriz sobre un cuerpo es diagonalizable si y solo si la suma de las dimensiones de sus espacios propios es igual a , lo que es el caso si y solo si existe una base de que consiste en vectores propios de . Si se ha encontrado dicha base, se puede formar la matriz que tiene estos vectores base como columnas, y será una matriz diagonal cuyas entradas diagonales son los valores propios de . La matriz se conoce como matriz modal para .
Una función lineal es diagonalizable si y solo si la suma de las dimensiones de sus espacios propios es igual a , lo que es el caso si y solo si existe una base de que consiste en vectores propios de . Con respecto a dicha base, se representará mediante una matriz diagonal. Las entradas diagonales de esta matriz son los valores propios de .
La siguiente condición suficiente (pero no necesaria) suele ser útil.
Una matriz es diagonalizable sobre el cuerpo si tiene valores propios distintos en , es decir, si su polinomio característico tiene raíces distintas en ; sin embargo, la inversa puede ser falsa. Considere que tiene valores propios 1, 2, 2 (no todos distintos) y es diagonalizable con forma diagonal ( similar a ) y matriz de cambio de base : La inversa falla cuando tiene un espacio propio de dimensión mayor que 1. En este ejemplo, el espacio propio de asociado con el valor propio 2 tiene dimensión 2.
Una aplicación lineal con es diagonalizable si tiene valores propios distintos, es decir, si su polinomio característico tiene raíces distintas en .
Sea una matriz sobre . Si es diagonalizable, entonces también lo es cualquier potencia de ella. A la inversa, si es invertible, es algebraicamente cerrada y es diagonalizable para algún polinomio que no sea un múltiplo entero de la característica de , entonces es diagonalizable. Demostración: Si es diagonalizable, entonces es aniquilada por algún polinomio , que no tiene raíz múltiple (ya que ) y es dividida por el polinomio mínimo de .
Sobre los números complejos , casi todas las matrices son diagonalizables. Más precisamente: el conjunto de matrices complejas que no son diagonalizables sobre , considerado como un subconjunto de , tiene medida de Lebesgue cero. También se puede decir que las matrices diagonalizables forman un subconjunto denso con respecto a la topología de Zariski : las matrices no diagonalizables se encuentran dentro del conjunto nulo del discriminante del polinomio característico, que es una hipersuperficie . De ahí se sigue también la densidad en la topología usual ( fuerte ) dada por una norma . Lo mismo no es cierto sobre .
La descomposición de Jordan-Chevalley expresa un operador como la suma de su parte semisimple (es decir, diagonalizable) y su parte nilpotente . Por lo tanto, una matriz es diagonalizable si y solo si su parte nilpotente es cero. Dicho de otra manera, una matriz es diagonalizable si cada bloque en su forma de Jordan no tiene una parte nilpotente; es decir, cada "bloque" es una matriz de uno por uno.
Diagonalización
Consideremos las dos bases arbitrarias siguientes y . Supongamos que existe una transformación lineal representada por una matriz que se escribe con respecto a la base E. Supongamos también que existe la siguiente ecuación propia:
Los vectores propios alfa se escriben también con respecto a la base E. Dado que el conjunto F es a la vez un conjunto de vectores propios para la matriz A y abarca un espacio vectorial arbitrario, entonces decimos que existe una matriz que es una matriz diagonal que es similar a . En otras palabras, es una matriz diagonalizable si la matriz está escrita en la base F. Realizamos el cálculo del cambio de base utilizando la matriz de transición , que cambia la base de E a F de la siguiente manera:
,
donde es la matriz de transición de base E a base F. La inversa puede entonces equipararse a una nueva matriz de transición que cambia la base de F a E, y así tenemos la siguiente relación:
Tanto las matrices de transición como las de transición son invertibles. Por lo tanto, podemos manipular las matrices de la siguiente manera: La matriz se denotará como , que todavía está en la base E. De manera similar, la matriz diagonal está en la base F.
Si una matriz se puede diagonalizar, es decir,
entonces:
La matriz de transición S tiene los vectores de base E como columnas escritas en la base F. Inversamente, la matriz de transición inversa P tiene vectores de base F escritos en la base de E de modo que podemos representar P en forma de matriz de bloques de la siguiente manera:
Como resultado podemos escribir:
En forma de matriz de bloques, podemos considerar que la matriz A es una matriz de dimensiones 1x1, mientras que P es una matriz de dimensiones 1xn. La matriz D se puede escribir en forma completa con todos los elementos diagonales como una matriz de dimensiones nxn:
Realizando la multiplicación de matrices anterior obtenemos el siguiente resultado: Tomando cada componente de la matriz de bloques individualmente en ambos lados, obtenemos lo siguiente:
Por lo tanto, los vectores columna de son vectores propios derechos de , y la entrada diagonal correspondiente es el valor propio correspondiente . La invertibilidad de también sugiere que los vectores propios son linealmente independientes y forman una base de . Esta es la condición necesaria y suficiente para la diagonalizabilidad y el enfoque canónico de la diagonalización. Los vectores fila de son los vectores propios izquierdos de .
Cuando una matriz compleja es una matriz hermítica (o, más generalmente, una matriz normal ), los vectores propios de pueden elegirse para formar una base ortonormal de , y pueden elegirse para que sean una matriz unitaria . Si, además, es una matriz simétrica real , entonces sus vectores propios pueden elegirse para que sean una base ortonormal de y pueden elegirse para que sean una matriz ortogonal .
En la mayoría de los casos, las matrices se diagonalizan numéricamente mediante software informático. Existen muchos algoritmos para lograrlo.
Diagonalización simultánea
Se dice que un conjunto de matrices es diagonalizable simultáneamente si existe una única matriz invertible tal que sea una matriz diagonal para cada una de las matrices del conjunto. El siguiente teorema caracteriza a las matrices diagonalizables simultáneamente: Un conjunto de matrices diagonalizables conmuta si y sólo si el conjunto es diagonalizable simultáneamente. [1] : p. 64
El conjunto de todas las matrices diagonalizables (sobre ) con no es diagonalizable simultáneamente. Por ejemplo, las matrices
son diagonalizables pero no simultáneamente diagonalizables porque no conmutan.
Un conjunto está formado por matrices normales conmutativas si y sólo si es simultáneamente diagonalizable por una matriz unitaria ; es decir, existe una matriz unitaria tal que es diagonal para cada una de las matrices del conjunto.
Las involuciones son diagonalizables sobre los reales (y, de hecho, cualquier campo de característica distinta de 2), con ±1 en la diagonal.
Los endomorfismos de orden finito son diagonalizables sobre (o cualquier cuerpo algebraicamente cerrado donde la característica del cuerpo no divide el orden del endomorfismo) con raíces de unidad en la diagonal. Esto se deduce ya que el polinomio minimal es separable , porque las raíces de unidad son distintas.
Las matrices simétricas reales son diagonalizables por matrices ortogonales ; es decir, dada una matriz simétrica real , es diagonal para alguna matriz ortogonal . De manera más general, las matrices son diagonalizables por matrices unitarias si y solo si son normales . En el caso de la matriz simétrica real, vemos que , por lo que se cumple claramente . Ejemplos de matrices normales son matrices simétricas reales (o antisimétricas ) (por ejemplo, matrices de covarianza) y matrices hermíticas (o matrices antihermíticas). Véanse los teoremas espectrales para generalizaciones a espacios vectoriales de dimensión infinita.
Matrices que no son diagonalizables
En general, una matriz de rotación no es diagonalizable sobre los números reales, pero todas las matrices de rotación son diagonalizables sobre el cuerpo complejo. Incluso si una matriz no es diagonalizable, siempre es posible "hacer lo mejor que se pueda" y encontrar una matriz con las mismas propiedades que consista en valores propios en la diagonal principal y unos o ceros en la superdiagonal, conocida como forma normal de Jordan .
Esta matriz no es diagonalizable: no existe ninguna matriz que sea diagonal. En efecto, tiene un valor propio (es decir, cero) y este valor propio tiene multiplicidad algebraica 2 y multiplicidad geométrica 1.
Algunas matrices reales no son diagonalizables sobre los números reales. Consideremos, por ejemplo, la matriz
La matriz no tiene ningún valor propio real, por lo que no existe una matriz real que sea una matriz diagonal. Sin embargo, podemos diagonalizar si permitimos números complejos. De hecho, si tomamos
Entonces es diagonal. Es fácil encontrar que es la matriz de rotación que gira en sentido antihorario un ángulo
Tenga en cuenta que los ejemplos anteriores muestran que la suma de matrices diagonalizables no necesita ser diagonalizable.
Cómo diagonalizar una matriz
La diagonalización de una matriz es el mismo proceso que hallar sus valores y vectores propios , en el caso de que los vectores propios formen una base. Por ejemplo, considere la matriz
Las raíces del polinomio característico son los valores propios . Resolviendo el sistema lineal se obtienen los vectores propios y , mientras que se obtiene ; es decir, para . Estos vectores forman una base de , por lo que podemos ensamblarlos como vectores columna de una matriz de cambio de base para obtener:
Podemos ver esta ecuación en términos de transformaciones: toma la base estándar a la base propia, , por lo que tenemos:
de modo que tiene la base estándar como sus vectores propios, que es la propiedad definitoria de .
Tenga en cuenta que no existe un orden preferido de los vectores propios en ; cambiar el orden de los vectores propios en solo cambia el orden de los valores propios en la forma diagonalizada de . [2]
Aplicación a funciones matriciales
La diagonalización se puede utilizar para calcular de manera eficiente las potencias de una matriz :
Y este último es fácil de calcular, ya que solo implica las potencias de una matriz diagonal. Por ejemplo, para la matriz con valores propios del ejemplo anterior, calculamos:
Este enfoque se puede generalizar a funciones matriciales exponenciales y otras funciones matriciales que se pueden definir como series de potencias. Por ejemplo, al definir , tenemos:
El cálculo de las distintas potencias revela un patrón sorprendente:
El fenómeno anterior se puede explicar diagonalizando . Para lograrlo, necesitamos una base de que consista en vectores propios de . Una de esas bases de vectores propios viene dada por
donde e i denota la base estándar de R n . El cambio inverso de base se da por
Cálculos sencillos muestran que
Por lo tanto, a y b son los valores propios correspondientes a u y v , respectivamente. Por linealidad de la multiplicación de matrices, tenemos que
Volviendo a la base estándar, tenemos
Las relaciones anteriores, expresadas en forma matricial, son
Una aproximación muy común consiste en truncar el espacio de Hilbert a una dimensión finita, tras lo cual la ecuación de Schrödinger puede formularse como un problema de valores propios de una matriz hermítica compleja o simétrica real. Formalmente, esta aproximación se basa en el principio variacional , válido para hamiltonianos acotados desde abajo.
^ Horn, Roger A.; Johnson, Charles R. (2013). Análisis de matrices, segunda edición . Cambridge University Press. ISBN 9780521839402.
^ Anton, H.; Rorres, C. (22 de febrero de 2000). Álgebra lineal elemental (versión de aplicaciones) (8.ª ed.). John Wiley & Sons. ISBN978-0-471-17052-5.