En álgebra lineal , una matriz cuadrada se llama diagonalizable o no defectuosa si es similar a una matriz diagonal . Es decir, si existe una matriz invertible y una matriz diagonal tal que . Esto equivale a . (Tales , no son únicos.) Esta propiedad existe para cualquier aplicación lineal: para un espacio vectorial de dimensión finita , una aplicación lineal se llama diagonalizable si existe una base ordenada que consta de vectores propios de . Estas definiciones son equivalentes: si tiene una representación matricial como la anterior, entonces los vectores de columna de forman una base que consta de vectores propios de , y las entradas diagonales de son los valores propios correspondientes de ; con respecto a esta base de vector propio, está representado por .
La diagonalización es el proceso de encontrar lo anterior y facilita muchos cálculos posteriores. Se puede elevar una matriz diagonal a una potencia simplemente elevando las entradas diagonales a esa potencia. El determinante de una matriz diagonal es simplemente el producto de todas las entradas diagonales. Estos cálculos se generalizan fácilmente a .
La transformación geométrica representada por una matriz diagonalizable es una dilatación no homogénea (o escalamiento anisotrópico ). Es decir, puede escalar el espacio en cantidades diferentes en diferentes direcciones. La dirección de cada vector propio se escala mediante un factor dado por el valor propio correspondiente.
Una matriz cuadrada que no es diagonalizable se llama defectuosa . Puede suceder que una matriz con entradas reales sea defectuosa sobre los números reales, es decir, que sea imposible para cualquier matriz invertible y diagonal con entradas reales, pero sí es posible con entradas complejas , por lo que es diagonalizable sobre los números complejos. Por ejemplo, este es el caso de una matriz de rotación genérica .
Muchos resultados para matrices diagonalizables son válidos sólo para un campo algebraicamente cerrado (como los números complejos). En este caso, las matrices diagonalizables son densas en el espacio de todas las matrices, lo que significa que cualquier matriz defectuosa puede deformarse en una matriz diagonalizable mediante una pequeña perturbación ; y la descomposición de Jordan-Chevalley establece que cualquier matriz es únicamente la suma de una matriz diagonalizable y una matriz nilpotente . Sobre un campo algebraicamente cerrado, las matrices diagonalizables son equivalentes a las matrices semisimples .
Definición
Una matriz cuadrada , con entradas en un campo , se llama diagonalizable o no defectuosa si existe una matriz invertible (es decir, un elemento del grupo lineal general GL n ( F )), tal que sea una matriz diagonal. Formalmente,
Caracterización
El hecho fundamental sobre mapas y matrices diagonalizables se expresa de la siguiente manera:
Una matriz sobre un campo es diagonalizable si y sólo si la suma de las dimensiones de sus espacios propios es igual a , que es el caso si y sólo si existe una base compuesta por vectores propios de . Si se ha encontrado dicha base, se puede formar la matriz que tenga estos vectores de base como columnas, y será una matriz diagonal cuyas entradas diagonales son los valores propios de . La matriz se conoce como matriz modal para .
Un mapa lineal es diagonalizable si y sólo si la suma de las dimensiones de sus espacios propios es igual a , que es el caso si y sólo si existe una base que consta de vectores propios de . Con respecto a dicha base, estará representada por una matriz diagonal. Las entradas diagonales de esta matriz son los valores propios de .
La siguiente condición suficiente (pero no necesaria) suele resultar útil.
Una matriz es diagonalizable sobre el campo si tiene valores propios distintos en , es decir, si su polinomio característico tiene raíces distintas en ; sin embargo, lo contrario puede ser falso. Considerar
que tiene valores propios 1, 2, 2 (no todos distintos) y es diagonalizable con forma diagonal ( similar a )
Lo contrario falla cuando tiene un espacio propio de dimensión superior a 1. En este ejemplo, el espacio propio asociado con el valor propio 2 tiene dimensión 2.
Un mapa lineal con es diagonalizable si tiene valores propios distintos, es decir, si su polinomio característico tiene raíces distintas en .
Sea una matriz sobre . Si es diagonalizable, también lo es cualquier potencia del mismo. Por el contrario, si es invertible, es algebraicamente cerrado y es diagonalizable para algunos que no son un múltiplo entero de la característica de , entonces es diagonalizable. Prueba: Si es diagonalizable, entonces es aniquilado por algún polinomio , que no tiene raíz múltiple (ya que ) y se divide por el polinomio mínimo de .
En los números complejos , casi todas las matrices son diagonalizables. Más precisamente: el conjunto de matrices complejas que no son diagonalizables sobre , consideradas como un subconjunto de , tiene medida de Lebesgue cero. También se puede decir que las matrices diagonalizables forman un subconjunto denso con respecto a la topología de Zariski : las matrices no diagonalizables se encuentran dentro del conjunto evanescente del discriminante del polinomio característico, que es una hipersuperficie . De ahí se sigue también la densidad en la topología habitual ( fuerte ) dada por una norma . No ocurre lo mismo con el resto .
La descomposición Jordan-Chevalley expresa un operador como la suma de su parte semisimple (es decir, diagonalizable) y su parte nilpotente . Por tanto, una matriz es diagonalizable si y sólo si su parte nilpotente es cero. Dicho de otra manera, una matriz es diagonalizable si cada bloque en su forma de Jordan no tiene parte nilpotente; es decir, cada "bloque" es una matriz uno por uno.
Diagonalización
La diagonalización de una matriz simétrica se puede interpretar como una rotación de los ejes para alinearlos con los vectores propios.
Entonces los vectores de columna de son vectores propios derechos de , y la entrada diagonal correspondiente es el valor propio correspondiente . La invertibilidad de también sugiere que los vectores propios son linealmente independientes y forman una base de . Ésta es la condición necesaria y suficiente para la diagonalizabilidad y el enfoque canónico de la diagonalización. Los vectores fila de son los vectores propios izquierdos de .
Cuando una matriz compleja es una matriz hermitiana (o más generalmente una matriz normal ), se pueden elegir vectores propios de para formar una base ortonormal de y se pueden elegir para que sean una matriz unitaria . Si además, es una matriz simétrica real , entonces sus vectores propios se pueden elegir para que sean una base ortonormal y se pueden elegir para que sean una matriz ortogonal .
Para la mayoría de los trabajos prácticos, las matrices se diagonalizan numéricamente utilizando software de computadora. Existen muchos algoritmos para lograr esto.
Diagonalización simultánea
Se dice que un conjunto de matrices es simultáneamente diagonalizable si existe una única matriz invertible tal que sea una matriz diagonal para todos los del conjunto. El siguiente teorema caracteriza matrices simultáneamente diagonalizables: Un conjunto de matrices diagonalizables conmuta si y sólo si el conjunto es simultáneamente diagonalizable. [1] : pág. 64
El conjunto de todas las matrices diagonalizables (sobre ) con no es diagonalizable simultáneamente. Por ejemplo, las matrices
son diagonalizables pero no simultáneamente diagonalizables porque no conmutan.
Un conjunto consiste en conmutar matrices normales si y sólo si es simultáneamente diagonalizable por una matriz unitaria ; es decir, existe una matriz unitaria tal que es diagonal para todos los del conjunto.
Las involuciones son diagonalizables sobre los reales (y de hecho, sobre cualquier campo de característica que no sea 2), con ±1 en la diagonal.
Los endomorfismos de orden finito son diagonalizables (o cualquier campo algebraicamente cerrado donde la característica del campo no divide el orden del endomorfismo) con raíces de la unidad en la diagonal. Esto se deduce ya que el polinomio mínimo es separable , porque las raíces de la unidad son distintas.
Las matrices simétricas reales son diagonalizables mediante matrices ortogonales ; es decir, dada una matriz simétrica real , es diagonal para alguna matriz ortogonal . De manera más general, las matrices son diagonalizables mediante matrices unitarias si y sólo si son normales . En el caso de la matriz simétrica real, vemos que , se cumple claramente . Ejemplos de matrices normales son las matrices simétricas reales (o sesgadas-simétricas ) (p. ej., matrices de covarianza) y las matrices hermitianas (o matrices sesgadas-hermitianas). Consulte los teoremas espectrales para generalizaciones a espacios vectoriales de dimensión infinita.
Matrices que no son diagonalizables
En general, una matriz de rotación no es diagonalizable sobre los reales, pero todas las matrices de rotación son diagonalizables sobre el campo complejo. Incluso si una matriz no es diagonalizable, siempre es posible "hacer lo mejor que se pueda" y encontrar una matriz con las mismas propiedades que consista en valores propios en la diagonal principal y unos o ceros en la superdiagonal, conocida como normal de Jordan. forma .
Esta matriz no es diagonalizable: no existe ninguna matriz que sea diagonal. De hecho, tiene un valor propio (es decir, cero) y este valor propio tiene multiplicidad algebraica 2 y multiplicidad geométrica 1.
Algunas matrices reales no son diagonalizables sobre los reales. Consideremos, por ejemplo, la matriz
La matriz no tiene valores propios reales, por lo que no existe una matriz real que sea una matriz diagonal. Sin embargo, podemos diagonalizar si permitimos números complejos. De hecho, si tomamos
entonces es diagonal. Es fácil encontrar que es la matriz de rotación la que gira en sentido antihorario en un ángulo.
Tenga en cuenta que los ejemplos anteriores muestran que la suma de matrices diagonalizables no necesita ser diagonalizable.
Cómo diagonalizar una matriz
Diagonalizar una matriz es el mismo proceso que encontrar sus valores propios y vectores propios , en el caso de que los vectores propios formen una base. Por ejemplo, considere la matriz
Las raíces del polinomio característico son los valores propios . Al resolver el sistema lineal se obtienen los vectores propios y , mientras que se obtiene ; es decir, para . Estos vectores forman una base de , por lo que podemos ensamblarlos como vectores columna de una matriz de cambio de base para obtener:
por
.
Tenga en cuenta que no existe un orden preferido de los vectores propios en ; cambiar el orden de los vectores propios en solo cambia el orden de los valores propios en la forma diagonalizada de . [2]
Aplicación a funciones matriciales
La diagonalización se puede utilizar para calcular eficientemente las potencias de una matriz :
y este último es fácil de calcular ya que sólo involucra las potencias de una matriz diagonal. Por ejemplo, para la matriz con valores propios del ejemplo anterior calculamos:
Este enfoque se puede generalizar a funciones matriciales exponenciales y otras funciones matriciales que se pueden definir como series de potencias. Por ejemplo, definiendo , tenemos:
Calcular las distintas potencias de revela un patrón sorprendente:
El fenómeno anterior se puede explicar diagonalizando . Para lograr esto, necesitamos una base compuesta por vectores propios de . Una de esas bases de vectores propios está dada por
donde e i denota la base estándar de R n . El cambio inverso de base viene dado por
Cálculos sencillos muestran que
Por tanto, a y b son los valores propios correspondientes a u y v , respectivamente. Por linealidad de la multiplicación de matrices, tenemos que
Volviendo a la base estándar, tenemos
Las relaciones anteriores, expresadas en forma matricial, son
Una aproximación muy común es truncar el espacio de Hilbert a una dimensión finita, después de lo cual la ecuación de Schrödinger puede formularse como un problema de valores propios de una matriz hermitiana real simétrica o compleja. Formalmente esta aproximación se basa en el principio variacional , válido para los hamiltonianos que están acotados desde abajo.
^ Cuerno, Roger A.; Johnson, Charles R. (2013). Análisis matricial, segunda edición . Prensa de la Universidad de Cambridge. ISBN 9780521839402.
^ Antón, H.; Rorres, C. (22 de febrero de 2000). Álgebra lineal elemental (versión de aplicaciones) (8ª ed.). John Wiley e hijos. ISBN978-0-471-17052-5.