En álgebra lineal , una matriz diagonal es una matriz en la que las entradas fuera de la diagonal principal son todas cero; el término generalmente se refiere a matrices cuadradas . Los elementos de la diagonal principal pueden ser cero o distintos de cero. Un ejemplo de una matriz diagonal 2×2 es , mientras que un ejemplo de una matriz diagonal 3×3 es . Una matriz identidad de cualquier tamaño, o cualquier múltiplo de ella, es una matriz diagonal llamada matriz escalar, por ejemplo, . En geometría , una matriz diagonal puede usarse como una matriz de escala , ya que la multiplicación de matrices con ella da como resultado un cambio de escala (tamaño) y posiblemente también de forma ; solo una matriz escalar da como resultado un cambio uniforme en la escala.
Como se indicó anteriormente, una matriz diagonal es una matriz en la que todas las entradas fuera de la diagonal son cero. Es decir, la matriz D = ( d i , j ) con n columnas y n filas es diagonal si
Sin embargo, las entradas diagonales principales no tienen restricciones.
El término matriz diagonal a veces puede referirse a unaMatriz diagonal rectangular , que es unade mporncon todos los elementos que no tienen la forma d i , siendo i cero. Por ejemplo:
Más a menudo, sin embargo, la matriz diagonal se refiere a matrices cuadradas, que pueden especificarse explícitamente comoMatriz diagonal cuadrada . Una matriz diagonal cuadrada es unamatriz simétrica, por lo que también se la puede llamar matriz diagonalmatriz diagonal simétrica
La siguiente matriz es una matriz diagonal cuadrada:
Si las entradas son números reales o números complejos , entonces también es una matriz normal .
En el resto de este artículo consideraremos únicamente matrices diagonales cuadradas y nos referiremos a ellas simplemente como "matrices diagonales".
Una matriz diagonal D se puede construir a partir de un vector utilizando el operador:
Esto se puede escribir de forma más compacta como .
El mismo operador también se utiliza para representar matrices diagonales de bloques como donde cada argumento Ai es una matriz.
El operador diag puede escribirse como: donde representa el producto de Hadamard y 1 es un vector constante con elementos 1.
El operador de matriz a vector inverso diag a veces se denota con el nombre idéntico, donde el argumento ahora es una matriz y el resultado es un vector de sus entradas diagonales.
La siguiente propiedad consta de:
Una matriz diagonal con entradas diagonales iguales es una matriz escalar ; es decir, un múltiplo escalar λ de la matriz identidad I. Su efecto sobre un vector es la multiplicación escalar por λ . Por ejemplo, una matriz escalar 3×3 tiene la forma:
Las matrices escalares son el centro del álgebra de matrices: es decir, son precisamente las matrices que conmutan con todas las demás matrices cuadradas del mismo tamaño. [a] Por el contrario, sobre un cuerpo (como los números reales), una matriz diagonal con todos los elementos diagonales distintos sólo conmuta con matrices diagonales (su centralizador es el conjunto de matrices diagonales). Esto es así porque si una matriz diagonal tiene entonces dada una matriz M con el término ( i , j ) de los productos son: y y (ya que se puede dividir por m ij ), entonces no conmutan a menos que los términos fuera de la diagonal sean cero. [b] Las matrices diagonales donde las entradas diagonales no son todas iguales o todas distintas tienen centralizadores intermedios entre todo el espacio y sólo las matrices diagonales. [1]
Para un espacio vectorial abstracto V (en lugar del espacio vectorial concreto K n ), el análogo de las matrices escalares son las transformaciones escalares . Esto es cierto de manera más general para un módulo M sobre un anillo R , con el álgebra de endomorfismos End( M ) (álgebra de operadores lineales sobre M ) reemplazando al álgebra de matrices. Formalmente, la multiplicación escalar es una función lineal, que induce una función (de un escalar λ a su transformación escalar correspondiente, la multiplicación por λ ) que exhibe End( M ) como un R - álgebra . Para los espacios vectoriales, las transformaciones escalares son exactamente el centro del álgebra de endomorfismos y, de manera similar, las transformaciones escalares invertibles son el centro del grupo lineal general GL( V ) . La primera es más generalmente verdadera para los módulos libres para los cuales el álgebra de endomorfismos es isomorfa a un álgebra matricial.
Al multiplicar un vector por una matriz diagonal, se multiplica cada uno de los términos por el elemento diagonal correspondiente. Dada una matriz diagonal y un vector , el producto es:
Esto se puede expresar de forma más compacta utilizando un vector en lugar de una matriz diagonal, , y tomando el producto Hadamard de los vectores (producto entrada por entrada), denotado :
Esto es matemáticamente equivalente, pero evita almacenar todos los términos cero de esta matriz dispersa . Por lo tanto, este producto se utiliza en el aprendizaje automático , como para calcular productos de derivadas en retropropagación o multiplicar pesos de IDF en TF-IDF , [2] ya que algunos marcos BLAS , que multiplican matrices de manera eficiente, no incluyen directamente la capacidad del producto Hadamard. [3]
Las operaciones de suma y multiplicación de matrices son especialmente simples para matrices diagonales. Escriba diag( a 1 , ..., a n ) para una matriz diagonal cuyas entradas diagonales que comienzan en la esquina superior izquierda son a 1 , ..., a n . Luego, para la suma , tenemos
y para la multiplicación de matrices ,
La matriz diagonal diag( a 1 , ..., a n ) es invertible si y solo si las entradas a 1 , ..., a n son todas distintas de cero. En este caso, tenemos
En particular, las matrices diagonales forman un subanillo del anillo de todas las matrices n por n .
Multiplicar una matriz A de n por n desde la izquierda con diag( a 1 , ..., a n ) equivale a multiplicar la i - ésima fila de A por a i para todo i ; multiplicar la matriz A desde la derecha con diag( a 1 , ..., a n ) equivale a multiplicar la i -ésima columna de A por a i para todo i .
Como se explicó en la determinación de coeficientes de la matriz de operadores , hay una base especial, e 1 , ..., e n , para la cual la matriz A toma la forma diagonal. Por lo tanto, en la ecuación definitoria , todos los coeficientes a i, j con i ≠ j son cero, dejando solo un término por suma. Los elementos diagonales supervivientes, a i, j , se conocen como valores propios y se designan con λ i en la ecuación, que se reduce a La ecuación resultante se conoce como ecuación de valores propios [4] y se utiliza para derivar el polinomio característico y, además, los valores propios y los vectores propios .
En otras palabras, los valores propios de diag( λ 1 , ..., λ n ) son λ 1 , ..., λ n con vectores propios asociados de e 1 , ..., e n .
Las matrices diagonales aparecen en muchas áreas del álgebra lineal. Debido a la descripción simple de la operación matricial y los valores y vectores propios que se dieron anteriormente, generalmente es deseable representar una matriz o una función lineal dada mediante una matriz diagonal.
De hecho, una matriz A dada de n por n es similar a una matriz diagonal (es decir, existe una matriz X tal que X −1 AX es diagonal) si y solo si tiene n vectores propios linealmente independientes . Se dice que dichas matrices son diagonalizables .
En el campo de los números reales o complejos , se aplica más. El teorema espectral dice que toda matriz normal es unitariamente similar a una matriz diagonal (si AA ∗ = A ∗ A entonces existe una matriz unitaria U tal que UAU ∗ es diagonal). Además, la descomposición en valores singulares implica que para cualquier matriz A , existen matrices unitarias U y V tales que U ∗ AV es diagonal con elementos positivos.
En la teoría de operadores , particularmente en el estudio de ecuaciones diferenciales parciales , los operadores son particularmente fáciles de entender y las ecuaciones diferenciales parciales son fáciles de resolver si el operador es diagonal con respecto a la base con la que se está trabajando; esto corresponde a una ecuación diferencial parcial separable . Por lo tanto, una técnica clave para comprender los operadores es un cambio de coordenadas (en el lenguaje de los operadores, una transformada integral ), que cambia la base a una base propia de funciones propias : lo que hace que la ecuación sea separable. Un ejemplo importante de esto es la transformada de Fourier , que diagonaliza los operadores de diferenciación de coeficientes constantes (o, más generalmente, operadores invariantes de traslación), como el operador laplaciano, por ejemplo, en la ecuación del calor .
Especialmente fáciles son los operadores de multiplicación , que se definen como la multiplicación por (los valores de) una función fija: los valores de la función en cada punto corresponden a las entradas diagonales de una matriz.