stringtranslate.com

Matriz diagonal

En álgebra lineal , una matriz diagonal es una matriz en la que las entradas fuera de la diagonal principal son todas cero; el término generalmente se refiere a matrices cuadradas . Los elementos de la diagonal principal pueden ser cero o distintos de cero. Un ejemplo de una matriz diagonal 2×2 es , mientras que un ejemplo de una matriz diagonal 3×3 es . Una matriz identidad de cualquier tamaño, o cualquier múltiplo de ella, es una matriz diagonal llamada matriz escalar, por ejemplo, . En geometría , una matriz diagonal puede usarse como una matriz de escala , ya que la multiplicación de matrices con ella da como resultado un cambio de escala (tamaño) y posiblemente también de forma ; solo una matriz escalar da como resultado un cambio uniforme en la escala.

Definición

Como se indicó anteriormente, una matriz diagonal es una matriz en la que todas las entradas fuera de la diagonal son cero. Es decir, la matriz D = ( d i , j ) con n columnas y n filas es diagonal si

Sin embargo, las entradas diagonales principales no tienen restricciones.

El término matriz diagonal a veces puede referirse a unaMatriz diagonal rectangular , que es unade mporncon todos los elementos que no tienen la forma d i , siendo i cero. Por ejemplo:

Más a menudo, sin embargo, la matriz diagonal se refiere a matrices cuadradas, que pueden especificarse explícitamente comoMatriz diagonal cuadrada . Una matriz diagonal cuadrada es unamatriz simétrica, por lo que también se la puede llamar matrizmatriz diagonal simétrica

La siguiente matriz es una matriz diagonal cuadrada:

Si las entradas son números reales o números complejos , entonces también es una matriz normal .

En el resto de este artículo consideraremos únicamente matrices diagonales cuadradas y nos referiremos a ellas simplemente como "matrices diagonales".

Operador de conversión de vector a matriz

Se puede construir una matriz diagonal a partir de un vector utilizando el operador:

Esto se puede escribir de forma más compacta como .

El mismo operador también se utiliza para representar matrices diagonales de bloques donde cada argumento es una matriz.

El operador puede escribirse como: donde representa el producto de Hadamard y es un vector constante con elementos 1.

Operador de conversión de matriz a vector

El operador inverso de matriz a vector a veces se denota con el nombre idéntico, donde el argumento ahora es una matriz y el resultado es un vector de sus entradas diagonales.

La siguiente propiedad consta de:

Matriz escalar

Una matriz diagonal con entradas diagonales iguales es una matriz escalar ; es decir, un múltiplo escalar λ de la matriz identidad I. Su efecto sobre un vector es la multiplicación escalar por λ . Por ejemplo, una matriz escalar 3×3 tiene la forma:

Las matrices escalares son el centro del álgebra de matrices: es decir, son precisamente las matrices que conmutan con todas las demás matrices cuadradas del mismo tamaño. [a] Por el contrario, sobre un cuerpo (como los números reales), una matriz diagonal con todos los elementos diagonales distintos sólo conmuta con matrices diagonales (su centralizador es el conjunto de matrices diagonales). Esto es así porque si una matriz diagonal tiene entonces dada una matriz con el término de los productos son: y y (ya que se puede dividir por ), entonces no conmutan a menos que los términos fuera de la diagonal sean cero. [b] Las matrices diagonales donde las entradas diagonales no son todas iguales o todas distintas tienen centralizadores intermedios entre todo el espacio y sólo las matrices diagonales. [1]

Para un espacio vectorial abstracto V (en lugar del espacio vectorial concreto ), el análogo de las matrices escalares son las transformaciones escalares . Esto es cierto de manera más general para un módulo M sobre un anillo R , con el álgebra de endomorfismos End( M ) (álgebra de operadores lineales sobre M ) reemplazando al álgebra de matrices. Formalmente, la multiplicación escalar es una función lineal, que induce una función (de un escalar λ a su transformación escalar correspondiente, la multiplicación por λ ) que exhibe End( M ) como un R - álgebra . Para los espacios vectoriales, las transformaciones escalares son exactamente el centro del álgebra de endomorfismos y, de manera similar, las transformaciones escalares invertibles son el centro del grupo lineal general GL( V ). La primera es más generalmente cierta para los módulos libres , para los cuales el álgebra de endomorfismos es isomorfa a un álgebra matricial.

Operaciones vectoriales

Al multiplicar un vector por una matriz diagonal, se multiplica cada uno de los términos por el elemento diagonal correspondiente. Dada una matriz diagonal y un vector , el producto es:

Esto se puede expresar de forma más compacta utilizando un vector en lugar de una matriz diagonal, , y tomando el producto Hadamard de los vectores (producto entrada por entrada), denotado :

Esto es matemáticamente equivalente, pero evita almacenar todos los términos cero de esta matriz dispersa . Por lo tanto, este producto se utiliza en el aprendizaje automático , como para calcular productos de derivadas en retropropagación o multiplicar pesos de IDF en TF-IDF , [2] ya que algunos marcos BLAS , que multiplican matrices de manera eficiente, no incluyen directamente la capacidad del producto Hadamard. [3]

Operaciones matriciales

Las operaciones de suma y multiplicación de matrices son especialmente simples para matrices diagonales. Escriba diag( a 1 , ..., a n ) para una matriz diagonal cuyas entradas diagonales que comienzan en la esquina superior izquierda son a 1 , ..., a n . Luego, para la suma , tenemos

y para la multiplicación de matrices ,

La matriz diagonal diag( a 1 , ..., a n ) es invertible si y solo si las entradas a 1 , ..., a n son todas distintas de cero. En este caso, tenemos

En particular, las matrices diagonales forman un subanillo del anillo de todas las matrices n por n .

Multiplicar una matriz A de n por n desde la izquierda con diag( a 1 , ..., a n ) equivale a multiplicar la i - ésima fila de A por a i para todo i ; multiplicar la matriz A desde la derecha con diag( a 1 , ..., a n ) equivale a multiplicar la i -ésima columna de A por a i para todo i .

Matriz de operadores en base propia

Como se explicó en la determinación de coeficientes de la matriz de operadores , hay una base especial, e 1 , ..., e n , para la cual la matriz toma la forma diagonal. Por lo tanto, en la ecuación definitoria , todos los coeficientes con ij son cero, dejando solo un término por suma. Los elementos diagonales supervivientes, , se conocen como valores propios y se designan con en la ecuación, que se reduce a . La ecuación resultante se conoce como ecuación de valores propios [4] y se utiliza para derivar el polinomio característico y, además, los valores propios y los vectores propios .

En otras palabras, los valores propios de diag( λ 1 , ..., λ n ) son λ 1 , ..., λ n con vectores propios asociados de e 1 , ..., e n .

Propiedades

Aplicaciones

Las matrices diagonales aparecen en muchas áreas del álgebra lineal. Debido a la descripción simple de la operación matricial y los valores y vectores propios que se dieron anteriormente, generalmente es deseable representar una matriz o una función lineal dada mediante una matriz diagonal.

De hecho, una matriz A dada de n por n es similar a una matriz diagonal (es decir, existe una matriz X tal que X −1 AX es diagonal) si y solo si tiene n vectores propios linealmente independientes . Se dice que dichas matrices son diagonalizables .

En el campo de los números reales o complejos , se puede decir que esto es más cierto. El teorema espectral dice que toda matriz normal es unitariamente semejante a una matriz diagonal (si AA = A A entonces existe una matriz unitaria U tal que UAU es diagonal). Además, la descomposición en valores singulares implica que para cualquier matriz A , existen matrices unitarias U y V tales que U AV es diagonal con elementos positivos.

Teoría de operadores

En la teoría de operadores , particularmente en el estudio de ecuaciones diferenciales parciales , los operadores son particularmente fáciles de entender y las ecuaciones diferenciales parciales son fáciles de resolver si el operador es diagonal con respecto a la base con la que se está trabajando; esto corresponde a una ecuación diferencial parcial separable . Por lo tanto, una técnica clave para comprender los operadores es un cambio de coordenadas (en el lenguaje de los operadores, una transformada integral ), que cambia la base a una base propia de funciones propias : lo que hace que la ecuación sea separable. Un ejemplo importante de esto es la transformada de Fourier , que diagonaliza los operadores de diferenciación de coeficientes constantes (o, más generalmente, operadores invariantes de traslación), como el operador laplaciano, por ejemplo, en la ecuación del calor .

Especialmente fáciles son los operadores de multiplicación , que se definen como la multiplicación por (los valores de) una función fija: los valores de la función en cada punto corresponden a las entradas diagonales de una matriz.

Véase también

Notas

  1. ^ Prueba: dada la matriz elemental , es la matriz con sólo la i -ésima fila de M y es la matriz cuadrada con sólo la j -ésima columna de M , por lo que las entradas no diagonales deben ser cero, y la i -ésima entrada diagonal debe ser igual a la j -ésima entrada diagonal.
  2. ^ En anillos más generales, esto no se cumple, porque no siempre se puede dividir.

Referencias

  1. ^ "¿Las matrices diagonales siempre conmutan?". Stack Exchange. 15 de marzo de 2016. Consultado el 4 de agosto de 2018 .
  2. ^ Sahami, Mehran (15 de junio de 2009). Minería de texto: clasificación, agrupamiento y aplicaciones. CRC Press. pág. 14. ISBN 9781420059458.
  3. ^ "¿Multiplicación vector-vector elemento por elemento en BLAS?". stackoverflow.com . 2011-10-01 . Consultado el 2020-08-30 .
  4. ^ Nearing, James (2010). "Capítulo 7.9: Valores propios y vectores propios" (PDF) . Herramientas matemáticas para la física. ISBN 978-0486482125. Recuperado el 1 de enero de 2012 .

Fuentes