stringtranslate.com

Matriz diagonal

En álgebra lineal , una matriz diagonal es una matriz en la que las entradas fuera de la diagonal principal son todas cero; el término suele referirse a matrices cuadradas . Los elementos de la diagonal principal pueden ser cero o distintos de cero. Un ejemplo de una matriz diagonal de 2×2 es , mientras que un ejemplo de una matriz diagonal de 3×3 es . Una matriz identidad de cualquier tamaño, o cualquier múltiplo de ella, es una matriz diagonal llamada matriz escalar, por ejemplo . En geometría , una matriz diagonal se puede utilizar como matriz de escala , ya que la multiplicación de matrices con ella da como resultado un cambio de escala (tamaño) y posiblemente también de forma ; sólo una matriz escalar da como resultado un cambio uniforme de escala.

Definición

Como se indicó anteriormente, una matriz diagonal es una matriz en la que todas las entradas fuera de la diagonal son cero. Es decir, la matriz D = ( d i , j ) con n columnas y n filas es diagonal si

Sin embargo, las entradas de la diagonal principal no tienen restricciones.

El término matriz diagonal a veces puede referirse a unaMatriz diagonal rectangular , que es unade mporncon todas las entradas que no son de la forma d i , i siendo cero. Por ejemplo:

Sin embargo, más a menudo, la matriz diagonal se refiere a matrices cuadradas, que pueden especificarse explícitamente como unamatriz diagonal cuadrada . Una matriz diagonal cuadrada es unamatriz simétrica, por lo que también se la puede llamarmatriz diagonal simétrica .

La siguiente matriz es una matriz diagonal cuadrada:

Si las entradas son números reales o complejos , entonces también es una matriz normal .

En el resto de este artículo consideraremos sólo matrices diagonales cuadradas y nos referiremos a ellas simplemente como "matrices diagonales".

Operador de diagnóstico de vector a matriz

Se puede construir una matriz diagonal a partir de un vector usando el operador:

Esto se puede escribir de forma más compacta como .

El mismo operador también se utiliza para representar matrices diagonales de bloques donde cada argumento es una matriz.

El operador puede escribirse como:

producto de Hadamard

Operador de diagnóstico de matriz a vector

El operador inverso de matriz a vector a veces se denota con el mismo nombre donde el argumento ahora es una matriz y el resultado es un vector de sus entradas diagonales.

Se cumple la siguiente propiedad:

matriz escalar

Una matriz diagonal con entradas diagonales iguales es una matriz escalar ; es decir, un múltiplo escalar λ de la matriz identidad I. Su efecto sobre un vector es la multiplicación escalar por λ . Por ejemplo, una matriz escalar de 3×3 tiene la forma:

Las matrices escalares son el centro del álgebra de matrices: es decir, son precisamente las matrices que conmutan con todas las demás matrices cuadradas del mismo tamaño. [a] Por el contrario, sobre un campo (como los números reales), una matriz diagonal con todos los elementos diagonales distintos sólo conmuta con matrices diagonales (su centralizador es el conjunto de matrices diagonales). Esto se debe a que si una matriz diagonal ha dado una matriz con los términos de los productos son: y y (dado que se puede dividir por ), entonces no conmutan a menos que los términos fuera de la diagonal sean cero. [b] Las matrices diagonales donde las entradas diagonales no son todas iguales o todas distintas tienen centralizadores intermedios entre todo el espacio y solo las matrices diagonales. [1]

Para un espacio vectorial abstracto V (en lugar del espacio vectorial concreto ), el análogo de las matrices escalares son las transformaciones escalares . Esto es cierto de manera más general para un módulo M sobre un anillo R , con el álgebra de endomorfismo End( M ) (álgebra de operadores lineales en M ) reemplazando el álgebra de matrices. Formalmente, la multiplicación escalar es un mapa lineal, que induce un mapa (de un escalar λ a su correspondiente transformación escalar, multiplicación por λ ) que exhibe End( M ) como un R - álgebra . Para espacios vectoriales, las transformadas escalares son exactamente el centro del álgebra de endomorfismo y, de manera similar, las transformadas escalares invertibles son el centro del grupo lineal general GL( V ). El primero es más generalmente cierto módulos libres , para los cuales el álgebra de endomorfismo es isomorfa a un álgebra matricial.

Operaciones vectoriales

Multiplicar un vector por una matriz diagonal multiplica cada uno de los términos por la entrada diagonal correspondiente. Dada una matriz diagonal y un vector , el producto es:

Esto se puede expresar de manera más compacta usando un vector en lugar de una matriz diagonal, y tomando el producto de Hadamard de los vectores (producto de entrada), denotado :

Esto es matemáticamente equivalente, pero evita almacenar todos los términos cero de esta matriz dispersa . Por lo tanto, este producto se utiliza en aprendizaje automático , como calcular productos de derivados en retropropagación o multiplicar pesos IDF en TF-IDF , [2] ya que algunos marcos BLAS , que multiplican matrices de manera eficiente, no incluyen la capacidad del producto Hadamard directamente. [3]

Operaciones matriciales

Las operaciones de suma y multiplicación de matrices son especialmente simples para matrices diagonales. Escriba diag( a 1 , ..., a n ) para una matriz diagonal cuyas entradas diagonales que comienzan en la esquina superior izquierda son a 1 , ..., a n . Entonces, para la suma , tenemos

y para la multiplicación de matrices ,

La matriz diagonal diag( a 1 , ..., an ) es invertible si y solo si las entradas a 1 , ..., an son todas distintas de cero. En este caso, tenemos

En particular, las matrices diagonales forman un subanillo del anillo de todas las n por n matrices.

Multiplicar una matriz A de n por n desde la izquierda con diag( a 1 , ..., an ) equivale a multiplicar la i -ésima fila de A por a i para todo i ; multiplicar la matriz A de la derecha con diag ( a 1 , ..., an ) equivale a multiplicar la i -ésima columna de A por a i para todo i .

Matriz de operadores en base propia

Como se explicó al determinar los coeficientes de la matriz de operadores , existe una base especial, e 1 , ..., e n , para la cual la matriz toma la forma diagonal. Por lo tanto, en la ecuación definitoria , todos los coeficientes con ij son cero, dejando solo un término por suma. Los elementos diagonales supervivientes, se conocen como valores propios y se designan con en la ecuación, que se reduce a . La ecuación resultante se conoce como ecuación de valores propios [4] y se utiliza para derivar el polinomio característico y, además, los valores propios y los vectores propios .

En otras palabras, los valores propios de diag( λ 1 , ..., λ n ) son λ 1 , ..., λ n con vectores propios asociados de e 1 , ..., e n .

Propiedades

Aplicaciones

Las matrices diagonales aparecen en muchas áreas del álgebra lineal. Debido a la simple descripción de la operación matricial y los valores propios/vectores propios dada anteriormente, normalmente es deseable representar una matriz o mapa lineal dado mediante una matriz diagonal.

De hecho, una matriz A dada de n -por- n es similar a una matriz diagonal (lo que significa que hay una matriz X tal que X −1 AX es diagonal) si y sólo si tiene n vectores propios linealmente independientes . Se dice que tales matrices son diagonalizables .

En el campo de los números reales o complejos , hay más cosas ciertas. El teorema espectral dice que toda matriz normal es unitariamente similar a una matriz diagonal (si AA = A A entonces existe una matriz unitaria U tal que UAU es diagonal). Además, la descomposición en valores singulares implica que para cualquier matriz A , existen matrices unitarias U y V tales que U AV es diagonal con entradas positivas.

Teoría del operador

En la teoría de operadores , particularmente en el estudio de las PDE , los operadores son particularmente fáciles de entender y las PDE fáciles de resolver si el operador está en diagonal con respecto a la base con la que se está trabajando; esto corresponde a una ecuación diferencial parcial separable . Por lo tanto, una técnica clave para comprender los operadores es un cambio de coordenadas (en el lenguaje de los operadores, una transformación integral ) que cambia la base a una base propia de funciones propias : lo que hace que la ecuación sea separable. Un ejemplo importante de esto es la transformada de Fourier , que diagonaliza operadores de diferenciación de coeficientes constantes (o más generalmente operadores invariantes de traducción), como el operador laplaciano, por ejemplo, en la ecuación de calor .

Especialmente fáciles son los operadores de multiplicación , que se definen como la multiplicación por (los valores de) una función fija: los valores de la función en cada punto corresponden a las entradas diagonales de una matriz.

Ver también

Notas

  1. ^ Prueba: dada la matriz elemental , es la matriz con solo la i -ésima fila de M y es la matriz cuadrada con solo la M j -ésima columna, por lo que las entradas no diagonales deben ser cero y la i- ésima entrada diagonal muy igual a la j- ésima entrada diagonal.
  2. ^ En anillos más generales, esto no es válido, porque no siempre se puede dividir.

Referencias

  1. ^ "¿Las matrices diagonales siempre conmutan?". Intercambio de pila. 15 de marzo de 2016 . Consultado el 4 de agosto de 2018 .
  2. ^ Sahami, Mehran (15 de junio de 2009). Minería de textos: clasificación, agrupación y aplicaciones. Prensa CRC. pag. 14.ISBN 9781420059458.
  3. ^ "¿Multiplicación vector-vector por elementos en BLAS?". stackoverflow.com . 2011-10-01 . Consultado el 30 de agosto de 2020 .
  4. ^ Acercándose, James (2010). "Capítulo 7.9: Valores propios y vectores propios" (PDF) . Herramientas matemáticas para la física. ISBN 978-0486482125. Consultado el 1 de enero de 2012 .

Fuentes