stringtranslate.com

Matriz de Gram

En álgebra lineal , la matriz de Gram (o matriz gramiana , gramiana ) de un conjunto de vectores en un espacio de producto interno es la matriz hermítica de productos internos , cuyas entradas están dadas por el producto interno . [1] Si los vectores son las columnas de la matriz , entonces la matriz de Gram es en el caso general de que las coordenadas del vector sean números complejos, lo que se simplifica a para el caso de que las coordenadas del vector sean números reales.

Una aplicación importante es calcular la independencia lineal : un conjunto de vectores son linealmente independientes si y solo si el determinante de Gram (el determinante de la matriz de Gram) es distinto de cero.

Lleva el nombre de Jørgen Pedersen Gram .

Ejemplos

Para vectores reales de dimensión finita en con el producto escalar euclidiano habitual , la matriz de Gram es , donde es una matriz cuyas columnas son los vectores y es su transpuesta cuyas filas son los vectores . Para vectores complejos en , , donde es la transpuesta conjugada de .

Dadas funciones integrables al cuadrado en el intervalo , la matriz de Gram es:

¿Dónde está el conjugado complejo de ?

Para cualquier forma bilineal en un espacio vectorial de dimensión finita sobre cualquier cuerpo podemos definir una matriz de Gram unida a un conjunto de vectores por . La matriz será simétrica si la forma bilineal es simétrica.

Aplicaciones

Propiedades

Semidefinición positiva

La matriz de Gram es simétrica en el caso en que el producto interno tenga un valor real; es hermítica en el caso general y complejo por definición de un producto interno .

La matriz de Gram es semidefinida positiva y toda matriz semidefinida positiva es la matriz de Gram para algún conjunto de vectores. El hecho de que la matriz de Gram sea semidefinida positiva se puede ver a partir de la siguiente derivación simple:

La primera igualdad se desprende de la definición de multiplicación de matrices, la segunda y la tercera de la bilinealidad del producto interno y la última de la definitividad positiva del producto interno. Nótese que esto también demuestra que la matriz de Gram es definida positiva si y solo si los vectores son linealmente independientes (es decir, para todos los ). [1]

Encontrar una realización vectorial

Dada cualquier matriz semidefinida positiva , se puede descomponer como:

,

donde es la transpuesta conjugada de (o en el caso real).

Aquí hay una matriz, donde es el rango de . Varias formas de obtener dicha descomposición incluyen calcular la descomposición de Cholesky o tomar la raíz cuadrada no negativa de .

Las columnas de pueden verse como n vectores en (o espacio euclidiano k -dimensional , en el caso real). Entonces

donde el producto escalar es el producto interno habitual en .

Por lo tanto, una matriz hermítica es semidefinida positiva si y solo si es la matriz de Gram de algunos vectores . Dichos vectores se denominan realización vectorial de . El análogo de dimensión infinita de esta afirmación es el teorema de Mercer .

Unicidad de las realizaciones vectoriales

Si es la matriz de Gram de los vectores en entonces al aplicar cualquier rotación o reflexión de (cualquier transformación ortogonal , es decir, cualquier isometría euclidiana que preserve 0) a la secuencia de vectores se obtiene la misma matriz de Gram. Es decir, para cualquier matriz ortogonal , la matriz de Gram de también es .

Esta es la única forma en que dos realizaciones vectoriales reales de pueden diferir: los vectores son únicos hasta que se produzcan transformaciones ortogonales . En otras palabras, los productos escalares y son iguales si y solo si alguna transformación rígida de transforma los vectores en y 0 en 0.

Lo mismo ocurre en el caso complejo, con transformaciones unitarias en lugar de ortogonales. Es decir, si la matriz de Gram de vectores es igual a la matriz de Gram de vectores en entonces existe una matriz unitaria (es decir ) tal que para . [3]

Otras propiedades

Determinante de Gram

El determinante de Gram o Gramiano es el determinante de la matriz de Gram:

Si son vectores en entonces es el cuadrado del volumen n -dimensional del paralelotopo formado por los vectores. En particular, los vectores son linealmente independientes si y solo si el paralelotopo tiene un volumen n -dimensional distinto de cero, si y solo si el determinante de Gram es distinto de cero, si y solo si la matriz de Gram es no singular . Cuando n > m el determinante y el volumen son cero. Cuando n = m , esto se reduce al teorema estándar de que el valor absoluto del determinante de n vectores n -dimensionales es el volumen n -dimensional. El determinante de Gram también es útil para calcular el volumen del símplex formado por los vectores; su volumen es Volumen(paralelotopo) / n ! .

El determinante de Gram también se puede expresar en términos del producto exterior de vectores por

Cuando los vectores se definen a partir de las posiciones de los puntos relativos a algún punto de referencia ,

entonces el determinante de Gram se puede escribir como la diferencia de dos determinantes de Gram,

donde cada uno es el punto correspondiente suplementado con el valor de la coordenada 1 para una dimensión -st. [ cita requerida ] Nótese que en el caso común de que n = m , el segundo término en el lado derecho será cero.

Construyendo una base ortonormal

Dado un conjunto de vectores linealmente independientes con matriz de Gram definida por , se puede construir una base ortonormal

En notación matricial, , donde tiene vectores base ortonormales y la matriz está compuesta por los vectores columna dados .

Se garantiza que la matriz existe. De hecho, es hermítica y, por lo tanto, se puede descomponer como una matriz unitaria y una matriz diagonal real. Además, son linealmente independientes si y solo si es definida positiva, lo que implica que las entradas diagonales de son positivas. por lo tanto, está definida de manera única por . Se puede comprobar que estos nuevos vectores son ortonormales:

donde usamos .

Véase también

Referencias

  1. ^ abc Horn & Johnson 2013, pág. 441, pág. 441, Teorema 7.2.10
  2. ^ Lanckriet, GRG; Cristianini, N.; Bartlett, P.; Ghaoui, LE; Jordan, MI (2004). "Aprendizaje de la matriz del núcleo con programación semidefinida". Journal of Machine Learning Research . 5 : 27–72 [p. 29].
  3. ^ Horn & Johnson (2013), pág. 452, Teorema 7.3.11

Enlaces externos