stringtranslate.com

matriz de gramos

En álgebra lineal , la matriz de Gram (o matriz gramiana , Gramian ) de un conjunto de vectores en un espacio de productos internos es la matriz hermitiana de productos internos , cuyas entradas están dadas por el producto interno . [1] Si los vectores son las columnas de la matriz, entonces la matriz de Gram es en el caso general de que las coordenadas del vector son números complejos, lo que se simplifica para el caso de que las coordenadas del vector sean números reales.

Una aplicación importante es calcular la independencia lineal : un conjunto de vectores es linealmente independiente si y sólo si el determinante de Gram (el determinante de la matriz de Gram) es distinto de cero.

Lleva el nombre de Jørgen Pedersen Gram .

Ejemplos

Para vectores reales de dimensión finita con el producto escalar euclidiano habitual , la matriz de Gram es , donde es una matriz cuyas columnas son los vectores y es su transpuesta cuyas filas son los vectores . Para vectores complejos en , , donde es la transpuesta conjugada de .

Dadas funciones integrables al cuadrado en el intervalo , la matriz de Gram es:

¿ Dónde está el conjugado complejo de ?

Para cualquier forma bilineal en un espacio vectorial de dimensión finita sobre cualquier campo , podemos definir una matriz de Gram adjunta a un conjunto de vectores mediante . La matriz será simétrica si la forma bilineal es simétrica.

Aplicaciones

Propiedades

Semidefinición positiva

La matriz de Gram es simétrica en el caso de que el producto real tenga valor real; es hermitiano en el caso general, complejo por definición de producto interno .

La matriz de Gram es semidefinida positiva y cada matriz semidefinida positiva es la matriz de Gramian para algún conjunto de vectores. El hecho de que la matriz de Gramian sea positiva-semidefinida se puede ver a partir de la siguiente derivación simple:

La primera igualdad se deriva de la definición de multiplicación de matrices, la segunda y tercera de la bilinealidad del producto interno y la última de la precisión positiva del producto interno. Tenga en cuenta que esto también muestra que la matriz de Gramian es definida positiva si y sólo si los vectores son linealmente independientes (es decir, para todos ). [1]

Encontrar una realización vectorial

Dada cualquier matriz semidefinida positiva , se puede descomponer como:

,

¿ Dónde está la transpuesta conjugada de (o en el caso real)?

Aquí hay una matriz, donde está el rango de . Varias formas de obtener dicha descomposición incluyen calcular la descomposición de Cholesky o sacar la raíz cuadrada no negativa de .

Las columnas de pueden verse como n vectores en (o espacio euclidiano de k dimensiones , en el caso real). Entonces

donde el producto escalar es el producto interno habitual en .

Así, una matriz hermitiana es semidefinida positiva si y sólo si es la matriz de Gram de algunos vectores . Estos vectores se denominan realización vectorial de . El análogo de dimensión infinita de esta afirmación es el teorema de Mercer .

Unicidad de las realizaciones vectoriales.

Si es la matriz de Gram de vectores , entonces aplicar cualquier rotación o reflexión de (cualquier transformación ortogonal , es decir, cualquier isometría euclidiana que preserve 0) a la secuencia de vectores da como resultado la misma matriz de Gram. Es decir, para cualquier matriz ortogonal , la matriz de Gram de también es .

Sólo así pueden diferir dos realizaciones de vectores reales: los vectores son únicos hasta transformaciones ortogonales . En otras palabras, los productos escalares y son iguales si y sólo si alguna transformación rígida de transforma los vectores en y 0 en 0.

Lo mismo ocurre en el caso complejo, con transformaciones unitarias en lugar de ortogonales. Es decir, si la matriz de Gram de vectores es igual a la matriz de Gram de vectores en entonces existe una matriz unitaria (es decir , ) tal que para . [3]

Otras propiedades

determinante de gramo

El determinante de Gram o Gramiano es el determinante de la matriz de Gram:

Si hay vectores en entonces es el cuadrado del volumen n -dimensional del paralelotopo formado por los vectores. En particular, los vectores son linealmente independientes si y solo si el paralelotopo tiene un volumen n -dimensional distinto de cero, si y solo si el determinante de Gram es distinto de cero, si y solo si la matriz de Gram no es singular . Cuando n > m el determinante y el volumen son cero. Cuando n = m , esto se reduce al teorema estándar de que el valor absoluto del determinante de n vectores de n dimensiones es el volumen de n dimensiones. El determinante de Gram también es útil para calcular el volumen del simplex formado por los vectores; su volumen es Volumen(paralelotopo) / n ! .

El determinante de Gram también se puede expresar en términos del producto exterior de vectores por

Cuando los vectores se definen a partir de las posiciones de puntos con respecto a algún punto de referencia ,

entonces el determinante de Gram se puede escribir como la diferencia de dos determinantes de Gram,

donde cada uno es el punto correspondiente suplementado con el valor de coordenadas de 1 para una dimensión -st. [ cita necesaria ] Tenga en cuenta que en el caso común de que n = m , el segundo término del lado derecho será cero.

Construyendo una base ortonormal

Dado un conjunto de vectores linealmente independientes con matriz de Gram definida por , se puede construir una base ortonormal

En notación matricial, donde tiene vectores de base ortonormales y la matriz está compuesta por los vectores de columna dados .

Se garantiza que la matriz existe. De hecho, es hermitiano y, por tanto, puede descomponerse como una matriz unitaria y una matriz diagonal real. Además, son linealmente independientes si y sólo si es definida positiva, lo que implica que las entradas diagonales de son positivas. por lo tanto, está definido únicamente por . Se puede comprobar que estos nuevos vectores son ortonormales:

donde usábamos .

Ver también

Referencias

  1. ^ a b C Horn & Johnson 2013, pág. 441, p.441, Teorema 7.2.10
  2. ^ Lanckriet, GRG; Cristianini, N.; Bartlett, P.; Ghaoui, LE; Jordania, MI (2004). "Aprendizaje de la matriz del kernel con programación semidefinida". Revista de investigación sobre aprendizaje automático . 5 : 27–72 [pág. 29].
  3. ^ Cuerno y Johnson (2013), pág. 452, Teorema 7.3.11

enlaces externos