Matriz de productos internos de un conjunto de vectores
En álgebra lineal , la matriz de Gram (o matriz gramiana , gramiana ) de un conjunto de vectores en un espacio de producto interno es la matriz hermítica de productos internos , cuyas entradas están dadas por el producto interno . [1] Si los vectores son las columnas de la matriz , entonces la matriz de Gram es en el caso general de que las coordenadas del vector sean números complejos, lo que se simplifica a para el caso de que las coordenadas del vector sean números reales.
Una aplicación importante es calcular la independencia lineal : un conjunto de vectores son linealmente independientes si y solo si el determinante de Gram (el determinante de la matriz de Gram) es distinto de cero.
Lleva el nombre de Jørgen Pedersen Gram .
Ejemplos
Para vectores reales de dimensión finita en con el producto escalar euclidiano habitual , la matriz de Gram es , donde es una matriz cuyas columnas son los vectores y es su transpuesta cuyas filas son los vectores . Para vectores complejos en , , donde es la transpuesta conjugada de .
Dadas funciones integrables al cuadrado en el intervalo , la matriz de Gram es:
¿Dónde está el conjugado complejo de ?
Para cualquier forma bilineal en un espacio vectorial de dimensión finita sobre cualquier cuerpo podemos definir una matriz de Gram unida a un conjunto de vectores por . La matriz será simétrica si la forma bilineal es simétrica.
Aplicaciones
- En la geometría de Riemann , dada una variedad de Riemann de dimensión incrustada y una parametrización para , la forma del volumen en inducida por la incrustación se puede calcular utilizando el gramático de los vectores tangentes de coordenadas: Esto generaliza la integral de superficie clásica de una superficie parametrizada para :
- Si los vectores son variables aleatorias centradas , el gramático es aproximadamente proporcional a la matriz de covarianza , y la escala está determinada por el número de elementos del vector.
- En química cuántica , la matriz de Gram de un conjunto de vectores base es la matriz de superposición .
- En la teoría de control (o más generalmente en la teoría de sistemas ), el gramático de controlabilidad y el gramático de observabilidad determinan las propiedades de un sistema lineal.
- Las matrices Gramianas surgen en el ajuste del modelo de estructura de covarianza (véase, por ejemplo, Jamshidian y Bentler, 1993, Applied Psychological Measurement, Volumen 18, págs. 79-94).
- En el método de elementos finitos , la matriz de Gram surge de la aproximación de una función de un espacio de dimensión finita; las entradas de la matriz de Gram son entonces los productos internos de las funciones base del subespacio de dimensión finita.
- En el aprendizaje automático , las funciones del núcleo se representan a menudo como matrices de Gram. [2] (Véase también PCA del núcleo ).
- Como la matriz de Gram sobre los números reales es una matriz simétrica , es diagonalizable y sus valores propios no son negativos. La diagonalización de la matriz de Gram es la descomposición en valores singulares .
Propiedades
Semidefinición positiva
La matriz de Gram es simétrica en el caso en que el producto interno tenga un valor real; es hermítica en el caso general y complejo por definición de un producto interno .
La matriz de Gram es semidefinida positiva y toda matriz semidefinida positiva es la matriz de Gram para algún conjunto de vectores. El hecho de que la matriz de Gram sea semidefinida positiva se puede ver a partir de la siguiente derivación simple:
La primera igualdad se desprende de la definición de multiplicación de matrices, la segunda y la tercera de la bilinealidad del producto interno y la última de la definitividad positiva del producto interno. Nótese que esto también demuestra que la matriz de Gram es definida positiva si y solo si los vectores son linealmente independientes (es decir, para todos los ). [1]
Encontrar una realización vectorial
Dada cualquier matriz semidefinida positiva , se puede descomponer como:
- ,
donde es la transpuesta conjugada de (o en el caso real).
Aquí hay una matriz, donde es el rango de . Varias formas de obtener dicha descomposición incluyen calcular la descomposición de Cholesky o tomar la raíz cuadrada no negativa de .
Las columnas de pueden verse como n vectores en (o espacio euclidiano k -dimensional , en el caso real). Entonces
donde el producto escalar es el producto interno habitual en .
Por lo tanto, una matriz hermítica es semidefinida positiva si y solo si es la matriz de Gram de algunos vectores . Dichos vectores se denominan realización vectorial de . El análogo de dimensión infinita de esta afirmación es el teorema de Mercer .
Unicidad de las realizaciones vectoriales
Si es la matriz de Gram de los vectores en entonces al aplicar cualquier rotación o reflexión de (cualquier transformación ortogonal , es decir, cualquier isometría euclidiana que preserve 0) a la secuencia de vectores se obtiene la misma matriz de Gram. Es decir, para cualquier matriz ortogonal , la matriz de Gram de también es .
Esta es la única forma en que dos realizaciones vectoriales reales de pueden diferir: los vectores son únicos hasta que se produzcan transformaciones ortogonales . En otras palabras, los productos escalares y son iguales si y solo si alguna transformación rígida de transforma los vectores en y 0 en 0.
Lo mismo ocurre en el caso complejo, con transformaciones unitarias en lugar de ortogonales. Es decir, si la matriz de Gram de vectores es igual a la matriz de Gram de vectores en entonces existe una matriz unitaria (es decir ) tal que para . [3]
Otras propiedades
- Porque , es necesariamente el caso que y conmutan. Es decir, una matriz de Gram real o compleja es también una matriz normal .
- La matriz de Gram de cualquier base ortonormal es la matriz identidad. De manera equivalente, la matriz de Gram de las filas o las columnas de una matriz de rotación real es la matriz identidad. Asimismo, la matriz de Gram de las filas o las columnas de una matriz unitaria es la matriz identidad.
- El rango de la matriz de Gram de vectores es igual a la dimensión del espacio abarcado por estos vectores. [1]
Determinante de Gram
El determinante de Gram o Gramiano es el determinante de la matriz de Gram:
Si son vectores en entonces es el cuadrado del volumen n -dimensional del paralelotopo formado por los vectores. En particular, los vectores son linealmente independientes si y solo si el paralelotopo tiene un volumen n -dimensional distinto de cero, si y solo si el determinante de Gram es distinto de cero, si y solo si la matriz de Gram es no singular . Cuando n > m el determinante y el volumen son cero. Cuando n = m , esto se reduce al teorema estándar de que el valor absoluto del determinante de n vectores n -dimensionales es el volumen n -dimensional. El determinante de Gram también es útil para calcular el volumen del símplex formado por los vectores; su volumen es Volumen(paralelotopo) / n ! .
El determinante de Gram también se puede expresar en términos del producto exterior de vectores por
Cuando los vectores se definen a partir de las posiciones de los puntos relativos a algún punto de referencia ,
entonces el determinante de Gram se puede escribir como la diferencia de dos determinantes de Gram,
donde cada uno es el punto correspondiente suplementado con el valor de la coordenada 1 para una dimensión -st. [ cita requerida ] Nótese que en el caso común de que n = m , el segundo término en el lado derecho será cero.
Construyendo una base ortonormal
Dado un conjunto de vectores linealmente independientes con matriz de Gram definida por , se puede construir una base ortonormal
En notación matricial, , donde tiene vectores base ortonormales y la matriz está compuesta por los vectores columna dados .
Se garantiza que la matriz existe. De hecho, es hermítica y, por lo tanto, se puede descomponer como una matriz unitaria y una matriz diagonal real. Además, son linealmente independientes si y solo si es definida positiva, lo que implica que las entradas diagonales de son positivas. por lo tanto, está definida de manera única por . Se puede comprobar que estos nuevos vectores son ortonormales:
donde usamos .
Véase también
Referencias
- ^ abc Horn & Johnson 2013, pág. 441, pág. 441, Teorema 7.2.10
- ^ Lanckriet, GRG; Cristianini, N.; Bartlett, P.; Ghaoui, LE; Jordan, MI (2004). "Aprendizaje de la matriz del núcleo con programación semidefinida". Journal of Machine Learning Research . 5 : 27–72 [p. 29].
- ^ Horn y Johnson (2013), pág. 452, Teorema 7.3.11
Enlaces externos