Matriz de covarianza

En estadística y teoría de la probabilidad, la matriz de covarianza es una matriz cuadrada que contiene la covarianza entre los elementos de un vector.

Es la generalización natural a dimensiones superiores del concepto de varianza de una variable aleatoria escalar.

es un vector aleatorio dado por tal que la

-ésima entrada del vector

es una variable aleatoria con varianza finita, entonces la matriz de covarianza

es una matriz de dimensión

es la covarianza entre la variable

{\displaystyle \Sigma _{ij}=\operatorname {Cov} (X_{i},X_{j})}

, es decir, la diagonal de la matriz

En otras palabras, la matriz

queda definida como La anterior definición es equivalente a la igualdad matricial Por lo tanto, se entiende que esto generaliza a mayores dimensiones el concepto de varianza de una variable aleatoria escalar

En ocasiones, la matriz

es llamada matriz de varianza covarianza y también suele denotarse como

{\displaystyle {\text{Var}}({\textbf {X}})}

, las siguientes propiedades fundamentales se demuestran correctas: La matriz de covarianza (aunque muy simple) es una herramienta muy útil en varios campos.

A partir de ella se puede obtener una transformación lineal que puede de-correlacionar los datos o, desde otro punto de vista, encontrar una base óptima para representar los datos de forma óptima (véase cociente de Rayleigh para la prueba formal y otras propiedades de las matrices de covarianza).

Esto se llama análisis del componente principal (PCA por sus siglas en inglés) en estadística , y transformada de Karhunen-Loève en procesamiento de la imagen.