El signo de la covarianza, por tanto, muestra la tendencia en la relación lineal entre las variables. Si los valores mayores de una variable corresponden principalmente a los valores mayores de la otra variable, y lo mismo ocurre con los valores menores (es decir, las variables tienden a mostrar un comportamiento similar), la covarianza es positiva. [2] En el caso opuesto, cuando los valores mayores de una variable corresponden principalmente a los valores menores de la otra (es decir, las variables tienden a mostrar un comportamiento opuesto), la covarianza es negativa. La magnitud de la covarianza es la media geométrica de las varianzas que son comunes para las dos variables aleatorias. El coeficiente de correlación normaliza la covarianza al dividirla por la media geométrica de las varianzas totales para las dos variables aleatorias.
Se debe hacer una distinción entre (1) la covarianza de dos variables aleatorias, que es un parámetro poblacional que puede verse como una propiedad de la distribución de probabilidad conjunta , y (2) la covarianza de la muestra , que además de servir como descriptor de la muestra, también sirve como valor estimado del parámetro poblacional.
donde es el valor esperado de , también conocido como la media de . La covarianza también se denota a veces como o , en analogía con la varianza . Al usar la propiedad de linealidad de las expectativas, esto se puede simplificar al valor esperado de su producto menos el producto de sus valores esperados:
pero esta ecuación es susceptible de cancelación catastrófica (ver la sección sobre cálculo numérico a continuación).
Las unidades de medida de la covarianza son las de multiplicadas por las de . Por el contrario, los coeficientes de correlación , que dependen de la covarianza, son una medida adimensional de dependencia lineal. (De hecho, los coeficientes de correlación pueden entenderse simplemente como una versión normalizada de la covarianza).
Si el par de variables aleatorias (reales) puede tomar los valores para , con probabilidades iguales , entonces la covarianza se puede escribir de manera equivalente en términos de las medias y como
También se puede expresar de forma equivalente, sin hacer referencia directa a las medias, como [5]
De manera más general, si hay posibles realizaciones de , es decir, pero con probabilidades posiblemente desiguales para , entonces la covarianza es
En el caso en que dos variables aleatorias discretas y tengan una distribución de probabilidad conjunta, representada por elementos correspondientes a las probabilidades conjuntas de , la covarianza se calcula utilizando una doble suma sobre los índices de la matriz:
Ejemplos
Consideremos 3 variables aleatorias independientes y dos constantes .
En el caso especial, y , la covarianza entre y es simplemente la varianza de y el nombre covarianza es totalmente apropiado.
Supóngase que y tienen la siguiente función de masa de probabilidad conjunta , [6] en la que las seis celdas centrales dan las probabilidades conjuntas discretas de las seis realizaciones hipotéticas :
puede tomar tres valores (5, 6 y 7) mientras que puede tomar dos (8 y 9). Sus medias son y . Entonces,
Propiedades
Covarianza consigo misma
La varianza es un caso especial de la covarianza en el que las dos variables son idénticas: [4] : 121
Covarianza de combinaciones lineales
Si , , , y son variables aleatorias de valor real y son constantes de valor real, entonces los siguientes hechos son una consecuencia de la definición de covarianza:
Para una secuencia de variables aleatorias en valores reales y constantes , tenemos
Identidad de covarianza de Hoeffding
Una identidad útil para calcular la covarianza entre dos variables aleatorias es la identidad de covarianza de Hoeffding: [7]
donde es la función de distribución acumulativa conjunta del vector aleatorio y son los marginales .
Falta de correlación e independencia
Las variables aleatorias cuya covarianza es cero se denominan no correlacionadas . [4] : 121 De manera similar, los componentes de los vectores aleatorios cuya matriz de covarianza es cero en cada entrada fuera de la diagonal principal también se denominan no correlacionados.
Sin embargo, lo inverso no es generalmente cierto. Por ejemplo, sea uniformemente distribuido en y sea . Claramente, y no son independientes, sino
En este caso, la relación entre y es no lineal, mientras que la correlación y la covarianza son medidas de dependencia lineal entre dos variables aleatorias. Este ejemplo muestra que si dos variables aleatorias no están correlacionadas, eso no implica en general que sean independientes. Sin embargo, si dos variables se distribuyen normalmente de manera conjunta (pero no si se distribuyen normalmente de manera individual ), la falta de correlación sí implica independencia. [9]
y cuya covarianza es positiva se denominan correlacionadas positivamente, lo que implica si entonces probable . Por el contrario, y con covarianza negativa se denominan correlacionadas negativamente, y si entonces probable .
Relación con los productos internos
Muchas de las propiedades de la covarianza se pueden extraer de manera elegante observando que satisface propiedades similares a las de un producto interno :
De hecho, estas propiedades implican que la covarianza define un producto interno sobre el espacio vectorial cociente obtenido al tomar el subespacio de variables aleatorias con segundo momento finito e identificar dos cualesquiera que difieran en una constante. (Esta identificación convierte la semidefinición positiva anterior en definición positiva). Ese espacio vectorial cociente es isomorfo al subespacio de variables aleatorias con segundo momento finito y media cero; en ese subespacio, la covarianza es exactamente el producto interno L 2 de funciones de valores reales en el espacio muestral.
Como resultado, para variables aleatorias con varianza finita, la desigualdad
se cumple a través de la desigualdad de Cauchy-Schwarz .
Demostración: Si , entonces se cumple trivialmente. De lo contrario, sea variable aleatoria
Entonces tenemos
Cálculo de la covarianza de la muestra
Las covarianzas de muestra entre las variables basadas en observaciones de cada una, extraídas de una población que de otro modo no sería observada, se dan mediante la matriz con las entradas
que es una estimación de la covarianza entre variable y variable .
La media de la muestra y la matriz de covarianza de la muestra son estimaciones insesgadas de la media y la matriz de covarianza del vector aleatorio , un vector cuyo elemento j es una de las variables aleatorias. La razón por la que la matriz de covarianza de la muestra tiene en el denominador en lugar de es esencialmente que la media de la población no se conoce y se reemplaza por la media de la muestra . Si se conoce la media de la población, la estimación insesgada análoga viene dada por
.
Generalizaciones
Matriz de autocovarianza de vectores aleatorios reales
Para un vector de variables aleatorias distribuidas conjuntamente con segundos momentos finitos, su matriz de autocovarianza (también conocida como matriz de varianza-covarianza o simplemente matriz de covarianza ) (también denotada por o ) se define como [10] : 335
Sea un vector aleatorio con matriz de covarianza Σ y sea A una matriz que puede actuar sobre la izquierda. La matriz de covarianza del producto matriz-vector AX es:
El elemento -ésimo de esta matriz es igual a la covarianza entre el componente escalar i -ésimo de y el componente escalar j -ésimo de . En particular, es la transpuesta de .
Forma sesquilineal de covarianza cruzada de vectores aleatorios en un espacio de Hilbert real o complejo
De manera más general, sean y , espacios de Hilbert sobre o con antilinealidad en la primera variable, y sean variables aleatorias con valores respectivos . Entonces, la covarianza de y es la forma sesquilineal sobre
(antilinealidad en la primera variable) dada por
Cálculo numérico
Cuando , la ecuación es propensa a una cancelación catastrófica si y no se calculan con exactitud y, por lo tanto, se debe evitar en programas informáticos cuando los datos no se han centrado antes. [11] En este caso, se deben preferir algoritmos numéricamente estables . [12]
Comentarios
A veces se denomina a la covarianza una medida de "dependencia lineal" entre dos variables aleatorias. Esto no significa lo mismo que en el contexto del álgebra lineal (véase dependencia lineal ). Cuando se normaliza la covarianza, se obtiene el coeficiente de correlación de Pearson , que indica la bondad del ajuste para la mejor función lineal posible que describa la relación entre las variables. En este sentido, la covarianza es un indicador lineal de dependencia.
Aplicaciones
En genética y biología molecular
La covarianza es una medida importante en biología . Ciertas secuencias de ADN se conservan más que otras entre especies y, por lo tanto, para estudiar las estructuras secundarias y terciarias de las proteínas o de las estructuras del ARN , se comparan las secuencias en especies estrechamente relacionadas. Si se encuentran cambios en la secuencia o no se encuentran cambios en absoluto en el ARN no codificante (como el microARN ), se descubre que las secuencias son necesarias para los motivos estructurales comunes, como un bucle de ARN. En genética, la covarianza sirve como base para el cálculo de la Matriz de Relación Genética (GRM) (también conocida como matriz de parentesco), lo que permite la inferencia sobre la estructura de la población a partir de una muestra sin parientes cercanos conocidos, así como la inferencia sobre la estimación de la heredabilidad de rasgos complejos.
En la asimilación de datos meteorológicos y oceanográficos
La matriz de covarianza es importante para estimar las condiciones iniciales requeridas para ejecutar los modelos de pronóstico del tiempo, un procedimiento conocido como asimilación de datos . La "matriz de covarianza de error de pronóstico" se construye típicamente entre perturbaciones alrededor de un estado medio (ya sea una media climatológica o de conjunto). La "matriz de covarianza de error de observación" se construye para representar la magnitud de los errores de observación combinados (en la diagonal) y los errores correlacionados entre mediciones (fuera de la diagonal). Este es un ejemplo de su aplicación generalizada al filtrado de Kalman y a la estimación de estado más general para sistemas que varían en el tiempo.
En micrometeorología
La técnica de covarianza de remolinos es una técnica clave de medición atmosférica donde la covarianza entre la desviación instantánea de la velocidad del viento vertical respecto del valor medio y la desviación instantánea de la concentración de gas es la base para calcular los flujos turbulentos verticales.
En el procesamiento de señales
La matriz de covarianza se utiliza para capturar la variabilidad espectral de una señal. [15]
^ Diccionario Oxford de Estadística, Oxford University Press, 2002, pág. 104.
^ abcde Park, Kun Il (2018). Fundamentos de probabilidad y procesos estocásticos con aplicaciones a las comunicaciones . Springer. ISBN9783319680743.
^ Yuli Zhang; Huaiyu Wu; Lei Cheng (junio de 2012). "Algunas nuevas fórmulas de deformación sobre varianza y covarianza". Actas de la 4.ª Conferencia internacional sobre modelado, identificación y control (ICMIC2012) . págs. 987–992.
^ "Covarianza de X e Y | STAT 414/415". Universidad Estatal de Pensilvania. Archivado desde el original el 17 de agosto de 2017. Consultado el 4 de agosto de 2019 .
^ Siegrist, Kyle. "Covarianza y correlación". Universidad de Alabama en Huntsville . Consultado el 3 de octubre de 2022 .
^ Dekking, Michel, ed. (2005). Una introducción moderna a la probabilidad y la estadística: comprender por qué y cómo . Textos de Springer sobre estadística. Londres [Heidelberg]: Springer. ISBN978-1-85233-896-1.
^ ab Gubner, John A. (2006). Probabilidad y procesos aleatorios para ingenieros eléctricos e informáticos . Cambridge University Press. ISBN978-0-521-86470-1.
^ Schubert, Erich; Gertz, Michael (2018). "Cálculo paralelo numéricamente estable de (co-)varianza". Actas de la 30.ª Conferencia internacional sobre gestión de bases de datos científicas y estadísticas . Bolzano-Bolzano, Italia: ACM Press. págs. 1–12. doi :10.1145/3221269.3223036. ISBN.978-1-4503-6505-5.S2CID 49665540 .
^ Price, George (1970). "Selección y covarianza". Nature (Revista) . 227 (5257): 520–521. Código Bibliográfico : 1970Natur.227..520P. doi : 10.1038/227520a0. PMID 5428476. S2CID 4264723.
^ Harman, Oren (2020). "Cuando la ciencia refleja la vida: sobre los orígenes de la ecuación de Price". Philosophical Transactions of the Royal Society B: Biological Sciences . 375 (1797). royalsocietypublishing.org: 1–7. doi : 10.1098/rstb.2019.0352 . PMC 7133509 . PMID 32146891.
^ Sahidullah, Md.; Kinnunen, Tomi (marzo de 2016). "Características de variabilidad espectral local para la verificación del hablante". Procesamiento de señales digitales . 50 : 1–11. doi :10.1016/j.dsp.2015.10.011.