El signo de la covarianza, por tanto, muestra la tendencia en la relación lineal entre las variables. Si los valores mayores de una variable se corresponden principalmente con valores mayores de la otra variable, y lo mismo ocurre con los valores menores (es decir, las variables tienden a mostrar un comportamiento similar), la covarianza es positiva. [2] En el caso contrario, cuando valores mayores de una variable corresponden principalmente a valores menores de la otra (es decir, las variables tienden a mostrar un comportamiento opuesto), la covarianza es negativa. La magnitud de la covarianza es la media geométrica de las varianzas comunes a las dos variables aleatorias. El coeficiente de correlación normaliza la covarianza dividiendo por la media geométrica de las varianzas totales de las dos variables aleatorias.
Debe hacerse una distinción entre (1) la covarianza de dos variables aleatorias, que es un parámetro poblacional que puede verse como una propiedad de la distribución de probabilidad conjunta , y (2) la covarianza muestral , que además de servir como descriptor de la muestra, también sirve como valor estimado del parámetro poblacional.
¿Dónde está el valor esperado de , también conocido como media de ? La covarianza también se denomina a veces o , en analogía con la varianza . Al utilizar la propiedad de linealidad de las expectativas, esto se puede simplificar al valor esperado de su producto menos el producto de sus valores esperados:
pero esta ecuación es susceptible de una cancelación catastrófica (consulte la sección sobre cálculo numérico a continuación).
Las unidades de medida de la covarianza son las de multiplicado por las de . Por el contrario, los coeficientes de correlación , que dependen de la covarianza, son una medida adimensional de dependencia lineal. (De hecho, los coeficientes de correlación pueden entenderse simplemente como una versión normalizada de la covarianza).
Si el par de variables aleatorias (reales) puede tomar los valores de , con iguales probabilidades , entonces la covarianza se puede escribir de manera equivalente en términos de las medias y como
También se puede expresar de manera equivalente, sin hacer referencia directa a los medios, como [5]
De manera más general, si hay posibles realizaciones de , es decir, pero con probabilidades posiblemente desiguales para , entonces la covarianza es
En el caso de que dos variables aleatorias discretas tengan una distribución de probabilidad conjunta, representada por elementos correspondientes a las probabilidades conjuntas de , la covarianza se calcula mediante una doble sumatoria sobre los índices de la matriz:
Ejemplos
Considere 3 variables aleatorias independientes y dos constantes .
En el caso especial, y , la covarianza entre y es solo la varianza de y el nombre covarianza es totalmente apropiado.
Supongamos que y tiene la siguiente función de masa de probabilidad conjunta , [6] en la que las seis celdas centrales dan las probabilidades conjuntas discretas de las seis realizaciones hipotéticas :
Puede tomar tres valores (5, 6 y 7) mientras que puede tomar dos (8 y 9). Sus medios son y . Entonces,
Propiedades
Covarianza consigo mismo
La varianza es un caso especial de la covarianza en el que las dos variables son idénticas: [4] : 121
Covarianza de combinaciones lineales.
Si , , y son variables aleatorias de valor real y son constantes de valor real, entonces los siguientes hechos son consecuencia de la definición de covarianza:
Para una secuencia de variables aleatorias en valores reales y constantes , tenemos
Identidad de covarianza de Hoeffding
Una identidad útil para calcular la covarianza entre dos variables aleatorias es la identidad de covarianza de Hoeffding: [7]
donde es la función de distribución acumulativa conjunta del vector aleatorio y son los marginales .
Descorrelación e independencia
Las variables aleatorias cuya covarianza es cero se denominan no correlacionadas . [4] : 121 De manera similar, los componentes de vectores aleatorios cuya matriz de covarianza es cero en cada entrada fuera de la diagonal principal también se denominan no correlacionados.
Sin embargo, lo contrario no suele ser cierto. Por ejemplo, dejemos que se distribuya uniformemente y dejemos . Claramente, y no son independientes, pero
En este caso, la relación entre y no es lineal, mientras que la correlación y la covarianza son medidas de dependencia lineal entre dos variables aleatorias. Este ejemplo muestra que si dos variables aleatorias no están correlacionadas, eso en general no implica que sean independientes. Sin embargo, si dos variables tienen una distribución normal conjunta (pero no si están distribuidas normalmente individualmente ), la falta de correlación implica independencia. [9]
y cuya covarianza es positiva se denominan correlacionados positivamente, lo que implica si entonces es probable . Por el contrario, y con covarianza negativa, están correlacionados negativamente y, si es así, es probable .
Relación con los productos internos.
Muchas de las propiedades de la covarianza se pueden extraer elegantemente observando que satisface propiedades similares a las de un producto interno :
De hecho, estas propiedades implican que la covarianza define un producto interno sobre el espacio vectorial cociente obtenido al tomar el subespacio de variables aleatorias con un segundo momento finito e identificando dos que difieren en una constante. (Esta identificación convierte la semidefinición positiva anterior en una precisión positiva). Ese espacio vectorial cociente es isomorfo al subespacio de variables aleatorias con segundo momento finito y media cero; en ese subespacio, la covarianza es exactamente el producto interno L 2 de funciones de valor real en el espacio muestral.
Como resultado, para variables aleatorias con varianza finita, la desigualdad
se cumple mediante la desigualdad de Cauchy-Schwarz .
Prueba: Si , entonces se cumple trivialmente. De lo contrario, deje que la variable aleatoria
Entonces nosotros tenemos
Calcular la covarianza muestral
Las covarianzas muestrales entre variables basadas en observaciones de cada una, extraídas de una población que de otro modo no se observaría, vienen dadas por la matriz con las entradas
que es una estimación de la covarianza entre variable y variable .
La media muestral y la matriz de covarianza muestral son estimaciones insesgadas de la media y la matriz de covarianza del vector aleatorio , un vector cuyo jésimo elemento es una de las variables aleatorias. La razón por la que la matriz de covarianza muestral tiene en el denominador en lugar de es esencialmente que la media poblacional no se conoce y se reemplaza por la media muestral . Si se conoce la media poblacional , la estimación insesgada análoga viene dada por
.
Generalizaciones
Matriz de autocovarianza de vectores aleatorios reales
Para un vector de variables aleatorias distribuidas conjuntamente con segundos momentos finitos, su matriz de autocovarianza (también conocida como matriz de varianza-covarianza o simplemente matriz de covarianza ) (también denotada por o ) se define como [10] : 335
Sea un vector aleatorio con matriz de covarianza Σ y sea A una matriz que puede actuar por la izquierda. La matriz de covarianza del producto matriz-vector AX es:
Matriz de covarianza cruzada de vectores aleatorios reales
Para vectores aleatorios reales y , la matriz de covarianza cruzada es igual a [10] : 336
¿Dónde está la transpuesta del vector (o matriz) ?
El -ésimo elemento de esta matriz es igual a la covarianza entre el i -ésimo componente escalar de y el j -ésimo componente escalar de . En particular, es la transpuesta de .
Forma sesquilineal de covarianza cruzada de vectores aleatorios en un espacio de Hilbert real o complejo
De manera más general, sean y , espacios de Hilbert sobre o con anti lineal en la primera variable, y sean resp . variables aleatorias valoradas. Entonces la covarianza de y es la forma sesquilineal
(antilineal en la primera variable) dada por
Computación numérica
Cuando , la ecuación es propensa a una cancelación catastrófica si y no se calculan exactamente y, por lo tanto, debe evitarse en programas de computadora cuando los datos no se han centrado antes. [11] En este caso se deberían preferir algoritmos numéricamente estables . [12]
Comentarios
La covarianza a veces se denomina medida de "dependencia lineal" entre dos variables aleatorias. Eso no significa lo mismo que en el contexto del álgebra lineal (ver dependencia lineal ). Cuando se normaliza la covarianza, se obtiene el coeficiente de correlación de Pearson , que da la bondad del ajuste para la mejor función lineal posible que describe la relación entre las variables. En este sentido, la covarianza es un indicador lineal de dependencia.
Aplicaciones
En genética y biología molecular.
La covarianza es una medida importante en biología . Ciertas secuencias de ADN se conservan más que otras entre las especies y, por tanto, para estudiar las estructuras secundarias y terciarias de las proteínas , o de las estructuras del ARN , se comparan secuencias en especies estrechamente relacionadas. Si se encuentran cambios de secuencia o no se encuentra ningún cambio en el ARN no codificante (como el microARN ), se considera que las secuencias son necesarias para motivos estructurales comunes, como un bucle de ARN. En genética, la covarianza sirve de base para el cálculo de la matriz de relaciones genéticas (GRM) (también conocida como matriz de parentesco), lo que permite inferir la estructura de la población a partir de una muestra sin parientes cercanos conocidos, así como la inferencia sobre la estimación de la heredabilidad de rasgos complejos.
En la teoría de la evolución y la selección natural , la ecuación del precio describe cómo un rasgo genético cambia en frecuencia a lo largo del tiempo. La ecuación utiliza una covarianza entre un rasgo y la aptitud para dar una descripción matemática de la evolución y la selección natural. Proporciona una manera de comprender los efectos que la transmisión genética y la selección natural tienen sobre la proporción de genes dentro de cada nueva generación de una población. [13] [14]
En asimilación de datos meteorológicos y oceanográficos
La matriz de covarianza es importante para estimar las condiciones iniciales requeridas para ejecutar modelos de pronóstico del tiempo, un procedimiento conocido como asimilación de datos . La 'matriz de covarianza del error de pronóstico' generalmente se construye entre perturbaciones alrededor de un estado medio (ya sea una media climatológica o de conjunto). La 'matriz de covarianza del error de observación' se construye para representar la magnitud de los errores de observación combinados (en la diagonal) y los errores correlacionados entre mediciones (fuera de la diagonal). Este es un ejemplo de su aplicación generalizada al filtrado de Kalman y a la estimación de estado más general para sistemas que varían en el tiempo.
En micrometeorología
La técnica de covarianza de remolinos es una técnica clave de medición de la atmósfera en la que la covarianza entre la desviación instantánea de la velocidad del viento vertical respecto del valor medio y la desviación instantánea de la concentración de gas es la base para calcular los flujos turbulentos verticales.
En procesamiento de señales
La matriz de covarianza se utiliza para capturar la variabilidad espectral de una señal. [15]
^ Diccionario Oxford de Estadística, Oxford University Press, 2002, p. 104.
^ Parque ABCDE, Kun Il (2018). Fundamentos de Probabilidad y Procesos Estocásticos con Aplicaciones a las Comunicaciones . Saltador. ISBN9783319680743.
^ Yuli Zhang; Huaiyu Wu; Lei Cheng (junio de 2012). "Algunas nuevas fórmulas de deformación sobre varianza y covarianza". Actas de la 4ª Conferencia Internacional sobre Modelado, Identificación y Control (ICMIC2012) . págs. 987–992.
^ "Covarianza de X e Y | STAT 414/415". La Universidad Estatal de Pensilvania. Archivado desde el original el 17 de agosto de 2017 . Consultado el 4 de agosto de 2019 .
^ Siegrist, Kyle. "Covarianza y correlación". Universidad de Alabama en Huntsville . Consultado el 3 de octubre de 2022 .
^ Dekking, Michel, ed. (2005). Una introducción moderna a la probabilidad y la estadística: comprender por qué y cómo . Textos de Springer en estadística. Londres [Heidelberg]: Springer. ISBN978-1-85233-896-1.
^ ab Gubner, John A. (2006). Probabilidad y Procesos Aleatorios para Ingenieros Eléctricos e Informáticos . Prensa de la Universidad de Cambridge. ISBN978-0-521-86470-1.
^ Schubert, Erich; Gertz, Michael (2018). "Cálculo paralelo numéricamente estable de (co)varianza". Actas de la 30ª Conferencia Internacional sobre Gestión de Bases de Datos Científicas y Estadísticas . Bozen-Bolzano, Italia: ACM Press. págs. 1–12. doi :10.1145/3221269.3223036. ISBN978-1-4503-6505-5. S2CID 49665540.
^ Precio, George (1970). "Selección y covarianza". Naturaleza (diario) . 227 (5257): 520–521. Código Bib :1970Natur.227..520P. doi :10.1038/227520a0. PMID 5428476. S2CID 4264723.
^ Harman, Oren (2020). "Cuando la ciencia refleja la vida: sobre los orígenes de la ecuación de Price". Transacciones Filosóficas de la Royal Society B: Ciencias Biológicas . 375 (1797). royalsocietypublishing.org: 1–7. doi : 10.1098/rstb.2019.0352 . PMC 7133509 . PMID 32146891.
^ Sahidullah, Maryland; Kinnunen, Tomi (marzo de 2016). "Características de variabilidad espectral local para la verificación de hablantes". Procesamiento de señales digitales . 50 : 1–11. doi :10.1016/j.dsp.2015.10.011.