stringtranslate.com

Covarianza

El signo de la covarianza de dos variables aleatorias X e Y.

La covarianza en teoría de probabilidad y estadística es una medida de la variabilidad conjunta de dos variables aleatorias . [1]

Definición

Si los valores mayores de una variable se corresponden principalmente con valores mayores de la otra variable, y lo mismo ocurre con los valores menores (es decir, las variables tienden a mostrar un comportamiento similar), la covarianza es positiva. [2] En el caso contrario, cuando valores mayores de una variable corresponden principalmente a valores menores de la otra (es decir, las variables tienden a mostrar un comportamiento opuesto), la covarianza es negativa. El signo de la covarianza, por tanto, muestra la tendencia en la relación lineal entre las variables. La magnitud de la covarianza es la media geométrica de las varianzas comunes a las dos variables aleatorias. El coeficiente de correlación normaliza la covarianza dividiendo por la media geométrica de las varianzas totales de las dos variables aleatorias.

Debe hacerse una distinción entre (1) la covarianza de dos variables aleatorias, que es un parámetro poblacional que puede verse como una propiedad de la distribución de probabilidad conjunta , y (2) la covarianza muestral , que además de servir como descriptor de la muestra, también sirve como valor estimado del parámetro poblacional.

Matemáticas

Para dos variables aleatorias de valor real distribuidas conjuntamente y con segundos momentos finitos , la covarianza se define como el valor esperado (o media) del producto de sus desviaciones de sus valores esperados individuales: [3] [4] : ​​119 

¿Dónde está el valor esperado de , también conocido como media de ? La covarianza también se denomina a veces o , en analogía con la varianza . Al utilizar la propiedad de linealidad de las expectativas, esto se puede simplificar al valor esperado de su producto menos el producto de sus valores esperados:

una cancelación catastrófica

Las unidades de medida de la covarianza son las de multiplicado por las de . Por el contrario, los coeficientes de correlación , que dependen de la covarianza, son una medida adimensional de dependencia lineal. (De hecho, los coeficientes de correlación pueden entenderse simplemente como una versión normalizada de la covarianza).

Variables aleatorias complejas

La covarianza entre dos variables aleatorias complejas se define como [4] : ​​119 

Observe la conjugación compleja del segundo factor en la definición.

También se puede definir una pseudocovarianza relacionada.

Variables aleatorias discretas

Si el par de variables aleatorias (reales) puede tomar los valores de , con iguales probabilidades , entonces la covarianza se puede escribir de manera equivalente en términos de las medias y como

También se puede expresar de manera equivalente, sin hacer referencia directa a los medios, como [5]

De manera más general, si hay posibles realizaciones de , es decir, pero con probabilidades posiblemente desiguales para , entonces la covarianza es

En el caso de que dos variables aleatorias discretas tengan una distribución de probabilidad conjunta, representada por elementos correspondientes a las probabilidades conjuntas de , la covarianza se calcula mediante una doble sumatoria sobre los índices de la matriz:

Ejemplos

Considere 3 variables aleatorias independientes y dos constantes .

Interpretación geométrica del ejemplo de la covarianza. Cada cuboide es el cuadro delimitador alineado con el eje de su punto ( x , y , f  ( x , y )), y las medias X e Y (punto magenta). La covarianza es la suma de los volúmenes de los cuboides en el 1.º y 3.º cuadrante (rojo) menos los del 2.º y 4.º (azul).

Supongamos que y tiene la siguiente función de masa de probabilidad conjunta , [6] en la que las seis celdas centrales dan las probabilidades conjuntas discretas de las seis realizaciones hipotéticas :

Puede tomar tres valores (5, 6 y 7) mientras que puede tomar dos (8 y 9). Sus medios son y . Entonces,

Propiedades

Covarianza consigo mismo

La varianza es un caso especial de la covarianza en el que las dos variables son idénticas (es decir, en el que una variable tiene la misma distribución que la otra): [4] : 121 

Covarianza de combinaciones lineales.

Si , , y son variables aleatorias de valor real y son constantes de valor real, entonces los siguientes hechos son consecuencia de la definición de covarianza:

Para una secuencia de variables aleatorias en valores reales y constantes , tenemos

Identidad de covarianza de Hoeffding

Una identidad útil para calcular la covarianza entre dos variables aleatorias es la identidad de covarianza de Hoeffding: [7]

marginales

Descorrelación e independencia

Las variables aleatorias cuya covarianza es cero se denominan no correlacionadas . [4] : 121  De manera similar, los componentes de vectores aleatorios cuya matriz de covarianza es cero en cada entrada fuera de la diagonal principal también se denominan no correlacionados.

Si y son variables aleatorias independientes , entonces su covarianza es cero. [4] : 123  [8] Esto se debe a que bajo la independencia,

Sin embargo, lo contrario no suele ser cierto. Por ejemplo, dejemos que se distribuya uniformemente y dejemos . Claramente, y no son independientes, pero

En este caso, la relación entre y no es lineal, mientras que la correlación y la covarianza son medidas de dependencia lineal entre dos variables aleatorias. Este ejemplo muestra que si dos variables aleatorias no están correlacionadas, eso en general no implica que sean independientes. Sin embargo, si dos variables tienen una distribución normal conjunta (pero no si están distribuidas normalmente individualmente ), la falta de correlación implica independencia. [9]

y cuya covarianza es positiva se denominan correlacionados positivamente, lo que implica si entonces es probable . Por el contrario, y con covarianza negativa, están correlacionados negativamente y, si es así, es probable .

Relación con los productos internos.

Muchas de las propiedades de la covarianza se pueden extraer elegantemente observando que satisface propiedades similares a las de un producto interno :

  1. bilineal : para constantes y variables aleatorias
  2. simétrico:
  3. Semidefinida positiva : para todas las variables aleatorias , e implica que es constante casi con seguridad .

De hecho, estas propiedades implican que la covarianza define un producto interno sobre el espacio vectorial cociente obtenido al tomar el subespacio de variables aleatorias con un segundo momento finito e identificando dos que difieren en una constante. (Esta identificación convierte la semidefinición positiva anterior en una definición positiva). Ese espacio vectorial cociente es isomorfo al subespacio de variables aleatorias con segundo momento finito y media cero; en ese subespacio, la covarianza es exactamente el producto interno L 2 de funciones de valor real en el espacio muestral.

Como resultado, para variables aleatorias con varianza finita, la desigualdad

desigualdad de Cauchy-Schwarz

Prueba: Si , entonces se cumple trivialmente. De lo contrario, deje que la variable aleatoria

Entonces nosotros tenemos

Calcular la covarianza muestral

Las covarianzas muestrales entre variables basadas en observaciones de cada una, extraídas de una población que de otro modo no se observaría, vienen dadas por la matriz con las entradas

que es una estimación de la covarianza entre variable y variable .

La media muestral y la matriz de covarianza muestral son estimaciones insesgadas de la media y la matriz de covarianza del vector aleatorio , un vector cuyo jésimo elemento es una de las variables aleatorias. La razón por la que la matriz de covarianza muestral tiene en el denominador en lugar de es esencialmente que la media poblacional no se conoce y se reemplaza por la media muestral . Si se conoce la media poblacional , la estimación insesgada análoga viene dada por

.

Generalizaciones

Matriz de autocovarianza de vectores aleatorios reales

Para un vector de variables aleatorias distribuidas conjuntamente con segundos momentos finitos, su matriz de autocovarianza (también conocida como matriz de varianza-covarianza o simplemente matriz de covarianza ) (también denotada por o ) se define como [10] : 335 

Sea un vector aleatorio con matriz de covarianza Σ y sea A una matriz que puede actuar por la izquierda. La matriz de covarianza del producto matriz-vector AX es:

Este es un resultado directo de la linealidad de la expectativa y es útil cuando se aplica una transformación lineal , como una transformación de blanqueamiento , a un vector.

Matriz de covarianza cruzada de vectores aleatorios reales

Para vectores aleatorios reales y , la matriz de covarianza cruzada es igual a [10] : 336 

¿Dónde está la transpuesta del vector (o matriz) ?

El -ésimo elemento de esta matriz es igual a la covarianza entre el i -ésimo componente escalar de y el j -ésimo componente escalar de . En particular, es la transpuesta de .

Forma sesquilineal de covarianza cruzada de vectores aleatorios en un espacio de Hilbert real o complejo

De manera más general, sean y , espacios de Hilbert sobre o con anti lineal en la primera variable, y sean resp. variables aleatorias valoradas. Entonces la covarianza de y es la forma sesquilineal (antilineal en la primera variable) dada por

Computación numérica

Cuando , la ecuación es propensa a una cancelación catastrófica si y no se calculan exactamente y, por lo tanto, debe evitarse en programas de computadora cuando los datos no se han centrado antes. [11] En este caso se deberían preferir algoritmos numéricamente estables . [12]

Comentarios

La covarianza a veces se denomina medida de "dependencia lineal" entre dos variables aleatorias. Eso no significa lo mismo que en el contexto del álgebra lineal (ver dependencia lineal ). Cuando se normaliza la covarianza, se obtiene el coeficiente de correlación de Pearson , que da la bondad del ajuste para la mejor función lineal posible que describe la relación entre las variables. En este sentido, la covarianza es un indicador lineal de dependencia.

Aplicaciones

En genética y biología molecular.

La covarianza es una medida importante en biología . Ciertas secuencias de ADN se conservan más que otras entre las especies y, por tanto, para estudiar las estructuras secundarias y terciarias de las proteínas , o de las estructuras del ARN , se comparan secuencias en especies estrechamente relacionadas. Si se encuentran cambios de secuencia o no se encuentra ningún cambio en el ARN no codificante (como el microARN ), se considera que las secuencias son necesarias para motivos estructurales comunes, como un bucle de ARN. En genética, la covarianza sirve de base para el cálculo de la matriz de relaciones genéticas (GRM) (también conocida como matriz de parentesco), lo que permite inferir la estructura de la población a partir de una muestra sin parientes cercanos conocidos, así como la inferencia sobre la estimación de la heredabilidad de rasgos complejos.

En la teoría de la evolución y la selección natural , la ecuación del precio describe cómo un rasgo genético cambia en frecuencia a lo largo del tiempo. La ecuación utiliza una covarianza entre un rasgo y la aptitud para dar una descripción matemática de la evolución y la selección natural. Proporciona una manera de comprender los efectos que la transmisión genética y la selección natural tienen sobre la proporción de genes dentro de cada nueva generación de una población. [13] [14]

En economía financiera

Las covarianzas desempeñan un papel clave en la economía financiera , especialmente en la teoría moderna de carteras y en el modelo de fijación de precios de activos de capital . Las covarianzas entre los rendimientos de varios activos se utilizan para determinar, bajo ciertos supuestos, las cantidades relativas de diferentes activos que los inversores deberían (en un análisis normativo ) o se prevé que (en un análisis positivo ) elegirán mantener en un contexto de diversificación .

En asimilación de datos meteorológicos y oceanográficos

La matriz de covarianza es importante para estimar las condiciones iniciales requeridas para ejecutar modelos de pronóstico del tiempo, un procedimiento conocido como asimilación de datos . La 'matriz de covarianza del error de pronóstico' generalmente se construye entre perturbaciones alrededor de un estado medio (ya sea una media climatológica o de conjunto). La 'matriz de covarianza del error de observación' se construye para representar la magnitud de los errores de observación combinados (en la diagonal) y los errores correlacionados entre mediciones (fuera de la diagonal). Este es un ejemplo de su aplicación generalizada al filtrado de Kalman y a la estimación de estado más general para sistemas que varían en el tiempo.

En micrometeorología

La técnica de covarianza de remolinos es una técnica clave de medición de la atmósfera en la que la covarianza entre la desviación instantánea de la velocidad del viento vertical respecto del valor medio y la desviación instantánea de la concentración de gas es la base para calcular los flujos turbulentos verticales.

En el procesamiento de señales

La matriz de covarianza se utiliza para capturar la variabilidad espectral de una señal. [15]

En estadística y procesamiento de imágenes.

La matriz de covarianza se utiliza en el análisis de componentes principales para reducir la dimensionalidad de las características en el preprocesamiento de datos .

Ver también

Referencias

  1. ^ Arroz, John (2007). Estadística Matemática y Análisis de Datos . Brooks/Cole Cengage Aprendizaje. pag. 138.ISBN​ 9780534399429.
  2. ^ Weisstein, Eric W. "Covarianza". MundoMatemático .
  3. ^ Diccionario Oxford de Estadística, Oxford University Press, 2002, p. 104.
  4. ^ Parque ABCDE, Kun Il (2018). Fundamentos de Probabilidad y Procesos Estocásticos con Aplicaciones a las Comunicaciones . Saltador. ISBN 9783319680743.
  5. ^ Yuli Zhang; Huaiyu Wu; Lei Cheng (junio de 2012). "Algunas nuevas fórmulas de deformación sobre varianza y covarianza". Actas de la 4ª Conferencia Internacional sobre Modelado, Identificación y Control (ICMIC2012) . págs. 987–992.
  6. ^ "Covarianza de X e Y | STAT 414/415". La Universidad Estatal de Pensilvania. Archivado desde el original el 17 de agosto de 2017 . Consultado el 4 de agosto de 2019 .
  7. ^ Papoulis (1991). Probabilidad, Variables Aleatorias y Procesos Estocásticos . McGraw-Hill.
  8. ^ Siegrist, Kyle. "Covarianza y correlación". Universidad de Alabama en Huntsville . Consultado el 3 de octubre de 2022 .
  9. ^ Dekking, Michel, ed. (2005). Una introducción moderna a la probabilidad y la estadística: comprender por qué y cómo . Textos de Springer en estadística. Londres [Heidelberg]: Springer. ISBN 978-1-85233-896-1.
  10. ^ ab Gubner, John A. (2006). Probabilidad y Procesos Aleatorios para Ingenieros Eléctricos e Informáticos . Prensa de la Universidad de Cambridge. ISBN 978-0-521-86470-1.
  11. ^ Donald E. Knuth (1998). El arte de la programación informática , volumen 2: Algoritmos seminuméricos , 3.ª ed., p. 232. Boston: Addison-Wesley.
  12. ^ Schubert, Erich; Gertz, Michael (2018). "Cálculo paralelo numéricamente estable de (co)varianza". Actas de la 30ª Conferencia Internacional sobre Gestión de Bases de Datos Científicas y Estadísticas . Bozen-Bolzano, Italia: ACM Press. págs. 1–12. doi :10.1145/3221269.3223036. ISBN 978-1-4503-6505-5. S2CID  49665540.
  13. ^ Precio, George (1970). "Selección y covarianza". Naturaleza (diario) . 227 (5257): 520–521. Código Bib :1970Natur.227..520P. doi :10.1038/227520a0. PMID  5428476. S2CID  4264723.
  14. ^ Harman, Oren (2020). "Cuando la ciencia refleja la vida: sobre los orígenes de la ecuación de Price". Transacciones Filosóficas de la Royal Society B: Ciencias Biológicas . 375 (1797). royalsocietypublishing.org: 1–7. doi : 10.1098/rstb.2019.0352 . PMC 7133509 . PMID  32146891. 
  15. ^ Sahidullah, Maryland; Kinnunen, Tomi (marzo de 2016). "Características de variabilidad espectral local para la verificación de locutores". Procesamiento de señales digitales . 50 : 1–11. doi :10.1016/j.dsp.2015.10.011.