En teoría de probabilidad y estadística , se dice que dos variables aleatorias de valor real , , , no están correlacionadas si su covarianza , , es cero. Si dos variables no están correlacionadas, no existe una relación lineal entre ellas.
Las variables aleatorias no correlacionadas tienen un coeficiente de correlación de Pearson , cuando existe, de cero, excepto en el caso trivial en que cualquiera de las variables tiene varianza cero (es una constante). En este caso, la correlación no está definida.
En general, la falta de correlación no es lo mismo que la ortogonalidad , excepto en el caso especial en el que al menos una de las dos variables aleatorias tiene un valor esperado de 0. En este caso, la covarianza es la expectativa del producto, y y no están correlacionados si y solo si .
Si y son independientes , con segundos momentos finitos , entonces no están correlacionadas. Sin embargo, no todas las variables no correlacionadas son independientes. [1] : p. 155
Definición
Definición de dos variables aleatorias reales
Dos variables aleatorias se denominan no correlacionadas si su covarianza es cero. [1] : p. 153 [2] : p. 121 Formalmente:
Definición de dos variables aleatorias complejas
Dos variables aleatorias complejas se denominan no correlacionadas si su covarianza y su pseudocovarianza son cero, es decir
Definición para más de dos variables aleatorias
Un conjunto de dos o más variables aleatorias se denomina no correlacionado si cada par de ellas no lo está. Esto es equivalente al requisito de que los elementos no diagonales de la matriz de autocovarianza del vector aleatorio sean todos cero. La matriz de autocovarianza se define como:
Ejemplos de dependencia sin correlación
Ejemplo 1
- Sea una variable aleatoria que toma el valor 0 con probabilidad 1/2, y toma el valor 1 con probabilidad 1/2.
- Sea una variable aleatoria, independiente de , que toma el valor −1 con probabilidad 1/2, y toma el valor 1 con probabilidad 1/2.
- Sea una variable aleatoria construida como .
La afirmación es que y tienen covarianza cero (y por lo tanto no están correlacionados), pero no son independientes.
Prueba:
Teniendo en cuenta que
donde la segunda igualdad se cumple porque y son independientes, se obtiene
Por lo tanto, y no están correlacionados.
La independencia de y significa que para todos y , . Esto no es cierto, en particular, para y .
Por lo tanto , y no son independientes.
QED
Ejemplo 2
Si es una variable aleatoria continua uniformemente distribuida en y , entonces y no están correlacionados aunque determina y un valor particular de puede ser producido por solo uno o dos valores de :
Por otra parte, es 0 en el triángulo definido por aunque no es nulo en este dominio. Por lo tanto, y las variables no son independientes.
Por lo tanto, las variables no están correlacionadas.
Cuando la falta de correlación implica independencia
Existen casos en los que la falta de correlación implica independencia. Uno de estos casos es aquel en el que ambas variables aleatorias tienen dos valores (por lo que cada una puede transformarse linealmente para tener una distribución de Bernoulli ). [3] Además, dos variables aleatorias que se distribuyen normalmente de manera conjunta son independientes si no están correlacionadas, [4] aunque esto no se cumple para las variables cuyas distribuciones marginales son normales y no correlacionadas pero cuya distribución conjunta no es normal conjunta (véase Distribuir normalmente y no correlacionar no implica independencia ).
Generalizaciones
Vectores aleatorios no correlacionados
Dos vectores aleatorios y se denominan no correlacionados si
- .
No están correlacionados si y sólo si su matriz de covarianza cruzada es cero. [5] : p.337
Dos vectores aleatorios complejos y se denominan no correlacionados si su matriz de covarianza cruzada y su matriz de pseudo-covarianza cruzada son cero, es decir, si
dónde
y
- .
Procesos estocásticos no correlacionados
Dos procesos estocásticos y se denominan no correlacionados si su covarianza cruzada es cero para todos los tiempos. [2] : p. 142 Formalmente:
- .
Véase también
Referencias
- ^ ab Papoulis, Athanasios (1991). Probabilidad, variables aleatorias y procesos estocásticos . MCGraw Hill. ISBN 0-07-048477-5.
- ^ ab Kun Il Park, Fundamentos de probabilidad y procesos estocásticos con aplicaciones a las comunicaciones, Springer, 2018, 978-3-319-68074-3
- ^ Laboratorios Virtuales en Probabilidad y Estadística: Covarianza y Correlación, ítem 17.
- ^ Bain, Lee; Engelhardt, Max (1992). "Capítulo 5.5 Expectativa condicional". Introducción a la probabilidad y la estadística matemática (2.ª ed.). págs. 185-186. ISBN 0534929303.
- ^ Gubner, John A. (2006). Probabilidad y procesos aleatorios para ingenieros eléctricos e informáticos . Cambridge University Press. ISBN 978-0-521-86470-1.
Lectura adicional