En estadística y en teoría de la probabilidad , la correlación de distancia o covarianza de distancia es una medida de dependencia entre dos vectores aleatorios pareados de dimensión arbitraria, no necesariamente igual . El coeficiente de correlación de distancia poblacional es cero si y solo si los vectores aleatorios son independientes . Por lo tanto, la correlación de distancia mide la asociación tanto lineal como no lineal entre dos variables aleatorias o vectores aleatorios. Esto contrasta con la correlación de Pearson , que solo puede detectar la asociación lineal entre dos variables aleatorias .
La correlación de distancias se puede utilizar para realizar una prueba estadística de dependencia con una prueba de permutación . Primero se calcula la correlación de distancias (que implica el recentrado de matrices de distancias euclidianas) entre dos vectores aleatorios y luego se compara este valor con las correlaciones de distancias de muchas mezclas de datos.
Fondo
La medida clásica de dependencia, el coeficiente de correlación de Pearson , [1] es principalmente sensible a una relación lineal entre dos variables. La correlación de distancia fue introducida en 2005 por Gábor J. Székely en varias conferencias para abordar esta deficiencia de la correlación de Pearson , es decir, que puede ser fácilmente cero para las variables dependientes. La correlación = 0 (no correlación) no implica independencia, mientras que la correlación de distancia = 0 sí implica independencia. Los primeros resultados sobre la correlación de distancia se publicaron en 2007 y 2009. [2] [3] Se demostró que la covarianza de distancia es la misma que la covarianza browniana. [3] Estas medidas son ejemplos de distancias de energía .
La correlación de distancia se deriva de una serie de otras cantidades que se utilizan en su especificación, específicamente: varianza de distancia , desviación estándar de distancia y covarianza de distancia . Estas cantidades asumen los mismos roles que los momentos ordinarios con nombres correspondientes en la especificación del coeficiente de correlación de producto-momento de Pearson .
Definiciones
Covarianza de distancia
Comencemos con la definición de la covarianza de distancia de la muestra . Sea ( X k , Y k ), k = 1, 2, ..., n una muestra estadística de un par de variables aleatorias de valor real o de valor vectorial ( X , Y ). Primero, calcule las matrices de distancia n por n ( a j , k ) y ( b j , k ) que contienen todas las distancias por pares.
donde ||⋅ ||denota la norma euclidiana . Luego, tome todas las distancias doblemente centradas
donde es la media de la fila j , es la media de la columna k y es la media general de la matriz de distancias de la muestra X. La notación es similar para los valores b . (En las matrices de distancias centradas ( A j , k ) y ( B j , k ) todas las filas y todas las columnas suman cero.) La covarianza de la distancia muestral al cuadrado (un escalar) es simplemente el promedio aritmético de los productos A j , k B j , k :
La estadística T n = n dCov 2 n ( X , Y ) determina una prueba multivariada consistente de independencia de vectores aleatorios en dimensiones arbitrarias. Para una implementación, consulte la función dcov.test en el paquete de energía para R . [4]
El valor de población de la covarianza de distancia se puede definir siguiendo las mismas líneas. Sea X una variable aleatoria que toma valores en un espacio euclidiano de dimensión p con distribución de probabilidad μ y sea Y una variable aleatoria que toma valores en un espacio euclidiano de dimensión q con distribución de probabilidad ν , y supongamos que X e Y tienen esperanzas finitas. Escriba
Finalmente, defina el valor poblacional de la covarianza de la distancia al cuadrado de X e Y como
Se puede demostrar que esto es equivalente a la siguiente definición:
donde E denota valor esperado, y y son independientes y distribuidas de forma idéntica. Las variables aleatorias cebadas y denotan copias independientes e idénticamente distribuidas (iid) de las variables y y son igualmente iid. [5] La covarianza de distancia se puede expresar en términos de la covarianza clásica de Pearson , cov , de la siguiente manera:
Esta identidad muestra que la covarianza de la distancia no es la misma que la covarianza de las distancias, cov(‖ X − X' ‖, ‖ Y − Y' ‖ ). Esta puede ser cero incluso si X e Y no son independientes.
Alternativamente, la covarianza de la distancia se puede definir como la norma L 2 ponderada de la distancia entre la función característica conjunta de las variables aleatorias y el producto de sus funciones características marginales: [6]
donde , , y son las funciones características de ( X , Y ), X , e Y , respectivamente, p , q denotan la dimensión euclidiana de X e Y , y por tanto de s y t , y c p , c q son constantes. La función de peso se elige para producir una medida equivariante de escala e invariante de rotación que no vaya a cero para las variables dependientes. [6] [7] Una interpretación de la definición de la función característica es que las variables e isX y e itY son representaciones cíclicas de X e Y con diferentes periodos dados por s y t , y la expresión ϕ X , Y ( s , t ) − ϕ X ( s ) ϕ Y ( t ) en el numerador de la definición de la función característica de la covarianza de la distancia es simplemente la covarianza clásica de e isX y e itY . La definición de la función característica muestra claramente que dCov 2 ( X , Y ) = 0 si y solo si X e Y son independientes.
Varianza de la distancia y desviación estándar de la distancia
La varianza de la distancia es un caso especial de covarianza de la distancia cuando las dos variables son idénticas. El valor de la población de la varianza de la distancia es la raíz cuadrada de
La desviación estándar de la distancia es la raíz cuadrada de la varianza de la distancia .
Correlación de distancia
La correlación de distancia [2] [3] de dos variables aleatorias se obtiene dividiendo su covarianza de distancia por el producto de sus desviaciones estándar de distancia . La correlación de distancia es la raíz cuadrada de
y la correlación de la distancia de muestra se define sustituyendo la covarianza de la distancia de muestra y las varianzas de la distancia por los coeficientes de población anteriores.
Para un cálculo sencillo de la correlación de la distancia de muestra , consulte la función dcor en el paquete de energía para R. [4]
Propiedades
Correlación de distancia
y esto contrasta con la correlación de Pearson, que puede ser negativa.
si y sólo si X e Y son independientes.
implica que las dimensiones de los subespacios lineales abarcados por las muestras X e Y respectivamente son casi seguramente iguales y si asumimos que estos subespacios son iguales, entonces en este subespacio para algún vector A , escalar b y matriz ortonormal .
Covarianza de distancia
y ;
para todos los vectores constantes , escalares y matrices ortonormales .
Si los vectores aleatorios y son independientes entonces
La igualdad se cumple si y sólo si y son ambos constantes, o y son ambos constantes, o son mutuamente independientes.
si y sólo si X e Y son independientes.
Esta última propiedad es el efecto más importante de trabajar con distancias centradas.
La estadística es un estimador sesgado de . Bajo independencia de X e Y [9]
Székely y Rizzo ofrecen un estimador imparcial de [10] .
Variación de la distancia
Si y sólo si casi con seguridad.
si y sólo si cada observación de muestra es idéntica.
para todos los vectores constantes A , escalares b y matrices ortonormales .
Si X e Y son independientes entonces .
La igualdad se cumple en (iv) si y sólo si una de las variables aleatorias X o Y es una constante.
Generalización
La covarianza de distancia se puede generalizar para incluir potencias de la distancia euclidiana. Definir
Entonces, para cada , y son independientes si y solo si . Es importante notar que esta caracterización no se cumple para el exponente ; en este caso para bivariado , es una función determinista de la correlación de Pearson. [2] Si y son potencias de las distancias correspondientes, , entonces la covarianza de la distancia muestral se puede definir como el número no negativo para el cual
Se puede extender a variables aleatorias con valores en el espacio métrico y : Si tiene una ley en un espacio métrico con métrica , entonces defina , , y (siempre que sea finito, es decir, tenga un primer momento finito), . Entonces, si tiene una ley (en un espacio métrico posiblemente diferente con un primer momento finito), defina
Esto no es negativo para todos estos espacios métricos si y solo si tienen tipo negativo. [11] Aquí, un espacio métrico tiene tipo negativo si es isométrico a un subconjunto de un espacio de Hilbert . [12] Si ambos espacios métricos tienen un tipo negativo fuerte, entonces si y solo si son independientes. [11]
Definición alternativa de covarianza de distancia
La covarianza de distancia original se ha definido como la raíz cuadrada de , en lugar del propio coeficiente al cuadrado. tiene la propiedad de ser la distancia de energía entre la distribución conjunta de y el producto de sus marginales. Sin embargo, según esta definición, la varianza de distancia, en lugar de la desviación estándar de distancia, se mide en las mismas unidades que las distancias.
Alternativamente, se podría definir la covarianza de la distancia como el cuadrado de la distancia de energía: En este caso, la desviación estándar de la distancia se mide en las mismas unidades que la distancia, y existe un estimador imparcial para la covarianza de la distancia de la población. [10]
Según estas definiciones alternativas, la correlación de distancia también se define como el cuadrado , en lugar de la raíz cuadrada.
Formulación alternativa: covarianza browniana
La covarianza browniana está motivada por la generalización del concepto de covarianza a los procesos estocásticos. El cuadrado de la covarianza de las variables aleatorias X e Y se puede escribir de la siguiente forma:
donde E denota el valor esperado y el primo denota copias independientes e idénticamente distribuidas. Necesitamos la siguiente generalización de esta fórmula. Si U(s), V(t) son procesos aleatorios arbitrarios definidos para todos los s y t reales, entonces definamos la versión de X centrada en U mediante
siempre que exista el valor esperado condicional restado y denotemos por Y V la versión centrada en V de Y. [3] [13] [14] La covarianza (U,V) de (X,Y) se define como el número no negativo cuyo cuadrado es
Hay una coincidencia sorprendente: la covarianza browniana es la misma que la covarianza de la distancia:
y por lo tanto la correlación browniana es lo mismo que la correlación de distancia.
Por otro lado, si reemplazamos el movimiento browniano con la función identidad determinista id entonces Cov id ( X , Y ) es simplemente el valor absoluto de la covarianza clásica de Pearson ,
Métricas relacionadas
Otras métricas correlacionales, incluidas las métricas correlacionales basadas en kernel (como el criterio de independencia de Hilbert-Schmidt o HSIC), también pueden detectar interacciones lineales y no lineales. Tanto la correlación de distancia como las métricas basadas en kernel se pueden utilizar en métodos como el análisis de correlación canónica y el análisis de componentes independientes para generar una mayor potencia estadística .
Bickel, Peter J.; Xu, Ying (2009). "Discusión de: covarianza de la distancia browniana". Anales de estadística aplicada . 3 (4): 1266–1269. arXiv : 0912.3295 . doi : 10.1214/09-AOAS312A .
Gini, C. (1912). Variabilidad y mutabilidad . Bolonia: Tipografia di Paolo Cuppini. Código bibliográfico : 1912vamu.book.....G.
Kosorok, Michael R. (2009). "Discusión sobre: covarianza de distancia browniana". Los anales de la estadística aplicada . 3 (4): 1270–1278. arXiv : 1010.0822 . doi :10.1214/09-AOAS312B. S2CID 88518490.
Lyons, Russell (2014). "Covarianza de distancias en espacios métricos". Anales de probabilidad . 41 (5): 3284–3305. arXiv : 1106.5758 . doi :10.1214/12-AOP803. S2CID 73677891.
Pearson, K. (1895b). "Notas sobre la historia de la correlación". Biometrika . 13 : 25–45. doi :10.1093/biomet/13.1.25.
Rizzo, Maria; Székely, Gábor (22 de febrero de 2021). "Energía: E-Estadísticas: Inferencia multivariante a través de la energía de los datos". Versión: 1.7-8 . Consultado el 31 de octubre de 2021 .
Székely, Gábor J.; Rizzo, Maria L.; Bakirov, Nail K. (2007). "Medición y prueba de la independencia mediante correlación de distancias". Anales de estadística . 35 (6): 2769–2794. arXiv : 0803.4101 . doi :10.1214/009053607000000505. S2CID 5661488.
Székely, Gábor J.; Rizzo, Maria L. (2009a). "Covarianza de la distancia browniana". Anales de estadística aplicada . 3 (4): 1236–1265. doi :10.1214/09-AOAS312. PMC 2889501 . PMID 20574547.
Székely, Gábor J.; Rizzo, María L. (2009b). "Dúplica: covarianza de distancia browniana". Los anales de la estadística aplicada . 3 (4): 1303–1308. arXiv : 1010.0844 . doi : 10.1214/09-AOAS312REJ .
Székely, Gábor J.; Rizzo, Maria L. (2012). "Sobre la unicidad de la covarianza de distancia". Statistics & Probability Letters . 82 (12): 2278–2282. doi :10.1016/j.spl.2012.08.007.
Székely, Gabor J.; Rizzo, Maria L. (2014). "Correlación de distancia parcial con métodos para disimilitudes". Anales de estadística . 42 (6): 2382–2412. arXiv : 1310.2926 . Código Bibliográfico :2014arXiv1310.2926S. doi :10.1214/14-AOS1255. S2CID 55801702.
Enlaces externos
Estadísticas electrónicas (estadísticas energéticas) Archivado el 13 de septiembre de 2019 en Wayback Machine.