stringtranslate.com

Información de interacción

Diagrama de Venn de medidas teóricas de la información para tres variables x, y y z, representadas por los círculos inferior izquierdo, inferior derecho y superior, respectivamente. La información de interacción está representada por la región gris y es la única que puede ser negativa.

La información de interacción es una generalización de la información mutua para más de dos variables.

Hay muchos nombres para la información de interacción, incluida cantidad de información , [1] correlación de información , [2] co-información , [3] y simplemente información mutua . [4] La información de interacción expresa la cantidad de información (redundancia o sinergia) ligada a un conjunto de variables, más allá de la que está presente en cualquier subconjunto de esas variables. A diferencia de la información mutua, la información de interacción puede ser positiva o negativa. Estas funciones, su negatividad y mínimos tienen una interpretación directa en topología algebraica . [5]

Definición

La información mutua condicional se puede utilizar para definir inductivamente la información de interacción para cualquier número finito de variables de la siguiente manera:

dónde

Algunos autores [6] definen la información de interacción de manera diferente, intercambiando los dos términos que se restan en la ecuación anterior. Esto tiene el efecto de invertir el signo para un número impar de variables.

Para tres variables , la información de interacción viene dada por

donde es la información mutua entre variables y , y es la información mutua condicional entre variables y dada . La información de interacción es simétrica , por lo que no importa a qué variable esté condicionada. Esto es fácil de ver cuando la información de interacción se escribe en términos de entropía y entropía conjunta, de la siguiente manera:

En general, para el conjunto de variables , la información de interacción se puede escribir de la siguiente forma (compárese con la aproximación de Kirkwood ):

Para tres variables, la información de interacción mide la influencia de una variable en la cantidad de información compartida entre y . Debido a que el término puede ser mayor que , la información de interacción puede ser tanto negativa como positiva. Esto sucederá, por ejemplo, cuando y sean independientes pero no condicionalmente independientes dado . La información de interacción positiva indica que la variable inhibe (es decir, explica o explica parte de) la correlación entre y , mientras que la información de interacción negativa indica que la variable facilita o mejora la correlación.

Propiedades

La información de interacción está limitada. En el caso de las tres variables, está acotado por [4]

Si tres variables forman una cadena de Markov , entonces , pero . Por lo tanto

Ejemplos

Información de interacción positiva

La información de interacción positiva parece mucho más natural que la información de interacción negativa en el sentido de que tales efectos explicativos son típicos de estructuras de causa común. Por ejemplo, las nubes provocan lluvia y también bloquean el sol; por lo tanto, la correlación entre lluvia y oscuridad se explica en parte por la presencia de nubes . El resultado es información de interacción positiva .

Información de interacción negativa

El motor de un automóvil puede no arrancar debido a una batería agotada o a una bomba de combustible bloqueada. Normalmente, asumimos que la muerte de la batería y el bloqueo de la bomba de combustible son eventos independientes . Pero sabiendo que el coche no arranca, si una inspección muestra que la batería está en buen estado, podemos concluir que la bomba de combustible debe estar bloqueada. Por lo tanto , el resultado es información de interacción negativa.

Dificultad de interpretación

La posible negatividad de la información sobre la interacción puede ser fuente de cierta confusión. [3] Muchos autores han tomado la información de interacción cero como una señal de que tres o más variables aleatorias no interactúan, pero esta interpretación es errónea. [7]

Para ver cuán difícil puede ser la interpretación, considere un conjunto de ocho variables binarias independientes . Aglomere estas variables de la siguiente manera:

Debido a que los 's se superponen entre sí (son redundantes) en las tres variables binarias , esperaríamos que la información de interacción sea igual a bits, lo cual es así. Sin embargo, consideremos ahora las variables aglomeradas.

Estas son las mismas variables que antes con la adición de . Sin embargo, en este caso es realmente igual a un bit, lo que indica menos redundancia. Esto es correcto en el sentido de que

pero sigue siendo difícil de interpretar.

Usos


Ver también

Referencias

  1. ^ Ting, Hu Kuo (enero de 1962). "Sobre la cantidad de información". Teoría de la probabilidad y sus aplicaciones . 7 (4): 439–447. doi :10.1137/1107041. ISSN  0040-585X.
  2. ^ Wolf, David (1 de mayo de 1996). La generalización de la información mutua como información entre un conjunto de variables: la jerarquía de la función de correlación de la información y la estructura de la información de los sistemas multiagente (informe técnico). Centro de Investigación Ames de la NASA.
  3. ^ ab Bell, Anthony (2003). La red de co-información . 4to Int. Síntoma. Análisis de componentes independientes y separación ciega de fuentes.
  4. ^ ab Yeung, RW (mayo de 1991). "Una nueva perspectiva sobre las medidas de información de Shannon". Transacciones IEEE sobre teoría de la información . 37 (3): 466–474. doi :10.1109/18.79902. ISSN  0018-9448.
  5. ^ Baudot, Pedro; Bennequin, Daniel (13 de mayo de 2015). "La naturaleza homológica de la entropía". Entropía . 17 (5): 3253–3318. Código Bib : 2015Entrp..17.3253B. doi : 10.3390/e17053253 . ISSN  1099-4300.
  6. ^ McGill, William J. (junio de 1954). "Transmisión de información multivariante". Psicometrika . 19 (2): 97-116. doi :10.1007/bf02289159. ISSN  0033-3123. S2CID  126431489.
  7. ^ Krippendorff, Klaus (agosto de 2009). "Información de interacciones en sistemas complejos". Revista Internacional de Sistemas Generales . 38 (6): 669–680. doi :10.1080/03081070902993160. ISSN  0308-1079. S2CID  13923485.
  8. ^ Killian, Benjamín J.; Yundenfreund Kravitz, Joslyn; Gilson, Michael K. (14 de julio de 2007). "Extracción de entropía configuracional a partir de simulaciones moleculares mediante una aproximación de expansión". La Revista de Física Química . 127 (2): 024107. Código bibliográfico : 2007JChPh.127b4107K. doi : 10.1063/1.2746329. ISSN  0021-9606. PMC 2707031 . PMID  17640119. 
  9. ^ LeVine, Michael V.; Pérez-Aguilar, José Manuel; Weinstein, Harel (18 de junio de 2014). "Análisis de la teoría de la información de N-cuerpos (NbIT) de la dinámica del cuerpo rígido en el bucle intracelular 2 del receptor 5-HT2A". arXiv : 1406.4730 [q-bio.BM].
  10. ^ "InfoTopo: Análisis de datos de información topológica. Aprendizaje estadístico profundo supervisado y no supervisado - Intercambio de archivos - Github". github.com/pierrebaudot/infotopopy/ . Consultado el 26 de septiembre de 2020 .