Diagrama de Venn de medidas teóricas de la información para tres variables
x, y y
z . Cada círculo representa una
entropía individual :
es el círculo inferior izquierdo,
el inferior derecho y
es el círculo superior. Las intersecciones de dos círculos cualesquiera representan la
información mutua de las dos variables asociadas (por ejemplo,
es amarillo y gris). La unión de dos círculos cualesquiera es la
entropía conjunta de las dos variables asociadas (por ejemplo,
es todo menos verde). La entropía conjunta
de las tres variables es la unión de los tres círculos. Está dividido en 7 partes, siendo rojo, azul y verde las
entropías condicionales respectivamente, amarillo, magenta y cian siendo la
información mutua condicional y respectivamente, y gris siendo la
información de interacción . La información de interacción es la única de todas que puede ser negativa.