Diagrama de Venn de medidas teóricas de la información para tres variables
x, y y
z . Cada círculo representa una
entropía individual :
es el círculo inferior izquierdo,
el inferior derecho y
es el círculo superior. Las intersecciones de dos círculos cualesquiera representan la
información mutua para las dos variables asociadas (por ejemplo
, es amarillo y gris). La unión de dos círculos cualesquiera es la
entropía conjunta para las dos variables asociadas (por ejemplo,
es todo menos verde). La entropía conjunta
de las tres variables es la unión de los tres círculos. Está dividida en 7 partes, rojo, azul y verde son las
entropías condicionales respectivamente, amarillo, magenta y cian son las
informaciones mutuas condicionales y respectivamente, y gris es la
información de interacción . La información de interacción es la única de todas que puede ser negativa.