stringtranslate.com

Entropía conjunta

Un diagrama de Venn [1] engañoso que muestra relaciones aditivas y sustractivas entre varias medidas de información asociadas con variables correlacionadas X e Y. El área contenida por ambos círculos es la entropía conjunta H(X,Y). El círculo de la izquierda (rojo y violeta) es la entropía individual H(X), siendo el rojo la entropía condicional H(X|Y). El círculo de la derecha (azul y violeta) es H(Y), y el azul es H(Y|X). El violeta es la información mutua I(X;Y).

En teoría de la información , la entropía conjunta es una medida de la incertidumbre asociada con un conjunto de variables . [2]

Definición

La entropía de Shannon conjunta (en bits ) de dos variables aleatorias discretas y con imágenes se define como [3] : 16 

donde y son valores particulares de y , respectivamente, es la probabilidad conjunta de que estos valores ocurran juntos, y se define como 0 si .

Para más de dos variables aleatorias, esto se expande a

donde son valores particulares de , respectivamente, es la probabilidad de que estos valores ocurran juntos, y se define como 0 si .

Propiedades

No negatividad

La entropía conjunta de un conjunto de variables aleatorias es un número no negativo.

Mayor que las entropías individuales

La entropía conjunta de un conjunto de variables es mayor o igual al máximo de todas las entropías individuales de las variables del conjunto.

Menor o igual a la suma de entropías individuales

La entropía conjunta de un conjunto de variables es menor o igual a la suma de las entropías individuales de las variables del conjunto. Este es un ejemplo de subaditividad . Esta desigualdad es una igualdad si y sólo si y son estadísticamente independientes . [3] : 30 

Relaciones con otras medidas de entropía

La entropía conjunta se utiliza en la definición de entropía condicional [3] : 22 

,

y

.

También se utiliza en la definición de información mutua [3] : 21 

.

En la teoría de la información cuántica , la entropía conjunta se generaliza en entropía cuántica conjunta .

Entropía diferencial conjunta

Definición

La definición anterior es para variables aleatorias discretas e igualmente válida en el caso de variables aleatorias continuas. La versión continua de la entropía conjunta discreta se llama entropía diferencial conjunta (o continua) . Sea y una variable aleatoria continua con una función de densidad de probabilidad conjunta . La entropía conjunta diferencial se define como [3] : 249 

Para más de dos variables aleatorias continuas, la definición se generaliza a:

La integral se toma sobre el soporte de . Es posible que la integral no exista en cuyo caso decimos que la entropía diferencial no está definida.

Propiedades

Como en el caso discreto, la entropía diferencial conjunta de un conjunto de variables aleatorias es menor o igual que la suma de las entropías de las variables aleatorias individuales:

[3] : 253 

La siguiente regla de la cadena se cumple para dos variables aleatorias:

En el caso de más de dos variables aleatorias, esto se generaliza a: [3] : 253 

La entropía diferencial conjunta también se utiliza en la definición de información mutua entre variables aleatorias continuas:

Referencias

  1. ^ DJC Mackay (2003). Teoría de la información, inferencias y algoritmos de aprendizaje . Código bibliográfico : 2003itil.book.....M.: 141 
  2. ^ Teresa M. Korn ; Korn, Granino Arthur (enero de 2000). Manual de matemáticas para científicos e ingenieros: definiciones, teoremas y fórmulas para referencia y revisión . Nueva York: Publicaciones de Dover. ISBN 0-486-41147-8.
  3. ^ abcdefg Thomas M. Portada; Joy A. Thomas (18 de julio de 2006). Elementos de la teoría de la información . Hoboken, Nueva Jersey: Wiley. ISBN 0-471-24195-4.