Se distingue de la función de entropía en que la primera toma un único número real como parámetro, mientras que la segunda toma una distribución o una variable aleatoria como parámetro. A veces, la función de entropía binaria también se escribe como . Sin embargo, es diferente y no debe confundirse con la entropía de Rényi , que se denota como .
Explicación
En términos de teoría de la información, se considera que la entropía es una medida de la incertidumbre de un mensaje. Para decirlo intuitivamente, supongamos . Con esta probabilidad, es seguro que el evento nunca ocurrirá, por lo que no hay incertidumbre alguna, lo que lleva a una entropía de 0. Si , el resultado es nuevamente seguro, entonces la entropía también es 0 aquí. Cuando , la incertidumbre es máxima; Si uno hiciera una apuesta justa sobre el resultado en este caso, no se obtendría ninguna ventaja con el conocimiento previo de las probabilidades. En este caso, la entropía es máxima con un valor de 1 bit. Los valores intermedios se encuentran entre estos casos; por ejemplo, si , todavía hay una medida de incertidumbre sobre el resultado, pero todavía se puede predecir el resultado correctamente la mayoría de las veces, por lo que la medida de incertidumbre, o entropía, es inferior a 1 bit completo.
Derivado
La derivada de la función de entropía binaria se puede expresar como la negativa de la función logit :
.
serie de taylor
La serie de Taylor de la función de entropía binaria en una vecindad de 1/2 es
^ Topsøe, Flemming (2001). "Límites de entropía y divergencia para distribuciones en un conjunto de dos elementos". JIPAM. Revista de desigualdades en matemáticas puras y aplicadas . 2 (2): Trabajo No. 25, 13 p.- Trabajo No. 25, 13 p.
Otras lecturas
MacKay, David JC Teoría de la información, inferencia y algoritmos de aprendizaje Cambridge: Cambridge University Press, 2003. ISBN 0-521-64298-1