stringtranslate.com

Limitar la densidad de puntos discretos.

En teoría de la información , la densidad límite de puntos discretos es un ajuste a la fórmula de Claude Shannon para la entropía diferencial .

Fue formulado por Edwin Thompson Jaynes para abordar defectos en la definición inicial de entropía diferencial.

Definición

Shannon escribió originalmente la siguiente fórmula para la entropía de una distribución continua, conocida como entropía diferencial :

Sin embargo, a diferencia de la fórmula de Shannon para la entropía discreta, ésta no es el resultado de ninguna derivación (Shannon simplemente reemplazó el símbolo de suma en la versión discreta por una integral) y carece de muchas de las propiedades que hacen de la entropía discreta una medida útil de incertidumbre. En particular, no es invariante ante un cambio de variables y puede volverse negativo. Además, ni siquiera es dimensionalmente correcto. Como sería adimensional, debe tener unidades de , lo que significa que el argumento del logaritmo no es adimensional como se requiere.

Jaynes argumentó que la fórmula para la entropía continua debería derivarse tomando el límite de distribuciones discretas cada vez más densas. [1] [2] Supongamos que tenemos un conjunto de puntos discretos , tales que en el límite su densidad se acerca a una función llamada "medida invariante":

Jaynes derivó de esto la siguiente fórmula para la entropía continua, que, según él, debería tomarse como la fórmula correcta:

Normalmente, cuando se escribe esto, el término se omite, ya que normalmente no sería finito. Entonces la definición común real es

Cuando no esté claro si el término debe omitirse o no, se podría escribir

Observe que en la fórmula de Jaynes, hay una densidad de probabilidad. Para cualquier finito , [ se necesita más explicación ] es una densidad uniforme sobre la cuantificación del espacio continuo que se utiliza en la suma de Riemann. En el límite, está la densidad límite continua de puntos en la cuantificación utilizada para representar la variable continua .

Supongamos que uno tuviera un formato numérico que tomara valores posibles, distribuidos según . Entonces (si es lo suficientemente grande como para que la aproximación continua sea válida) es la entropía discreta de la variable en esta codificación. Esto es igual al número promedio de bits necesarios para transmitir esta información y no supera los . Por lo tanto, puede considerarse como la cantidad de información que se obtiene al saber que la variable sigue la distribución , y no está distribuida uniformemente entre los posibles valores cuantificados, como sería el caso si siguiera . es en realidad la divergencia (negativa) de Kullback-Leibler de a , que se considera como la información obtenida al saber que una variable que antes se pensaba que estaba distribuida como en realidad se distribuye como .

La fórmula de entropía continua de Jaynes tiene la propiedad de ser invariante ante un cambio de variables, siempre que y se transformen de la misma manera. (Esto motiva el nombre de "medida invariante" para m ). Esto resuelve muchas de las dificultades que surgen al aplicar la fórmula de entropía continua de Shannon. El propio Jaynes eliminó el término porque no era relevante para su trabajo (distribuciones de entropía máxima), y es algo incómodo tener un término infinito en el cálculo. Desafortunadamente, esto no se puede evitar si la cuantificación se hace arbitrariamente fina, como sería el caso en el límite continuo. Tenga en cuenta que, como se define aquí (sin el término), siempre sería no positivo, porque una divergencia KL siempre sería no negativa.

Si se da el caso de que es constante en algún intervalo de tamaño , y es esencialmente cero fuera de ese intervalo, entonces la densidad límite de puntos discretos (LDDP) está estrechamente relacionada con la entropía diferencial :

Referencias

  1. ^ Jaynes, et (1963). "Teoría de la información y mecánica estadística". En K. Ford (ed.). Física Estadística (PDF) . Benjamín, Nueva York. pag. 181.
  2. ^ Jaynes, et (1968). "Probabilidades previas" (PDF) . Transacciones IEEE sobre ciencia de sistemas y cibernética . SSC-4 (3): 227–241. doi :10.1109/TSSC.1968.300117.

Otras lecturas