stringtranslate.com

Desigualdad de potencia de entropía

En teoría de la información , la desigualdad de potencia de entropía ( EPI ) es un resultado que se relaciona con el llamado "poder de entropía" de las variables aleatorias . Muestra que el poder de entropía de las variables aleatorias adecuadamente comportadas es una función superaditiva . La desigualdad de potencia de entropía fue demostrada en 1948 por Claude Shannon en su artículo seminal " Una teoría matemática de la comunicación ". Shannon también proporcionó una condición suficiente para que se cumpla la igualdad; Stam (1959) demostró que la condición es de hecho necesaria.

Enunciado de la desigualdad

Para un vector aleatorio X  : Ω →  R n con función de densidad de probabilidad f  :  R n  →  R , la entropía diferencial de X , denotada h ( X ), se define como

y la potencia de entropía de X , denotada N ( X ), se define como

En particular, N ( X ) = | K | 1/ n cuando X  se distribuye normalmente con matriz de covarianza K .

Sean X e Y variables aleatorias independientes con funciones de densidad de probabilidad en el espacio L p L p ( R n ) para algún p  > 1. Entonces

Además, la igualdad se cumple si y sólo si X e Y son variables aleatorias normales multivariadas con matrices de covarianza proporcionales .

Forma alternativa de la desigualdad

La desigualdad de potencia de entropía se puede reescribir en una forma equivalente que no depende explícitamente de la definición de potencia de entropía (véase la referencia de Costa y Cover a continuación).

Sean X e Y variables aleatorias independientes , como se indicó anteriormente. Luego, sean X' e Y' variables aleatorias distribuidas independientemente con distribuciones gaussianas, tales que

y

Entonces,

Véase también

Referencias