En teoría de la información , la desigualdad de potencia de entropía ( EPI ) es un resultado que se relaciona con el llamado "poder de entropía" de las variables aleatorias . Muestra que el poder de entropía de las variables aleatorias adecuadamente comportadas es una función superaditiva . La desigualdad de potencia de entropía fue demostrada en 1948 por Claude Shannon en su artículo seminal " Una teoría matemática de la comunicación ". Shannon también proporcionó una condición suficiente para que se cumpla la igualdad; Stam (1959) demostró que la condición es de hecho necesaria.
Para un vector aleatorio X : Ω → R n con función de densidad de probabilidad f : R n → R , la entropía diferencial de X , denotada h ( X ), se define como
y la potencia de entropía de X , denotada N ( X ), se define como
En particular, N ( X ) = | K | 1/ n cuando X se distribuye normalmente con matriz de covarianza K .
Sean X e Y variables aleatorias independientes con funciones de densidad de probabilidad en el espacio L p L p ( R n ) para algún p > 1. Entonces
Además, la igualdad se cumple si y sólo si X e Y son variables aleatorias normales multivariadas con matrices de covarianza proporcionales .
La desigualdad de potencia de entropía se puede reescribir en una forma equivalente que no depende explícitamente de la definición de potencia de entropía (véase la referencia de Costa y Cover a continuación).
Sean X e Y variables aleatorias independientes , como se indicó anteriormente. Luego, sean X' e Y' variables aleatorias distribuidas independientemente con distribuciones gaussianas, tales que
Entonces,