En matemáticas , una fuente de información es una secuencia de variables aleatorias que abarcan un alfabeto finito Γ y que tienen una distribución estacionaria .
La incertidumbre , o tasa de entropía , de una fuente de información se define como
dónde
es la secuencia de variables aleatorias que definen la fuente de información, y
es la entropía de información condicional de la secuencia de variables aleatorias. De manera equivalente, se tiene
Véase también
Referencias
- Robert B. Ash, Teoría de la información , (1965) Dover Publications. ISBN 0-486-66521-6