La función Hartley es una medida de incertidumbre introducida por Ralph Hartley en 1928. Si se elige una muestra de un conjunto finito A de manera uniforme y aleatoria, la información que se revela después de conocer el resultado viene dada por la función Hartley.
donde | A | denota la cardinalidad de A .
Si la base del logaritmo es 2, entonces la unidad de incertidumbre es el shannon (más comúnmente conocido como bit ). Si es el logaritmo natural , entonces la unidad es el nat . Hartley utilizó un logaritmo de base diez y con esta base, la unidad de información se llama hartley (también conocido como ban o dit ) en su honor. También se conoce como entropía de Hartley o entropía máxima.
La función Hartley coincide con la entropía de Shannon (así como con las entropías de Rényi de todos los órdenes) en el caso de una distribución de probabilidad uniforme. Es un caso especial de la entropía de Rényi ya que:
Pero también puede verse como una construcción primitiva, ya que, como enfatizan Kolmogorov y Rényi, la función Hartley puede definirse sin introducir ninguna noción de probabilidad (ver Incertidumbre e información de George J. Klir, p. 423).
La función Hartley sólo depende del número de elementos de un conjunto y, por lo tanto, puede considerarse como una función de los números naturales. Rényi demostró que la función Hartley en base 2 es la única función que asigna números naturales a números reales que satisface
La condición 1 dice que la incertidumbre del producto cartesiano de dos conjuntos finitos A y B es la suma de las incertidumbres de A y B. La condición 2 dice que un conjunto más grande tiene mayor incertidumbre.
Queremos demostrar que la función Hartley, log 2 ( n ), es la única función que asigna números naturales a números reales que satisface
Sea f una función de números enteros positivos que satisface las tres propiedades anteriores. A partir de la propiedad aditiva, podemos demostrar que para cualquier número entero n y k ,
Sean a , b y t números enteros positivos cualesquiera. Existe un único entero s determinado por
Por lo tanto,
y
Por otra parte, por monotonía,
Usando la ecuación (1), se obtiene
y
Por eso,
Dado que t puede ser arbitrariamente grande, la diferencia en el lado izquierdo de la desigualdad anterior debe ser cero.
Entonces,
para alguna constante μ , que debe ser igual a 1 por la propiedad de normalización.