La unidad natural de información (símbolo: nat ), [1] a veces también nit o nepit , es una unidad de información o entropía de información , basada en logaritmos naturales y potencias de e , en lugar de las potencias de 2 y los logaritmos de base 2 , que definen el shannon . Esta unidad también se conoce por su símbolo de unidad, el nat. Un nat es el contenido de información de un evento cuando la probabilidad de que ese evento ocurra es 1/ e .
Un nat es igual a 1/en 2 shannons ≈ 1,44 Sh o, equivalentemente ,1/en 10 Hartleys ≈ 0,434 Hart. [1]
Boulton y Wallace utilizaron el término nit junto con la longitud mínima del mensaje , [2] que posteriormente fue cambiado por la comunidad de longitud mínima de descripción a nat para evitar confusiones con el nit utilizado como unidad de luminancia . [3]
Alan Turing utilizó la prohibición natural . [4]
La entropía de Shannon (entropía de información), al ser el valor esperado de la información de un evento, es inherentemente una cantidad del mismo tipo y con una unidad de información. El Sistema Internacional de Unidades , al asignar la misma unidad ( julio por kelvin ) tanto a la capacidad calorífica como a la entropía termodinámica, trata implícitamente la entropía de información como una cantidad de dimensión uno , con 1 nat = 1. [ a] Los sistemas de unidades naturales que normalizan la constante de Boltzmann a 1 miden efectivamente la entropía termodinámica con la nat como unidad.
Cuando la entropía de Shannon se escribe utilizando un logaritmo natural, implícitamente se da un número medido en nats.