stringtranslate.com

nat (unidad)

La unidad natural de información (símbolo: nat ), [1] a veces también nit o nepit , es una unidad de información o entropía de información , basada en logaritmos naturales y potencias de e , en lugar de las potencias de 2 y logaritmos de base 2 , que define el shannon . Esta unidad también se conoce por su símbolo de unidad, el nat. Un nat es el contenido de información de un evento cuando la probabilidad de que ese evento ocurra es 1/ e .

Un nat es igual a1/en 2 shannons ≈ 1,44 Sh o, equivalentemente,1/en 10 hartleys ≈ 0,434 Hart. [1]

Historia

Boulton y Wallace utilizaron el término nit junto con longitud mínima de mensaje , [2] que posteriormente fue cambiado por la comunidad de longitud mínima de descripción a nat para evitar confusión con el nit utilizado como unidad de luminancia . [3]

Alan Turing utilizó la prohibición natural . [4]

entropía

La entropía de Shannon (entropía de la información), al ser el valor esperado de la información de un evento, es inherentemente una cantidad del mismo tipo y con una unidad de información. El Sistema Internacional de Unidades , al asignar la misma unidad ( julio por kelvin ) tanto a la capacidad calorífica como a la entropía termodinámica , trata implícitamente la entropía de la información como una cantidad de dimensión uno , con 1 nat = 1 . [a] Los sistemas de unidades naturales que normalizan la constante de Boltzmann a 1 miden efectivamente la entropía termodinámica con la nat como unidad.

Cuando la entropía de Shannon se escribe usando un logaritmo natural,

Notas

  1. ^ Esto implícitamente también convierte al nat en la unidad coherente de información en el SI.

Referencias

  1. ^ ab "IEC 80000-13:2008". Comisión Electrotécnica Internacional . Consultado el 21 de julio de 2013 .
  2. ^ Boulton, DM; Wallace, CS (1970). "Un programa de clasificación numérica". Diario de informática . 13 (1): 63–69. doi : 10.1093/comjnl/13.1.63 .
  3. ^ Comley, JW y Dowe, DL (2005). "Longitud mínima de mensaje, MDL y redes bayesianas generalizadas con lenguajes asimétricos". En Grünwald, P.; Myung, IJ y Pitt, MA (eds.). Avances en la longitud mínima de la descripción: teoría y aplicaciones. Cambridge: Prensa del MIT. segundo. 11.4.1, p271. ISBN 0-262-07262-9.
  4. ^ Hodges, Andrés (1983). Alan Turing: El Enigma . Nueva York : Simon & Schuster . ISBN 0-671-49207-1. OCLC  10020685.

Otras lecturas