stringtranslate.com

nat (unidad)

La unidad natural de información (símbolo: nat ), [1] a veces también nit o nepit , es una unidad de información o entropía de información , basada en logaritmos naturales y potencias de e , en lugar de las potencias de 2 y los logaritmos de base 2 , que definen el shannon . Esta unidad también se conoce por su símbolo de unidad, el nat. Un nat es el contenido de información de un evento cuando la probabilidad de que ese evento ocurra es 1/ e .

Un nat es igual a 1/en 2 shannons ≈ 1,44 Sh o, equivalentemente ,1/en 10 Hartleys ≈ 0,434 Hart. [1]

Historia

Boulton y Wallace utilizaron el término nit junto con la longitud mínima del mensaje , [2] que posteriormente fue cambiado por la comunidad de longitud mínima de descripción a nat para evitar confusiones con el nit utilizado como unidad de luminancia . [3]

Alan Turing utilizó la prohibición natural . [4]

Entropía

La entropía de Shannon (entropía de información), al ser el valor esperado de la información de un evento, es inherentemente una cantidad del mismo tipo y con una unidad de información. El Sistema Internacional de Unidades , al asignar la misma unidad ( julio por kelvin ) tanto a la capacidad calorífica como a la entropía termodinámica, trata implícitamente la entropía de información como una cantidad de dimensión uno , con 1 nat = 1. [ a] Los sistemas de unidades naturales que normalizan la constante de Boltzmann a 1 miden efectivamente la entropía termodinámica con la nat como unidad.

Cuando la entropía de Shannon se escribe utilizando un logaritmo natural, implícitamente se da un número medido en nats.

Notas

  1. ^ Esto implícitamente también hace que el nat sea la unidad coherente de información en el SI.

Referencias

  1. ^ ab "IEC 80000-13:2008". Comisión Electrotécnica Internacional . Consultado el 21 de julio de 2013 .
  2. ^ Boulton, DM; Wallace, CS (1970). "Un programa para la clasificación numérica". Revista informática . 13 (1): 63–69. doi : 10.1093/comjnl/13.1.63 .
  3. ^ Comley, JW y Dowe, DL (2005). "Longitud mínima de mensaje, MDL y redes bayesianas generalizadas con lenguajes asimétricos". En Grünwald, P.; Myung, IJ y Pitt, MA (eds.). Avances en longitud mínima de descripción: teoría y aplicaciones. Cambridge: MIT Press. sec. 11.4.1, pág. 271. ISBN 0-262-07262-9Archivado desde el original el 19 de junio de 2006. Consultado el 18 de abril de 2006 .
  4. ^ Hodges, Andrew (1983). Alan Turing: El enigma . Nueva York : Simon & Schuster . ISBN. 0-671-49207-1.OCLC 10020685  .

Lectura adicional