stringtranslate.com

Hartley (unidad)

El hartley (símbolo Hart ), también llamado ban , o dit (abreviatura de "dígito decimal"), [1] [2] [3] es una unidad logarítmica que mide información o entropía , basada en logaritmos y potencias de base 10. de 10. Un hartley es el contenido de información de un evento si la probabilidad de que ese evento ocurra es 110 . [4] Es por tanto igual a la información contenida en un dígito decimal (o dit), suponiendo a priori equiprobabilidad de cada valor posible. Lleva el nombre de Ralph Hartley .

Si en su lugar se utilizan logaritmos de base 2 y potencias de 2, entonces la unidad de información es el shannon o bit , que es el contenido de información de un evento si la probabilidad de que ese evento ocurra es 12 . Los logaritmos naturales y las potencias de e definen el nat .

Una prohibición corresponde a ln(10) nat = log 2 (10) Sh , o aproximadamente 2,303 nat , o 3,322 bits (3,322 Sh). [a] Un deciban es una décima parte de una prohibición (o alrededor de 0,332 Sh); el nombre se forma a partir de prohibición por el prefijo SI deci- .

Aunque no existe una unidad SI asociada , la entropía de la información forma parte del Sistema Internacional de Cantidades , definido por la Norma Internacional IEC 80000-13 de la Comisión Electrotécnica Internacional .

Historia

El término hartley lleva el nombre de Ralph Hartley , quien sugirió en 1928 medir la información utilizando una base logarítmica igual al número de estados distinguibles en su representación, que sería la base 10 para un dígito decimal. [5] [6]

La prohibición y el deciban fueron inventados por Alan Turing con Irving John "Jack" Good en 1940, para medir la cantidad de información que podían deducir los descifradores de códigos de Bletchley Park utilizando el procedimiento Banburismus , para determinar la configuración desconocida de cada día del alemán. máquina de cifrado naval Enigma . El nombre se inspiró en las enormes hojas de cartulina, impresas en la ciudad de Banbury, a unas 30 millas de distancia, que se utilizaron en el proceso. [7]

Good argumentó que la suma secuencial de decibans para construir una medida del peso de la evidencia a favor de una hipótesis es esencialmente una inferencia bayesiana . [7] Donald A. Gillies , sin embargo, argumentó que la prohibición es, en efecto, la misma que la medida de Karl Popper de la severidad de una prueba. [8]

Uso como unidad de probabilidades

El deciban es una unidad particularmente útil para log-odds , especialmente como medida de información en factores Bayes , odds ratios (razón de odds, por lo que log es la diferencia de log-odds) o ponderaciones de evidencia. 10 decibanes corresponden a probabilidades de 10:1; 20 decibans a probabilidades de 100:1, etc. Según Good, un cambio en el peso de la evidencia de 1 deciban (es decir, un cambio en las probabilidades de pares a aproximadamente 5:4) es tan fino como los humanos pueden esperar razonablemente. cuantificar su grado de creencia en una hipótesis. [9]

Las probabilidades correspondientes a decibanos enteros a menudo pueden aproximarse bien mediante razones enteras simples; estos se recopilan a continuación. Valor con dos decimales, aproximación simple (dentro del 5% aproximadamente), con aproximación más precisa (dentro del 1%) si la simple es inexacta:

Ver también

Notas

  1. ^ Este valor, aproximadamente 103 , pero un poco menos, se puede entender simplemente porque : 3 dígitos decimales son un poco menos de información que 10 dígitos binarios, por lo que 1 dígito decimal es un poco menos que 103 dígitos binarios.

Referencias

  1. ^ Klar, Rainer (1 de febrero de 1970). "1.8.1 Begriffe aus der Informationstheorie" [1.8.1 Términos utilizados en teoría de la información]. Digitale Rechenautomaten – Eine Einführung [ Computadoras digitales – Introducción ]. Sammlung Göschen (en alemán). vol. 1241/1241a (1 ed.). Berlín, Alemania: Walter de Gruyter & Co. / GJ Göschen'sche Verlagsbuchhandlung  [de] . pag. 35.ISBN​ 3-11-083160-0. ISBN 978-3-11-083160-3 . Archivo-Nr. 7990709. Archivado desde el original el 18 de abril de 2020 . Consultado el 13 de abril de 2020(205 páginas) (NB. Una reimpresión de 2019 de la primera edición está disponible bajo ISBN 3-11002793-3 , 978-3-11002793-8 . También existe una cuarta edición reelaborada y ampliada). 
  2. ^ Klar, Rainer (1989) [1 de octubre de 1988]. "1.9.1 Begriffe aus der Informationstheorie" [1.9.1 Términos utilizados en teoría de la información]. Digitale Rechenautomaten – Eine Einführung in die Struktur von Computerhardware [ Computadoras digitales: una introducción a la estructura del hardware de una computadora ]. Sammlung Göschen (en alemán). vol. 2050 (cuarta edición reelaborada). Berlín, Alemania: Walter de Gruyter & Co. p. 57.ISBN​ 3-11011700-2. ISBN 978-3-11011700-4(320 páginas)
  3. ^ Lukoff, Herman (1979). De Dits a Bits: una historia personal de la computadora electrónica . Portland, Oregón, EE.UU.: Robotics Press. ISBN 0-89661-002-0. LCCN  79-90567.
  4. ^ "IEC 80000-13: 2008". Organización Internacional de Normalización (ISO) . Consultado el 21 de julio de 2013 .
  5. ^ Hartley, Ralph Vinton Lyon (julio de 1928). «Transmisión de Información» (PDF) . Revista técnica del sistema Bell . VII (3): 535–563 . Consultado el 27 de marzo de 2008 .
  6. ^ Reza, Fazlollah M. (1994). Una introducción a la teoría de la información . Nueva York: Publicaciones de Dover . ISBN 0-486-68210-2.
  7. ^ ab Bueno, Irving John (1979). "Estudios de Historia de la Probabilidad y Estadística. XXXVII AM El trabajo estadístico de Turing en la Segunda Guerra Mundial". Biometrika . 66 (2): 393–396. doi :10.1093/biomet/66.2.393. SEÑOR  0548210.
  8. ^ Gillies, Donald A. (1990). "La función de peso de la evidencia de Turing-Good y la medida de Popper de la gravedad de una prueba". Revista británica de filosofía de la ciencia . 41 (1): 143-146. doi :10.1093/bjps/41.1.143. JSTOR  688010. SEÑOR  0055678.
  9. ^ Bien, Irving John (1985). "Peso de la evidencia: una breve encuesta" (PDF) . Estadística bayesiana . 2 : 253 . Consultado el 13 de diciembre de 2012 .