stringtranslate.com

Contenido de informacion

En teoría de la información , el contenido de la información , autoinformación , sorpresa o información de Shannon es una cantidad básica derivada de la probabilidad de que ocurra un evento particular a partir de una variable aleatoria . Puede considerarse como una forma alternativa de expresar la probabilidad, muy parecida a las probabilidades o las probabilidades logarítmicas , pero que tiene ventajas matemáticas particulares en el marco de la teoría de la información.

La información de Shannon puede interpretarse como una cuantificación del nivel de "sorpresa" de un resultado particular. Como es una cantidad tan básica, también aparece en varias otras configuraciones, como la longitud de un mensaje necesaria para transmitir el evento dada una codificación fuente óptima de la variable aleatoria.

La información de Shannon está estrechamente relacionada con la entropía , que es el valor esperado de la autoinformación de una variable aleatoria, cuantificando qué tan sorprendente es "en promedio" la variable aleatoria. Ésta es la cantidad promedio de autoinformación que un observador esperaría obtener sobre una variable aleatoria al medirla. [1]

El contenido de la información puede expresarse en diversas unidades de información , de las cuales la más común es el "bit" (más correctamente llamado shannon ), como se explica a continuación.

Definición

La definición de autoinformación de Claude Shannon fue elegida para cumplir con varios axiomas:

  1. Un evento con probabilidad del 100% no es nada sorprendente y no proporciona información.
  2. Cuanto menos probable es un suceso, más sorprendente resulta y más información aporta.
  3. Si dos eventos independientes se miden por separado, la cantidad total de información es la suma de las autoinformaciones de los eventos individuales.

La derivación detallada se encuentra a continuación, pero se puede demostrar que existe una función de probabilidad única que cumple estos tres axiomas, hasta un factor de escala multiplicativo. En términos generales, dado un número real y un evento con probabilidad , el contenido de la información se define de la siguiente manera:

La base b corresponde al factor de escala anterior. Diferentes opciones de b corresponden a diferentes unidades de información: cuando b = 2 , la unidad es el shannon (símbolo Sh), a menudo llamado 'bit'; cuando b = e , la unidad es la unidad natural de información (símbolo nat); y cuando b = 10 , la unidad es el hartley (símbolo Hart).

Formalmente, dada una variable aleatoria discreta con función de masa de probabilidad , la autoinformación de la medición como resultado se define como [2]

El uso de la notación anterior para la autoinformación no es universal. Dado que la notación también se usa a menudo para la cantidad relacionada de información mutua , muchos autores usan minúsculas para la autoentropía, reflejando el uso de la mayúscula para la entropía.

Propiedades

Función de probabilidad monótonamente decreciente

Para un espacio de probabilidad dado , la medición de eventos más raros es intuitivamente más "sorprendente" y produce más contenido de información que los valores más comunes. Por tanto, la autoinformación es una función monótona estrictamente decreciente de la probabilidad, o a veces llamada función "antitónica".

Mientras que las probabilidades estándar están representadas por números reales en el intervalo , las autoinformaciones están representadas por números reales extendidos en el intervalo . En particular, tenemos lo siguiente, para cualquier elección de base logarítmica:

De esto podemos obtener algunas propiedades generales:

Relación con las probabilidades logarítmicas

La información de Shannon está estrechamente relacionada con las probabilidades logarítmicas . En particular, dado algún evento , supongamos que esa es la probabilidad de que ocurra y esa es la probabilidad de que no ocurra. Entonces tenemos la siguiente definición de log-odds:

Esto se puede expresar como una diferencia de dos informaciones de Shannon:

En otras palabras, las probabilidades logarítmicas pueden interpretarse como el nivel de sorpresa cuando el evento no ocurre, menos el nivel de sorpresa cuando el evento ocurre.

Aditividad de eventos independientes.

El contenido de información de dos eventos independientes es la suma del contenido de información de cada evento. Esta propiedad se conoce como aditividad en matemáticas y, en particular, aditividad sigma en teoría de la medida y la probabilidad. Considere dos variables aleatorias independientes con funciones de masa de probabilidad y respectivamente. La función de masa de probabilidad conjunta es

porque y son independientes . El contenido informativo del resultado es

el § Dos dados independientes distribuidos idénticamente

La propiedad correspondiente a las probabilidades es que la probabilidad logarítmica de eventos independientes es la suma de las probabilidades logarítmicas de cada evento. Al interpretar la probabilidad logarítmica como "apoyo" o sorpresa negativa (el grado en que un evento respalda un modelo determinado: un modelo está respaldado por un evento en la medida en que el evento no es sorprendente, dado el modelo), se afirma que los eventos independientes suman Soporte: la información que los dos eventos juntos proporcionan para la inferencia estadística es la suma de su información independiente.

Relación con la entropía

La entropía de Shannon de la variable aleatoria anterior se define como

esperado[3] : 11  [4] : ​​19–20 valores discretossoporte

A veces, la entropía misma se denomina "autoinformación" de la variable aleatoria, posiblemente porque la entropía satisface dónde está la información mutua consigo misma. [5]

Para variables aleatorias continuas el concepto correspondiente es entropía diferencial .

Notas

A esta medida también se le ha llamado sorpresa , pues representa la " sorpresa " de ver el desenlace (un resultado altamente improbable es muy sorprendente). Este término (como medida de probabilidad logarítmica) fue acuñado por Myron Tribus en su libro de 1961 Thermostatics and Thermodynamics . [6] [7]

Cuando el evento es una realización aleatoria (de una variable) la autoinformación de la variable se define como el valor esperado de la autoinformación de la realización.

La autoinformación es un ejemplo de una regla de puntuación adecuada . [ se necesita aclaración ]

Ejemplos

Lanzamiento de moneda justo

Consideremos la prueba de Bernoulli de lanzar una moneda al aire . Las probabilidades de que la moneda caiga como cara y cruz (ver moneda justa y anverso y reverso ) son la mitad cada una . Al medir la variable como cabezas, la ganancia de información asociada es

shannon[2]

Tirada de dado justa

Supongamos que tenemos un dado justo de seis caras . El valor de una tirada de dados es una variable aleatoria uniforme discreta con función de masa de probabilidad

Dos dados independientes distribuidos de forma idéntica.

Supongamos que tenemos dos variables aleatorias independientes y distribuidas idénticamente, cada una de las cuales corresponde a una tirada de dados independiente y justa de 6 caras. La distribución conjunta de y es

El contenido de información de la variable aleatoria es

Información de frecuencia de tiradas.

Si recibimos información sobre el valor de los dados sin saber qué dado tenía qué valor, podemos formalizar el enfoque con las llamadas variables de conteo.

distribución multinomial

Para verificar esto, los 6 resultados corresponden al evento y a una probabilidad total de1/6. Estos son los únicos eventos que se conservan fielmente con la identidad de qué dados se lanzaron y qué resultado porque los resultados son los mismos. Sin conocimientos para distinguir los dados que tiran los demás números, las otras combinaciones corresponden a que un dado tire un número y el otro dado un número diferente, teniendo cada uno probabilidad 1/18. De hecho, según sea necesario.

Como era de esperar, el contenido informativo de saber que ambos dados se lanzaron con el mismo número en particular es mayor que el contenido informativo de saber que un dado era un número y el otro era un número diferente. Tomemos como ejemplos los eventos y para . Por ejemplo, y .

Los contenidos de la información son

Sea el evento de que ambos dados arrojaron el mismo valor y el evento de que los dados difieran. Entonces y . Los contenidos informativos de los eventos son

Información de la suma del dado.

La masa de probabilidad o función de densidad (colectivamente medida de probabilidad ) de la suma de dos variables aleatorias independientes es la convolución de cada medida de probabilidad . En el caso de tiradas de dados de 6 caras justas e independientes, la variable aleatoria tiene una función de masa de probabilidad , donde representa la convolución discreta . El resultado tiene probabilidad . Por lo tanto, la información afirmada es

Distribución uniforme discreta general.

Generalizando el ejemplo anterior de tirada justa de dados, considere una variable aleatoria uniforme discreta general (DURV). Por conveniencia, defina . La función de masa de probabilidad es

números enterosequiprobables[2]

Caso especial: variable aleatoria constante

Si es anterior, degenera a una variable aleatoria constante con distribución de probabilidad dada de manera determinista por y medida de probabilidad la medida de Dirac . El único valor que se puede tomar es determinista , por lo que el contenido de información de cualquier medición de es

[2]

Distribución categórica

Generalizando todos los casos anteriores, considere una variable aleatoria discreta categórica con soporte y función de masa de probabilidad dada por

A los efectos de la teoría de la información, los valores no tienen por qué ser números ; pueden ser cualquier evento mutuamente excluyente en un espacio de medida de medida finita que haya sido normalizado a una medida de probabilidad . Sin pérdida de generalidad , podemos asumir que la distribución categórica se sustenta en el conjunto ; la estructura matemática es isomórfica en términos de teoría de la probabilidad y, por tanto, también de teoría de la información .

La información del resultado se da.

A partir de estos ejemplos, es posible calcular la información de cualquier conjunto de DRV independientes con distribuciones conocidas por aditividad .

Derivación

Por definición, la información se transfiere de una entidad de origen que posee la información a una entidad receptora sólo cuando el receptor no conocía la información a priori . Si la entidad receptora hubiera conocido previamente con certeza el contenido de un mensaje antes de recibirlo, la cantidad de información del mensaje recibido es cero. Sólo cuando el conocimiento previo del contenido del mensaje por parte del receptor es menos del 100% seguro, el mensaje realmente transmite información.

Por ejemplo, citando a un personaje (el Hippy Dippy Weatherman) del comediante George Carlin , " Pronóstico del tiempo para esta noche: oscuro. Continuará oscuro durante la noche, con luz muy dispersa por la mañana " . [8] Suponiendo que uno no resida cerca de las regiones polares , la cantidad de información transmitida en ese pronóstico es cero porque se sabe, antes de recibir el pronóstico, que la oscuridad siempre viene con la noche.

En consecuencia, la cantidad de autoinformación contenida en un mensaje que transmite contenido que informa sobre la ocurrencia de un evento , depende sólo de la probabilidad de ese evento.

Además, por definición, la medida de la autoinformación no es negativa y es aditiva. Si un mensaje que informa de un evento es la intersección de dos eventos independientes y , entonces la información del evento que ocurre es la del mensaje compuesto de ambos eventos independientes y que ocurren. Se esperaría que la cantidad de información de un mensaje compuesto fuera igual a la suma de las cantidades de información de los mensajes componentes individuales y respectivamente:

Debido a la independencia de los eventos y , la probabilidad del evento es

Sin embargo, la aplicación de la función da como resultado

Gracias al trabajo en la ecuación funcional de Cauchy , las únicas funciones monótonas que tienen la propiedad tal que

logarítmicas

¿Dónde está el logaritmo natural ? Dado que las probabilidades de los eventos siempre están entre 0 y 1 y la información asociada con estos eventos no debe ser negativa, eso requiere que .

Teniendo en cuenta estas propiedades, la autoinformación asociada al resultado con probabilidad se define como:

Cuanto menor sea la probabilidad de que ocurra un evento , mayor será la cantidad de autoinformación asociada con el mensaje de que el evento efectivamente ocurrió. Si el logaritmo anterior es base 2, la unidad es shannon . Esta es la práctica más común. Cuando se utiliza el logaritmo natural de base , la unidad será el nat . Para el logaritmo de base 10, la unidad de información es el hartley .

Como ilustración rápida, el contenido de información asociado con un resultado de 4 caras (o cualquier resultado específico) en 4 lanzamientos consecutivos de una moneda sería 4 shannons (probabilidad 1/16), y el contenido de información asociado con obtener un resultado distinto de el especificado sería ~0,09 shannons (probabilidad 15/16). Consulte arriba para ver ejemplos detallados.

Ver también

Referencias

  1. ^ Jones, DS, Teoría de la información elemental , vol., Clarendon Press, Oxford págs. 11-15 1979
  2. ^ abcd McMahon, David M. (2008). Explicación de la computación cuántica . Hoboken, Nueva Jersey: Wiley-Interscience. ISBN 9780470181386. OCLC  608622533.
  3. ^ Borda, Mónica (2011). Fundamentos en teoría y codificación de la información. Saltador. ISBN 978-3-642-20346-6.
  4. ^ Han, Te Sun; Kobayashi, Kingo (2002). Matemáticas de la Información y Codificación. Sociedad Matemática Estadounidense. ISBN 978-0-8218-4256-0.
  5. ^ Portada de Thomas M., Joy A. Thomas; Elementos de Teoría de la Información; pag. 20; 1991.
  6. ^ RB Bernstein y RD Levine (1972) "Entropía y cambio químico. I. Caracterización de las distribuciones de energía del producto (y reactivo) en colisiones moleculares reactivas: deficiencia de información y entropía", The Journal of Chemical Physics 57 , enlace 434–449.
  7. ^ Myron Tribus (1961) Termodinámica y termostática: una introducción a la energía, la información y los estados de la materia, con aplicaciones de ingeniería (D. Van Nostrand, 24 West 40 Street, Nueva York 18, Nueva York, EE. UU.) Tribus, Myron (1961) , págs. 64–66 prestado.
  8. ^ "Una cita de George Carlin". www.goodreads.com . Consultado el 1 de abril de 2021 .

Otras lecturas

enlaces externos