Cantidad básica derivada de la probabilidad de que ocurra un evento particular a partir de una variable aleatoria
En teoría de la información , el contenido de la información , autoinformación , sorpresa o información de Shannon es una cantidad básica derivada de la probabilidad de que ocurra un evento particular a partir de una variable aleatoria . Puede considerarse como una forma alternativa de expresar la probabilidad, muy parecida a las probabilidades o las probabilidades logarítmicas , pero que tiene ventajas matemáticas particulares en el marco de la teoría de la información.
La información de Shannon puede interpretarse como una cuantificación del nivel de "sorpresa" de un resultado particular. Como es una cantidad tan básica, también aparece en varias otras configuraciones, como la longitud de un mensaje necesaria para transmitir el evento dada una codificación fuente óptima de la variable aleatoria.
La información de Shannon está estrechamente relacionada con la entropía , que es el valor esperado de la autoinformación de una variable aleatoria, cuantificando qué tan sorprendente es "en promedio" la variable aleatoria. Ésta es la cantidad promedio de autoinformación que un observador esperaría obtener sobre una variable aleatoria al medirla. [1]
El contenido de la información puede expresarse en diversas unidades de información , de las cuales la más común es el "bit" (más correctamente llamado shannon ), como se explica a continuación.
Definición
La definición de autoinformación de Claude Shannon fue elegida para cumplir con varios axiomas:
- Un evento con probabilidad del 100% no es nada sorprendente y no proporciona información.
- Cuanto menos probable es un suceso, más sorprendente resulta y más información aporta.
- Si dos eventos independientes se miden por separado, la cantidad total de información es la suma de las autoinformaciones de los eventos individuales.
La derivación detallada se encuentra a continuación, pero se puede demostrar que existe una función de probabilidad única que cumple estos tres axiomas, hasta un factor de escala multiplicativo. En términos generales, dado un número real y un evento con probabilidad , el contenido de la información se define de la siguiente manera:
La base b corresponde al factor de escala anterior. Diferentes opciones de b corresponden a diferentes unidades de información: cuando b = 2 , la unidad es el shannon (símbolo Sh), a menudo llamado 'bit'; cuando b = e , la unidad es la unidad natural de información (símbolo nat); y cuando b = 10 , la unidad es el hartley (símbolo Hart).
Formalmente, dada una variable aleatoria discreta con función de masa de probabilidad , la autoinformación de la medición como resultado se define como [2]
El uso de la notación anterior para la autoinformación no es universal. Dado que la notación también se usa a menudo para la cantidad relacionada de información mutua , muchos autores usan minúsculas para la autoentropía, reflejando el uso de la mayúscula para la entropía.
Propiedades
Función de probabilidad monótonamente decreciente
Para un espacio de probabilidad dado , la medición de eventos más raros es intuitivamente más "sorprendente" y produce más contenido de información que los valores más comunes. Por tanto, la autoinformación es una función monótona estrictamente decreciente de la probabilidad, o a veces llamada función "antitónica".
Mientras que las probabilidades estándar están representadas por números reales en el intervalo , las autoinformaciones están representadas por números reales extendidos en el intervalo . En particular, tenemos lo siguiente, para cualquier elección de base logarítmica:
- Si un evento particular tiene una probabilidad del 100% de ocurrir, entonces su autoinformación es : su ocurrencia es "perfectamente no sorprendente" y no proporciona ninguna información.
- Si un determinado suceso tiene una probabilidad del 0% de ocurrir, entonces su autoinformación es : su ocurrencia es "infinitamente sorprendente".
De esto podemos obtener algunas propiedades generales:
- Intuitivamente, se obtiene más información al observar un evento inesperado: es "sorprendente".
- Por ejemplo, si hay una probabilidad entre un millón de que Alice gane la lotería , su amigo Bob obtendrá mucha más información al saber que ganó que si perdió en un día determinado. (Ver también Matemáticas de lotería ).
- Esto establece una relación implícita entre la autoinformación de una variable aleatoria y su varianza .
Relación con las probabilidades logarítmicas
La información de Shannon está estrechamente relacionada con las probabilidades logarítmicas . En particular, dado algún evento , supongamos que esa es la probabilidad de que ocurra y esa es la probabilidad de que no ocurra. Entonces tenemos la siguiente definición de log-odds:
Esto se puede expresar como una diferencia de dos informaciones de Shannon:
En otras palabras, las probabilidades logarítmicas pueden interpretarse como el nivel de sorpresa cuando el evento no ocurre, menos el nivel de sorpresa cuando el evento sí ocurre.
Aditividad de eventos independientes.
El contenido de información de dos eventos independientes es la suma del contenido de información de cada evento. Esta propiedad se conoce como aditividad en matemáticas y, en particular, aditividad sigma en teoría de la medida y la probabilidad. Considere dos variables aleatorias independientes con funciones de masa de probabilidad y respectivamente. La función de masa de probabilidad conjunta es
porque y son independientes . El contenido informativo del resultado es
el § Dos dados independientes distribuidos idénticamenteLa propiedad correspondiente a las probabilidades es que la probabilidad logarítmica de eventos independientes es la suma de las probabilidades logarítmicas de cada evento. Al interpretar la probabilidad logarítmica como "apoyo" o sorpresa negativa (el grado en que un evento respalda un modelo determinado: un modelo está respaldado por un evento en la medida en que el evento no es sorprendente, dado el modelo), se afirma que los eventos independientes suman Soporte: la información que los dos eventos juntos proporcionan para la inferencia estadística es la suma de su información independiente.
Relación con la entropía
La entropía de Shannon de la variable aleatoria anterior se define como
esperado[3] : 11 [4] : 19–20 valores discretossoporteA veces, la entropía misma se denomina "autoinformación" de la variable aleatoria, posiblemente porque la entropía satisface dónde está la información mutua consigo misma. [5]
Para variables aleatorias continuas el concepto correspondiente es entropía diferencial .
Notas
A esta medida también se le ha llamado sorpresa , pues representa la " sorpresa " de ver el desenlace (un resultado altamente improbable es muy sorprendente). Este término (como medida de probabilidad logarítmica) fue acuñado por Myron Tribus en su libro de 1961 Thermostatics and Thermodynamics . [6] [7]
Cuando el evento es una realización aleatoria (de una variable) la autoinformación de la variable se define como el valor esperado de la autoinformación de la realización.
La autoinformación es un ejemplo de una regla de puntuación adecuada . [ se necesita aclaración ]
Ejemplos
Lanzamiento de moneda justo
Consideremos la prueba de Bernoulli de lanzar una moneda al aire . Las probabilidades de que la moneda caiga como cara y cruz (ver moneda justa y anverso y reverso ) son la mitad cada una . Al medir la variable como cabezas, la ganancia de información asociada es
shannon[2]Tirada de dado justa
Supongamos que tenemos un dado justo de seis caras . El valor de una tirada de dados es una variable aleatoria uniforme discreta con función de masa de probabilidad
Dos dados independientes distribuidos de forma idéntica.
Supongamos que tenemos dos variables aleatorias independientes y distribuidas idénticamente, cada una de las cuales corresponde a una tirada de dados independiente y justa de 6 caras. La distribución conjunta de y es
El contenido de información de la variable aleatoria es
Información de frecuencia de tiradas.
Si recibimos información sobre el valor de los dados sin saber qué dado tenía qué valor, podemos formalizar el enfoque con las llamadas variables de conteo.
distribución multinomialPara verificar esto, los 6 resultados corresponden al evento y a una probabilidad total de1/6. Estos son los únicos eventos que se conservan fielmente con la identidad de qué dados se lanzaron y qué resultado porque los resultados son los mismos. Sin conocimientos para distinguir los dados que tiran los demás números, las otras combinaciones corresponden a que un dado tire un número y el otro dado un número diferente, teniendo cada uno probabilidad 1/18. De hecho, según sea necesario.
Como era de esperar, el contenido informativo de saber que ambos dados se lanzaron con el mismo número en particular es mayor que el contenido informativo de saber que un dado era un número y el otro era un número diferente. Tomemos como ejemplos los eventos y para . Por ejemplo, y .
Los contenidos de la información son
Sea el evento de que ambos dados arrojaron el mismo valor y el evento de que los dados difieran. Entonces y . Los contenidos informativos de los eventos son
Información de la suma del dado.
La masa de probabilidad o función de densidad (colectivamente medida de probabilidad ) de la suma de dos variables aleatorias independientes es la convolución de cada medida de probabilidad . En el caso de tiradas de dados de 6 caras justas e independientes, la variable aleatoria tiene una función de masa de probabilidad , donde representa la convolución discreta . El resultado tiene probabilidad . Por lo tanto, la información afirmada es
Distribución uniforme discreta general.
Generalizando el ejemplo anterior de tirada justa de dados, considere una variable aleatoria uniforme discreta general (DURV). Por conveniencia, defina . La función de masa de probabilidad es
números enterosequiprobables[2]Caso especial: variable aleatoria constante
Si es anterior, degenera a una variable aleatoria constante con distribución de probabilidad dada de manera determinista por y medida de probabilidad la medida de Dirac . El único valor que se puede tomar es determinista , por lo que el contenido de información de cualquier medición de es
[2]Distribución categórica
Generalizando todos los casos anteriores, considere una variable aleatoria discreta categórica con soporte y función de masa de probabilidad dada por
A los efectos de la teoría de la información, los valores no tienen por qué ser números ; pueden ser cualquier evento mutuamente excluyente en un espacio de medida de medida finita que haya sido normalizado a una medida de probabilidad . Sin pérdida de generalidad , podemos asumir que la distribución categórica se sustenta en el conjunto ; la estructura matemática es isomórfica en términos de teoría de la probabilidad y, por tanto, también de teoría de la información .
La información del resultado se da.
A partir de estos ejemplos, es posible calcular la información de cualquier conjunto de DRV independientes con distribuciones conocidas por aditividad .
Derivación
Por definición, la información se transfiere de una entidad de origen que posee la información a una entidad receptora sólo cuando el receptor no conocía la información a priori . Si la entidad receptora hubiera conocido previamente con certeza el contenido de un mensaje antes de recibirlo, la cantidad de información del mensaje recibido es cero. Sólo cuando el conocimiento previo del contenido del mensaje por parte del receptor es menos del 100% seguro, el mensaje realmente transmite información.
Por ejemplo, citando a un personaje (el Hippy Dippy Weatherman) del comediante George Carlin , " Pronóstico del tiempo para esta noche: oscuro. Continuará oscuro durante la noche, con luz muy dispersa por la mañana " . [8] Suponiendo que uno no resida cerca de las regiones polares , la cantidad de información transmitida en ese pronóstico es cero porque se sabe, antes de recibir el pronóstico, que la oscuridad siempre viene con la noche.
En consecuencia, la cantidad de autoinformación contenida en un mensaje que transmite contenido que informa sobre la ocurrencia de un evento , depende sólo de la probabilidad de ese evento.
Además, por definición, la medida de la autoinformación no es negativa y es aditiva. Si un mensaje que informa de un evento es la intersección de dos eventos independientes y , entonces la información del evento que ocurre es la del mensaje compuesto de ambos eventos independientes y que ocurren. Se esperaría que la cantidad de información de un mensaje compuesto fuera igual a la suma de las cantidades de información de los mensajes componentes individuales y respectivamente:
Debido a la independencia de los eventos y , la probabilidad del evento es
Sin embargo, la aplicación de la función da como resultado
Gracias al trabajo en la ecuación funcional de Cauchy , las únicas funciones monótonas que tienen la propiedad tal que
logarítmicas¿Dónde está el logaritmo natural ? Dado que las probabilidades de los eventos siempre están entre 0 y 1 y la información asociada con estos eventos no debe ser negativa, eso requiere que .
Teniendo en cuenta estas propiedades, la autoinformación asociada al resultado con probabilidad se define como:
Cuanto menor sea la probabilidad de que ocurra un evento , mayor será la cantidad de autoinformación asociada con el mensaje de que el evento efectivamente ocurrió. Si el logaritmo anterior es base 2, la unidad es shannon . Esta es la práctica más común. Cuando se utiliza el logaritmo natural de base , la unidad será el nat . Para el logaritmo de base 10, la unidad de información es el hartley .
Como ilustración rápida, el contenido de información asociado con un resultado de 4 caras (o cualquier resultado específico) en 4 lanzamientos consecutivos de una moneda sería 4 shannons (probabilidad 1/16), y el contenido de información asociado con obtener un resultado distinto de el especificado sería ~0,09 shannons (probabilidad 15/16). Consulte arriba para ver ejemplos detallados.
Ver también
Referencias
- ^ Jones, DS, Teoría de la información elemental , vol., Clarendon Press, Oxford págs. 11-15 1979
- ^ abcd McMahon, David M. (2008). Explicación de la computación cuántica . Hoboken, Nueva Jersey: Wiley-Interscience. ISBN 9780470181386. OCLC 608622533.
- ^ Borda, Mónica (2011). Fundamentos en teoría y codificación de la información. Saltador. ISBN 978-3-642-20346-6.
- ^ Han, Te Sun; Kobayashi, Kingo (2002). Matemáticas de la Información y Codificación. Sociedad Matemática Estadounidense. ISBN 978-0-8218-4256-0.
- ^ Portada de Thomas M., Joy A. Thomas; Elementos de Teoría de la Información; pag. 20; 1991.
- ^ RB Bernstein y RD Levine (1972) "Entropía y cambio químico. I. Caracterización de las distribuciones de energía del producto (y reactivo) en colisiones moleculares reactivas: deficiencia de información y entropía", The Journal of Chemical Physics 57 , enlace 434–449.
- ^ Myron Tribus (1961) Termodinámica y termostática: una introducción a la energía, la información y los estados de la materia, con aplicaciones de ingeniería (D. Van Nostrand, 24 West 40 Street, Nueva York 18, Nueva York, EE. UU.) Tribus, Myron (1961) , págs. 64–66 prestado.
- ^ "Una cita de George Carlin". www.goodreads.com . Consultado el 1 de abril de 2021 .
Otras lecturas
enlaces externos
- Ejemplos de medidas sorpresa
- Entrada "sorpresa" en un glosario de teoría de la información molecular
- Teoría bayesiana de la sorpresa