stringtranslate.com

Teoría de la información

La teoría de la información es el estudio matemático de la cuantificación , almacenamiento y comunicación de la información . [1] El campo fue establecido originalmente por los trabajos de Harry Nyquist y Ralph Hartley , en la década de 1920, y de Claude Shannon en la década de 1940. [2] : vii  El campo, en matemáticas aplicadas , se encuentra en la intersección de la teoría de la probabilidad , la estadística , la informática , la mecánica estadística , la ingeniería de la información y la ingeniería eléctrica .

Una medida clave en la teoría de la información es la entropía . La entropía cuantifica la cantidad de incertidumbre involucrada en el valor de una variable aleatoria o el resultado de un proceso aleatorio . Por ejemplo, identificar el resultado de un lanzamiento justo de moneda (con dos resultados igualmente probables) proporciona menos información (menor entropía, menos incertidumbre) que especificar el resultado de una tirada de un dado (con seis resultados igualmente probables). Algunas otras medidas importantes en la teoría de la información son la información mutua , la capacidad del canal , los exponentes de error y la entropía relativa . Los subcampos importantes de la teoría de la información incluyen la codificación fuente , la teoría de la complejidad algorítmica , la teoría algorítmica de la información y la seguridad de la teoría de la información .

Las aplicaciones de temas fundamentales de la teoría de la información incluyen codificación de fuente/ compresión de datos (por ejemplo, para archivos ZIP ) y codificación de canales/ detección y corrección de errores (por ejemplo, para DSL ). Su impacto ha sido crucial para el éxito de las misiones Voyager al espacio profundo, la invención del disco compacto , la viabilidad de los teléfonos móviles y el desarrollo de Internet. La teoría también ha encontrado aplicaciones en otras áreas, incluida la inferencia estadística , [3] criptografía , neurobiología , [4] percepción , [5] lingüística, la evolución [6] y función [7] de códigos moleculares ( bioinformática ), física térmica. , [8] dinámica molecular , [9] computación cuántica , agujeros negros , recuperación de información , recopilación de inteligencia , detección de plagio , [10] reconocimiento de patrones , detección de anomalías [11] e incluso creación de arte.

Descripción general

La teoría de la información estudia la transmisión, procesamiento, extracción y utilización de la información. De manera abstracta, se puede considerar la información como la resolución de la incertidumbre. En el caso de la comunicación de información a través de un canal ruidoso, este concepto abstracto fue formalizado en 1948 por Claude Shannon en un artículo titulado Una teoría matemática de la comunicación , en el que se piensa en la información como un conjunto de mensajes posibles, y el objetivo es enviar estos mensajes a través de un canal ruidoso y hacer que el receptor reconstruya el mensaje con baja probabilidad de error, a pesar del ruido del canal. El principal resultado de Shannon, el teorema de codificación de canales ruidosos, demostró que, en el límite de muchos usos de canales, la tasa de información que se puede lograr asintóticamente es igual a la capacidad del canal, una cantidad que depende simplemente de las estadísticas del canal a través del cual se transmiten los mensajes. se envían. [4]

La teoría de la codificación se ocupa de encontrar métodos explícitos, llamados códigos , para aumentar la eficiencia y reducir la tasa de error de la comunicación de datos a través de canales ruidosos hasta cerca de la capacidad del canal. Estos códigos se pueden subdividir a grandes rasgos en técnicas de compresión de datos (codificación de fuente) y de corrección de errores (codificación de canal). En este último caso, se necesitaron muchos años para encontrar que los métodos que el trabajo de Shannon demostró eran posibles.

Una tercera clase de códigos de teoría de la información son los algoritmos criptográficos (tanto códigos como cifrados ). Los conceptos, métodos y resultados de la teoría de la codificación y la teoría de la información se utilizan ampliamente en criptografía y criptoanálisis , como la prohibición de unidades .

Antecedentes históricos

El acontecimiento histórico que estableció la disciplina de la teoría de la información y la atrajo inmediatamente a la atención mundial fue la publicación del artículo clásico de Claude E. Shannon "A Mathematical Theory of Communication" en el Bell System Technical Journal en julio y octubre de 1948. Llegó a ser conocido como el "padre de la teoría de la información". [12] [13] [14]

Antes de este artículo, en los Laboratorios Bell se habían desarrollado ideas teóricas de la información limitadas , todas asumiendo implícitamente eventos de igual probabilidad. El artículo de Harry Nyquist de 1924, Ciertos factores que afectan la velocidad del telégrafo , contiene una sección teórica que cuantifica la "inteligencia" y la "velocidad de línea" a la que puede ser transmitida por un sistema de comunicación, dando la relación W = K log m (recordando el modelo de Boltzmann) . constante ), donde W es la velocidad de transmisión de inteligencia, m es el número de niveles de voltaje diferentes para elegir en cada paso de tiempo y K es una constante. El artículo de Ralph Hartley de 1928, Transmisión de información , utiliza la palabra información como una cantidad mensurable, que refleja la capacidad del receptor para distinguir una secuencia de símbolos de cualquier otra, cuantificando así la información como H = log S n = n log S , donde S era el número de símbolos posibles y n el número de símbolos en una transmisión. La unidad de información era, por tanto, el dígito decimal , que desde entonces ha sido llamado en ocasiones hartley en su honor como unidad o escala o medida de información. Alan Turing en 1940 utilizó ideas similares como parte del análisis estadístico de la ruptura de los cifrados Enigma alemanes de la Segunda Guerra Mundial .

Gran parte de las matemáticas detrás de la teoría de la información con eventos de diferentes probabilidades fueron desarrolladas para el campo de la termodinámica por Ludwig Boltzmann y J. Willard Gibbs . Las conexiones entre la entropía de la teoría de la información y la entropía termodinámica, incluidas las importantes contribuciones de Rolf Landauer en la década de 1960, se exploran en Entropía en termodinámica y teoría de la información .

En el revolucionario e innovador artículo de Shannon, cuyo trabajo se había completado sustancialmente en los Laboratorios Bell a finales de 1944, Shannon introdujo por primera vez el modelo cualitativo y cuantitativo de comunicación como un proceso estadístico subyacente a la teoría de la información, comenzando con la afirmación:

"El problema fundamental de la comunicación es el de reproducir en un punto, exacta o aproximadamente, un mensaje seleccionado en otro punto."

Con ello surgieron las ideas de

Cantidades de información

La teoría de la información se basa en la teoría de la probabilidad y la estadística, donde la información cuantificada suele describirse en términos de bits. La teoría de la información a menudo se ocupa de medidas de información de las distribuciones asociadas con variables aleatorias. Una de las medidas más importantes se llama entropía, que constituye la base de muchas otras medidas. La entropía permite la cuantificación de la medida de información en una sola variable aleatoria. Otro concepto útil es el de información mutua definida sobre dos variables aleatorias, que describe la medida de información en común entre esas variables, que puede usarse para describir su correlación. La primera cantidad es una propiedad de la distribución de probabilidad de una variable aleatoria y da un límite a la velocidad a la que los datos generados por muestras independientes con la distribución dada pueden comprimirse de manera confiable. Esta última es una propiedad de la distribución conjunta de dos variables aleatorias y es la tasa máxima de comunicación confiable a través de un canal ruidoso en el límite de longitudes de bloque largas, cuando las estadísticas del canal están determinadas por la distribución conjunta.

La elección de la base logarítmica en las siguientes fórmulas determina la unidad de entropía de información que se utiliza. Una unidad de información común es el bit, basado en el logaritmo binario . Otras unidades incluyen el nat , que se basa en el logaritmo natural , y el dígito decimal , que se basa en el logaritmo común .

En lo que sigue, una expresión de la forma p log p se considera por convención igual a cero siempre que p = 0 . Esto se justifica porque para cualquier base logarítmica.

Entropía de una fuente de información.

Según la función de masa de probabilidad de cada símbolo fuente que se va a comunicar, la entropía de Shannon H , en unidades de bits (por símbolo), viene dada por

donde p i es la probabilidad de aparición del i -ésimo valor posible del símbolo fuente. Esta ecuación proporciona la entropía en unidades de "bits" (por símbolo) porque utiliza un logaritmo de base 2, y esta medida de entropía de base 2 a veces se ha llamado shannon en su honor. La entropía también se calcula comúnmente utilizando el logaritmo natural (base e , donde e es el número de Euler), que produce una medida de entropía en nats por símbolo y, a veces, simplifica el análisis al evitar la necesidad de incluir constantes adicionales en las fórmulas. También son posibles otras bases, pero se utilizan con menos frecuencia. Por ejemplo, un logaritmo de base 2 8 = 256 producirá una medida en bytes por símbolo, y un logaritmo de base 10 producirá una medida en dígitos decimales (o hartleys ) por símbolo.

Intuitivamente, la entropía H X de una variable aleatoria discreta X es una medida de la cantidad de incertidumbre asociada con el valor de X cuando sólo se conoce su distribución.

La entropía de una fuente que emite una secuencia de N símbolos independientes e idénticamente distribuidos (iid) es NH bits (por mensaje de N símbolos). Si los símbolos de datos de origen están distribuidos de manera idéntica pero no independientes, la entropía de un mensaje de longitud N será menor que NH.

La entropía de un ensayo de Bernoulli en función de la probabilidad de éxito, a menudo denominada función de entropía binaria , Hb ( p ) . La entropía se maximiza a 1 bit por intento cuando los dos resultados posibles son igualmente probables, como en un lanzamiento de moneda imparcial.

Si uno transmite 1000 bits (0 y 1) y el receptor conoce el valor de cada uno de estos bits (tiene un valor específico con certeza) antes de la transmisión, está claro que no se transmite ninguna información. Sin embargo, si cada bit tiene la misma probabilidad de ser 0 o 1, se habrán transmitido 1.000 shannons de información (más a menudo llamados bits). Entre estos dos extremos, la información se puede cuantificar de la siguiente manera. Si es el conjunto de todos los mensajes { x 1 , ..., x n } que podría ser X , y p ( x ) es la probabilidad de algunos , entonces la entropía, H , de X está definida: [15]

(Aquí, I ( x ) es la autoinformación , que es la contribución de entropía de un mensaje individual, y es el valor esperado .) Una propiedad de la entropía es que se maximiza cuando todos los mensajes en el espacio de mensajes son equiprobables p ( x ) = 1/ norte ; es decir, más impredecible, en cuyo caso H ( X ) = log n .

El caso especial de entropía de la información para una variable aleatoria con dos resultados es la función de entropía binaria, generalmente llevada a la base logarítmica 2, teniendo así como unidad el shannon (Sh):

Entropía conjunta

La entropía conjunta de dos variables aleatorias discretas X e Y es simplemente la entropía de su emparejamiento: ( X , Y ) . Esto implica que si X e Y son independientes , entonces su entropía conjunta es la suma de sus entropías individuales.

Por ejemplo, si ( X , Y ) representa la posición de una pieza de ajedrez ( X la fila e Y la columna), entonces la entropía conjunta de la fila de la pieza y la columna de la pieza será la entropía de la posición de la pieza. pedazo.

A pesar de una notación similar, la entropía conjunta no debe confundirse con la entropía cruzada .

Entropía condicional (equivocación)

La entropía condicional o incertidumbre condicional de X dada la variable aleatoria Y (también llamada equivocación de X sobre Y ) es la entropía condicional promedio sobre Y : [16]

Debido a que la entropía puede estar condicionada a una variable aleatoria o a que esa variable aleatoria tenga un valor determinado, se debe tener cuidado de no confundir estas dos definiciones de entropía condicional, la primera de las cuales es de uso más común. Una propiedad básica de esta forma de entropía condicional es que:

Información mutua (transinformación)

La información mutua mide la cantidad de información que se puede obtener sobre una variable aleatoria al observar otra. Es importante en la comunicación donde se puede utilizar para maximizar la cantidad de información compartida entre las señales enviadas y recibidas. La información mutua de X relativa a Y viene dada por:

donde SI ( Información mutua específica) es la información mutua puntual .

Una propiedad básica de la información mutua es que

Es decir, conociendo Y , podemos ahorrar un promedio de I ( X ; Y ) bits en la codificación de X en comparación con no conocer Y.

La información mutua es simétrica :

La información mutua se puede expresar como la divergencia promedio de Kullback-Leibler (ganancia de información) entre la distribución de probabilidad posterior de X dado el valor de Y y la distribución previa en X :

En otras palabras, esta es una medida de cuánto cambiará, en promedio, la distribución de probabilidad de X si se nos da el valor de Y. Esto a menudo se recalcula como la divergencia del producto de las distribuciones marginales por la distribución conjunta real:

La información mutua está estrechamente relacionada con la prueba del índice de verosimilitud logarítmica en el contexto de las tablas de contingencia y la distribución multinomial y con la prueba χ 2 de Pearson : la información mutua puede considerarse una estadística para evaluar la independencia entre un par de variables y tiene una buena relación distribución asintótica especificada.

Divergencia Kullback-Leibler (ganancia de información)

La divergencia Kullback-Leibler (o divergencia de información , ganancia de información o entropía relativa ) es una forma de comparar dos distribuciones: una distribución de probabilidad "verdadera" y una distribución de probabilidad arbitraria . Si comprimimos datos de una manera que suponemos que es la distribución subyacente a algunos datos, cuando, en realidad, es la distribución correcta, la divergencia de Kullback-Leibler es el número de bits adicionales promedio por dato necesarios para la compresión. Así se define

Aunque a veces se utiliza como una "métrica de distancia", la divergencia KL no es una métrica verdadera ya que no es simétrica y no satisface la desigualdad del triángulo (lo que la convierte en una semicuasimétrica).

Otra interpretación de la divergencia KL es la "sorpresa innecesaria" introducida por un a priori de la verdad: supongamos que un número X está a punto de extraerse aleatoriamente de un conjunto discreto con distribución de probabilidad . Si Alice conoce la distribución verdadera , mientras que Bob cree (tiene una información previa ) que la distribución es , entonces Bob se sorprenderá más que Alice, en promedio, al ver el valor de X. La divergencia KL es el valor esperado (objetivo) de la sorpresa (subjetiva) de Bob menos la sorpresa de Alice, medida en bits si el logaritmo está en base 2. De esta manera, la medida en que la prioridad de Bob es "incorrecta" se puede cuantificar en términos de lo "innecesariamente sorprendido" que se espera que le deje.

Información dirigida

La información dirigida ,es una medida de la teoría de la información que cuantifica el flujo de información del proceso aleatorioal proceso aleatorio. El término información dirigida fue acuñado por James Massey y se define como

,

¿ Dónde está la información mutua condicional ?

A diferencia de la información mutua , la información dirigida no es simétrica. Mide los bits de información que se transmiten causalmente [¿definición de transmisión causal?] de a . La información dirigida tiene muchas aplicaciones en problemas donde la causalidad juega un papel importante, como la capacidad del canal con retroalimentación, [17] [18] la capacidad de redes discretas sin memoria con retroalimentación, [19] el juego con información lateral causal, [20] la compresión con información secundaria causal, [21] y en entornos de comunicación de control en tiempo real , [22] [23] física estadística. [24]

Otras cantidades

Otras cantidades teóricas de información importantes incluyen la entropía de Rényi (una generalización de la entropía), la entropía diferencial (una generalización de cantidades de información a distribuciones continuas) y la información mutua condicional . Además, se ha propuesto la información pragmática como una medida de cuánta información se ha utilizado para tomar una decisión.

Teoría de la codificación

Una imagen que muestra rayones en la superficie legible de un CD-R. Los CD de música y datos están codificados mediante códigos de corrección de errores y, por lo tanto, aún pueden leerse incluso si tienen rayones menores mediante la detección y corrección de errores .

La teoría de la codificación es una de las aplicaciones más importantes y directas de la teoría de la información. Se puede subdividir en teoría de codificación de fuente y teoría de codificación de canal. Utilizando una descripción estadística de los datos, la teoría de la información cuantifica la cantidad de bits necesarios para describir los datos, que es la entropía de la información de la fuente.

Esta división de la teoría de la codificación en compresión y transmisión se justifica por los teoremas de transmisión de información, o teoremas de separación fuente-canal que justifican el uso de bits como moneda universal para la información en muchos contextos. Sin embargo, estos teoremas sólo se aplican en la situación en la que un usuario transmisor desea comunicarse con un usuario receptor. En escenarios con más de un transmisor (el canal de acceso múltiple), más de un receptor (el canal de transmisión ) o "ayudantes" intermediarios (el canal de retransmisión ), o redes más generales , es posible que la compresión seguida de la transmisión ya no sea óptima.

Teoría de la fuente

Cualquier proceso que genere mensajes sucesivos puede considerarse una fuente de información. Una fuente sin memoria es aquella en la que cada mensaje es una variable aleatoria independiente e idénticamente distribuida , mientras que las propiedades de ergodicidad y estacionariedad imponen restricciones menos restrictivas. Todas estas fuentes son estocásticas . Estos términos están bien estudiados por derecho propio fuera de la teoría de la información.

Tasa

La tasa de información es la entropía promedio por símbolo. Para fuentes sin memoria, esto es simplemente la entropía de cada símbolo, mientras que, en el caso de un proceso estocástico estacionario, es

es decir, la entropía condicional de un símbolo dados todos los símbolos anteriores generados. Para el caso más general de un proceso que no es necesariamente estacionario, la tasa promedio es

es decir, el límite de la entropía conjunta por símbolo. Para fuentes estacionarias, estas dos expresiones dan el mismo resultado. [25]

La tasa de información se define como

Es común en teoría de la información hablar de "velocidad" o "entropía" de una lengua. Esto es apropiado, por ejemplo, cuando la fuente de información es la prosa inglesa. La tasa de una fuente de información está relacionada con su redundancia y qué tan bien se puede comprimir, tema de la codificación fuente .

Capacidad del canal

Las comunicaciones a través de un canal son la principal motivación de la teoría de la información. Sin embargo, los canales a menudo no logran producir una reconstrucción exacta de una señal; El ruido, los períodos de silencio y otras formas de corrupción de la señal a menudo degradan la calidad.

Considere el proceso de comunicación a través de un canal discreto. A continuación se muestra un modelo simple del proceso:

Aquí X representa el espacio de mensajes transmitidos, e Y el espacio de mensajes recibidos durante una unidad de tiempo a través de nuestro canal. Sea p ( y | x ) la función de distribución de probabilidad condicional de Y dado X. Consideraremos que p ( y | x ) es una propiedad fija inherente de nuestro canal de comunicaciones (que representa la naturaleza del ruido de nuestro canal). Entonces, la distribución conjunta de X e Y está completamente determinada por nuestro canal y por nuestra elección de f ( x ) , la distribución marginal de mensajes que elegimos enviar a través del canal. Bajo estas limitaciones, nos gustaría maximizar la tasa de información, o la señal , que podemos comunicar a través del canal. La medida adecuada para esto es la información mutua, y esta información mutua máxima se llama capacidad del canal y viene dada por:

Esta capacidad tiene la siguiente propiedad relacionada con la comunicación a una velocidad de información R (donde R suele ser bits por símbolo). Para cualquier tasa de información R < C y error de codificación ε > 0, para N lo suficientemente grande , existe un código de longitud N y tasa ≥ R y un algoritmo de decodificación, tal que la probabilidad máxima de error de bloque es ≤ ε ; es decir, siempre es posible transmitir con un error de bloque arbitrariamente pequeño. Además, para cualquier velocidad R > C , es imposible transmitir con un error de bloque arbitrariamente pequeño.

La codificación de canales se ocupa de encontrar códigos casi óptimos que puedan usarse para transmitir datos a través de un canal ruidoso con un pequeño error de codificación a una velocidad cercana a la capacidad del canal.

Capacidad de modelos de canales particulares.

Canales con memoria e información dirigida

En la práctica muchos canales tienen memoria. Es decir, en el momento el canal viene dado por la probabilidad condicional . A menudo resulta más cómodo utilizar la notación y el canal . En tal caso la capacidad viene dada por la tasa de información mutua cuando no hay retroalimentación disponible y la tasa de información dirigida en el caso de que haya retroalimentación o no [26] [27] (si no hay retroalimentación la información dirigida es igual la información mutua).

Aplicaciones a otros campos

Usos de la inteligencia y aplicaciones del secreto

Los conceptos de la teoría de la información se aplican a la criptografía y al criptoanálisis. La unidad de información de Turing, la prohibición , se utilizó en el proyecto Ultra , rompiendo el código de la máquina alemana Enigma y acelerando el fin de la Segunda Guerra Mundial en Europa . El propio Shannon definió un concepto importante que ahora se llama distancia de unicidad . Basado en la redundancia del texto sin formato , intenta proporcionar una cantidad mínima de texto cifrado necesario para garantizar una descifrabilidad única.

La teoría de la información nos lleva a creer que es mucho más difícil guardar secretos de lo que parece a primera vista. Un ataque de fuerza bruta puede romper sistemas basados ​​en algoritmos de clave asimétrica o en los métodos más utilizados de algoritmos de clave simétrica (a veces llamados algoritmos de clave secreta), como los cifrados en bloque . La seguridad de todos estos métodos proviene del supuesto de que ningún ataque conocido puede romperlos en un período de tiempo práctico.

La seguridad teórica de la información se refiere a métodos como el bloc de notas de un solo uso que no son vulnerables a este tipo de ataques de fuerza bruta. En tales casos, la información mutua condicional positiva entre el texto sin formato y el texto cifrado (condicionada a la clave ) puede garantizar una transmisión adecuada, mientras que la información mutua incondicional entre el texto sin formato y el texto cifrado permanece cero, lo que resulta en comunicaciones absolutamente seguras. En otras palabras, un espía no podría mejorar su conjetura sobre el texto claro si conociera el texto cifrado pero no la clave. Sin embargo, como en cualquier otro sistema criptográfico, se debe tener cuidado para aplicar correctamente incluso los métodos que en teoría son seguros para la información; El proyecto Venona logró romper las antiguas plataformas de la Unión Soviética debido a la reutilización inadecuada de material clave.

Generación de números pseudoaleatorios

Los generadores de números pseudoaleatorios están ampliamente disponibles en bibliotecas de lenguajes informáticos y programas de aplicación. Son, casi universalmente, inadecuados para el uso criptográfico, ya que no evaden la naturaleza determinista de los equipos y software informáticos modernos. Una clase de generadores de números aleatorios mejorados se denomina generadores de números pseudoaleatorios criptográficamente seguros , pero incluso ellos requieren semillas aleatorias externas al software para funcionar según lo previsto. Estos se pueden obtener mediante extractores , si se hace con cuidado. La medida de aleatoriedad suficiente en los extractores es la min-entropía , valor relacionado con la entropía de Shannon a través de la entropía de Rényi ; La entropía de Rényi también se utiliza para evaluar la aleatoriedad en sistemas criptográficos. Aunque relacionadas, las distinciones entre estas medidas significan que una variable aleatoria con alta entropía de Shannon no es necesariamente satisfactoria para su uso en un extractor y, por tanto, para usos criptográficos.

Exploración sísmica

Una de las primeras aplicaciones comerciales de la teoría de la información fue en el campo de la exploración sísmica de petróleo. El trabajo en este campo permitió eliminar y separar el ruido no deseado de la señal sísmica deseada. La teoría de la información y el procesamiento de señales digitales ofrecen una mejora importante en la resolución y claridad de la imagen con respecto a los métodos analógicos anteriores. [28]

Semiótica

Los semióticos Doede Nauta y Winfried Nöth consideraron que Charles Sanders Peirce había creado una teoría de la información en sus trabajos sobre semiótica. [29] : 171  [30] : 137  Nauta definió la teoría semiótica de la información como el estudio de "los procesos internos de codificación, filtrado y procesamiento de la información". [29] : 91 

Semióticos como Umberto Eco y Ferruccio Rossi-Landi han utilizado conceptos de la teoría de la información, como la redundancia y el control de códigos, para explicar la ideología como una forma de transmisión de mensajes mediante la cual una clase social dominante emite su mensaje mediante el uso de signos que exhiben un alto grado de Redundancia tal que sólo se decodifica un mensaje entre una selección de mensajes en competencia. [31]

Organización de procesos integrados de información neuronal.

Los métodos de la teoría de la información cuantitativa se han aplicado en la ciencia cognitiva para analizar la organización del proceso integrado de la información neuronal en el contexto del problema vinculante en la neurociencia cognitiva . [32] En este contexto, ya sea una medida teórica de la información, como los grupos funcionales ( modelo de agrupamiento funcional de Gerald Edelman y Giulio Tononi y la hipótesis del núcleo dinámico (DCH) [33] ) o información efectiva ( la teoría de la información integrada de Tononi (IIT) ) de la conciencia [34] [35] [36] ), se define (sobre la base de un proceso de organización reentrante, es decir, la sincronización de la actividad neurofisiológica entre grupos de poblaciones neuronales), o la medida de la minimización de la energía libre en el base de métodos estadísticos ( el principio de energía libre (FEP) de Karl J. Friston , una medida teórica de la información que establece que cada cambio adaptativo en un sistema autoorganizado conduce a una minimización de la energía libre, y la hipótesis bayesiana del cerebro [37 ] [38] [39] [40] [41] ).

Aplicaciones varias

La teoría de la información también tiene aplicaciones en los juegos de azar , los agujeros negros y la bioinformática .

Ver también

Aplicaciones

Historia

Teoría

Conceptos

Referencias

  1. ^ "Claude Shannon, pionero en la teoría de la información digital". FierceTelecom . Consultado el 30 de abril de 2021 .
  2. ^ Shannon, Claude Elwood (1998). La teoria matematica de la comunicacion. Warren Weaver. Urbana: Prensa de la Universidad de Illinois. ISBN 0-252-72546-8. OCLC  40716662.
  3. ^ Burnham, KP y Anderson DR (2002) Selección de modelos e inferencia multimodelo: un enfoque práctico de teoría de la información, segunda edición (Springer Science, Nueva York) ISBN 978-0-387-95364-9
  4. ^ ab F. Rieke; D. Warland; R Ruyter van Steveninck; W. Bialek (1997). Spikes: explorando el código neuronal . La prensa del MIT. ISBN 978-0262681087.
  5. ^ Delgado-Bonal, Alfonso; Martín-Torres, Javier (03-11-2016). "La visión humana se determina con base en la teoría de la información". Informes científicos . 6 (1): 36038. Código bibliográfico : 2016NatSR...636038D. doi :10.1038/srep36038. ISSN  2045-2322. PMC 5093619 . PMID  27808236. 
  6. ^ ver; Huelsenbeck, JP; Ronquist, F.; Nielsen, R.; Bolback, JP (2001). "Inferencia bayesiana de la filogenia y su impacto en la biología evolutiva". Ciencia . 294 (5550): 2310–2314. Código Bib : 2001 Ciencia... 294.2310H. doi : 10.1126/ciencia.1065889. PMID  11743192. S2CID  2138288.
  7. ^ Allikmets, Rando; Wasserman, Wyeth W.; Hutchinson, Amy; Smallwood, Felipe; Nathans, Jeremy; Rogan, Peter K. (1998). "Thomas D. Schneider], Michael Dean (1998) Organización del gen ABCR: análisis de secuencias de unión de empalme y promotor". Gen.215 (1): 111-122. doi : 10.1016/s0378-1119(98)00269-8 . PMID  9666097.
  8. ^ Jaynes, et (1957). "Teoría de la información y mecánica estadística". Física. Rdo . 106 (4): 620. Código bibliográfico : 1957PhRv..106..620J. doi : 10.1103/physrev.106.620. S2CID  17870175.
  9. ^ Talaat, Khaled; Cowen, Benjamín; Anderoglu, Osman (5 de octubre de 2020). "Método de entropía de la información para la evaluación de la convergencia de simulaciones de dinámica molecular". Revista de Física Aplicada . 128 (13): 135102. Código bibliográfico : 2020JAP...128m5102T. doi : 10.1063/5.0019078 . OSTI  1691442. S2CID  225010720.
  10. ^ Bennett, Charles H.; Li, Ming; Mamá, Bin (2003). "Cartas en cadena e historias evolutivas". Científico americano . 288 (6): 76–81. Código Bib : 2003SciAm.288f..76B. doi : 10.1038/scientificamerican0603-76. PMID  12764940. Archivado desde el original el 7 de octubre de 2007 . Consultado el 11 de marzo de 2008 .
  11. ^ David R. Anderson (1 de noviembre de 2003). "Algunos antecedentes sobre por qué las personas en las ciencias empíricas pueden querer comprender mejor los métodos de la teoría de la información" (PDF) . Archivado desde el original (PDF) el 23 de julio de 2011 . Consultado el 23 de junio de 2010 .
  12. ^ Horgan, John (27 de abril de 2016). "Claude Shannon: chapucero, bromista y padre de la teoría de la información". espectro.ieee.org . Consultado el 30 de septiembre de 2023 .
  13. ^ Roberts, Siobhan (30 de abril de 2016). "El padre olvidado de la era de la información". El neoyorquino . ISSN  0028-792X . Consultado el 30 de septiembre de 2023 .
  14. ^ Tse, David (22 de diciembre de 2020). "Cómo Claude Shannon inventó el futuro". Revista Quanta . Consultado el 30 de septiembre de 2023 .
  15. ^ Fazlollah M. Reza (1994) [1961]. Introducción a la teoría de la información. Publicaciones de Dover, Inc., Nueva York. ISBN 0-486-68210-2.
  16. ^ Robert B. Ash (1990) [1965]. Teoría de la información. Publicaciones de Dover, Inc. ISBN 0-486-66521-6.
  17. ^ Massey, James (1990), Causalidad, retroalimentación e información dirigida , CiteSeerX 10.1.1.36.5688 
  18. ^ Permutador, Haim Henry; Weissman, Tsachy; Goldsmith, Andrea J. (febrero de 2009). "Canales de estado finito con retroalimentación determinista invariante en el tiempo". Transacciones IEEE sobre teoría de la información . 55 (2): 644–662. arXiv : cs/0608070 . doi :10.1109/TIT.2008.2009849. S2CID  13178.
  19. ^ Kramer, G. (enero de 2003). "Resultados de capacidad para la red discreta sin memoria". Transacciones IEEE sobre teoría de la información . 49 (1): 4-21. doi :10.1109/TIT.2002.806135.
  20. ^ Permutador, Haim H.; Kim, Young-Han; Weissman, Tsachy (junio de 2011). "Interpretaciones de información dirigida en teoría de carteras, compresión de datos y pruebas de hipótesis". Transacciones IEEE sobre teoría de la información . 57 (6): 3248–3259. arXiv : 0912.4872 . doi :10.1109/TIT.2011.2136270. S2CID  11722596.
  21. ^ Simeone, Osvaldo; Permuter, Haim Henri (junio de 2013). "Codificación fuente cuando la información secundaria puede retrasarse". Transacciones IEEE sobre teoría de la información . 59 (6): 3607–3618. arXiv : 1109.1293 . doi :10.1109/TIT.2013.2248192. S2CID  3211485.
  22. ^ Charalambous, Charalambos D.; Stavrou, Photios A. (agosto de 2016). "Información dirigida a espacios abstractos: propiedades e igualdades variacionales". Transacciones IEEE sobre teoría de la información . 62 (11): 6019–6052. arXiv : 1302.3971 . doi :10.1109/TIT.2016.2604846. S2CID  8107565.
  23. ^ Tanaka, Takashi; Esfahaní, Peyman Mohajerin; Mitter, Sanjoy K. (enero de 2018). "Control LQG con información mínima dirigida: enfoque de programación semidefinida". Transacciones IEEE sobre control automático . 63 (1): 37–52. arXiv : 1510.04214 . doi :10.1109/TAC.2017.2709618. S2CID  1401958.
  24. ^ Vinkler, Dror A; Permuter, Haim H; Merhav, Neri (20 de abril de 2016). "Analogía entre el juego y la extracción de trabajo basada en mediciones". Revista de Mecánica Estadística: Teoría y Experimento . 2016 (4): 043403. arXiv : 1404.6788 . Código Bib : 2016JSMTE..04.3403V. doi :10.1088/1742-5468/2016/04/043403. S2CID  124719237.
  25. ^ Jerry D. Gibson (1998). Compresión digital para multimedia: principios y estándares. Morgan Kaufman. ISBN 1-55860-369-7.
  26. ^ Massey, James L. (1990). "Causalidad, retroalimentación e información dirigida". CiteSeerX 10.1.1.36.5688 .  {{cite journal}}: Citar diario requiere |journal=( ayuda )
  27. ^ Permutador, Haim Henry; Weissman, Tsachy; Goldsmith, Andrea J. (febrero de 2009). "Canales de estado finito con retroalimentación determinista invariante en el tiempo". Transacciones IEEE sobre teoría de la información . 55 (2): 644–662. arXiv : cs/0608070 . doi :10.1109/TIT.2008.2009849. S2CID  13178.
  28. ^ Haggerty, Patrick E. (1981). "La corporación y la innovación". Revista de Gestión Estratégica . 2 (2): 97-118. doi :10.1002/smj.4250020202.
  29. ^ ab Nauta, Doede (1972). El significado de la información . La Haya: Mouton. ISBN 9789027919960.
  30. ^ Nöth, Winfried (enero de 2012). "La teoría de la información de Charles S. Peirce: una teoría del crecimiento de los símbolos y del conocimiento". Cibernética y conocimiento humano . 19 (1–2): 137–161.
  31. ^ Nöth, Winfried (1981). "Semiótica de la ideología". Semiótica , Número 148.
  32. ^ Maurer, H. (2021). Ciencia cognitiva: mecanismos de sincronización integradora en neuroarquitecturas cognitivas del conexionismo moderno. CRC Press, Boca Ratón/FL, cap. 10, ISBN 978-1-351-04352-6. https://doi.org/10.1201/9781351043526
  33. ^ Edelman, GM y G. Tononi (2000). Un universo de conciencia: cómo la materia se convierte en imaginación. Libros básicos, Nueva York.
  34. ^ Tononi, G. y O. Sporns (2003). Medición de la integración de la información. BMC Neurociencia 4: 1-20.
  35. ^ Tononi, G. (2004a). Una teoría de la integración de la información de la conciencia. BMC Neurociencia 5: 1-22.
  36. ^ Tononi, G. (2004b). Conciencia y cerebro: aspectos teóricos. En: G. Adelman y B. Smith [eds.]: Enciclopedia de neurociencia. 3ª edición. Elsevier, Ámsterdam, Oxford.
  37. ^ Friston, K. y KE Stephan (2007). La energía libre y el cerebro. Síntesis 159: 417-458.
  38. ^ Friston, K. (2010). El principio de la energía libre: una teoría del cerebro unificada. Nature Reviews Neurociencia 11: 127-138.
  39. ^ Friston, K., M. Breakstear y G. Deco (2012). Percepción e inestabilidad autoorganizada. Fronteras en neurociencia computacional 6: 1-19.
  40. ^ Friston, K. (2013). La vida tal como la conocemos. Revista de la Royal Society Interface 10: 20130475.
  41. ^ Kirchhoff, M., T. Parr, E. Palacios, K. Friston y J. Kiverstein. (2018). Los mantos de vida de Markov: autonomía, inferencia activa y el principio de energía libre. Revista de la Royal Society Interface 15: 20170792.

Otras lecturas

la obra clasica

Otros artículos de revistas

Libros de texto sobre teoría de la información.

Otros libros

enlaces externos