stringtranslate.com

Una teoría matemática de la comunicación

" A Mathematical Theory of Communication " es un artículo del matemático Claude E. Shannon publicado en Bell System Technical Journal en 1948. [1] [2] [3] [4] Pasó a llamarse The Mathematical Theory of Communication en el libro de 1949 de mismo nombre, [5] un pequeño pero significativo cambio de título tras darnos cuenta de la generalidad de esta obra. Tiene decenas de miles de citas, lo cual es poco común para un artículo científico y dio lugar al campo de la teoría de la información . Scientific American se refirió al artículo como la "Carta Magna de la era de la información". [6]

Publicación

El artículo fue el trabajo fundacional del campo de la teoría de la información. Posteriormente se publicó en 1949 como un libro titulado La teoría matemática de la comunicación ( ISBN  0-252-72546-8 ), que se publicó en edición de bolsillo en 1963 ( ISBN 0-252-72548-4 ). El libro contiene un artículo adicional de Warren Weaver , que proporciona una descripción general de la teoría para una audiencia más general. [7] 

Contenido

Diagrama de Shannon de un sistema de comunicaciones general , que muestra el proceso por el cual un mensaje enviado se convierte en el mensaje recibido (posiblemente corrompido por el ruido)

Este trabajo es conocido por introducir los conceptos de capacidad del canal así como el teorema de codificación de canales ruidosos .

El artículo de Shannon expuso los elementos básicos de la comunicación:

También desarrolló los conceptos de entropía y redundancia de la información , e introdujo el término bit (que Shannon atribuyó a John Tukey ) como unidad de información. También fue en este artículo donde se propuso la técnica de codificación de Shannon-Fano , una técnica desarrollada en conjunto con Robert Fano .

Referencias

  1. ^ Shannon, Claude Elwood (julio de 1948). "Una teoría matemática de la comunicación" (PDF) . Revista técnica del sistema Bell . 27 (3): 379–423. doi :10.1002/j.1538-7305.1948.tb01338.x. hdl : 11858/00-001M-0000-002C-4314-2 . Archivado desde el original (PDF) el 15 de julio de 1998. La elección de una base logarítmica corresponde a la elección de una unidad para medir la información. Si se utiliza la base 2, las unidades resultantes pueden denominarse dígitos binarios, o más brevemente bits , palabra sugerida por JW Tukey .
  2. ^ Shannon, Claude Elwood (octubre de 1948). "Una teoría matemática de la comunicación". Revista técnica del sistema Bell . 27 (4): 623–656. doi :10.1002/j.1538-7305.1948.tb00917.x. hdl : 11858/00-001M-0000-002C-4314-2 .
  3. ^ Ceniza, Robert B. (1966). Teoría de la información: tratados de matemáticas puras y aplicadas . Nueva York: John Wiley & Sons Inc. ISBN 0-470-03445-9.
  4. ^ Yeung, Raymond W. (2008). "La ciencia de la información". Teoría de la información y codificación de redes . Saltador. págs. 1–4. doi :10.1007/978-0-387-79234-7_1. ISBN 978-0-387-79233-0.
  5. ^ Shannon, Claude Elwood ; Tejedor, Warren (1949). La teoría matemática de la comunicación (PDF) . Prensa de la Universidad de Illinois . ISBN 0-252-72548-4. Archivado desde el original (PDF) el 15 de julio de 1998.
  6. ^ Buen hombre, Rob; Soni, Jimmy (2018). "Genio en formación". Asociación de Antiguos Alumnos de la Universidad de Michigan . Consultado el 31 de octubre de 2023 .
  7. ^ "La teoría matemática de la comunicación" (PDF) . Bibliotecas digitales Monoskop . Consultado el 28 de mayo de 2024 .

enlaces externos