stringtranslate.com

Una teoría matemática de la comunicación

" A Mathematical Theory of Communication " es un artículo del matemático Claude E. Shannon publicado en Bell System Technical Journal en 1948. [1] [2] [3] [4] Pasó a llamarse The Mathematical Theory of Communication en el libro de 1949 de mismo nombre, [5] un pequeño pero significativo cambio de título tras darnos cuenta de la generalidad de esta obra. Tiene decenas de miles de citas, lo cual es poco común para un artículo científico y dio origen al campo de la teoría de la información . Scientific American se refirió al artículo como la "Carta Magna de la era de la información". [6]

Publicación

El artículo fue el trabajo fundacional del campo de la teoría de la información. Posteriormente se publicó en 1949 como un libro titulado La teoría matemática de la comunicación ( ISBN  0-252-72546-8 ), que se publicó en edición de bolsillo en 1963 ( ISBN 0-252-72548-4 ). El libro contiene un artículo adicional de Warren Weaver , que proporciona una descripción general de la teoría para una audiencia más general.  

Contenido

Diagrama de Shannon de un sistema de comunicaciones general , que muestra el proceso por el cual un mensaje enviado se convierte en el mensaje recibido (posiblemente corrompido por el ruido)

Este trabajo es conocido por introducir los conceptos de capacidad del canal así como el teorema de codificación de canales ruidosos .

El artículo de Shannon expuso los elementos básicos de la comunicación:

También desarrolló los conceptos de entropía y redundancia de la información , e introdujo el término bit (que Shannon atribuyó a John Tukey ) como unidad de información. También fue en este artículo donde se propuso la técnica de codificación de Shannon-Fano , una técnica desarrollada en conjunto con Robert Fano .

Referencias

  1. ^ Shannon, Claude Elwood (July 1948). "A Mathematical Theory of Communication" (PDF). Bell System Technical Journal. 27 (3): 379–423. doi:10.1002/j.1538-7305.1948.tb01338.x. hdl:11858/00-001M-0000-002C-4314-2. Archived from the original (PDF) on 1998-07-15. The choice of a logarithmic base corresponds to the choice of a unit for measuring information. If the base 2 is used the resulting units may be called binary digits, or more briefly bits, a word suggested by J. W. Tukey.
  2. ^ Shannon, Claude Elwood (October 1948). "A Mathematical Theory of Communication". Bell System Technical Journal. 27 (4): 623–656. doi:10.1002/j.1538-7305.1948.tb00917.x. hdl:11858/00-001M-0000-002C-4314-2.
  3. ^ Ash, Robert B. (1966). Information Theory: Tracts in Pure & Applied Mathematics. New York: John Wiley & Sons Inc. ISBN 0-470-03445-9.
  4. ^ Yeung, Raymond W. (2008). "The Science of Information". Information Theory and Network Coding. Springer. pp. 1–4. doi:10.1007/978-0-387-79234-7_1. ISBN 978-0-387-79233-0.
  5. ^ Shannon, Claude Elwood; Weaver, Warren (1949). The Mathematical Theory of Communication (PDF). University of Illinois Press. ISBN 0-252-72548-4. Archived from the original (PDF) on 1998-07-15.
  6. ^ Goodman, Rob; Soni, Jimmy (2018). "Genius in Training". Alumni Association of the University of Michigan. Retrieved 2023-10-31.

External links