stringtranslate.com

Una teoría matemática de la comunicación

" Una teoría matemática de la comunicación " es un artículo del matemático Claude E. Shannon publicado en Bell System Technical Journal en 1948. [1] [2] [3] [4] Fue renombrado como La teoría matemática de la comunicación en el libro de 1949 del mismo nombre, [5] un cambio de título pequeño pero significativo después de darse cuenta de la generalidad de este trabajo. Tiene decenas de miles de citas, siendo uno de los artículos científicos más influyentes y citados de todos los tiempos, [6] ya que dio origen al campo de la teoría de la información , con Scientific American refiriéndose al artículo como la " Carta Magna de la Era de la Información ", [7] mientras que el ingeniero eléctrico Robert G. Gallager llamó al artículo un "plan para la era digital". [8] El historiador James Gleick calificó el artículo como el desarrollo más importante de 1948, colocando al transistor en segundo lugar en el mismo período de tiempo, con Gleick enfatizando que el artículo de Shannon era "aún más profundo y más fundamental" que el transistor. [9]

También se señala que "al igual que la relatividad y la teoría cuántica , la teoría de la información cambió radicalmente la forma en que los científicos ven el universo". [10] El artículo también introdujo formalmente el término " bit " y sirve como su fundamento teórico. [11]

Publicación

El artículo fue el trabajo fundacional del campo de la teoría de la información. Posteriormente se publicó en 1949 como un libro titulado The Mathematical Theory of Communication ( ISBN  0-252-72546-8 ), que se publicó como libro de bolsillo en 1963 ( ISBN 0-252-72548-4 ). El libro contiene un artículo adicional de Warren Weaver , que proporciona una descripción general de la teoría para un público más general. [12] 

Contenido

Diagrama de Shannon de un sistema general de comunicaciones , que muestra el proceso mediante el cual un mensaje enviado se convierte en el mensaje recibido (posiblemente corrompido por el ruido)

Este trabajo es conocido por introducir los conceptos de capacidad de canal así como el teorema de codificación de canal ruidoso .

El artículo de Shannon expuso los elementos básicos de la comunicación:

También desarrolló los conceptos de entropía de la información , redundancia y el teorema de codificación de la fuente , e introdujo el término bit (que Shannon atribuyó a John Tukey ) como unidad de información. También fue en este artículo donde se propuso la técnica de codificación de Shannon-Fano , una técnica desarrollada en conjunto con Robert Fano .

Referencias

  1. ^ Shannon, Claude Elwood (julio de 1948). "Una teoría matemática de la comunicación" (PDF) . Bell System Technical Journal . 27 (3): 379–423. doi :10.1002/j.1538-7305.1948.tb01338.x. hdl : 11858/00-001M-0000-002C-4314-2 . Archivado desde el original (PDF) el 15 de julio de 1998. La elección de una base logarítmica corresponde a la elección de una unidad para medir la información. Si se utiliza la base 2, las unidades resultantes pueden llamarse dígitos binarios o, más brevemente, bits , una palabra sugerida por JW Tukey .
  2. ^ Shannon, Claude Elwood (octubre de 1948). "Una teoría matemática de la comunicación". Bell System Technical Journal . 27 (4): 623–656. doi :10.1002/j.1538-7305.1948.tb00917.x. hdl : 11858/00-001M-0000-002C-4314-2 .
  3. ^ Ash, Robert B. (1966). Teoría de la información: tratados sobre matemáticas puras y aplicadas . Nueva York: John Wiley & Sons Inc. ISBN 0-470-03445-9.
  4. ^ Yeung, Raymond W. (2008). "La ciencia de la información". Teoría de la información y codificación de redes . Springer. pp. 1–4. doi :10.1007/978-0-387-79234-7_1. ISBN . 978-0-387-79233-0.
  5. ^ Shannon, Claude Elwood ; Weaver, Warren (1949). La teoría matemática de la comunicación (PDF) . University of Illinois Press . ISBN 0-252-72548-4. Archivado desde el original (PDF) el 15 de julio de 1998.
  6. ^ Yan, Zheng (2020). Artículos de revistas editoriales: una guía científica para nuevos autores de todo el mundo. Cambridge New York, NY Port Melbourne New Delhi: Cambridge University Press. p. 7. ISBN 978-1-108-27742-6.
  7. ^ Goodman, Rob; Soni, Jimmy (2018). "Genio en formación". Asociación de Antiguos Alumnos de la Universidad de Michigan . Consultado el 31 de octubre de 2023 .
  8. ^ "Claude Shannon: padre reacio de la era digital". MIT Technology Review . 2001-07-01 . Consultado el 2024-06-26 .
  9. ^ Gleick, James (2011). La información: una historia, una teoría, un diluvio (1.ª ed.). Nueva York: Vintage Books. págs. 3-4. ISBN 978-1-4000-9623-7.
  10. ^ Watson, Peter (2018). Convergencia: la idea en el corazón de la ciencia. Nueva York, Londres, Toronto, Sídney, Nueva Delhi: Simon & Schuster. pág. 392. ISBN 978-1-4767-5434-5.
  11. ^ Nicolelis, Miguel AL (2020). El verdadero creador de todo: cómo el cerebro humano moldeó el universo tal como lo conocemos. New Haven: Yale University Press. pág. 34. ISBN 978-0-300-24463-2.OCLC 1090423259  .
  12. ^ "La teoría matemática de la comunicación" (PDF) . Bibliotecas digitales Monoskop . Consultado el 28 de mayo de 2024 .

Enlaces externos