stringtranslate.com

Claude Shannon

Claude Elwood Shannon (30 de abril de 1916 - 24 de febrero de 2001) fue un matemático , ingeniero eléctrico , informático y criptógrafo estadounidense conocido como el «padre de la teoría de la información » y como el «padre de la era de la información ». [1] [2] Shannon fue el primero en describir las puertas booleanas (circuitos electrónicos) que son esenciales para todos los circuitos electrónicos digitales, y fue uno de los padres fundadores de la inteligencia artificial . [3] [4] [5] [1] [6] Se le atribuye junto a George Boole el haber sentado las bases de la era de la información . [7] [8] [9] [6]

En la Universidad de Michigan , Shannon obtuvo una doble titulación , graduándose con una Licenciatura en Ciencias tanto en ingeniería eléctrica como en matemáticas en 1936. A los 21 años, era un estudiante de maestría en el Instituto Tecnológico de Massachusetts (MIT) en ingeniería eléctrica, su tesis se centró en la teoría de circuitos de conmutación , demostrando que las aplicaciones eléctricas del álgebra de Boole podían construir cualquier relación numérica lógica, [10] estableciendo así la teoría detrás de la computación digital y los circuitos digitales . [11] Se ha afirmado que la tesis es la tesis de maestría más importante de todos los tiempos, [10] ya que en 1985, Howard Gardner la describió como "posiblemente la tesis de maestría más importante, y también la más famosa, del siglo", [12] mientras que Herman Goldstine la describió como "seguramente  ... una de las tesis de maestría más importantes jamás escritas  ... Ayudó a cambiar el diseño de circuitos digitales de un arte a una ciencia". [13] También se le ha llamado el "certificado de nacimiento de la revolución digital ", [14] y ganó el Premio Alfred Noble en 1939. [ 15] Shannon luego se graduó con un doctorado en matemáticas del MIT en 1940, [16] con su tesis centrada en la genética , con la que derivó resultados importantes, pero no se publicó. [17]

Shannon contribuyó al campo del criptoanálisis para la defensa nacional de los Estados Unidos durante la Segunda Guerra Mundial , incluido su trabajo fundamental sobre descifrado de códigos y telecomunicaciones seguras , escribiendo un artículo que se considera una de las piezas fundamentales de la criptografía moderna, [18] con su trabajo descrito como "un punto de inflexión, y marcó el cierre de la criptografía clásica y el comienzo de la criptografía moderna". [19] El trabajo de Shannon es la base de la criptografía de clave secreta , incluido el trabajo de Horst Feistel , el Estándar de cifrado de datos (DES) , el Estándar de cifrado avanzado (AES) y más. [19] Como resultado, Shannon ha sido llamado el "padre fundador de la criptografía moderna". [20]

Su teoría matemática de la comunicación sentó las bases para el campo de la teoría de la información , [21] [16] con su famoso artículo llamado la " Carta Magna de la Era de la Información" por Scientific American , [9] [22] junto con su trabajo descrito como "el corazón de la tecnología de la información digital actual ". [23] Robert G. Gallager se refirió al artículo como un "plan para la era digital". [24] Con respecto a la influencia que Shannon tuvo en la era digital, Solomon W. Golomb comentó "Es como decir cuánta influencia ha tenido el inventor del alfabeto en la literatura ". [21] La teoría de Shannon es ampliamente utilizada y ha sido fundamental para el éxito de muchos esfuerzos científicos, como la invención del disco compacto , el desarrollo de Internet , la viabilidad de los teléfonos móviles , la comprensión de los agujeros negros y más, y está en la intersección de numerosos campos importantes. [25] [26]

Shannon hizo numerosas contribuciones al campo de la inteligencia artificial, [3] escribiendo artículos sobre la programación de una computadora para ajedrez, que han sido inmensamente influyentes, [27] [28] y también su máquina de Teseo fue el primer dispositivo eléctrico en aprender por ensayo y error, siendo uno de los primeros ejemplos de inteligencia artificial. [29] [30] También coorganizó y participó en el taller de Dartmouth de 1956, considerado el evento fundador del campo de la inteligencia artificial. [31] [32] También hizo contribuciones a múltiples otros campos, como la teoría de la detección y la combinatoria . [33]

Rodney Brooks declaró que Shannon fue el ingeniero del siglo XX que más contribuyó a las tecnologías del siglo XXI. [29] Los logros de Shannon se consideran a la par, en su campo, con los de Albert Einstein y Sir Isaac Newton en el suyo. [7] [21] [5] [34] [35]

Biografía

Infancia

La familia Shannon vivía en Gaylord, Michigan , y Claude nació en un hospital en las cercanías de Petoskey . [4] Su padre, Claude Sr. (1862-1934), era un hombre de negocios y, durante un tiempo, juez de sucesiones en Gaylord. Su madre, Mabel Wolf Shannon (1880-1945), era profesora de idiomas, que también se desempeñó como directora de la escuela secundaria de Gaylord . [36] Claude Sr. era descendiente de colonos de Nueva Jersey , mientras que Mabel era hija de inmigrantes alemanes. [4] La familia de Shannon fue activa en su Iglesia Metodista durante su juventud. [37]

La mayor parte de los primeros 16 años de su vida transcurrieron en Gaylord, donde asistió a la escuela pública y se graduó de la Gaylord High School en 1932. Shannon mostró una inclinación hacia las cosas mecánicas y eléctricas. Sus mejores materias eran ciencias y matemáticas. En casa, construyó dispositivos como modelos de aviones, un modelo de barco controlado por radio y un sistema de telégrafo con alambre de púas para la casa de un amigo a media milla de distancia. [38] Mientras crecía, también trabajó como mensajero para la compañía Western Union .

El héroe de la infancia de Shannon fue Thomas Edison , de quien más tarde se enteró que era un primo lejano. Tanto Shannon como Edison eran descendientes de John Ogden (1609-1682), un líder colonial y antepasado de muchas personas distinguidas. [39] [40]

Circuitos lógicos

En 1932, Shannon ingresó en la Universidad de Michigan , donde conoció el trabajo de George Boole . Se graduó en 1936 con dos títulos de licenciatura : uno en ingeniería eléctrica y otro en matemáticas.

En 1936, Shannon comenzó sus estudios de posgrado en ingeniería eléctrica en el Instituto Tecnológico de Massachusetts (MIT), donde trabajó en el analizador diferencial de Vannevar Bush , que era una computadora analógica temprana que estaba compuesta de partes electromecánicas y podía resolver ecuaciones diferenciales . [41] Mientras estudiaba los complicados circuitos ad hoc de este analizador, Shannon diseñó circuitos de conmutación basados ​​en los conceptos de Boole . En 1937, escribió su tesis de maestría , Un análisis simbólico de relés y circuitos de conmutación , [42] con un artículo de esta tesis publicado en 1938. [43] Un trabajo revolucionario para la teoría de circuitos de conmutación , Shannon diagramó circuitos de conmutación que podían implementar los operadores esenciales del álgebra de Boole . Luego demostró que sus circuitos de conmutación podían usarse para simplificar la disposición de los relés electromecánicos que se usaban durante ese tiempo en los conmutadores de enrutamiento de llamadas telefónicas . A continuación, amplió este concepto, demostrando que estos circuitos podían resolver todos los problemas que el álgebra de Boole podía resolver. En el último capítulo presentó diagramas de varios circuitos, incluido un sumador completo digital de 4 bits. [42]

El uso de interruptores eléctricos para implementar la lógica es el concepto fundamental que subyace a todas las computadoras digitales electrónicas . El trabajo de Shannon se convirtió en la base del diseño de circuitos digitales , ya que se hizo ampliamente conocido en la comunidad de ingeniería eléctrica durante y después de la Segunda Guerra Mundial . El rigor teórico del trabajo de Shannon reemplazó los métodos ad hoc que habían prevalecido anteriormente. Howard Gardner elogió la tesis de Shannon como "posiblemente la tesis de maestría más importante y también la más destacada del siglo". [44] Uno de los revisores de su trabajo comentó que "hasta donde yo sé, esta es la primera aplicación de los métodos de lógica simbólica a un problema de ingeniería tan práctico. Desde el punto de vista de la originalidad, califico el artículo como sobresaliente". [45] La tesis de maestría de Shannon ganó el Premio Alfred Noble de 1939 .

Shannon recibió su doctorado en matemáticas del MIT en 1940. [39] Vannevar Bush había sugerido que Shannon debería trabajar en su disertación en el Laboratorio Cold Spring Harbor , con el fin de desarrollar una formulación matemática para la genética mendeliana . Esta investigación dio como resultado la tesis doctoral de Shannon, llamada Un álgebra para la genética teórica . [46] Sin embargo, la tesis no se publicó después de que Shannon perdiera el interés, pero contenía resultados importantes. [17] Cabe destacar que fue uno de los primeros en aplicar un marco algebraico para estudiar la genética de poblaciones teórica. [47] Además, Shannon ideó una expresión general para la distribución de varios rasgos vinculados en una población después de múltiples generaciones bajo un sistema de apareamiento aleatorio, que era original en ese momento, [48] con el nuevo teorema sin resolver por otros genetistas de poblaciones de la época. [49]

En 1940, Shannon se convirtió en investigador nacional en el Instituto de Estudios Avanzados de Princeton, Nueva Jersey . En Princeton, Shannon tuvo la oportunidad de discutir sus ideas con científicos y matemáticos influyentes como Hermann Weyl y John von Neumann , y también tuvo encuentros ocasionales con Albert Einstein y Kurt Gödel . Shannon trabajó libremente en distintas disciplinas, y esta capacidad puede haber contribuido a su posterior desarrollo de la teoría de la información matemática . [50]

Investigación en tiempos de guerra

Shannon había trabajado en Bell Labs durante unos meses en el verano de 1937, [51] y regresó allí para trabajar en sistemas de control de fuego y criptografía durante la Segunda Guerra Mundial , bajo un contrato con la sección D-2 (sección de Sistemas de Control) del Comité de Investigación de Defensa Nacional (NDRC).

A Shannon se le atribuye la invención de los gráficos de flujo de señales , en 1942. Descubrió la fórmula de ganancia topológica mientras investigaba el funcionamiento funcional de una computadora analógica. [52]

Durante dos meses a principios de 1943, Shannon entró en contacto con el destacado matemático británico Alan Turing . Turing había sido destinado a Washington para compartir con el servicio criptoanalítico de la Armada de los Estados Unidos los métodos utilizados por la Escuela de Códigos y Cifras del Gobierno británico en Bletchley Park para descifrar los códigos utilizados por los submarinos de la Kriegsmarine en el océano Atlántico norte . [53] También estaba interesado en el cifrado del habla y con este fin pasó un tiempo en Bell Labs. Shannon y Turing se conocieron a la hora del té en la cafetería. [53] Turing le mostró a Shannon su artículo de 1936 que definía lo que ahora se conoce como la " máquina universal de Turing ". [54] [55] Esto impresionó a Shannon, ya que muchas de sus ideas complementaban las suyas.

En 1945, cuando la guerra estaba llegando a su fin, la NDRC estaba publicando un resumen de informes técnicos como último paso antes de su eventual cierre. Dentro del volumen sobre control de fuego, un ensayo especial titulado Data Smoothing and Prediction in Fire-Control Systems , coescrito por Shannon, Ralph Beebe Blackman y Hendrik Wade Bode , trató formalmente el problema de suavizar los datos en el control de fuego por analogía con "el problema de separar una señal del ruido interferente en los sistemas de comunicaciones". [56] En otras palabras, modeló el problema en términos de procesamiento de datos y señales y, por lo tanto, anunció la llegada de la Era de la Información .

El trabajo de Shannon sobre criptografía estaba aún más relacionado con sus publicaciones posteriores sobre teoría de la comunicación . [57] Al final de la guerra, preparó un memorando clasificado para Bell Telephone Labs titulado "Una teoría matemática de la criptografía", fechado en septiembre de 1945. Una versión desclasificada de este documento se publicó en 1949 como " Teoría de la comunicación de los sistemas secretos " en el Bell System Technical Journal . Este documento incorporaba muchos de los conceptos y formulaciones matemáticas que también aparecieron en su Una teoría matemática de la comunicación . Shannon dijo que sus ideas de guerra sobre la teoría de la comunicación y la criptografía se desarrollaron simultáneamente, y que "estaban tan juntas que no se podían separar". [58] En una nota al pie cerca del comienzo del informe clasificado, Shannon anunció su intención de "desarrollar estos resultados... en un próximo memorando sobre la transmisión de información". [59]

Mientras estaba en Bell Labs, Shannon demostró que el block criptográfico de un solo uso es irrompible en su investigación clasificada que fue publicada más tarde en 1949. El mismo artículo también demostró que cualquier sistema irrompible debe tener esencialmente las mismas características que el block criptográfico de un solo uso: la clave debe ser verdaderamente aleatoria, tan grande como el texto sin formato, nunca reutilizada en su totalidad o en parte y mantenida en secreto. [60]

Teoría de la información

En 1948, el memorándum prometido apareció como "Una teoría matemática de la comunicación", un artículo en dos partes en los números de julio y octubre del Bell System Technical Journal . Este trabajo se centra en el problema de cómo codificar mejor el mensaje que un emisor quiere transmitir. Shannon desarrolló la entropía de la información como una medida del contenido de información en un mensaje, que es una medida de la incertidumbre reducida por el mensaje. Al hacerlo, inventó esencialmente el campo de la teoría de la información .

El libro The Mathematical Theory of Communication [61] reimprime el artículo de Shannon de 1948 y la popularización que hizo Warren Weaver de él, que es accesible para los no especialistas. Weaver señaló que la palabra "información" en la teoría de la comunicación no está relacionada con lo que uno dice, sino con lo que podría decir. Es decir, la información es una medida de la libertad de elección de uno cuando selecciona un mensaje. Los conceptos de Shannon también se popularizaron, sujetos a su propia corrección, en Symbols, Signals, and Noise de John Robinson Pierce .

La contribución fundamental de la teoría de la información al procesamiento del lenguaje natural y a la lingüística computacional se estableció aún más en 1951, en su artículo "Predicción y entropía del inglés impreso", que muestra los límites superior e inferior de la entropía en las estadísticas del inglés, lo que proporciona una base estadística para el análisis del lenguaje. Además, demostró que tratar el espacio como la 27.ª letra del alfabeto en realidad reduce la incertidumbre en el lenguaje escrito, lo que proporciona un vínculo cuantificable claro entre la práctica cultural y la cognición probabilística.

Otro artículo notable publicado en 1949 es " Teoría de la comunicación de los sistemas secretos ", una versión desclasificada de su trabajo de guerra sobre la teoría matemática de la criptografía, en la que demostró que todos los cifrados teóricamente irrompibles deben tener los mismos requisitos que el bloc de un solo uso. Se le atribuye la introducción del teorema de muestreo , que había derivado ya en 1940, [62] y que se ocupa de la representación de una señal de tiempo continuo a partir de un conjunto discreto (uniforme) de muestras. Esta teoría fue esencial para permitir que las telecomunicaciones pasaran de los sistemas de transmisión analógicos a los digitales en la década de 1960 y posteriormente.

Inteligencia artificial

En 1950, Shannon diseñó y construyó con la ayuda de su esposa una máquina de aprendizaje llamada Theseus. Consistía en un laberinto sobre una superficie, a través del cual podía moverse un ratón mecánico. Debajo de la superficie había sensores que seguían la trayectoria de un ratón mecánico a través del laberinto. Después de mucho ensayo y error, este dispositivo aprendería el camino más corto a través del laberinto y dirigiría al ratón mecánico a través del laberinto. El patrón del laberinto podía cambiarse a voluntad. [30]

Mazin Gilbert afirmó que Teseo “inspiró todo el campo de la IA. Este ensayo y error aleatorios son la base de la inteligencia artificial”. [30]

Shannon escribió varios artículos influyentes sobre inteligencia artificial, como su artículo de 1950 titulado "Programación de una computadora para jugar ajedrez" y su artículo de 1953 titulado "Computadoras y autómatas". [63]

Shannon coorganizó y participó en el taller de Dartmouth de 1956, junto a John McCarthy , Marvin Minsky y Nathaniel Rochester , y que se considera el evento fundador del campo de la inteligencia artificial. [64] [65]

Enseñando en el MIT

En 1956, Shannon se incorporó al cuerpo docente del MIT, donde ocupó una cátedra. Trabajó en el Laboratorio de Investigación en Electrónica (RLE, por sus siglas en inglés) y continuó trabajando en el cuerpo docente del MIT hasta 1978.

Vida posterior

Shannon desarrolló la enfermedad de Alzheimer y pasó los últimos años de su vida en un asilo de ancianos ; murió en 2001, sobreviviendo su esposa, un hijo y una hija, y dos nietas. [66] [67]

Pasatiempos e inventos

El Minivac 601 , un entrenador informático digital diseñado por Shannon

Además de sus actividades académicas, Shannon se interesó por el malabarismo , el monociclo y el ajedrez . También inventó muchos dispositivos, entre ellos una computadora de números romanos llamada THROBAC y máquinas de malabarismo . [68] [69] Construyó un dispositivo que podía resolver el rompecabezas del cubo de Rubik . [39]

Shannon diseñó el Minivac 601 , un entrenador informático digital para enseñar a los empresarios cómo funcionaban las computadoras. Fue comercializado por la Scientific Development Corp a partir de 1961. [70]

También se le considera el co-inventor de la primera computadora portátil junto con Edward O. Thorp . [71] El dispositivo se utilizó para mejorar las probabilidades al jugar a la ruleta .

Vida personal

Shannon se casó con Norma Levor , una intelectual judía de izquierdas y adinerada, en enero de 1940. El matrimonio terminó en divorcio después de aproximadamente un año. Levor se casó más tarde con Ben Barzman . [72]

Shannon conoció a su segunda esposa, Mary Elizabeth Moore (Betty), cuando ella era analista numérica en Bell Labs. Se casaron en 1949. [66] Betty ayudó a Claude a construir algunos de sus inventos más famosos. [73] Tuvieron tres hijos. [74]

Shannon se presentó como apolítico y ateo . [75]

Homenajes

Estatua de Claude Shannon en AT&T Shannon Labs

Hay seis estatuas de Shannon esculpidas por Eugene Daub : una en la Universidad de Michigan ; una en el MIT en el Laboratorio de Sistemas de Información y Decisión ; una en Gaylord, Michigan; una en la Universidad de California, San Diego ; una en Bell Labs; y otra en AT&T Shannon Labs . [76] La estatua en Gaylord está ubicada en el Claude Shannon Memorial Park. [77] Después de la desintegración del Bell System , la parte de Bell Labs que permaneció con AT&T Corporation se llamó Shannon Labs en su honor.

Según Neil Sloane , un miembro de AT&T que coeditó la gran colección de artículos de Shannon en 1993, la perspectiva introducida por la teoría de la comunicación de Shannon (ahora llamada teoría de la información ) es la base de la revolución digital , y cada dispositivo que contiene un microprocesador o microcontrolador es un descendiente conceptual de la publicación de Shannon en 1948: [78] "Es uno de los grandes hombres del siglo. Sin él, ninguna de las cosas que conocemos hoy existiría. Toda la revolución digital comenzó con él". [79] La unidad de criptomoneda shannon (un sinónimo de gwei) lleva su nombre. [80]

Muchos consideran que Shannon fue el único que creó la teoría de la información y sentó las bases para la era digital . [81] [82] [17] [23] [83] [6]

A Mind at Play , una biografía de Shannon escrita por Jimmy Soni y Rob Goodman, se publicó en 2017. [84] Describieron a Shannon como "el genio más importante del que nunca has oído hablar, un hombre cuyo intelecto estaba a la par con Albert Einstein e Isaac Newton". [85]

El 30 de abril de 2016, Shannon fue homenajeado con un Doodle de Google para celebrar su vida en lo que habría sido su cumpleaños número 100. [86] [87] [88] [89] [90] [91]

The Bit Player , un largometraje sobre Shannon dirigido por Mark Levinson, se estrenó en el Festival Mundial de Ciencia en 2019. [92] Basada en entrevistas realizadas a Shannon en su casa en la década de 1980, la película se estrenó en Amazon Prime en agosto de 2020.

La teoría matemática de la comunicación

La contribución del tejedor

La teoría matemática de la comunicación de Shannon [61] comienza con una interpretación de su propio trabajo por parte de Warren Weaver . Aunque toda la obra de Shannon trata sobre la comunicación en sí, Warren Weaver comunicó sus ideas de tal manera que aquellos que no estaban acostumbrados a la teoría y las matemáticas complejas pudieran comprender las leyes fundamentales que él propuso. La combinación de sus habilidades comunicativas únicas y sus ideas generó el modelo de Shannon-Weaver , aunque los fundamentos matemáticos y teóricos emanan completamente del trabajo de Shannon después de la introducción de Weaver . Para el profano, la introducción de Weaver comunica mejor la teoría matemática de la comunicación [61], pero la lógica, las matemáticas y la precisión expresiva posteriores de Shannon fueron responsables de definir el problema en sí.

Otros trabajos

Shannon y su ratón electromecánico Teseo (llamado así por Teseo de la mitología griega) con el que intentó resolver el laberinto en uno de los primeros experimentos en inteligencia artificial.
El laberinto de Teseo en el Museo del MIT

El ratón de Shannon

"Teseo", creado en 1950, era un ratón mecánico controlado por un circuito de relé electromecánico que le permitía moverse por un laberinto de 25 casillas. [93] La configuración del laberinto era flexible y podía modificarse arbitrariamente reorganizando las particiones móviles. [93] El ratón estaba diseñado para buscar por los pasillos hasta encontrar el objetivo. Una vez que había recorrido el laberinto, el ratón podía ser colocado en cualquier lugar en el que hubiera estado antes y, debido a su experiencia previa, podía ir directamente al objetivo. Si se lo colocaba en un territorio desconocido, estaba programado para buscar hasta llegar a una ubicación conocida y luego procedería al objetivo, añadiendo el nuevo conocimiento a su memoria y aprendiendo un nuevo comportamiento. [93] El ratón de Shannon parece haber sido el primer dispositivo de aprendizaje artificial de su tipo. [93]

Estimación de Shannon sobre la complejidad del ajedrez

En 1949, Shannon completó un artículo (publicado en marzo de 1950) que estima la complejidad del árbol de juego del ajedrez , que es aproximadamente 10 120. Este número se conoce ahora a menudo como el " número de Shannon ", y todavía hoy se considera una estimación precisa de la complejidad del juego. El número se cita a menudo como una de las barreras para resolver el juego de ajedrez utilizando un análisis exhaustivo (es decir, análisis de fuerza bruta ). [94] [95]

El programa de ajedrez de Shannon

El 9 de marzo de 1949, Shannon presentó un artículo titulado "Programación de una computadora para jugar ajedrez". El artículo fue presentado en la Convención del Instituto Nacional de Ingenieros de Radio en Nueva York. Describió cómo programar una computadora para jugar ajedrez basándose en la puntuación de la posición y la selección de movimientos. Propuso estrategias básicas para restringir el número de posibilidades a considerar en una partida de ajedrez. En marzo de 1950 se publicó en Philosophical Magazine , y se considera uno de los primeros artículos publicados sobre el tema de la programación de una computadora para jugar ajedrez y el uso de una computadora para resolver el juego . [94] [96] En 1950, Shannon escribió un artículo titulado "Una máquina para jugar ajedrez", [97] que fue publicado en Scientific American . Ambos artículos han tenido una inmensa influencia y sentaron las bases para futuros programas de ajedrez. [27] [28]

Su proceso para que la computadora decidiera qué movimiento hacer era un procedimiento minimax , basado en una función de evaluación de una posición de ajedrez dada. Shannon dio un ejemplo aproximado de una función de evaluación en la que el valor de la posición negra se restaba del de la posición blanca. El material se contaba de acuerdo con el valor relativo habitual de las piezas de ajedrez (1 punto para un peón, 3 puntos para un caballo o alfil, 5 puntos para una torre y 9 puntos para una reina). [98] Consideró algunos factores posicionales, restando ½ punto por cada peón doblado , peón atrasado y peón aislado ; se incorporó la movilidad agregando 0,1 punto por cada movimiento legal disponible.

La máxima de Shannon

Shannon formuló una versión del principio de Kerckhoffs como "El enemigo conoce el sistema". En esta forma se lo conoce como "máxima de Shannon".

Conmemoraciones

Centenario de Shannon

Centenario de Claude Shannon

El centenario de Shannon, 2016, marcó la vida e influencia de Claude Elwood Shannon en el centenario de su nacimiento el 30 de abril de 1916. Se inspiró en parte en el Año de Alan Turing . Un comité ad hoc de la IEEE Information Theory Society, que incluía a Christina Fragouli , Rüdiger Urbanke, Michelle Effros , Lav Varshney y Sergio Verdú , [99] coordinó eventos mundiales. La iniciativa se anunció en el Panel de Historia en el Taller de Teoría de la Información IEEE de 2015 en Jerusalén [100] [101] y en el boletín de la IEEE Information Theory Society. [102]

Una lista detallada de eventos confirmados estaba disponible en el sitio web de la IEEE Information Theory Society. [103]

Algunas de las actividades incluidas:

Lista de premios y honores

El premio Claude E. Shannon se creó en su honor y él fue también el primer galardonado en recibirlo, en 1973. [111] [112]

Obras seleccionadas

Véase también

Referencias

  1. ^ ab Roberts, Siobhan (30 de abril de 2016). "El padre olvidado de la era de la información". The New Yorker . ISSN  0028-792X . Consultado el 28 de septiembre de 2023 .
  2. ^ "Claude Shannon: padre de la era de la información". Ingeniería eléctrica y de computadoras . 18 de marzo de 2019. Consultado el 4 de junio de 2024 .
  3. ^ ab Slater, Robert (1989). Retratos en silicio. Cambridge, Mass.: MIT Pr. págs. 37-38. ISBN 978-0-262-69131-4.
  4. ^ abc James, Ioan (2009). "Claude Elwood Shannon 30 de abril de 1916 – 24 de febrero de 2001". Memorias biográficas de miembros de la Royal Society . 55 : 257–265. doi :10.1098/rsbm.2009.0015.
  5. ^ ab Horgan, John (27 de abril de 2016). «Claude Shannon: Tinkerer, Prankster, and Father of Information Theory». IEEE . Consultado el 28 de septiembre de 2023 .
  6. ^ abc Tse, David (22 de diciembre de 2020). «Cómo Claude Shannon inventó el futuro». Quanta Magazine . Consultado el 28 de septiembre de 2023 .
  7. ^ ab Atmar, Wirt (2001). "Un patrón profundamente repetido". Boletín de la Sociedad Ecológica de América . 82 (3): 208–211. ISSN  0012-9623. JSTOR  20168572.
  8. ^ Nahin, Paul J. (2012). El lógico y el ingeniero: cómo George Boole y Claude Shannon crearon la era de la información. Princeton University Press. ISBN 978-0691176000.JSTOR j.cttq957s  .
  9. ^ ab Goodman, Jimmy Soni y Rob (30 de julio de 2017). «Claude Shannon: el poeta malabarista que nos dio la era de la información». The Daily Beast . Consultado el 31 de octubre de 2023 .
  10. ^ ab Poundstone, William (2005). La fórmula de la fortuna: la historia no contada del sistema científico de apuestas que venció a los casinos y a Wall Street . Hill & Wang. pág. 20. ISBN 978-0-8090-4599-0.
  11. ^ Chow, Rony (5 de junio de 2021). «Claude Shannon: el padre de la teoría de la información». Historia de la ciencia de datos . Consultado el 11 de enero de 2024 .
  12. ^ Gardner, Howard (1985). La nueva ciencia de la mente: una historia de la revolución cognitiva . Basic Books. pág. 144. ISBN. 978-0-465-04635-5.
  13. ^ Goldstine, Herman H. (1972). La computadora desde Pascal hasta von Neumann (PDF) . Princeton, NJ: Princeton University Press. pp. 119–120. ISBN 978-0-691-08104-5.
  14. ^ Vignes, Alain (2023). Silicio, de la arena a los chips, 1: Componentes microelectrónicos. Hoboken: ISTE Ltd / John Wiley and Sons Inc. pp. xv. ISBN 978-1-78630-921-1.
  15. ^ Rioul, Olivier (2021), Duplantier, Bertrand; Rivasseau, Vincent (eds.), "Esto es TI: Una introducción a la entropía y la información de Shannon", Teoría de la información: Seminario Poincaré 2018 , Progress in Mathematical Physics, vol. 78, Cham: Springer International Publishing, págs. 49–86, doi :10.1007/978-3-030-81480-9_2, ISBN 978-3-030-81480-9, consultado el 28 de julio de 2024
  16. ^ ab "Claude E. Shannon | IEEE Information Theory Society". www.itsoc.org . Consultado el 31 de octubre de 2023 .
  17. ^ abc Gallager, Robert G. (2001). "Claude E. Shannon: Una retrospectiva sobre su vida, obra e impacto" (PDF) . IEEE Transactions on Information Theory . 47 (7): 2681–2695. doi :10.1109/18.959253.
  18. ^ Shimeall, Timothy J.; Spring, Jonathan M. (2013). Introducción a la seguridad de la información: un enfoque basado en la estrategia. Syngress. pág. 167. ISBN 978-1597499699.
  19. ^ ab Koç, Çetin Kaya; Özdemir, Funda (2023). "Desarrollo de la criptografía desde Shannon" (PDF) . Manual de análisis formal y verificación en criptografía : 1–56. doi :10.1201/9781003090052-1. ISBN 978-1-003-09005-2.
  20. ^ Bruen, Aiden A.; Forcinito, Mario (2005). Criptografía, teoría de la información y corrección de errores: un manual para el siglo XXI. Hoboken, NJ: Wiley-Interscience. p. 3. ISBN 978-0-471-65317-2.OCLC 56191935  .
  21. ^ abc Poundstone, William (2005). La fórmula de la fortuna: la historia no contada del sistema científico de apuestas que venció a los casinos y a Wall Street. Hill & Wang. págs. 15-16. ISBN 978-0-8090-4599-0.
  22. ^ Goodman, Rob; Soni, Jimmy (2018). "Genio en formación". Asociación de Antiguos Alumnos de la Universidad de Michigan . Consultado el 31 de octubre de 2023 .
  23. ^ ab Guizzo, Erico Marui (2003). El mensaje esencial: Claude Shannon y la creación de la teoría de la información (tesis de maestría). Universidad de Sao Paulo. hdl :1721.1/39429 . Consultado el 11 de enero de 2024 .
  24. ^ "Claude Shannon: padre reacio de la era digital". MIT Technology Review . 1 de julio de 2001 . Consultado el 26 de junio de 2024 .
  25. ^ Chang, Mark (2014). Principios de los métodos científicos. Boca Raton: CRC Press, Taylor & Francis Group. pág. 217. ISBN 978-1-4822-3809-9.
  26. ^ Jha, Alok (30 de abril de 2016). «Sin la teoría de la información de Claude Shannon no habría existido Internet». The Guardian . Consultado el 21 de julio de 2024 .
  27. ^ ab Apter, Michael J. (2018). La simulación informática del comportamiento. Routledge Library Editions: Inteligencia artificial. Londres Nueva York: Routledge Taylor & Francis Group. p. 123. ISBN 978-0-8153-8566-0.
  28. ^ ab Lowood, Henry; Guins, Raiford, eds. (3 de junio de 2016). Debugging Game History: A Critical Lexicon. The MIT Press. págs. 31–32. doi :10.7551/mitpress/10087.001.0001. ISBN 978-0-262-33194-4.
  29. ^ ab Brooks, Rodney (25 de enero de 2022). "Cómo Claude Shannon ayudó a impulsar el aprendizaje automático". ieeespectrum . Consultado el 31 de octubre de 2023 .
  30. ^ abc Klein, Daniel (2019). Dragoon, aLICE (ed.). "Mighty mouse". MIT News (enero/febrero). Cambridge, Massachusetts: MIT Technology Review: 6–7.
  31. ^ McCarthy, John; Minsky, Marvin L.; Rochester, Nathaniel; Shannon, Claude E. (15 de diciembre de 2006). "Una propuesta para el Proyecto de investigación de verano de Dartmouth sobre inteligencia artificial, 31 de agosto de 1955". AI Magazine . 27 (4): 12. doi :10.1609/aimag.v27i4.1904. ISSN  2371-9621.
  32. ^ Solomonoff, Grace (6 de mayo de 2023). "El encuentro de las mentes que lanzaron la IA". ieeespectrum . Consultado el 19 de junio de 2024 .
  33. ^ Effros, Michelle; Poor, H. Vincent (2017). "Claude Shannon: su obra y su legado". Boletín EMS . 2017–3 (103): 29–34. doi : 10.4171/NEWS/103/5 . ISSN  1027-488X.
  34. ^ Goodman, Rob (20 de julio de 2017). "Claude Shannon fue un genio a la altura de Einstein y Turing. ¿Por qué no es tan famoso?". Forbes . Consultado el 31 de octubre de 2023 .
  35. ^ Rutledge, Tom (16 de agosto de 2017). "El hombre que inventó la teoría de la información". Boston Review . Consultado el 31 de octubre de 2023 .
  36. ^ Sloane y Wyner (1993), pág. xi.
  37. ^ Soni, J.; Goodman, R. (2017). Una mente en acción: cómo Claude Shannon inventó la era de la información. Simon & Schuster. pág. 6. ISBN 978-1-4767-6668-3. Recuperado el 2 de mayo de 2023 .
  38. ^ Gleick, James (30 de diciembre de 2001). "LAS VIDAS QUE VIVIERON: CLAUDE SHANNON, N. 1916; actor secundario". The New York Times Magazine : Sección 6, página 48.
  39. ^ abc "Muere el profesor del MIT Claude Shannon, fundador de las comunicaciones digitales". Oficina de noticias del MIT . Cambridge, Massachusetts. 27 de febrero de 2001.
  40. ^ Sloane, NJA; Wyner, Aaron D., eds. (1993). Claude Elwood Shannon: Documentos recopilados. Wiley / IEEE Press . ISBN 978-0-7803-0434-5. Recuperado el 9 de diciembre de 2016 .
  41. ^ Price, Robert (1982). "Claude E. Shannon, una historia oral". IEEE Global History Network . IEEE . Consultado el 14 de julio de 2011 .
  42. ^ ab Shannon, CE (1938). "Un análisis simbólico de circuitos de conmutación y relés". Trans. AIEE . 57 (12): 713–723. doi :10.1109/T-AIEE.1938.5057767. hdl : 1721.1/11173 . S2CID  51638483.
  43. ^ Shannon, CE (1938). "Un análisis simbólico de circuitos de conmutación y relés". Trans. AIEE . 57 (12): 713–723. doi :10.1109/T-AIEE.1938.5057767. hdl : 1721.1/11173 . S2CID  51638483.
  44. ^ Gardner, Howard (1987). La nueva ciencia de la mente: una historia de la revolución cognitiva. Basic Books. pág. 144. ISBN 978-0-465-04635-5.
  45. ^ Guizzo, Erico Marui (2003). El mensaje esencial: Claude Shannon y la creación de la teoría de la información (PDF) (tesis de maestría). Instituto Tecnológico de Massachusetts. p. 12. Consultado el 29 de julio de 2024 .
  46. ^ Shannon, Claude Elwood (1940). Un álgebra para la genética teórica (tesis). Instituto Tecnológico de Massachusetts. hdl :1721.1/11174.— Contiene una biografía en las págs. 64-65.
  47. ^ Chalub, Fabio ACC; Souza, Max O. (1 de diciembre de 2017). "Sobre la evolución estocástica de poblaciones finitas". Revista de biología matemática . 75 (6): 1735–1774. doi :10.1007/s00285-017-1135-4. ISSN  1432-1416. PMID  28493042.
  48. ^ Hanus, Pavol; Goebel, Bernhard; Dingel, Janis; Weindl, Johanna; Zech, Juergen; Dawy, Zaher; Hagenauer, Joachim; Mueller, Jakob C. (27 de noviembre de 2007). "Teoría de la información y la comunicación en biología molecular". Ingeniería eléctrica . 90 (2): 161–173. doi :10.1007/s00202-007-0062-6. ISSN  0948-7921.
  49. ^ Pachter, Lior (6 de noviembre de 2013). «Claude Shannon, genetista de poblaciones». Bits of DNA . Consultado el 29 de julio de 2024 .
  50. ^ Guizzo, Erico Marui (2003). El mensaje esencial: Claude Shannon y la creación de la teoría de la información (Tesis). Instituto Tecnológico de Massachusetts. hdl :1721.1/39429.
  51. ^ Gertner, Jon (2013). La fábrica de ideas: Bell Labs y la gran era de la innovación estadounidense . Londres: Penguin Books. p. 118. ISBN 978-0-14-312279-1.
  52. ^ Okrent, Howard; McNamee, Lawrence P. (1970). "3. 3 Flowgraph Theory" (PDF) . Manual del usuario y del programador de NASAP-70. Los Ángeles, California: Facultad de Ingeniería y Ciencias Aplicadas, Universidad de California en Los Ángeles. págs. 3–9 . Consultado el 4 de marzo de 2016 .
  53. ^ ab Hodges, Andrew (1992), Alan Turing: El enigma , Londres: Vintage , págs. 243-252, ISBN 978-0-09-911641-7
  54. ^ Turing, AM (1936), "Sobre números computables, con una aplicación al problema de Entscheidung", Actas de la London Mathematical Society , 2, vol. 42 (publicado en 1937), págs. 230–65, doi :10.1112/plms/s2-42.1.230, S2CID  73712
  55. ^ Turing, AM (1938), "Sobre números computables, con una aplicación al problema de Entscheidung: una corrección", Actas de la London Mathematical Society , 2, vol. 43, núm. 6 (publicado en 1937), pp. 544–6, doi :10.1112/plms/s2-43.6.544
  56. ^ Mindell, David A. (15 de octubre de 2004). Entre humanos y máquinas: retroalimentación, control y computación antes de la cibernética . JHU Press. págs. 319–320. ISBN 0801880572.
  57. ^ Kahn, David (1966). Los descifradores de códigos: La historia completa de la comunicación secreta desde la antigüedad hasta Internet . Macmillan and Sons. págs. 743–751. ISBN. 0684831309.
  58. ^ citado en Kahn, The Codebreakers , pág. 744.
  59. ^ Citado en Erico Marui Guizzo, "The Essential Message: Claude Shannon and the Making of Information Theory", archivado el 28 de mayo de 2008 en Wayback Machine , tesis de maestría inédita, Massachusetts Institute of Technology, 2003, pág. 21.
  60. ^ Shannon, CE (1949). "Teoría de la comunicación de los sistemas secretos". Bell System Technical Journal . 28 (4): 656–715. doi :10.1002/j.1538-7305.1949.tb00928.x.
  61. ^ abc Shannon, Claude Elwood (1998). La teoría matemática de la comunicación. Warren Weaver. Urbana: University of Illinois Press. ISBN 0-252-72546-8.OCLC 40716662  .
  62. ^ Stanković, Raromir S.; Astola, Jaakko T.; Karpovsky, Mark G. (septiembre de 2006). Algunas observaciones históricas sobre el teorema de muestreo (PDF) . Actas del taller internacional TICSP de 2006 sobre métodos espectrales y procesamiento de señales multifrecuencia.
  63. ^ Cordeschi, Roberto (25 de abril de 2007). "AI Turns Fifty: Revisiting ITS Origins". Inteligencia artificial aplicada . 21 (4–5): 259–279. doi :10.1080/08839510701252304. ISSN  0883-9514.
  64. ^ McCarthy, John; Minsky, Marvin L.; Rochester, Nathaniel; Shannon, Claude E. (15 de diciembre de 2006). "Una propuesta para el Proyecto de investigación de verano de Dartmouth sobre inteligencia artificial, 31 de agosto de 1955". AI Magazine . 27 (4): 12. doi :10.1609/aimag.v27i4.1904. ISSN  2371-9621.
  65. ^ Solomonoff, Grace (6 de mayo de 2023). "El encuentro de las mentes que lanzaron la IA". ieeespectrum . Consultado el 19 de junio de 2024 .
  66. ^ ab Weisstein, Eric. "Shannon, Claude Elwood (1916–2001)". Mundo de biografías científicas . Wolfram Research .
  67. ^ "Claude Shannon – teoría de la informática". www.thocp.net . Proyecto Historia de la Computación . Consultado el 9 de diciembre de 2016 .
  68. ^ "Personas: Shannon, Claude Elwood". Museo del MIT . Consultado el 9 de diciembre de 2016 .
  69. ^ Boehm, George AW (1 de marzo de 1953). "GYPSY, MODEL VI, CLAUDE SHANNON, NIMWIT Y EL RATÓN". Computers and Automation 1953-03: Vol 2 Iss 2. Internet Archive. Berkeley Enterprises. págs. 1–4.
  70. ^ Anuncio: Minivac 601. Octubre de 1961. p. 33.
  71. ^ Thorp, Edward (octubre de 1998). "La invención del primer ordenador portátil". Compendio de artículos. Segundo simposio internacional sobre ordenadores portátiles (n.º de cat. 98EX215) . págs. 4-8. doi :10.1109/iswc.1998.729523. ISBN 0-8186-9074-7. Número de identificación del sujeto  1526.
  72. ^ Jimmy Soni ; Rob Goodman (2017). Una mente en acción: cómo Claude Shannon inventó la era de la información . Simon and Schuster. págs. 63, 80.
  73. ^ "Betty Shannon, genio matemática no reconocida". Red de blogs de Scientific American . Consultado el 26 de julio de 2017 .
  74. ^ Horgan, John (27 de abril de 2016). «Claude Shannon: Tinkerer, Prankster, and Father of Information Theory» (Claude Shannon: inventor, bromista y padre de la teoría de la información). IEEE Spectrum . Consultado el 19 de junio de 2020 .
  75. ^ William Poundstone (2010). La fórmula de la fortuna: la historia no contada del sistema científico de apuestas . Macmillan. pág. 18. ISBN. 978-0-374-70708-8Shannon se describía a sí mismo como ateo y era abiertamente apolítico.
  76. ^ "Dedicatorias de estatuas de Claude Shannon". Archivado desde el original el 31 de julio de 2010.
  77. ^ "Atracciones en la carretera de Michigan: Parque Claude Shannon, Gaylord". Travel the Mitten . TravelTheMitten.com. 11 de agosto de 2018 . Consultado el 8 de septiembre de 2022 . Gaylord, Michigan, alberga un pequeño parque en honor a Claude Shannon…
  78. ^ Shannon, CE (1948). "Una teoría matemática de la comunicación". Bell System Technical Journal . 27 (3): 379–423, 623–656. doi :10.1002/j.1538-7305.1948.tb01338.x.
  79. ^ Coughlin, Kevin (27 de febrero de 2001). "El gurú digital de Bell Labs murió a los 84 años. Un científico pionero lideró la revolución de la alta tecnología". The Star-Ledger .
  80. ^ "Gwei". Investopedia .
  81. ^ "Claude Shannon". The Telegraph . 12 de marzo de 2001 . Consultado el 11 de enero de 2024 .
  82. ^ Calderbank, Robert; Sloane, Neil JA (12 de abril de 2001). "Claude Shannon (1916–2001)". Nature . 410 (6830): 768. doi :10.1038/35071223. ISSN  1476-4687. PMID  11298432.
  83. ^ Collins, Graham P. (14 de octubre de 2002). «Claude E. Shannon: fundador de la teoría de la información». Scientific American . Consultado el 11 de enero de 2024 .
  84. ^ George Dyson (21 de julio de 2017). «La elegancia de los unos y los ceros». Wall Street Journal . Consultado el 15 de agosto de 2017 .
  85. ^ Soni, Jimmy; Goodman, Rob (1 de agosto de 2017). «10.000 horas con Claude Shannon: cómo piensa, trabaja y vive un genio». Observer . Consultado el 31 de octubre de 2023 .
  86. ^ Centenario del cumpleaños de Claude Shannon, Google, 2016
  87. ^ Katie Reilly (30 de abril de 2016). "Google Doodle rinde homenaje al matemático y malabarista Claude Shannon". Time .
  88. ^ Menchie Mendoza (2 de mayo de 2016). "Google Doodle celebra el centenario del nacimiento de Claude Shannon, padre de la teoría de la información". Tech Times.
  89. ^ "Google Doodle conmemora al 'padre de la teoría de la información' Claude Shannon en su centenario". Firstpost . 3 de mayo de 2016.
  90. ^ Jonathan Gibbs (29 de abril de 2016). "Claude Shannon: Tres cosas que desearías tener y que el matemático inventó". The Independent .
  91. ^ David Z. Morris (30 de abril de 2016). "Google celebra el centenario del nacimiento de Claude Shannon, el inventor del bit". Fortune .
  92. ^ Feder, Toni (19 de julio de 2019). «Reseña: The Bit Player, un homenaje a Claude Shannon». Physics Today (7): 5159. Bibcode :2019PhT..2019g5159F. doi :10.1063/PT.6.3.20190719a. S2CID  243548904 . Consultado el 3 de agosto de 2019 .
  93. ^ abcd "Bell Labs avanza en redes inteligentes". Archivado desde el original el 22 de julio de 2012.
  94. ^ ab Claude Shannon (1950). «Programación de una computadora para jugar al ajedrez» (PDF) . Philosophical Magazine . 41 (314). Archivado desde el original (PDF) el 6 de julio de 2010. Consultado el 2 de enero de 2018 .
  95. ^ Grime, James (24 de julio de 2015). ¿Cuántas partidas de ajedrez son posibles?. Numberphile.
  96. ^ "Los primeros programas de ajedrez por computadora de Bill Wall". billwall.phpwebhosting.com .
  97. ^ Shannon, Claude E. (1950). "Una máquina de jugar al ajedrez". Scientific American . 182 (2): 48–51. Código Bibliográfico :1950SciAm.182b..48S. doi :10.1038/scientificamerican0250-48. ISSN  0036-8733. JSTOR  24967381. PMID  15402252.
  98. ^ Hamid Reza Ekbia (2008), Sueños artificiales: la búsqueda de inteligencia no biológica , Cambridge University Press, pág. 46, ISBN 978-0-521-87867-8
  99. ^ "Newsletter". IEEE Information Theory Society . IEEE . Junio ​​de 2015. Archivado desde el original el 9 de julio de 2015.
  100. ^ "Videos". Israel: Technion . Archivado desde el original el 6 de julio de 2015. Consultado el 5 de julio de 2015 .
  101. ^ "Sergio Verdú". Twitter .
  102. ^ "Newsletter". IEEE Information Theory Society . IEEE. Septiembre de 2014. Archivado desde el original el 4 de septiembre de 2015.
  103. ^ "Centenario de Shannon". Sociedad de teoría de la información del IEEE . IEEE.
  104. ^ "Sellos postales 2016". А.Д. Correo electrónico de Severna Macedonia . posta.com.mk . Consultado el 26 de julio de 2024 .
  105. ^ "Sello postal estadounidense del centenario de Shannon — Information Theory Society". www.itsoc.org .
  106. ^ "Celebrando la obra y la vida de Claude Elwood Shannon". Fundación IEEE . Archivado desde el original el 3 de agosto de 2019. Consultado el 3 de agosto de 2019 .
  107. ^ "George Boole 200-Conferencias". Archivado desde el original el 6 de septiembre de 2015 . Consultado el 21 de septiembre de 2015 .
  108. ^ "Calcular y comunicar | Una celebración de Boole/Shannon".
  109. ^ "Logotipo del centenario de Claude Shannon, un proyecto de logotipo e identidad de cfrag1". www.crowdspring.com .
  110. ^ "Salvando las apariencias: trucos de información para el amor y la vida (Presentación de Encuentros matemáticos en el Museo Nacional de Matemáticas).
  111. ^ "Claude E. Shannon". www.itsoc.org . Consultado el 13 de septiembre de 2024 .
  112. ^ Roberts, Siobhan (30 de abril de 2016). «Claude Shannon, el padre de la era de la información, cumple 1100 años». The New Yorker . Consultado el 30 de abril de 2016 .
  113. ^ "Claude Elwood Shannon". Instituto Franklin . 11 de enero de 2014.
  114. ^ "Claude Elwood Shannon". 9 de febrero de 2023.
  115. ^ "Premio Harvey". Technion — Instituto Tecnológico de Israel . Haifa, Israel.
  116. ^ "Premio Alfred Noble de la Sociedad Estadounidense de Ingenieros Civiles". Sociedad Estadounidense de Ingenieros Civiles . Consultado el 27 de abril de 2020 .
  117. ^ "Medalla Nacional de Ciencias del Presidente: detalles del destinatario | NSF – Fundación Nacional de Ciencias". www.nsf.gov .
  118. ^ "Claude Elwood Shannon | Premio Kioto".京都賞.
  119. ^ "Ganadores del premio en memoria de IEEE Morris N. Liebmann" (PDF) . IEEE . Archivado desde el original (PDF) el 3 de marzo de 2016 . Consultado el 27 de febrero de 2011 .
  120. ^ "Claude Shannon". Academia Nacional de Ciencias . 2 de julio de 2015. Consultado el 25 de marzo de 2019 .
  121. ^ "Destinatarios de la Medalla de Honor del IEEE" (PDF) . IEEE . Archivado desde el original (PDF) el 22 de abril de 2015 . Consultado el 27 de febrero de 2011 .
  122. ^ "Premiados con la Placa de Oro de la Academia Estadounidense de Logros". www.achievement.org . Academia Estadounidense de Logros .
  123. ^ "CE Shannon (1916–2001)". Real Academia de las Artes y las Ciencias de los Países Bajos . Consultado el 17 de julio de 2015 .
  124. ^ "Historia de los miembros de APS".
  125. ^ "Ganadores de premios (cronológico)". Fundación Eduard Rhein . Archivado desde el original el 18 de julio de 2011. Consultado el 20 de febrero de 2011 .
  126. ^ "Premio Marconi a la trayectoria". marconisociety.org .
  127. ^ Staff (27 de febrero de 2001). «Muere el profesor del MIT Claude Shannon, fundador de las comunicaciones digitales». MIT News . Consultado el 4 de abril de 2023 .

Lectura adicional

Enlaces externos