En la Universidad de Michigan , Shannon obtuvo una doble titulación , graduándose con una Licenciatura en Ciencias tanto en ingeniería eléctrica como en matemáticas en 1936. A los 21 años, era un estudiante de maestría en el Instituto Tecnológico de Massachusetts (MIT) en ingeniería eléctrica, su tesis se centró en la teoría de circuitos de conmutación , demostrando que las aplicaciones eléctricas del álgebra de Boole podían construir cualquier relación numérica lógica, [10] estableciendo así la teoría detrás de la computación digital y los circuitos digitales . [11] Se ha afirmado que la tesis es la tesis de maestría más importante de todos los tiempos, [10] ya que en 1985, Howard Gardner la describió como "posiblemente la tesis de maestría más importante, y también la más famosa, del siglo", [12] mientras que Herman Goldstine la describió como "seguramente ... una de las tesis de maestría más importantes jamás escritas ... Ayudó a cambiar el diseño de circuitos digitales de un arte a una ciencia". [13] También se le ha llamado el "certificado de nacimiento de la revolución digital ", [14] y ganó el Premio Alfred Noble en 1939. [ 15] Shannon luego se graduó con un doctorado en matemáticas del MIT en 1940, [16] con su tesis centrada en la genética , con la que derivó resultados importantes, pero no se publicó. [17]
Shannon contribuyó al campo del criptoanálisis para la defensa nacional de los Estados Unidos durante la Segunda Guerra Mundial , incluido su trabajo fundamental sobre descifrado de códigos y telecomunicaciones seguras , escribiendo un artículo que se considera una de las piezas fundamentales de la criptografía moderna, [18] con su trabajo descrito como "un punto de inflexión, y marcó el cierre de la criptografía clásica y el comienzo de la criptografía moderna". [19] El trabajo de Shannon es la base de la criptografía de clave secreta , incluido el trabajo de Horst Feistel , el Estándar de cifrado de datos (DES) , el Estándar de cifrado avanzado (AES) y más. [19] Como resultado, Shannon ha sido llamado el "padre fundador de la criptografía moderna". [20]
Su teoría matemática de la comunicación sentó las bases para el campo de la teoría de la información, [21] [16] con su famoso artículo llamado la " Carta Magna de la Era de la Información" por Scientific American , [9] [22] junto con su trabajo siendo descrito como "el corazón de la tecnología de la información digital actual ". [23] Robert G. Gallager se refirió al artículo como un "plan para la era digital". [24] Con respecto a la influencia que Shannon tuvo en la era digital, Solomon W. Golomb comentó "Es como decir cuánta influencia ha tenido el inventor del alfabeto en la literatura". [21] La teoría de Shannon es ampliamente utilizada y ha sido fundamental para el éxito de muchos esfuerzos científicos, como la invención del disco compacto , el desarrollo de Internet , la viabilidad de los teléfonos móviles, la comprensión de los agujeros negros y más, y está en la intersección de numerosos campos importantes. [25] [26] Shannon también introdujo formalmente el término " bit ". [27] [6]
Shannon hizo numerosas contribuciones al campo de la inteligencia artificial, [3] escribiendo artículos sobre la programación de una computadora para ajedrez, que han sido inmensamente influyentes, [28] [29] y también su máquina de Teseo fue el primer dispositivo eléctrico en aprender por ensayo y error, siendo uno de los primeros ejemplos de inteligencia artificial. [30] [31] También coorganizó y participó en el taller de Dartmouth de 1956, considerado el evento fundador del campo de la inteligencia artificial. [32] [33] También hizo contribuciones a múltiples otros campos, como la teoría de la detección y la combinatoria . [34]
Rodney Brooks declaró que Shannon fue el ingeniero del siglo XX que más contribuyó a las tecnologías del siglo XXI. [30] Los logros de Shannon se consideran a la par de los de Albert Einstein , Sir Isaac Newton y Charles Darwin . [7] [21] [5] [35] [36]
Biografía
Infancia
La familia Shannon vivía en Gaylord, Michigan , y Claude nació en un hospital en las cercanías de Petoskey . [4] Su padre, Claude Sr. (1862-1934), era un hombre de negocios y, durante un tiempo, juez de sucesiones en Gaylord. Su madre, Mabel Wolf Shannon (1880-1945), era profesora de idiomas, que también se desempeñó como directora de la escuela secundaria de Gaylord . [37] Claude Sr. era descendiente de colonos de Nueva Jersey , mientras que Mabel era hija de inmigrantes alemanes. [4] La familia de Shannon fue activa en su Iglesia Metodista durante su juventud. [38]
La mayor parte de los primeros 16 años de su vida transcurrieron en Gaylord, donde asistió a la escuela pública y se graduó de la Gaylord High School en 1932. Shannon mostró una inclinación hacia las cosas mecánicas y eléctricas. Sus mejores materias eran ciencias y matemáticas. En casa, construyó dispositivos como modelos de aviones, un modelo de barco controlado por radio y un sistema de telégrafo con alambre de púas para la casa de un amigo a media milla de distancia. [39] Mientras crecía, también trabajó como mensajero para la compañía Western Union .
El héroe de la infancia de Shannon fue Thomas Edison , de quien más tarde se enteró que era un primo lejano. Tanto Shannon como Edison eran descendientes de John Ogden (1609-1682), un líder colonial y antepasado de muchas personas distinguidas. [40] [41]
El uso de interruptores eléctricos para implementar la lógica es el concepto fundamental que subyace a todas las computadoras digitales electrónicas . El trabajo de Shannon se convirtió en la base del diseño de circuitos digitales , ya que se hizo ampliamente conocido en la comunidad de ingeniería eléctrica durante y después de la Segunda Guerra Mundial . El rigor teórico del trabajo de Shannon reemplazó los métodos ad hoc que habían prevalecido anteriormente. Howard Gardner elogió la tesis de Shannon como "posiblemente la tesis de maestría más importante, y también la más destacada, del siglo". [45] Uno de los revisores de su trabajo comentó que "hasta donde yo sé, esta es la primera aplicación de los métodos de lógica simbólica a un problema de ingeniería tan práctico. Desde el punto de vista de la originalidad, califico el artículo como sobresaliente". [46] La tesis de maestría de Shannon ganó el Premio Alfred Noble de 1939 .
Shannon recibió su doctorado en matemáticas del MIT en 1940. [40] Vannevar Bush había sugerido que Shannon debería trabajar en su disertación en el Laboratorio Cold Spring Harbor , con el fin de desarrollar una formulación matemática para la genética mendeliana . Esta investigación dio como resultado la tesis doctoral de Shannon, llamada Un álgebra para la genética teórica . [47] Sin embargo, la tesis no se publicó después de que Shannon perdiera el interés, pero contenía resultados importantes. [17] Cabe destacar que fue uno de los primeros en aplicar un marco algebraico para estudiar la genética de poblaciones teórica. [48] Además, Shannon ideó una expresión general para la distribución de varios rasgos vinculados en una población después de múltiples generaciones bajo un sistema de apareamiento aleatorio, que era original en ese momento, [49] con el nuevo teorema sin resolver por otros genetistas de poblaciones de la época. [50]
En 1940, Shannon se convirtió en investigador nacional en el Instituto de Estudios Avanzados de Princeton, Nueva Jersey . En Princeton, Shannon tuvo la oportunidad de discutir sus ideas con científicos y matemáticos influyentes como Hermann Weyl y John von Neumann , y también tuvo encuentros ocasionales con Albert Einstein y Kurt Gödel . Shannon trabajó libremente en distintas disciplinas, y esta capacidad puede haber contribuido a su posterior desarrollo de la teoría de la información matemática. [51]
A Shannon se le atribuye la invención de los gráficos de flujo de señales , en 1942. Descubrió la fórmula de ganancia topológica mientras investigaba el funcionamiento funcional de una computadora analógica. [53]
Durante dos meses a principios de 1943, Shannon entró en contacto con el destacado matemático británico Alan Turing . Turing había sido destinado a Washington para compartir con el servicio criptoanalítico de la Armada de los Estados Unidos los métodos utilizados por la Escuela de Códigos y Cifras del Gobierno británico en Bletchley Park para descifrar los códigos utilizados por los submarinos de la Kriegsmarine en el océano Atlántico norte . [54] También estaba interesado en el cifrado del habla y con este fin pasó un tiempo en Bell Labs. Shannon y Turing se conocieron a la hora del té en la cafetería. [54] Turing le mostró a Shannon su artículo de 1936 que definía lo que ahora se conoce como la " máquina universal de Turing ". [55] [56] Esto impresionó a Shannon, ya que muchas de sus ideas complementaban las suyas.
En 1945, cuando la guerra estaba llegando a su fin, la NDRC estaba publicando un resumen de informes técnicos como último paso antes de su eventual cierre. Dentro del volumen sobre control de fuego, un ensayo especial titulado Data Smoothing and Prediction in Fire-Control Systems , coescrito por Shannon, Ralph Beebe Blackman y Hendrik Wade Bode , trató formalmente el problema de suavizar los datos en el control de fuego por analogía con "el problema de separar una señal del ruido interferente en los sistemas de comunicaciones". [57] En otras palabras, modeló el problema en términos de procesamiento de datos y señales y, por lo tanto, anunció la llegada de la Era de la Información .
El trabajo de Shannon sobre criptografía estaba aún más relacionado con sus publicaciones posteriores sobre teoría de la comunicación . [58] Al final de la guerra, preparó un memorando clasificado para Bell Telephone Labs titulado "Una teoría matemática de la criptografía", fechado en septiembre de 1945. Una versión desclasificada de este documento se publicó en 1949 como " Teoría de la comunicación de los sistemas secretos " en el Bell System Technical Journal . Este documento incorporaba muchos de los conceptos y formulaciones matemáticas que también aparecieron en su Una teoría matemática de la comunicación . Shannon dijo que sus ideas de guerra sobre la teoría de la comunicación y la criptografía se desarrollaron simultáneamente, y que "estaban tan juntas que no se podían separar". [59] En una nota al pie cerca del comienzo del informe clasificado, Shannon anunció su intención de "desarrollar estos resultados... en un próximo memorando sobre la transmisión de información". [60]
Mientras estaba en Bell Labs, Shannon demostró que el block criptográfico de un solo uso es irrompible en su investigación clasificada que fue publicada más tarde en 1949. El mismo artículo también demostró que cualquier sistema irrompible debe tener esencialmente las mismas características que el block criptográfico de un solo uso: la clave debe ser verdaderamente aleatoria, tan grande como el texto sin formato, nunca reutilizada en su totalidad o en parte, y mantenida en secreto. [61]
Teoría de la información
En 1948, el memorándum prometido apareció como "Una teoría matemática de la comunicación", un artículo en dos partes en los números de julio y octubre del Bell System Technical Journal . Este trabajo se centra en el problema de cómo codificar mejor el mensaje que un emisor quiere transmitir. Shannon desarrolló la entropía de la información como una medida del contenido de información en un mensaje, que es una medida de la incertidumbre reducida por el mensaje. Al hacerlo, inventó esencialmente el campo de la teoría de la información .
El libro The Mathematical Theory of Communication [62] reimprime el artículo de Shannon de 1948 y la popularización que hizo Warren Weaver de él, que es accesible para los no especialistas. Weaver señaló que la palabra "información" en la teoría de la comunicación no está relacionada con lo que uno dice, sino con lo que podría decir. Es decir, la información es una medida de la libertad de elección de uno cuando selecciona un mensaje. Los conceptos de Shannon también se popularizaron, sujetos a su propia corrección, en Symbols, Signals, and Noise de John Robinson Pierce .
La contribución fundamental de la teoría de la información al procesamiento del lenguaje natural y a la lingüística computacional se estableció aún más en 1951, en su artículo "Predicción y entropía del inglés impreso", que muestra los límites superior e inferior de la entropía en las estadísticas del inglés, lo que proporciona una base estadística para el análisis del lenguaje. Además, demostró que tratar el espacio como la 27.ª letra del alfabeto en realidad reduce la incertidumbre en el lenguaje escrito, lo que proporciona un vínculo cuantificable claro entre la práctica cultural y la cognición probabilística.
Otro artículo notable publicado en 1949 es " Teoría de la comunicación de los sistemas secretos ", una versión desclasificada de su trabajo de guerra sobre la teoría matemática de la criptografía, en la que demostró que todos los cifrados teóricamente irrompibles deben tener los mismos requisitos que el bloc de un solo uso. Se le atribuye la introducción del teorema de muestreo , que había derivado ya en 1940, [63] y que se ocupa de la representación de una señal de tiempo continuo a partir de un conjunto discreto (uniforme) de muestras. Esta teoría fue esencial para permitir que las telecomunicaciones pasaran de los sistemas de transmisión analógicos a los digitales en la década de 1960 y posteriormente.
Inteligencia artificial
En 1950, Shannon diseñó y construyó con la ayuda de su esposa una máquina de aprendizaje llamada Theseus. Consistía en un laberinto sobre una superficie, a través del cual podía moverse un ratón mecánico. Debajo de la superficie había sensores que seguían la trayectoria de un ratón mecánico a través del laberinto. Después de mucho ensayo y error, este dispositivo aprendería el camino más corto a través del laberinto y dirigiría al ratón mecánico a través del laberinto. El patrón del laberinto podía cambiarse a voluntad. [31]
Mazin Gilbert afirmó que Teseo “inspiró todo el campo de la IA. Este ensayo y error aleatorios son la base de la inteligencia artificial”. [31]
Shannon escribió varios artículos influyentes sobre inteligencia artificial, como su artículo de 1950 titulado "Programación de una computadora para jugar ajedrez" y su artículo de 1953 titulado "Computadoras y autómatas". [64]
En 1956, Shannon se incorporó al cuerpo docente del MIT, donde ocupó una cátedra. Trabajó en el Laboratorio de Investigación en Electrónica (RLE, por sus siglas en inglés) y continuó trabajando en el cuerpo docente del MIT hasta 1978.
Vida posterior
Shannon desarrolló la enfermedad de Alzheimer y pasó los últimos años de su vida en un asilo de ancianos ; murió en 2001, sobreviviendo su esposa, un hijo y una hija, y dos nietas. [67] [68]
Shannon también inventó las trompetas lanzallamas , los frisbees propulsados por cohetes y los zapatos de espuma plástica para navegar en un lago, y que para un observador, parecerían como si Shannon estuviera caminando sobre el agua. [71]
Shannon diseñó el Minivac 601 , un entrenador informático digital para enseñar a los empresarios cómo funcionaban las computadoras. Fue comercializado por la Scientific Development Corp a partir de 1961. [72]
También se le considera el co-inventor de la primera computadora portátil junto con Edward O. Thorp . [73] El dispositivo se utilizó para mejorar las probabilidades al jugar a la ruleta .
Vida personal
Shannon se casó con Norma Levor , una intelectual judía de izquierdas y adinerada, en enero de 1940. El matrimonio terminó en divorcio después de aproximadamente un año. Levor se casó más tarde con Ben Barzman . [74]
Shannon conoció a su segunda esposa, Mary Elizabeth Moore (Betty), cuando ella era analista numérica en Bell Labs. Se casaron en 1949. [67] Betty ayudó a Claude a construir algunos de sus inventos más famosos. [75] Tuvieron tres hijos. [76]
En junio de 1954, Shannon fue incluido en la lista de los 20 científicos más importantes de Estados Unidos por Fortune . [80]
Según Neil Sloane , un miembro de AT&T que coeditó la gran colección de artículos de Shannon en 1993, la perspectiva introducida por la teoría de la comunicación de Shannon (ahora llamada "teoría de la información") es la base de la revolución digital , y cada dispositivo que contiene un microprocesador o microcontrolador es un descendiente conceptual de la publicación de Shannon en 1948: [81] "Es uno de los grandes hombres del siglo. Sin él, ninguna de las cosas que conocemos hoy existiría. Toda la revolución digital comenzó con él". [82] La unidad de criptomoneda shannon (un sinónimo de gwei) lleva su nombre. [83]
Muchos consideran que Shannon fue el único que creó la teoría de la información y sentó las bases para la era digital . [84] [85] [17] [23] [86] [6]
En 2017 se publicó A Mind at Play , una biografía de Shannon escrita por Jimmy Soni y Rob Goodman. [87] Describieron a Shannon como "el genio más importante del que nunca has oído hablar, un hombre cuyo intelecto estaba a la par con Albert Einstein e Isaac Newton". [88] El consultor y escritor Tom Rutledge, escribiendo para Boston Review , afirmó que "De los pioneros de la informática que impulsaron la revolución de la tecnología de la información de mediados del siglo XX (un club de hombres de élite de ingenieros académicos que también ayudaron a descifrar códigos nazis y señalar trayectorias de misiles), Shannon puede haber sido el más brillante de todos ellos". [36]
El 30 de abril de 2016, Shannon fue homenajeado con un Doodle de Google para celebrar su vida en lo que habría sido su cumpleaños número 100. [89] [90] [91] [92] [93] [94]
The Bit Player , un largometraje sobre Shannon dirigido por Mark Levinson, se estrenó en el Festival Mundial de Ciencia en 2019. [95] Basada en entrevistas realizadas a Shannon en su casa en la década de 1980, la película se estrenó en Amazon Prime en agosto de 2020.
La teoría matemática de la comunicación
La contribución del tejedor
La teoría matemática de la comunicación de Shannon [62] comienza con una interpretación de su propio trabajo por parte de Warren Weaver . Aunque toda la obra de Shannon trata sobre la comunicación en sí, Warren Weaver comunicó sus ideas de tal manera que aquellos que no estaban acostumbrados a la teoría y las matemáticas complejas pudieran comprender las leyes fundamentales que él propuso. La combinación de sus habilidades comunicativas únicas y sus ideas generó el modelo de Shannon-Weaver , aunque los fundamentos matemáticos y teóricos emanan completamente del trabajo de Shannon después de la introducción de Weaver. Para el profano, la introducción de Weaver comunica mejor la teoría matemática de la comunicación [62] , pero la lógica, las matemáticas y la precisión expresiva posteriores de Shannon fueron responsables de definir el problema en sí.
Otros trabajos
El ratón de Shannon
"Teseo", creado en 1950, era un ratón mecánico controlado por un circuito de relé electromecánico que le permitía moverse por un laberinto de 25 casillas. [96] La configuración del laberinto era flexible y podía modificarse arbitrariamente reorganizando las particiones móviles. [96] El ratón estaba diseñado para buscar por los pasillos hasta encontrar el objetivo. Una vez que había recorrido el laberinto, el ratón podía ser colocado en cualquier lugar en el que hubiera estado antes y, debido a su experiencia previa, podía ir directamente al objetivo. Si se lo colocaba en un territorio desconocido, estaba programado para buscar hasta llegar a una ubicación conocida y luego procedería al objetivo, añadiendo el nuevo conocimiento a su memoria y aprendiendo un nuevo comportamiento. [96] El ratón de Shannon parece haber sido el primer dispositivo de aprendizaje artificial de su tipo. [96]
Estimación de Shannon sobre la complejidad del ajedrez
En 1949, Shannon completó un artículo (publicado en marzo de 1950) que estima la complejidad del árbol de juego del ajedrez , que es aproximadamente 10 120. Este número se conoce ahora a menudo como el " número de Shannon ", y todavía hoy se considera una estimación precisa de la complejidad del juego. El número se cita a menudo como una de las barreras para resolver el juego de ajedrez utilizando un análisis exhaustivo (es decir, análisis de fuerza bruta ). [97] [98]
El programa de ajedrez de Shannon
El 9 de marzo de 1949, Shannon presentó un artículo titulado "Programación de una computadora para jugar ajedrez". El artículo fue presentado en la Convención del Instituto Nacional de Ingenieros de Radio en Nueva York. Describió cómo programar una computadora para jugar ajedrez basándose en la puntuación de la posición y la selección de movimientos. Propuso estrategias básicas para restringir el número de posibilidades a considerar en una partida de ajedrez. En marzo de 1950 se publicó en Philosophical Magazine y se considera uno de los primeros artículos publicados sobre el tema de la programación de una computadora para jugar ajedrez y el uso de una computadora para resolver el juego. [97] [99] En 1950, Shannon escribió un artículo titulado "Una máquina para jugar ajedrez", [100] que fue publicado en Scientific American . Ambos artículos han tenido una inmensa influencia y sentaron las bases para futuros programas de ajedrez. [28] [29]
Su proceso para que la computadora decidiera qué movimiento hacer era un procedimiento minimax , basado en una función de evaluación de una posición de ajedrez dada. Shannon dio un ejemplo aproximado de una función de evaluación en la que el valor de la posición negra se restaba del de la posición blanca. El material se contaba de acuerdo con el valor relativo habitual de las piezas de ajedrez (1 punto para un peón, 3 puntos para un caballo o alfil, 5 puntos para una torre y 9 puntos para una reina). [101] Consideró algunos factores posicionales, restando ½ punto por cada peón doblado , peón atrasado y peón aislado ; se incorporó la movilidad agregando 0,1 punto por cada movimiento legal disponible.
La máxima de Shannon
Shannon formuló una versión del principio de Kerckhoffs como "El enemigo conoce el sistema". En esta forma se lo conoce como "máxima de Shannon".
Conmemoraciones
Centenario de Shannon
El centenario de Shannon, 2016, marcó la vida e influencia de Claude Elwood Shannon en el centenario de su nacimiento el 30 de abril de 1916. Se inspiró en parte en el Año de Alan Turing . Un comité ad hoc de la IEEE Information Theory Society, que incluía a Christina Fragouli , Rüdiger Urbanke, Michelle Effros , Lav Varshney y Sergio Verdú , [102] coordinó eventos mundiales. La iniciativa se anunció en el Panel de Historia en el Taller de Teoría de la Información IEEE de 2015 en Jerusalén [103] [104] y en el boletín de la IEEE Information Theory Society. [105]
Una lista detallada de eventos confirmados estaba disponible en el sitio web de la IEEE Information Theory Society. [106]
Algunas de las actividades incluyeron:
Bell Labs organizó la Primera Conferencia Shannon sobre el Futuro de la Era de la Información el 28 y 29 de abril de 2016 en Murray Hill, Nueva Jersey, para homenajear a Claude Shannon y el impacto continuo de su legado en la sociedad. El evento incluye discursos de apertura a cargo de eminencias globales y visionarios de la era de la información que explorarán el impacto de la teoría de la información en la sociedad y nuestro futuro digital, recuerdos informales y presentaciones técnicas destacadas sobre trabajos relacionados posteriores en otras áreas, como la bioinformática, los sistemas económicos y las redes sociales. También hay una competencia para estudiantes.
El 30 de abril de 2016, Bell Labs lanzó una exhibición web que narra la contratación de Shannon en Bell Labs (bajo un contrato de la NDRC con el gobierno de los EE. UU.), su trabajo posterior allí desde 1942 hasta 1957 y detalles del Departamento de Matemáticas. La exhibición también mostró biografías de colegas y gerentes durante su mandato, así como versiones originales de algunos de los memorandos técnicos que luego se hicieron conocidos en forma publicada.
La República de Macedonia emitió un sello conmemorativo. [107] Se está proponiendo un sello conmemorativo del USPS , con una petición activa. [108]
Un documental sobre Claude Shannon y sobre el impacto de la teoría de la información, The Bit Player , fue producido por Sergio Verdú y Mark Levinson . [109]
Una celebración transatlántica del bicentenario de George Boole y del centenario de Claude Shannon, organizada por la Universidad de Cork y el Instituto Tecnológico de Massachusetts. Un primer evento fue un taller en Cork, When Boole Meets Shannon, [110] y continuará con exhibiciones en el Museo de Ciencias de Boston y en el Museo del MIT . [111]
Muchas organizaciones de todo el mundo están celebrando eventos de conmemoración, entre ellas el Museo de Ciencias de Boston, el Museo Heinz-Nixdorf, el Instituto de Estudios Avanzados, la Universidad Técnica de Berlín, la Universidad del Sur de Australia (UniSA), la Unicamp (Universidade Estadual de Campinas), la Universidad de Toronto, la Universidad China de Hong Kong, la Universidad de El Cairo, Telecom ParisTech, la Universidad Técnica Nacional de Atenas, el Instituto Indio de Ciencias, el Instituto Indio de Tecnología de Bombay, el Instituto Indio de Tecnología de Kanpur , la Universidad Tecnológica de Nanyang de Singapur, la Universidad de Maryland, la Universidad de Illinois en Chicago, la École Polytechnique Federale de Lausanne, la Universidad Estatal de Pensilvania (Penn State), la Universidad de California en Los Ángeles, el Instituto Tecnológico de Massachusetts, la Universidad de Correos y Telecomunicaciones de Chongqing y la Universidad de Illinois en Urbana-Champaign.
El logotipo que aparece en esta página fue creado mediante colaboración colectiva en Crowdspring. [112]
La presentación de Math Encounters del 4 de mayo de 2016 en el Museo Nacional de Matemáticas de Nueva York, titulada Saving Face: Information Tricks for Love and Life (Salvando las apariencias: trucos de información para el amor y la vida) , se centró en el trabajo de Shannon en teoría de la información. Hay disponible una grabación en vídeo y otros materiales. [113]
Lista de premios y honores
El premio Claude E. Shannon se creó en su honor y él fue también el primer galardonado en recibirlo, en 1973. [114] [115]
^ ab Roberts, Siobhan (30 de abril de 2016). «El padre olvidado de la era de la información». The New Yorker . ISSN 0028-792X . Consultado el 28 de septiembre de 2023 .
^ "Claude Shannon: padre de la era de la información". Ingeniería eléctrica y de computadoras . 18 de marzo de 2019. Consultado el 4 de junio de 2024 .
^ ab Slater, Robert (1989). Retratos en Silicio. Cambridge, Massachusetts: MIT Pr. págs. 37–38. ISBN978-0-262-69131-4.
^ ab Horgan, John (27 de abril de 2016). «Claude Shannon: Tinkerer, Prankster, and Father of Information Theory». IEEE . Consultado el 28 de septiembre de 2023 .
^ abcd Tse, David (22 de diciembre de 2020). «Cómo Claude Shannon inventó el futuro». Quanta Magazine . Consultado el 28 de septiembre de 2023 .
^ ab Atmar, Wirt (2001). "Un patrón profundamente repetido". Boletín de la Sociedad Ecológica de América . 82 (3): 208–211. ISSN 0012-9623. JSTOR 20168572.
^ Nahin, Paul J. (2012). El lógico y el ingeniero: cómo George Boole y Claude Shannon crearon la era de la información. Princeton University Press. ISBN978-0691176000.JSTOR j.cttq957s .
^ ab Goodman, Jimmy Soni y Rob (30 de julio de 2017). "Claude Shannon: el poeta malabarista que nos dio la era de la información". The Daily Beast . Consultado el 31 de octubre de 2023 .
^ ab Poundstone, William (2005). La fórmula de la fortuna: la historia no contada del sistema científico de apuestas que venció a los casinos y a Wall Street . Hill & Wang. pág. 20. ISBN978-0-8090-4599-0.
^ Chow, Rony (5 de junio de 2021). «Claude Shannon: el padre de la teoría de la información». Historia de la ciencia de datos . Consultado el 11 de enero de 2024 .
^ Gardner, Howard (1985). La nueva ciencia de la mente: una historia de la revolución cognitiva . Basic Books. pág. 144. ISBN978-0-465-04635-5.
^ Goldstine, Herman H. (1972). La computadora desde Pascal hasta von Neumann (PDF) . Princeton, NJ: Princeton University Press. pp. 119–120. ISBN978-0-691-08104-5.
^ Vignes, Alain (2023). Silicio, de la arena a los chips, 1: Componentes microelectrónicos. Hoboken: ISTE Ltd / John Wiley and Sons Inc. pp. xv. ISBN978-1-78630-921-1.
^ Rioul, Olivier (2021), Duplantier, Bertrand; Rivasseau, Vincent (eds.), "Esto es TI: Una introducción a la entropía y la información de Shannon", Teoría de la información: Seminario Poincaré 2018 , Progress in Mathematical Physics, vol. 78, Cham: Springer International Publishing, págs. 49–86, doi :10.1007/978-3-030-81480-9_2, ISBN978-3-030-81480-9, consultado el 28 de julio de 2024
^ ab "Claude E. Shannon | IEEE Information Theory Society". www.itsoc.org . Consultado el 31 de octubre de 2023 .
^ abc Gallager, Robert G. (2001). "Claude E. Shannon: Una retrospectiva sobre su vida, obra e impacto" (PDF) . IEEE Transactions on Information Theory . 47 (7): 2681–2695. doi :10.1109/18.959253.
^ Shimeall, Timothy J.; Spring, Jonathan M. (2013). Introducción a la seguridad de la información: un enfoque basado en la estrategia. Syngress. pág. 167. ISBN978-1597499699.
^ ab Koç, Çetin Kaya; Özdemir, Funda (2023). "Desarrollo de la criptografía desde Shannon" (PDF) . Manual de análisis formal y verificación en criptografía : 1–56. doi :10.1201/9781003090052-1. ISBN978-1-003-09005-2.
^ Bruen, Aiden A.; Forcinito, Mario (2005). Criptografía, teoría de la información y corrección de errores: un manual para el siglo XXI. Hoboken, NJ: Wiley-Interscience. p. 3. ISBN978-0-471-65317-2.OCLC 56191935 .
^ abc Poundstone, William (2005). La fórmula de la fortuna: la historia no contada del sistema científico de apuestas que venció a los casinos y a Wall Street. Hill & Wang. págs. 15-16. ISBN978-0-8090-4599-0.
^ Goodman, Rob; Soni, Jimmy (2018). "Genio en formación". Asociación de Antiguos Alumnos de la Universidad de Michigan . Consultado el 31 de octubre de 2023 .
^ ab Guizzo, Erico Marui (2003). El mensaje esencial: Claude Shannon y la creación de la teoría de la información (tesis de maestría). Universidad de Sao Paulo. hdl :1721.1/39429 . Consultado el 11 de enero de 2024 .
^ "Claude Shannon: padre reacio de la era digital". MIT Technology Review . 1 de julio de 2001 . Consultado el 26 de junio de 2024 .
^ Chang, Mark (2014). Principios de los métodos científicos. Boca Raton: CRC Press, Taylor & Francis Group. pág. 217. ISBN978-1-4822-3809-9.
^ Jha, Alok (30 de abril de 2016). «Sin la teoría de la información de Claude Shannon no habría existido Internet». The Guardian . Consultado el 21 de julio de 2024 .
^ Keats, Jonathon (11 de noviembre de 2010). Palabras virtuales: lenguaje desde el borde de la ciencia y la tecnología. Oxford University Press. p. 36. doi :10.1093/oso/9780195398540.001.0001. ISBN978-0-19-539854-0.
^ ab Apter, Michael J. (2018). La simulación informática del comportamiento. Routledge Library Editions: Inteligencia artificial. Londres Nueva York: Routledge Taylor & Francis Group. p. 123. ISBN978-0-8153-8566-0.
^ ab Lowood, Henry; Guins, Raiford, eds. (3 de junio de 2016). Debugging Game History: A Critical Lexicon. The MIT Press. págs. 31–32. doi :10.7551/mitpress/10087.001.0001. ISBN978-0-262-33194-4.
^ ab Brooks, Rodney (25 de enero de 2022). "Cómo Claude Shannon ayudó a impulsar el aprendizaje automático". ieeespectrum . Consultado el 31 de octubre de 2023 .
^ abc Klein, Daniel (2019). Dragoon, aLICE (ed.). "Mighty mouse". MIT News (enero/febrero). Cambridge, Massachusetts: MIT Technology Review: 6–7.
^ McCarthy, John; Minsky, Marvin L.; Rochester, Nathaniel; Shannon, Claude E. (15 de diciembre de 2006). "Una propuesta para el Proyecto de investigación de verano de Dartmouth sobre inteligencia artificial, 31 de agosto de 1955". AI Magazine . 27 (4): 12. doi :10.1609/aimag.v27i4.1904. ISSN 2371-9621.
^ Solomonoff, Grace (6 de mayo de 2023). "El encuentro de las mentes que lanzaron la IA". ieeespectrum . Consultado el 19 de junio de 2024 .
^ Effros, Michelle; Poor, H. Vincent (2017). "Claude Shannon: su obra y su legado". Boletín EMS . 2017–3 (103): 29–34. doi : 10.4171/NEWS/103/5 . ISSN 1027-488X.
^ Goodman, Rob (20 de julio de 2017). "Claude Shannon fue un genio a la altura de Einstein y Turing. ¿Por qué no es tan famoso?". Forbes . Consultado el 31 de octubre de 2023 .
^ ab Rutledge, Tom (16 de agosto de 2017). "El hombre que inventó la teoría de la información". Boston Review . Consultado el 31 de octubre de 2023 .
^ Sloane y Wyner (1993), pág. xi.
^ Soni, J.; Goodman, R. (2017). Una mente en acción: cómo Claude Shannon inventó la era de la información. Simon & Schuster. pág. 6. ISBN978-1-4767-6668-3. Consultado el 2 de mayo de 2023 .
^ Gleick, James (30 de diciembre de 2001). "LAS VIDAS QUE VIVIERON: CLAUDE SHANNON, N. 1916; actor secundario". The New York Times Magazine : Sección 6, página 48.
^ abc "Muere el profesor del MIT Claude Shannon, fundador de las comunicaciones digitales". Oficina de noticias del MIT . Cambridge, Massachusetts. 27 de febrero de 2001.
^ Sloane, NJA; Wyner, Aaron D., eds. (1993). Claude Elwood Shannon: Documentos recopilados. Wiley / IEEE Press . ISBN978-0-7803-0434-5. Recuperado el 9 de diciembre de 2016 .
^ Price, Robert (1982). "Claude E. Shannon, una historia oral". IEEE Global History Network . IEEE . Consultado el 14 de julio de 2011 .
^ ab Shannon, CE (1938). "Un análisis simbólico de circuitos de conmutación y relés". Trans. AIEE . 57 (12): 713–723. doi :10.1109/T-AIEE.1938.5057767. hdl : 1721.1/11173 . S2CID 51638483.
^ Shannon, CE (1938). "Un análisis simbólico de circuitos de conmutación y relés". Trans. AIEE . 57 (12): 713–723. doi :10.1109/T-AIEE.1938.5057767. hdl : 1721.1/11173 . S2CID 51638483.
^ Gardner, Howard (1987). La nueva ciencia de la mente: una historia de la revolución cognitiva. Basic Books. pág. 144. ISBN978-0-465-04635-5.
^ Guizzo, Erico Marui (2003). The Essential Message: Claude Shannon and the Making of Information Theory (PDF) (Tesis de maestría en ciencias). Instituto Tecnológico de Massachusetts. p. 12. Consultado el 29 de julio de 2024 .
^ Shannon, Claude Elwood (1940). Un álgebra para la genética teórica (tesis). Instituto Tecnológico de Massachusetts. hdl :1721.1/11174.— Contiene una biografía en las págs. 64-65.
^ Chalub, Fabio ACC; Souza, Max O. (1 de diciembre de 2017). "Sobre la evolución estocástica de poblaciones finitas". Revista de biología matemática . 75 (6): 1735–1774. doi :10.1007/s00285-017-1135-4. ISSN 1432-1416. PMID 28493042.
^ Hanus, Pavol; Goebel, Bernhard; Dingel, Janis; Weindl, Johanna; Zech, Juergen; Dawy, Zaher; Hagenauer, Joachim; Mueller, Jakob C. (27 de noviembre de 2007). "Teoría de la información y la comunicación en biología molecular". Ingeniería eléctrica . 90 (2): 161–173. doi :10.1007/s00202-007-0062-6. ISSN 0948-7921.
^ Pachter, Lior (6 de noviembre de 2013). «Claude Shannon, genetista de poblaciones». Bits of DNA . Consultado el 29 de julio de 2024 .
^ Guizzo, Erico Marui (2003). El mensaje esencial: Claude Shannon y la creación de la teoría de la información (Tesis). Instituto Tecnológico de Massachusetts. hdl :1721.1/39429.
^ Gertner, Jon (2013). La fábrica de ideas: Bell Labs y la gran era de la innovación estadounidense . Londres: Penguin Books. p. 118. ISBN978-0-14-312279-1.
^ Okrent, Howard; McNamee, Lawrence P. (1970). "3. 3 Flowgraph Theory" (PDF) . Manual del usuario y del programador de NASAP-70. Los Ángeles, California: Facultad de Ingeniería y Ciencias Aplicadas, Universidad de California en Los Ángeles. págs. 3–9 . Consultado el 4 de marzo de 2016 .
^ Turing, AM (1936), "Sobre números computables, con una aplicación al problema de Entscheidung", Actas de la London Mathematical Society , 2, vol. 42 (publicado en 1937), págs. 230–65, doi :10.1112/plms/s2-42.1.230, S2CID 73712
^ Turing, AM (1938), "Sobre números computables, con una aplicación al problema de Entscheidung: una corrección", Actas de la London Mathematical Society , 2, vol. 43, núm. 6 (publicado en 1937), pp. 544–6, doi :10.1112/plms/s2-43.6.544
^ Mindell, David A. (15 de octubre de 2004). Entre humanos y máquinas: retroalimentación, control y computación antes de la cibernética . JHU Press. págs. 319–320. ISBN0801880572.
^ Citado en Erico Marui Guizzo, "The Essential Message: Claude Shannon and the Making of Information Theory", archivado el 28 de mayo de 2008 en Wayback Machine , tesis de maestría inédita, Massachusetts Institute of Technology, 2003, pág. 21.
^ Shannon, CE (1949). "Teoría de la comunicación de los sistemas secretos". Bell System Technical Journal . 28 (4): 656–715. doi :10.1002/j.1538-7305.1949.tb00928.x.
^ abc Shannon, Claude Elwood (1998). La teoría matemática de la comunicación. Warren Weaver. Urbana: University of Illinois Press. ISBN0-252-72546-8.OCLC 40716662 .
^ Stanković, Raromir S.; Astola, Jaakko T.; Karpovsky, Mark G. (septiembre de 2006). Algunas observaciones históricas sobre el teorema de muestreo (PDF) . Actas del taller internacional TICSP de 2006 sobre métodos espectrales y procesamiento de señales multifrecuencia.
^ Cordeschi, Roberto (25 de abril de 2007). "AI Turns Fifty: Revisiting ITS Origins". Inteligencia artificial aplicada . 21 (4–5): 259–279. doi :10.1080/08839510701252304. ISSN 0883-9514.
^ McCarthy, John; Minsky, Marvin L.; Rochester, Nathaniel; Shannon, Claude E. (15 de diciembre de 2006). "Una propuesta para el Proyecto de investigación de verano de Dartmouth sobre inteligencia artificial, 31 de agosto de 1955". AI Magazine . 27 (4): 12. doi :10.1609/aimag.v27i4.1904. ISSN 2371-9621.
^ Solomonoff, Grace (6 de mayo de 2023). "El encuentro de las mentes que lanzaron la IA". ieeespectrum . Consultado el 19 de junio de 2024 .
^ ab Weisstein, Eric. "Shannon, Claude Elwood (1916–2001)". Mundo de biografías científicas . Wolfram Research .
^ "Claude Shannon – teoría de la informática". www.thocp.net . Proyecto Historia de la Computación . Consultado el 9 de diciembre de 2016 .
^ "Personas: Shannon, Claude Elwood". Museo del MIT . Consultado el 9 de diciembre de 2016 .
^ Boehm, George AW (1 de marzo de 1953). "GYPSY, MODEL VI, CLAUDE SHANNON, NIMWIT Y EL RATÓN". Computers and Automation 1953-03: Vol 2 Iss 2. Internet Archive. Berkeley Enterprises. págs. 1–4.
^ Cavanaugh, Ray (29 de abril de 2016). «Claude Shannon: el monociclista malabarista que nos llevó a la era digital». Time . Consultado el 15 de octubre de 2024 .
^ Anuncio: Minivac 601. Octubre de 1961. p. 33.
^ Thorp, Edward (octubre de 1998). "La invención del primer ordenador portátil". Compendio de artículos. Segundo simposio internacional sobre ordenadores portátiles (n.º de cat. 98EX215) . págs. 4-8. doi :10.1109/iswc.1998.729523. ISBN0-8186-9074-7. Número de identificación del sujeto 1526.
^ Jimmy Soni ; Rob Goodman (2017). Una mente en acción: cómo Claude Shannon inventó la era de la información . Simon and Schuster. págs. 63, 80.
^ "Betty Shannon, genio matemática no reconocida". Red de blogs de Scientific American . Consultado el 26 de julio de 2017 .
^ Horgan, John (27 de abril de 2016). «Claude Shannon: Tinkerer, Prankster, and Father of Information Theory» (Claude Shannon: inventor, bromista y padre de la teoría de la información). IEEE Spectrum . Consultado el 19 de junio de 2020 .
^ William Poundstone (2010). La fórmula de la fortuna: la historia no contada del sistema científico de apuestas . Macmillan. pág. 18. ISBN.978-0-374-70708-8Shannon se describía a sí mismo como ateo y era abiertamente apolítico.
^ "Dedicatorias de estatuas de Claude Shannon". Archivado desde el original el 31 de julio de 2010.
^ "Atracciones en la carretera de Michigan: Parque Claude Shannon, Gaylord". Travel the Mitten . TravelTheMitten.com. 11 de agosto de 2018 . Consultado el 8 de septiembre de 2022 . Gaylord, Michigan, alberga un pequeño parque en honor a Claude Shannon…
^ Soni, J.; Goodman, R. (2017). Una mente en acción: cómo Claude Shannon inventó la era de la información. Simon & Schuster. pág. 188. ISBN978-1-4767-6668-3.
^ Shannon, CE (1948). "Una teoría matemática de la comunicación". Bell System Technical Journal . 27 (3): 379–423, 623–656. doi :10.1002/j.1538-7305.1948.tb01338.x.
^ Coughlin, Kevin (27 de febrero de 2001). "El gurú digital de Bell Labs murió a los 84 años. Un científico pionero lideró la revolución de la alta tecnología". The Star-Ledger .
^ "Gwei". Investopedia .
^ "Claude Shannon". The Telegraph . 12 de marzo de 2001 . Consultado el 11 de enero de 2024 .
^ Calderbank, Robert; Sloane, Neil JA (12 de abril de 2001). "Claude Shannon (1916–2001)". Nature . 410 (6830): 768. doi :10.1038/35071223. ISSN 1476-4687. PMID 11298432.
^ Collins, Graham P. (14 de octubre de 2002). «Claude E. Shannon: fundador de la teoría de la información». Scientific American . Consultado el 11 de enero de 2024 .
↑ George Dyson (21 de julio de 2017). «La elegancia de los unos y los ceros». Wall Street Journal . Consultado el 15 de agosto de 2017 .
^ Soni, Jimmy; Goodman, Rob (1 de agosto de 2017). «10.000 horas con Claude Shannon: cómo piensa, trabaja y vive un genio». Observer . Consultado el 31 de octubre de 2023 .
^ Centenario del cumpleaños de Claude Shannon, Google, 2016
^ Katie Reilly (30 de abril de 2016). "Google Doodle rinde homenaje al matemático y malabarista Claude Shannon". Time .
^ Menchie Mendoza (2 de mayo de 2016). "Google Doodle celebra el centenario del nacimiento de Claude Shannon, padre de la teoría de la información". Tech Times.
^ "Google Doodle conmemora al 'padre de la teoría de la información' Claude Shannon en su centenario". Firstpost . 3 de mayo de 2016.
^ Jonathan Gibbs (29 de abril de 2016). "Claude Shannon: Tres cosas que desearías tener y que el matemático inventó". The Independent .
^ David Z. Morris (30 de abril de 2016). "Google celebra el centenario del nacimiento de Claude Shannon, el inventor del bit". Fortune .
^ Feder, Toni (19 de julio de 2019). «Reseña: The Bit Player, un homenaje a Claude Shannon». Physics Today (7): 5159. Bibcode :2019PhT..2019g5159F. doi :10.1063/PT.6.3.20190719a. S2CID 243548904 . Consultado el 3 de agosto de 2019 .
^ abcd "Bell Labs avanza en redes inteligentes". Archivado desde el original el 22 de julio de 2012.
^ ab Claude Shannon (1950). «Programación de una computadora para jugar ajedrez» (PDF) . Philosophical Magazine . 41 (314). Archivado desde el original (PDF) el 6 de julio de 2010. Consultado el 2 de enero de 2018 .
^ Grime, James (24 de julio de 2015). ¿Cuántas partidas de ajedrez son posibles?. Numberphile.
^ "Los primeros programas de ajedrez por computadora de Bill Wall". billwall.phpwebhosting.com .
^ Shannon, Claude E. (1950). "Una máquina de jugar al ajedrez". Scientific American . 182 (2): 48–51. Código Bibliográfico :1950SciAm.182b..48S. doi :10.1038/scientificamerican0250-48. ISSN 0036-8733. JSTOR 24967381. PMID 15402252.
^ Hamid Reza Ekbia (2008), Sueños artificiales: la búsqueda de inteligencia no biológica , Cambridge University Press, pág. 46, ISBN978-0-521-87867-8
^ "Newsletter". IEEE Information Theory Society . IEEE . Junio de 2015. Archivado desde el original el 9 de julio de 2015.
^ "Videos". Israel: Technion . Archivado desde el original el 6 de julio de 2015. Consultado el 5 de julio de 2015 .
^ "Newsletter". IEEE Information Theory Society . IEEE. Septiembre de 2014. Archivado desde el original el 4 de septiembre de 2015.
^ "Centenario de Shannon". Sociedad de teoría de la información del IEEE . IEEE.
^ "Sellos postales 2016". А.Д. Correo electrónico de Severna Macedonia . posta.com.mk . Consultado el 26 de julio de 2024 .
^ "Sello postal estadounidense del centenario de Shannon — Information Theory Society". www.itsoc.org .
^ "Celebrando la obra y la vida de Claude Elwood Shannon". Fundación IEEE . Archivado desde el original el 3 de agosto de 2019. Consultado el 3 de agosto de 2019 .
^ "George Boole 200-Conferencias". Archivado desde el original el 6 de septiembre de 2015 . Consultado el 21 de septiembre de 2015 .
^ "Calcular y comunicar | Una celebración de Boole/Shannon".
^ "Logotipo del centenario de Claude Shannon, un proyecto de logotipo e identidad de cfrag1". www.crowdspring.com .
^ "Salvando las apariencias: trucos de información para el amor y la vida (Presentación de Encuentros matemáticos en el Museo Nacional de Matemáticas).
^ "Claude E. Shannon". www.itsoc.org . Consultado el 13 de septiembre de 2024 .
^ Roberts, Siobhan (30 de abril de 2016). «Claude Shannon, el padre de la era de la información, cumple 1100 años». The New Yorker . Consultado el 30 de abril de 2016 .
^ "Claude Elwood Shannon". Instituto Franklin . 11 de enero de 2014.
^ "Claude Elwood Shannon". 9 de febrero de 2023.
^ "Premio Harvey". Technion — Instituto Tecnológico de Israel . Haifa, Israel.
^ "Premio Alfred Noble de la Sociedad Estadounidense de Ingenieros Civiles". Sociedad Estadounidense de Ingenieros Civiles . Consultado el 27 de abril de 2020 .
^ "Medalla Nacional de Ciencias del Presidente: detalles del destinatario | NSF – Fundación Nacional de Ciencias". www.nsf.gov .
^ "Claude Elwood Shannon | Premio Kioto".京都賞.
^ "Ganadores del premio en memoria de IEEE Morris N. Liebmann" (PDF) . IEEE . Archivado desde el original (PDF) el 3 de marzo de 2016 . Consultado el 27 de febrero de 2011 .
^ "Claude Shannon". Academia Nacional de Ciencias . 2 de julio de 2015. Consultado el 25 de marzo de 2019 .
^ "Destinatarios de la Medalla de Honor del IEEE" (PDF) . IEEE . Archivado desde el original (PDF) el 22 de abril de 2015 . Consultado el 27 de febrero de 2011 .
^ "Premiados con la Placa de Oro de la Academia Estadounidense de Logros". www.achievement.org . Academia Estadounidense de Logros .
^ "CE Shannon (1916–2001)". Real Academia de las Artes y las Ciencias de los Países Bajos . Consultado el 17 de julio de 2015 .
^ "Historia de los miembros de APS".
^ "Ganadores de premios (cronológico)". Fundación Eduard Rhein . Archivado desde el original el 18 de julio de 2011. Consultado el 20 de febrero de 2011 .
^ "Premio Marconi a la trayectoria". marconisociety.org .
^ Staff (27 de febrero de 2001). «Muere el profesor del MIT Claude Shannon, fundador de las comunicaciones digitales». MIT News . Consultado el 4 de abril de 2023 .
Lectura adicional
Rethnakaran Pulikkoonattu — Eric W. Weisstein: biografía de Shannon, Claude Elwood (1916–2001) publicada en Mathworld Shannon, Claude Elwood (1916–2001) – de El mundo de las biografías científicas de Eric Weisstein
Claude E. Shannon: Programación de una computadora para jugar ajedrez , Philosophical Magazine, Ser.7, Vol. 41, No. 314, marzo de 1950. (Disponible en línea en los enlaces externos que aparecen a continuación)
David Levy: Computer Gamesmanship: Elementos de diseño de juegos inteligentes , Simon & Schuster, 1983. ISBN 0-671-49532-1
Mindell, David A., "El mejor momento de la automatización: Bell Labs y el control automático en la Segunda Guerra Mundial", IEEE Control Systems, diciembre de 1995, págs. 72–80.
Poundstone, William, La fórmula de la fortuna , Hill & Wang, 2005, ISBN 978-0-8090-4599-0
Nahin, Paul J., El lógico y el ingeniero: cómo George Boole y Claude Shannon crearon la era de la información , Princeton University Press, 2013, ISBN 978-0691151007
Everett M. Rogers, Claude Shannon's Cryptography Research During World War II and the Mathematical Theory of Communication , 1994 Actas de la Conferencia IEEE International Carnahan sobre Tecnología de Seguridad, págs. 1–5, 1994. La investigación criptográfica de Claude Shannon durante la Segunda Guerra Mundial y la teoría matemática de la comunicación
Enlaces externos
Medios relacionados con Claude Shannon en Wikimedia Commons
Wikiquote tiene citas relacionadas con Claude Elwood Shannon .