Claude Elwood Shannon (30 de abril de 1916 - 24 de febrero de 2001) fue un matemático , ingeniero eléctrico , informático y criptógrafo estadounidense conocido como el "padre de la teoría de la información ". Fue el primero en describir las puertas booleanas (circuitos electrónicos) que son esenciales para todos los circuitos electrónicos digitales y construyó el primer dispositivo de aprendizaje automático, fundando así el campo de la inteligencia artificial . [1] [2] [3] [4] Se le atribuye, junto con George Boole, el mérito de sentar las bases de la era de la información . [5] [6] [7] [4]
Como estudiante de maestría de 21 años en el Instituto Tecnológico de Massachusetts (MIT), escribió su tesis demostrando que las aplicaciones eléctricas del álgebra booleana podían construir cualquier relación numérica lógica, [8] estableciendo así la teoría detrás de la computación digital y la tecnología digital. circuitos . [9] [10] En 1987, Howard Gardner llamó a su tesis "posiblemente la tesis de maestría más importante, y también la más famosa, del siglo", [11] y Herman Goldstine la describió como "seguramente ... una de las "Las tesis de maestría más importantes jamás escritas ... Ayudó a cambiar el diseño de circuitos digitales de un arte a una ciencia". [12]
Shannon también contribuyó al campo del criptoanálisis para la defensa nacional de los Estados Unidos durante la Segunda Guerra Mundial , incluido su trabajo fundamental sobre descifrado de códigos y telecomunicaciones seguras , escribiendo un artículo que se considera una de las piezas fundacionales de la criptografía moderna, [13] y cuyo El trabajo "fue un punto de inflexión y marcó el cierre de la criptografía clásica y el comienzo de la criptografía moderna". [14]
Su teoría matemática de la comunicación sentó las bases para el campo de la teoría de la información , [15] y Scientific American llamó a su famoso artículo la "Carta Magna de la era de la información" , [7] [16] y describió su trabajo como estar en "el corazón de la tecnología de la información digital actual". [17]
Su máquina Teseo fue el primer dispositivo eléctrico que aprendió por prueba y error. Se trata, pues, del primer ejemplo de inteligencia artificial . [18] [19]
Rodney Brooks declaró que Shannon fue el ingeniero del siglo XX que más contribuyó a las tecnologías del siglo XXI. [18] Se dice que sus logros están a la par con los de Albert Einstein y Sir Isaac Newton en sus campos. [5] [2] [20] [21]
La familia Shannon vivía en Gaylord, Michigan , y Claude nació en un hospital cercano a Petoskey . [1] Su padre, Claude Sr. (1862-1934), fue un hombre de negocios y, durante un tiempo, juez de sucesiones en Gaylord. Su madre, Mabel Wolf Shannon (1890-1945), era profesora de idiomas y también se desempeñó como directora de la escuela secundaria Gaylord . [22] Claude Sr. era descendiente de colonos de Nueva Jersey , mientras que Mabel era hija de inmigrantes alemanes. [1] La familia de Shannon estuvo activa en su Iglesia Metodista durante su juventud. [23]
La mayor parte de los primeros 16 años de la vida de Shannon los pasó en Gaylord, donde asistió a una escuela pública y se graduó de Gaylord High School en 1932. Shannon mostró una inclinación hacia las cosas mecánicas y eléctricas. Sus mejores materias fueron ciencias y matemáticas. En casa, construyó dispositivos como modelos de aviones, un modelo de barco controlado por radio y un sistema de telégrafo con alambre de púas hasta la casa de un amigo a media milla de distancia. [24] Mientras crecía, también trabajó como mensajero para la empresa Western Union .
El héroe de la infancia de Shannon fue Thomas Edison , de quien más tarde supo que era un primo lejano. Tanto Shannon como Edison eran descendientes de John Ogden (1609-1682), un líder colonial y antepasado de muchas personas distinguidas. [25] [26]
En 1932, Shannon ingresó en la Universidad de Michigan , donde conoció el trabajo de George Boole . Se graduó en 1936 con dos títulos de licenciatura : uno en ingeniería eléctrica y otro en matemáticas.
En 1936, Shannon comenzó sus estudios de posgrado en ingeniería eléctrica en el MIT , donde trabajó en el analizador diferencial de Vannevar Bush , uno de los primeros ordenadores analógicos . [27] Mientras estudiaba los complicados circuitos ad hoc de este analizador, Shannon diseñó circuitos de conmutación basados en los conceptos de Boole . En 1937, escribió su tesis de maestría , Un análisis simbólico de circuitos de conmutación y relés . [28] Un artículo de esta tesis se publicó en 1938. [29] En este trabajo, Shannon diagramaba circuitos de conmutación que podrían implementar los operadores esenciales del álgebra de Boole . Luego demostró que sus circuitos de conmutación podían usarse para simplificar la disposición de los relés electromecánicos que se usaban durante ese tiempo en los conmutadores de enrutamiento de llamadas telefónicas . Luego, amplió este concepto, demostrando que estos circuitos podían resolver todos los problemas que el álgebra de Boole podía resolver. En el último capítulo, presentó diagramas de varios circuitos, incluido un sumador digital completo de 4 bits. [28]
Usar esta propiedad de los interruptores eléctricos para implementar la lógica es el concepto fundamental que subyace a todas las computadoras digitales electrónicas . El trabajo de Shannon se convirtió en la base del diseño de circuitos digitales , ya que se hizo ampliamente conocido en la comunidad de ingeniería eléctrica durante y después de la Segunda Guerra Mundial . El rigor teórico del trabajo de Shannon reemplazó los métodos ad hoc que habían prevalecido anteriormente. Howard Gardner calificó la tesis de Shannon como "posiblemente la tesis de maestría más importante y también la más destacada del siglo". [30]
Shannon recibió su doctorado en matemáticas del MIT en 1940. [25] Vannevar Bush había sugerido que Shannon debería trabajar en su tesis en el Laboratorio Cold Spring Harbor , con el fin de desarrollar una formulación matemática para la genética mendeliana . Esta investigación dio como resultado la tesis doctoral de Shannon, llamada An Algebra for Theoretical Genetics . [31]
En 1940, Shannon se convirtió en investigadora nacional en el Instituto de Estudios Avanzados de Princeton, Nueva Jersey . En Princeton, Shannon tuvo la oportunidad de discutir sus ideas con científicos y matemáticos influyentes como Hermann Weyl y John von Neumann , y también tuvo encuentros ocasionales con Albert Einstein y Kurt Gödel . Shannon trabajó libremente en todas las disciplinas y esta capacidad puede haber contribuido a su desarrollo posterior de la teoría de la información matemática . [32]
Luego, Shannon se unió a Bell Labs para trabajar en sistemas de control de incendios y criptografía durante la Segunda Guerra Mundial , bajo un contrato con la sección D-2 (sección de Sistemas de Control) del Comité de Investigación de Defensa Nacional (NDRC).
A Shannon se le atribuye la invención de los gráficos de flujo de señales , en 1942. Descubrió la fórmula de ganancia topológica mientras investigaba el funcionamiento funcional de una computadora analógica. [33]
Durante dos meses a principios de 1943, Shannon entró en contacto con el destacado matemático británico Alan Turing . Turing había sido enviado a Washington para compartir con el servicio criptoanalítico de la Marina de los EE. UU. los métodos utilizados por la Escuela de Códigos y Cifrados del Gobierno Británico en Bletchley Park para descifrar las cifras utilizadas por los submarinos de la Kriegsmarine en el Océano Atlántico norte . [34] También estaba interesado en el cifrado del habla y con este fin pasó un tiempo en los Laboratorios Bell. Shannon y Turing se reunieron a la hora del té en la cafetería. [34] Turing le mostró a Shannon su artículo de 1936 que definía lo que ahora se conoce como la " máquina universal de Turing ". [35] [36] Esto impresionó a Shannon, ya que muchas de sus ideas complementaban las suyas.
En 1945, cuando la guerra estaba llegando a su fin, la NDRC emitía un resumen de informes técnicos como último paso antes de su eventual cierre. Dentro del volumen sobre control de incendios, un ensayo especial titulado Suavizado y predicción de datos en sistemas de control de incendios , en coautoría con Shannon, Ralph Beebe Blackman y Hendrik Wade Bode , trató formalmente el problema de suavizar los datos en el control de incendios por analogía con " el problema de separar una señal del ruido de interferencia en los sistemas de comunicaciones." [37] En otras palabras, modeló el problema en términos de procesamiento de datos y señales y, por lo tanto, anunció la llegada de la era de la información .
El trabajo de Shannon sobre criptografía estuvo aún más estrechamente relacionado con sus publicaciones posteriores sobre teoría de la comunicación . [38] Al final de la guerra, preparó un memorando clasificado para Bell Telephone Labs titulado "Una teoría matemática de la criptografía", fechado en septiembre de 1945. Una versión desclasificada de este artículo se publicó en 1949 como " Teoría de la comunicación de los sistemas secretos " . en la Revista técnica de Bell System . Este artículo incorporó muchos de los conceptos y formulaciones matemáticas que también aparecieron en su Teoría matemática de la comunicación . Shannon dijo que sus conocimientos sobre la teoría de la comunicación y la criptografía durante la guerra se desarrollaron simultáneamente, y que "estaban tan juntos que no se podían separar". [39] En una nota a pie de página cerca del comienzo del informe clasificado, Shannon anunció su intención de "desarrollar estos resultados... en un próximo memorando sobre la transmisión de información". [40]
Mientras estaba en Bell Labs, Shannon demostró que la libreta criptográfica de un solo uso es irrompible en su investigación clasificada que se publicó más tarde en 1949. El mismo artículo también demostró que cualquier sistema irrompible debe tener esencialmente las mismas características que la libreta de un solo uso. : la clave debe ser verdaderamente aleatoria, tan grande como el texto sin formato, nunca reutilizarse total o parcialmente y mantenerse en secreto. [41]
En 1948, el memorando prometido apareció como "Una teoría matemática de la comunicación", un artículo en dos partes en los números de julio y octubre del Bell System Technical Journal . Este trabajo se centra en el problema de cuál es la mejor manera de codificar el mensaje que un remitente quiere transmitir. Shannon desarrolló la entropía de la información como una medida del contenido de la información en un mensaje, que es una medida de la incertidumbre reducida por el mensaje. Al hacerlo, esencialmente inventó el campo de la teoría de la información .
El libro The Mathematical Theory of Communication reimprime el artículo de Shannon de 1948 y la popularización del mismo por parte de Warren Weaver , que es accesible para quienes no son especialistas. Weaver señaló que la palabra "información" en la teoría de la comunicación no está relacionada con lo que se dice, sino con lo que se podría decir. Es decir, la información es una medida de la libertad de elección de uno cuando selecciona un mensaje. Los conceptos de Shannon también se popularizaron, sujetos a su propia revisión, en Symbols, Signals, and Noise de John Robinson Pierce .
La contribución fundamental de la teoría de la información al procesamiento del lenguaje natural y la lingüística computacional se estableció aún más en 1951, en su artículo "Predicción y entropía del inglés impreso", que muestra los límites superior e inferior de la entropía en las estadísticas del inglés, dando una base estadística al análisis del lenguaje. Además, demostró que tratar el espacio como la letra número 27 del alfabeto en realidad reduce la incertidumbre en el lenguaje escrito, proporcionando un vínculo claro y cuantificable entre la práctica cultural y la cognición probabilística.
Otro artículo notable publicado en 1949 es " Teoría de la comunicación de los sistemas secretos ", una versión desclasificada de su trabajo de tiempos de guerra sobre la teoría matemática de la criptografía, en el que demostró que todos los cifrados teóricamente irrompibles deben tener los mismos requisitos que el bloc de un solo uso. También se le atribuye la introducción de la teoría del muestreo , que se ocupa de representar una señal de tiempo continuo a partir de un conjunto discreto (uniforme) de muestras. Esta teoría fue esencial para permitir que las telecomunicaciones pasaran de sistemas de transmisión analógicos a digitales en la década de 1960 y posteriormente.
En 1950, Shannon diseñó y construyó, con la ayuda de su esposa, un dispositivo de aprendizaje automático, Theseus. Consistía en un laberinto sobre una superficie, debajo del cual había sensores que seguían el camino de un ratón mecánico a través del laberinto. Después de muchas pruebas y errores, este dispositivo aprendería el camino más corto a través del laberinto y dirigiría el ratón mecánico a través del laberinto. El patrón del laberinto se puede cambiar a voluntad. [19]
Mazin Gilbert dice que Teseo "inspiró todo el campo de la IA. Este ensayo y error aleatorio es la base de la inteligencia artificial". [19]
En 1956, Shannon se unió a la facultad del MIT, ocupando una cátedra subvencionada. Trabajó en el Laboratorio de Investigación en Electrónica (RLE). Continuó sirviendo en la facultad del MIT hasta 1978.
Shannon desarrolló la enfermedad de Alzheimer y pasó los últimos años de su vida en una residencia de ancianos ; Murió en 2001, le sobreviven su esposa, un hijo, una hija y dos nietas. [42] [43]
Fuera de sus actividades académicas, Shannon estaba interesado en los malabares , el monociclo y el ajedrez . También inventó muchos dispositivos, incluido un ordenador de números romanos llamado THROBAC y máquinas de malabarismo . [44] [45] Construyó un dispositivo que podía resolver el rompecabezas del Cubo de Rubik . [25]
Shannon diseñó el Minivac 601 , un entrenador de computadora digital para enseñar a los empresarios cómo funcionan las computadoras. Fue vendido por Scientific Development Corp a partir de 1961. [46]
También se le considera el co-inventor de la primera computadora portátil junto con Edward O. Thorp . [47] El dispositivo se utilizó para mejorar las probabilidades al jugar a la ruleta .
Shannon se casó con Norma Levor , una rica intelectual judía de izquierda en enero de 1940. El matrimonio terminó en divorcio después de aproximadamente un año. Levor se casó más tarde con Ben Barzman . [48]
Shannon conoció a su segunda esposa, Mary Elizabeth Moore (Betty), cuando ella era analista numérica en Bell Labs. Se casaron en 1949. [42] Betty ayudó a Claude a construir algunos de sus inventos más famosos. [49] Tuvieron tres hijos. [50]
Shannon se presentó como apolítico y ateo . [51]
Hay seis estatuas de Shannon esculpidas por Eugene Daub : una en la Universidad de Michigan ; uno en el MIT en el Laboratorio de Sistemas de Información y Decisión ; uno en Gaylord, Michigan; uno en la Universidad de California, San Diego ; uno en los Laboratorios Bell; y otro en AT&T Shannon Labs . [52] La estatua de Gaylord está ubicada en el Parque Conmemorativo Claude Shannon. [53] Después de la ruptura de Bell System , la parte de Bell Labs que permaneció en AT&T Corporation fue nombrada Shannon Labs en su honor.
Según Neil Sloane , miembro de AT&T que coeditó la gran colección de artículos de Shannon en 1993, la perspectiva introducida por la teoría de la comunicación de Shannon (ahora llamada teoría de la información ) es la base de la revolución digital , y cada dispositivo que contiene un microprocesador o microcontrolador es un descendiente conceptual de la publicación de Shannon en 1948: [54] "Es uno de los grandes hombres del siglo. Sin él, nada de lo que conocemos hoy existiría. Toda la revolución digital comenzó con él". [55] La unidad de criptomonedas shannon (sinónimo de gwei) lleva su nombre. [56]
Muchos atribuyen a Shannon el mérito de haber creado por sí solo la teoría de la información y de haber sentado las bases de la era digital . [57] [58] [59] [17] [60] [4]
A Mind at Play , una biografía de Shannon escrita por Jimmy Soni y Rob Goodman, se publicó en 2017. [61] Describieron a Shannon como "el genio más importante del que nunca has oído hablar, un hombre cuyo intelecto estaba a la par con Albert Einstein e Isaac Newton". [62]
El 30 de abril de 2016, Shannon fue honrada con un Doodle de Google para celebrar su vida en lo que habría sido su centenario. [63] [64] [65 ] [ 66] [67] [68]
The Bit Player , un largometraje sobre Shannon dirigido por Mark Levinson, se estrenó en el Festival Mundial de la Ciencia en 2019. [69] Extraída de entrevistas realizadas con Shannon en su casa en la década de 1980, la película se estrenó en Amazon Prime en agosto de 2020.
La teoría matemática de la comunicación de Shannon , [70] comienza con una interpretación de su propio trabajo realizada por Warren Weaver . Aunque todo el trabajo de Shannon trata sobre la comunicación en sí, Warren Weaver comunicó sus ideas de tal manera que aquellos que no estaban acostumbrados a la teoría y las matemáticas complejas pudieran comprender las leyes fundamentales que propuso. El acoplamiento de sus ideas y habilidades comunicativas únicas generó el modelo de Shannon-Weaver , aunque los fundamentos matemáticos y teóricos emanan enteramente del trabajo de Shannon después de la introducción de Weaver . Para el profano, la introducción de Weaver comunica mejor La teoría matemática de la comunicación , [70] pero la lógica, las matemáticas y la precisión expresiva posteriores de Shannon fueron responsables de definir el problema en sí.
"Teseo", creado en 1950, era un ratón mecánico controlado por un circuito de relé electromecánico que le permitía moverse por un laberinto de 25 casillas. [71] La configuración del laberinto era flexible y podía modificarse arbitrariamente reorganizando las particiones móviles. [71] El ratón fue diseñado para buscar a través de los pasillos hasta encontrar el objetivo. Una vez recorrido el laberinto, el ratón podía colocarse en cualquier lugar donde hubiera estado antes y, gracias a su experiencia previa, podía ir directamente al objetivo. Si se lo colocaba en un territorio desconocido, estaba programado para buscar hasta llegar a una ubicación conocida y luego procedería hacia el objetivo, agregando el nuevo conocimiento a su memoria y aprendiendo nuevos comportamientos. [71] El ratón de Shannon parece haber sido el primer dispositivo de aprendizaje artificial de este tipo. [71]
En 1949, Shannon completó un artículo (publicado en marzo de 1950) que estima la complejidad del árbol de juego del ajedrez , que es aproximadamente 10 120 . Este número ahora se conoce a menudo como el " número de Shannon " y todavía hoy se considera una estimación precisa de la complejidad del juego. El número se cita a menudo como una de las barreras para resolver el juego de ajedrez mediante un análisis exhaustivo (es decir, análisis de fuerza bruta ). [72] [73]
El 9 de marzo de 1949, Shannon presentó un artículo titulado "Programación de una computadora para jugar al ajedrez". El documento fue presentado en la Convención del Instituto Nacional de Ingenieros de Radio en Nueva York. Describió cómo programar una computadora para jugar ajedrez basándose en la puntuación de posiciones y la selección de movimientos. Propuso estrategias básicas para restringir el número de posibilidades a considerar en una partida de ajedrez. En marzo de 1950 fue publicado en Philosophical Magazine , y es considerado uno de los primeros artículos publicados sobre el tema de la programación de una computadora para jugar al ajedrez, y el uso de una computadora para resolver el juego . [72] [74]
Su proceso para que la computadora decidiera qué movimiento hacer era un procedimiento minimax , basado en una función de evaluación de una posición de ajedrez determinada. Shannon dio un ejemplo aproximado de una función de evaluación en la que el valor de la posición negra se restaba del de la posición blanca. El material se contó según el valor relativo habitual de las piezas de ajedrez (1 punto por un peón, 3 puntos por un caballo o alfil, 5 puntos por una torre y 9 puntos por una reina). [75] Consideró algunos factores posicionales, restando ½ punto por cada peón doblado , peón atrasado y peón aislado ; Se incorporó la movilidad sumando 0,1 puntos por cada movimiento legal disponible.
Shannon formuló una versión del principio de Kerckhoff como "El enemigo conoce el sistema". De esta forma se la conoce como "máxima de Shannon".
El centenario de Shannon de 2016 marcó la vida y la influencia de Claude Elwood Shannon en el centenario de su nacimiento el 30 de abril de 1916. Se inspiró en parte en el Año de Alan Turing . Un comité ad hoc de la Sociedad de Teoría de la Información del IEEE que incluía a Christina Fragouli, Rüdiger Urbanke, Michelle Effros , Lav Varshney y Sergio Verdú , [76] coordinó eventos a nivel mundial. La iniciativa se anunció en el Panel de Historia del Taller de Teoría de la Información del IEEE de 2015 en Jerusalén [77] [78] y en el boletín informativo de la Sociedad de Teoría de la Información del IEEE. [79]
Una lista detallada de los eventos confirmados estaba disponible en el sitio web de la IEEE Information Theory Society. [80]
Algunas de las actividades planificadas incluyeron:
El premio Claude E. Shannon se creó en su honor; también fue su primer destinatario, en 1972. [86] [87]
Shannon se describió a sí mismo como ateo y aparentemente apolítico.
Gaylord, Michigan, alberga un pequeño parque en honor a Claude Shannon...