Libro de 1982 de Jeremy Campbell
El hombre gramatical: información, entropía, lenguaje y vida es un libro de 1982 escrito por Jeremy Campbell, entonces corresponsal en Washington del Evening Standard . [1] El libro examina los temas de probabilidad , teoría de la información , cibernética , genética y lingüística . Los procesos de información se utilizan para enmarcar y examinar toda la existencia, desde el Big Bang hasta el ADN, la comunicación humana y la inteligencia artificial.
Parte 1: Establecimiento de la teoría de la información
- El primer capítulo del libro, La segunda ley y el peligro amarillo , introduce el concepto de entropía y ofrece breves resúmenes de las historias de la teoría de la información y la cibernética , examinando figuras de la Segunda Guerra Mundial como Claude Shannon y Norbert Wiener .
- El ruido del calor ofrece un resumen de la historia de la termodinámica , centrándose en la segunda ley de Rudolf Clausius y su relación con el orden y la información.
- En The Demon Possessed, Campbell examina el concepto de entropía y la presenta como información faltante.
- El capítulo cuatro, Un nido de sutilezas y trampas , toma su nombre de una crítica a uno de los primeros teoremas de la teoría de la probabilidad, la Ley de los grandes números ( Bernouli , 1713 ). El capítulo describe la historia de la probabilidad , haciendo referencia a personajes como Gerolamo Cardano , Antoine Gombaud , Bernouli , Richard von Mises y John Maynard Keynes . Campbell examina la información y la entropía como una distribución de probabilidad de posibles mensajes y dice que las interpretaciones subjetivas versus objetivas de la probabilidad se vuelven en gran medida obsoletas debido a la comprensión de la relación entre probabilidad e información.
- Not Too Dull, Not Too Exciting aborda el problema de distinguir el orden del desorden dentro de la comunicación destacando el papel que juega la redundancia en la teoría de la información.
- En el último capítulo de la Parte 1, La lucha contra la aleatoriedad , Campbell aborda los conceptos publicados por Shannon en 1948: un mensaje puede enviarse de un lugar a otro, incluso en condiciones ruidosas, y estar tan libre de errores como el remitente quiera, siempre que esté codificado en la forma adecuada.
Parte 2: La naturaleza como proceso de información
- Campbell utiliza Flechas en todas direcciones para analizar la posible relación inversa entre la entropía y la novedad, invocando conceptos como el de Superman de Laplace . Campbell cita a David Layzer :
Para la "inteligencia" de Laplace, como para el Dios de Platón, Galileo y Einstein, el pasado y el futuro coexisten en igualdad de condiciones, como los dos rayos en los que un punto elegido arbitrariamente divide una línea recta. Sin embargo, si las teorías que he presentado son correctas, ni siquiera la computadora definitiva -el universo mismo- contiene nunca suficiente información para especificar completamente sus propios estados futuros. El momento presente siempre contiene un elemento de genuina novedad y el futuro nunca es totalmente predecible. Como los procesos biológicos también generan información y como la conciencia nos permite experimentar esos procesos directamente, la percepción intuitiva del mundo como un proceso que se desarrolla en el tiempo capta una de las propiedades más profundas del universo.
- El capítulo 8, Chemical Word and Chemical Deed , examina los procesos del ADN como procesos de información. Campbell hace la distinción entre mensajes de ADN de primer orden y mensajes de ADN de segundo orden, o estructurales (por ejemplo, "cómo hacer un pastel" frente a "cómo leer una receta"). Relaciona esta distinción con los principios lingüísticos de la Gramática Universal de Noam Chomsky .
- En Jumping the Complexity Barrier , Campbell analiza el concepto de emergencia y señala que la teoría de la información, la termodinámica, la lingüística y la teoría de la evolución hacen un uso significativo de términos y frases como "complejidad", "novedad" y "restricciones a las posibilidades". Campbell escribe:
Para comprender sistemas complejos, como una gran computadora o un organismo vivo, no podemos usar la lógica formal ordinaria, que se ocupa de eventos que definitivamente sucederán o definitivamente no sucederán. Se necesita una lógica probabilística, que formule afirmaciones sobre cuán probable o improbable es que sucedan diversos eventos.
Campbell también analiza la relación entre la teoría de la información, la evolución y la lingüística con las máquinas por parte de John von Neumann . El capítulo concluye con un examen de los sistemas emergentes y su relación con la incompletitud de Gödel . - Algo bastante sutil
Parte 3: Lenguaje de codificación, vida de codificación
- Algoritmos y evolución
- Parcialmente verde hasta el día de nuestra muerte
- No hay necesidad de astronautas antiguos
- Los mensajes claros y ruidosos del lenguaje
- Un espejo de la mente
Parte 4: Cómo el cerebro organiza todo
- El cerebro como gato sobre un tejado de zinc caliente y otras falacias
- Las estrategias de ver
- El fondo y la cima de la memoria
- La información de los sueños
- La izquierda y la derecha del saber
- La sociedad del segundo teorema
Véase también
Referencias
- ^ "EL HOMBRE GRAMATICAL: Información, Entropía, Lenguaje y Vida". Reseñas de Kirkus . Consultado el 2 de diciembre de 2014 .