stringtranslate.com

siglo XX en la ciencia

La ciencia avanzó dramáticamente durante el siglo XX . Hubo avances nuevos y radicales en las ciencias físicas , biológicas y humanas , basándose en los avances realizados en el siglo XIX. [1]

El desarrollo de teorías posnewtonianas en física, como la relatividad especial , la relatividad general y la mecánica cuántica, llevaron al desarrollo de armas nucleares . Los nuevos modelos de la estructura del átomo dieron lugar a avances en las teorías de la química y al desarrollo de nuevos materiales como el nailon y los plásticos . Los avances en biología llevaron a grandes aumentos en la producción de alimentos, así como a la eliminación de enfermedades como la polio .

En el siglo XX se desarrolló una gran cantidad de nuevas tecnologías. Tecnologías como la electricidad , la bombilla incandescente , el automóvil y la fonografía , desarrolladas por primera vez a finales del siglo XIX, se perfeccionaron y desplegaron universalmente. El primer vuelo en avión se produjo en 1903 y, a finales de siglo, grandes aviones como el Boeing 777 y el Airbus A330 volaban miles de kilómetros en cuestión de horas. El desarrollo de la televisión y las computadoras provocó cambios masivos en la difusión de información.

Astronomía y vuelos espaciales

El estadounidense Buzz Aldrin durante el primer paseo lunar en 1969. Las relativamente jóvenes industrias de ingeniería aeroespacial crecieron rápidamente en los 66 años posteriores al primer vuelo de los hermanos Wright.

Biología y medicina

Un sello conmemorativo de Alexander Fleming . Su descubrimiento de la penicilina había cambiado el mundo de la medicina moderna al introducir la era de los antibióticos.

Enfermedades notables

Química

La primera Conferencia Solvay se celebró en Bruselas en 1911 y se consideró un punto de inflexión en el mundo de la física y la química.

En 1903, Mikhail Tsvet inventó la cromatografía , una importante técnica analítica. En 1904, Hantaro Nagaoka propuso un modelo nuclear temprano del átomo, donde los electrones orbitan alrededor de un núcleo denso y masivo. En 1905, Fritz Haber y Carl Bosch desarrollaron el proceso Haber para producir amoníaco , un hito en la química industrial con profundas consecuencias en la agricultura. El proceso Haber, o proceso Haber-Bosch, combinaba nitrógeno e hidrógeno para formar amoníaco en cantidades industriales para la producción de fertilizantes y municiones. La producción de alimentos para la mitad de la población mundial actual depende de este método de producción de fertilizantes. Haber, junto con Max Born , propuso el ciclo de Born-Haber como método para evaluar la energía reticular de un sólido iónico. Haber también ha sido descrito como el "padre de la guerra química " por su trabajo en el desarrollo y uso de cloro y otros gases venenosos durante la Primera Guerra Mundial.

Robert A. Millikan , mejor conocido por medir la carga del electrón, ganó el Premio Nobel de Física en 1923.

En 1905, Albert Einstein explicó el movimiento browniano de una manera que demostró definitivamente la teoría atómica. Leo Baekeland inventó la baquelita , uno de los primeros plásticos de éxito comercial. En 1909, el físico estadounidense Robert Andrews Millikan –que había estudiado en Europa con Walther Nernst y Max Planck– midió la carga de electrones individuales con una precisión sin precedentes mediante el experimento de la gota de aceite , en el que midió las cargas eléctricas de diminutas aguas que caían (y más tarde aceite) gotas. Su estudio estableció que la carga eléctrica de cualquier gota particular es múltiplo de un valor fundamental definido – la carga del electrón – y por lo tanto una confirmación de que todos los electrones tienen la misma carga y masa. A partir de 1912, pasó varios años investigando y finalmente demostrando la relación lineal propuesta por Albert Einstein entre energía y frecuencia, y proporcionando el primer soporte fotoeléctrico directo para la constante de Planck . En 1923 Millikan recibió el Premio Nobel de Física.

En 1909, SPL Sørensen inventó el concepto de pH y desarrolló métodos para medir la acidez. En 1911, Antonius Van den Broek propuso la idea de que los elementos de la tabla periódica están mejor organizados por carga nuclear positiva que por peso atómico. En 1911, se celebró en Bruselas la primera Conferencia Solvay , que reunió a la mayoría de los científicos más destacados de la época. En 1912, William Henry Bragg y William Lawrence Bragg propusieron la ley de Bragg y establecieron el campo de la cristalografía de rayos X , una herramienta importante para dilucidar la estructura cristalina de sustancias. En 1912, Peter Debye desarrolla el concepto de dipolo molecular para describir la distribución asimétrica de carga en algunas moléculas.

En 1913, Niels Bohr , un físico danés, introdujo los conceptos de la mecánica cuántica en la estructura atómica al proponer lo que ahora se conoce como el modelo del átomo de Bohr, donde los electrones existen sólo en órbitas circulares estrictamente definidas alrededor del núcleo, similares a los peldaños de un escalera. El modelo de Bohr es un modelo planetario en el que los electrones cargados negativamente orbitan alrededor de un pequeño núcleo cargado positivamente similar a los planetas que orbitan alrededor del Sol (excepto que las órbitas no son planas): la fuerza gravitacional del sistema solar es matemáticamente similar a la fuerza de atracción. Fuerza de Coulomb (eléctrica) entre el núcleo cargado positivamente y los electrones cargados negativamente.

En 1913, Henry Moseley , basándose en la idea anterior de Van den Broek, introduce el concepto de número atómico para corregir las deficiencias de la tabla periódica de Mendeleev, que se había basado en el peso atómico. La cima de la carrera de Frederick Soddy en radioquímica fue en 1913 con su formulación del concepto de isótopos , que afirmaba que ciertos elementos existen en dos o más formas que tienen diferentes pesos atómicos pero que son indistinguibles químicamente. Se le recuerda por haber demostrado la existencia de isótopos de ciertos elementos radiactivos y también se le atribuye, junto con otros, el descubrimiento del elemento protactinio en 1917. En 1913, JJ Thomson amplió el trabajo de Wien demostrando que las partículas subatómicas cargadas se pueden separar por su relación masa-carga, una técnica conocida como espectrometría de masas .

En 1916, Gilbert N. Lewis publicó su artículo fundamental "El átomo de la molécula", que sugería que un enlace químico es un par de electrones compartidos por dos átomos. El modelo de Lewis equiparaba el enlace químico clásico con el hecho de compartir un par de electrones entre los dos átomos unidos. Lewis introdujo los "diagramas de puntos electrónicos" en este artículo para simbolizar las estructuras electrónicas de átomos y moléculas. Ahora conocidas como estructuras de Lewis , se analizan en prácticamente todos los libros de introducción a la química. Lewis en 1923 desarrolló la teoría del par de electrones de ácidos y bases : Lewis redefinió un ácido como cualquier átomo o molécula con un octeto incompleto que era así capaz de aceptar electrones de otro átomo; Las bases eran, por supuesto, donantes de electrones. Su teoría se conoce como el concepto de ácidos y bases de Lewis . En 1923, GN Lewis y Merle Randall publicaron Termodinámica y la energía libre de las sustancias químicas , primer tratado moderno sobre termodinámica química .

La década de 1920 vio una rápida adopción y aplicación del modelo de Lewis del enlace de pares de electrones en los campos de la química orgánica y de coordinación. En química orgánica, esto se debió principalmente a los esfuerzos de los químicos británicos Arthur Lapworth , Robert Robinson , Thomas Lowry y Christopher Ingold ; mientras que en la química de coordinación, el modelo de enlace de Lewis fue promovido gracias a los esfuerzos del químico estadounidense Maurice Huggins y el químico británico Nevil Sidgwick .

Química cuántica

Algunos ven el nacimiento de la química cuántica en el descubrimiento de la ecuación de Schrödinger y su aplicación al átomo de hidrógeno en 1926. [ cita necesaria ] Sin embargo, el artículo de 1927 de Walter Heitler y Fritz London [5] a menudo se reconoce como el primer hito en la historia de la química cuántica. Esta es la primera aplicación de la mecánica cuántica a la molécula diatómica de hidrógeno y, por tanto, al fenómeno del enlace químico . En los años siguientes, Edward Teller , Robert S. Mulliken , Max Born , J. Robert Oppenheimer , Linus Pauling , Erich Hückel , Douglas Hartree , Vladimir Aleksandrovich Fock , por citar algunos, lograron muchos avances . [ cita necesaria ]

Aun así, persistía el escepticismo en cuanto al poder general de la mecánica cuántica aplicada a sistemas químicos complejos. [ cita necesaria ] Paul Dirac describe la situación alrededor de 1930 : [6]

Las leyes físicas subyacentes necesarias para la teoría matemática de una gran parte de la física y de toda la química son, por tanto, completamente conocidas, y la dificultad estriba únicamente en que la aplicación exacta de estas leyes conduce a ecuaciones demasiado complicadas para ser solubles. Por lo tanto, resulta deseable que se desarrollen métodos prácticos aproximados para aplicar la mecánica cuántica, que puedan conducir a una explicación de las características principales de los sistemas atómicos complejos sin demasiados cálculos.

De ahí que los métodos de la mecánica cuántica desarrollados en las décadas de 1930 y 1940 a menudo se denominen física molecular o atómica teórica para subrayar el hecho de que eran más una aplicación de la mecánica cuántica a la química y la espectroscopia que respuestas a preguntas químicamente relevantes. En 1951, un artículo histórico en la química cuántica es el artículo fundamental de Clemens CJ Roothaan sobre las ecuaciones de Roothaan . [7] Abrió la vía a la solución de las ecuaciones de campo autoconsistentes para moléculas pequeñas como el hidrógeno o el nitrógeno . Esos cálculos se realizaron con la ayuda de tablas de integrales que se calculaban en las computadoras más avanzadas de la época. [ cita necesaria ]

En la década de 1940, muchos físicos pasaron de la física molecular o atómica a la física nuclear (como J. Robert Oppenheimer o Edward Teller ). Glenn T. Seaborg fue un químico nuclear estadounidense mejor conocido por su trabajo en el aislamiento e identificación de elementos transuránicos (aquellos más pesados ​​que el uranio ). Compartió el Premio Nobel de Química de 1951 con Edwin Mattison McMillan por sus descubrimientos independientes de los elementos transuránicos. Seaborgio recibió su nombre en su honor, lo que lo convirtió en una de las tres personas, junto con Albert Einstein y Yuri Oganessian , que dieron nombre a un elemento químico durante su vida.

Biología molecular y bioquímica.

A mediados del siglo XX, en principio, la integración de la física y la química era extensa, explicándose las propiedades químicas como resultado de la estructura electrónica del átomo ; El libro de Linus Pauling sobre La naturaleza del enlace químico utilizó los principios de la mecánica cuántica para deducir ángulos de enlace en moléculas cada vez más complicadas. Sin embargo, aunque algunos principios deducidos de la mecánica cuántica fueron capaces de predecir cualitativamente algunas características químicas de moléculas biológicamente relevantes, hasta finales del siglo XX eran más una colección de reglas, observaciones y recetas que métodos cuantitativos ab initio rigurosos. [ cita necesaria ]

Representación esquemática de algunas características estructurales clave del ADN.

Este enfoque heurístico triunfó en 1953 cuando James Watson y Francis Crick dedujeron la estructura de doble hélice del ADN mediante la construcción de modelos restringidos e informados por el conocimiento de la química de las partes constituyentes y los patrones de difracción de rayos X obtenidos por Rosalind Franklin . [8] Este descubrimiento condujo a una explosión de investigación sobre la bioquímica de la vida.

Ese mismo año, el experimento Miller-Urey , realizado por Stanley Miller y Harold Urey demostró que los constituyentes básicos de las proteínas , los aminoácidos simples , podían formarse a partir de moléculas más simples en una simulación de procesos primordiales en la Tierra. Aunque quedan muchas preguntas sobre la verdadera naturaleza del origen de la vida , este fue el primer intento de los químicos de estudiar procesos hipotéticos en el laboratorio bajo condiciones controladas. [9]

En 1983 Kary Mullis ideó un método para la amplificación in vitro del ADN, conocido como reacción en cadena de la polimerasa (PCR), que revolucionó los procesos químicos utilizados en el laboratorio para manipularlo. La PCR pudo utilizarse para sintetizar fragmentos específicos de ADN e hizo posible la secuenciación del ADN de organismos, que culminó en el enorme proyecto del genoma humano .

Una pieza importante del rompecabezas de la doble hélice fue resuelta por uno de los estudiantes de Pauling, Matthew Meselson y Frank Stahl , el resultado de su colaboración ( experimento Meselson-Stahl ) ha sido llamado "el experimento más hermoso en biología".

Utilizaron una técnica de centrifugación que clasificaba las moléculas según diferencias de peso. Debido a que los átomos de nitrógeno son un componente del ADN, fueron etiquetados y, por lo tanto, rastreados en su replicación en bacterias.

Finales del siglo XX

Buckminsterfullereno, C 60

En 1970, John Pople desarrolló el programa gaussiano, que facilitó enormemente los cálculos de química computacional . [10] En 1971, Yves Chauvin ofreció una explicación del mecanismo de reacción de las reacciones de metátesis de olefinas . [11] En 1975, Karl Barry Sharpless y su grupo descubrieron reacciones de oxidación estereoselectivas que incluían la epoxidación de Sharpless , [12] [13] la dihidroxilación asimétrica de Sharpless , [14] [15] [16] y la oximinación de Sharpless . [17] [18] [19] En 1985, Harold Kroto , Robert Curl y Richard Smalley descubrieron los fullerenos , una clase de grandes moléculas de carbono que se asemejan superficialmente a la cúpula geodésica diseñada por el arquitecto R. Buckminster Fuller . [20] En 1991, Sumio Iijima utilizó microscopía electrónica para descubrir un tipo de fullereno cilíndrico conocido como nanotubo de carbono , aunque ya se habían realizado trabajos anteriores en el campo en 1951. Este material es un componente importante en el campo de la nanotecnología . [21] En 1994, Robert A. Holton y su grupo lograron la primera síntesis total de Taxol . [22] [23] [24] En 1995, Eric Cornell y Carl Wieman produjeron el primer condensado de Bose-Einstein , una sustancia que muestra propiedades de la mecánica cuántica a escala macroscópica. [25]

Ciencia de la Tierra

En 1912 Alfred Wegener propuso la teoría de la deriva continental . [26] Esta teoría sugiere que las formas de los continentes y la geología costera coincidente entre algunos continentes indican que se unieron en el pasado y formaron una única masa terrestre conocida como Pangea; A partir de entonces se separaron y flotaron como balsas sobre el fondo del océano, alcanzando actualmente su posición actual. Además, la teoría de la deriva continental ofreció una posible explicación en cuanto a la formación de montañas; La tectónica de placas se basó en la teoría de la deriva continental.

Desafortunadamente, Wegener no proporcionó ningún mecanismo convincente para esta deriva y sus ideas no fueron generalmente aceptadas durante su vida. Arthur Homes aceptó la teoría de Wegener y proporcionó un mecanismo: la convección del manto , para provocar que los continentes se movieran. [27] Sin embargo, no fue hasta después de la Segunda Guerra Mundial que comenzaron a acumularse nuevas pruebas que apoyaban la deriva continental. Siguió un período de 20 años extremadamente emocionantes en los que la teoría de la deriva continental pasó de ser creída por unos pocos a convertirse en la piedra angular de la geología moderna. A partir de 1947, las investigaciones encontraron nuevas evidencias sobre el fondo del océano, y en 1960 Bruce C. Heezen publicó el concepto de dorsales oceánicas . Poco después, Robert S. Dietz y Harry H. Hess propusieron que la corteza oceánica se forma a medida que el fondo marino se extiende a lo largo de las dorsales oceánicas en expansión del fondo marino . [28] Esto fue visto como una confirmación de la convección del manto , por lo que se eliminó el principal obstáculo para la teoría. La evidencia geofísica sugirió un movimiento lateral de los continentes y que la corteza oceánica es más joven que la corteza continental . Esta evidencia geofísica estimuló también la hipótesis del paleomagnetismo , el registro de la orientación del campo magnético terrestre registrado en los minerales magnéticos. El geofísico británico SK Runcorn sugirió el concepto de paleomagnetismo a partir de su descubrimiento de que los continentes se habían movido en relación con los polos magnéticos de la Tierra. Tuzo Wilson , quien fue un impulsor de la hipótesis de la expansión del fondo marino y la deriva continental desde el principio, [29] añadió el concepto de fallas transformantes al modelo, completando las clases de tipos de fallas necesarias para hacer posible la movilidad de las placas en la superficie. función del globo. [30] Un simposio sobre la deriva continental [31] celebrado en la Royal Society de Londres en 1965 debe considerarse como el inicio oficial de la aceptación de la tectónica de placas por parte de la comunidad científica. Los resúmenes del simposio se publicaron como Blacket, Bullard, Runcorn; 1965. En este simposio, Edward Bullard y sus colaboradores mostraron con un cálculo por computadora cómo los continentes a ambos lados del Atlántico encajarían mejor para cerrar el océano, que se convirtió en conocido como el famoso "Bullard's Fit". A finales de la década de 1960, el peso de la evidencia disponible consideraba que la deriva continental era la teoría generalmente aceptada.

A otras teorías sobre las causas del cambio climático no les fue mejor. Los principales avances se produjeron en la paleoclimatología observacional , a medida que científicos de diversos campos de la geología desarrollaron métodos para revelar climas antiguos. Wilmot H. Bradley descubrió que las variedades anuales de arcilla depositadas en los lechos de los lagos mostraban ciclos climáticos. Andrew Ellicott Douglass vio fuertes indicios de cambio climático en los anillos de los árboles . Observando que los anillos eran más delgados en los años secos, informó sobre los efectos climáticos de las variaciones solares, particularmente en relación con la escasez de manchas solares en el siglo XVII (el Mínimo de Maunder ) notada previamente por William Herschel y otros. Otros científicos, sin embargo, encontraron buenas razones para dudar de que los anillos de los árboles pudieran revelar algo más que variaciones regionales aleatorias. El valor de los anillos de los árboles para el estudio del clima no quedó sólidamente establecido hasta la década de 1960. [32] [33]

Durante la década de 1930, el defensor más persistente de una conexión entre el sol y el clima fue el astrofísico Charles Greeley Abbot . A principios de la década de 1920, había llegado a la conclusión de que la "constante" solar tenía un nombre incorrecto: sus observaciones mostraban grandes variaciones, que relacionaba con manchas solares que pasaban por la cara del Sol. Él y algunos otros continuaron con el tema hasta la década de 1960, convencidos de que las variaciones de las manchas solares eran una de las principales causas del cambio climático. Otros científicos se mostraron escépticos. [32] [33] Sin embargo, los intentos de conectar el ciclo solar con los ciclos climáticos fueron populares en las décadas de 1920 y 1930. Científicos respetados anunciaron correlaciones que, según insistían, eran lo suficientemente fiables como para hacer predicciones. Tarde o temprano, todas las predicciones fallaron y el tema cayó en descrédito. [34]

Mientras tanto, Milutin Milankovitch , basándose en la teoría de James Croll , mejoró los tediosos cálculos de las diferentes distancias y ángulos de la radiación solar a medida que el Sol y la Luna perturbaban gradualmente la órbita de la Tierra. Algunas observaciones de varves (capas que se ven en el lodo que cubre el fondo de los lagos) coincidieron con la predicción de un ciclo de Milankovitch que duraría unos 21.000 años. Sin embargo, la mayoría de los geólogos descartaron la teoría astronómica. Porque no pudieron ajustar el calendario de Milankovitch a la secuencia aceptada, que tenía sólo cuatro edades de hielo, todas ellas de mucho más de 22.000 años. [35]

En 1938, Guy Stewart Callendar intentó revivir la teoría del efecto invernadero de Arrhenius. Callendar presentó evidencia de que tanto la temperatura como el nivel de CO 2 en la atmósfera habían estado aumentando durante el último medio siglo, y argumentó que las mediciones espectroscópicas más recientes mostraban que el gas era eficaz para absorber el infrarrojo en la atmósfera. Sin embargo, la mayoría de la opinión científica continuó cuestionando o ignorando la teoría. [36]

Charles Keeling, recibiendo la Medalla Nacional de Ciencias de manos de George W. Bush , en 2001

Otra pista sobre la naturaleza del cambio climático surgió a mediados de la década de 1960 a partir del análisis de núcleos de aguas profundas realizado por Cesare Emiliani y el análisis de corales antiguos realizado por Wallace Broecker y sus colaboradores. En lugar de cuatro glaciaciones largas , encontraron una gran cantidad de glaciaciones más cortas en una secuencia regular. Parecía que el momento de las edades de hielo estaba determinado por los pequeños cambios orbitales de los ciclos de Milankovitch . Si bien el asunto siguió siendo controvertido, algunos comenzaron a sugerir que el sistema climático es sensible a pequeños cambios y puede pasar fácilmente de un estado estable a otro diferente. [35]

Mientras tanto, los científicos comenzaron a utilizar computadoras para desarrollar versiones más sofisticadas de los cálculos de Arrhenius. En 1967, aprovechando la capacidad de los ordenadores digitales para integrar numéricamente las curvas de absorción, Syukuro Manabe y Richard Wetherald realizaron el primer cálculo detallado del efecto invernadero incorporando la convección (el " modelo radiativo-convectivo unidimensional de Manabe-Wetherald "). [37] [38] Descubrieron que, en ausencia de retroalimentaciones desconocidas, como cambios en las nubes, una duplicación del nivel actual de dióxido de carbono daría como resultado un aumento de aproximadamente 2 °C en la temperatura global.

En la década de 1960, la contaminación por aerosoles ("smog") se había convertido en un grave problema local en muchas ciudades, y algunos científicos comenzaron a considerar si el efecto refrescante de la contaminación por partículas podría afectar las temperaturas globales. Los científicos no estaban seguros de si predominaría el efecto de enfriamiento de la contaminación por partículas o el efecto de calentamiento de las emisiones de gases de efecto invernadero, pero de todos modos comenzaron a sospechar que las emisiones humanas podrían ser perjudiciales para el clima en el siglo XXI, si no antes. En su libro de 1968 The Population Bomb , Paul R. Ehrlich escribió: "el efecto invernadero está siendo potenciado ahora por el gran aumento del nivel de dióxido de carbono... [esto] está siendo contrarrestado por nubes bajas generadas por estelas de vapor, polvo, y otros contaminantes... Por el momento no podemos predecir cuáles serán los resultados climáticos generales si utilizamos la atmósfera como vertedero de basura." [39]

Un estudio de 1968 realizado por el Instituto de Investigación de Stanford para el Instituto Americano del Petróleo señaló: [40]

Si la temperatura de la Tierra aumenta significativamente, se podría esperar que ocurran una serie de eventos, incluido el derretimiento de la capa de hielo de la Antártida, un aumento en el nivel del mar, el calentamiento de los océanos y un aumento de la fotosíntesis. [..] Revelle señala que el hombre está ahora involucrado en un vasto experimento geofísico con su entorno, la Tierra. Es casi seguro que para el año 2000 se producirán cambios importantes de temperatura que podrían provocar cambios climáticos.

En 1969, la OTAN fue el primer candidato a abordar el cambio climático a nivel internacional. Se planeó entonces establecer un centro de investigaciones e iniciativas de la organización en el área civil, abordando temas ambientales [41] como la lluvia ácida y el efecto invernadero . La sugerencia del presidente estadounidense Richard Nixon no tuvo mucho éxito durante la administración del canciller alemán Kurt Georg Kiesinger . Pero los temas y el trabajo de preparación realizado por las autoridades alemanas sobre la propuesta de la OTAN ganaron impulso internacional (ver, por ejemplo, la Conferencia de las Naciones Unidas sobre el Medio Humano de Estocolmo en 1970), cuando el gobierno de Willy Brandt comenzó a aplicarlos en la esfera civil. [41] [ se necesita aclaración ]

También en 1969, Mikhail Budyko publicó una teoría sobre la retroalimentación del albedo del hielo , un elemento fundamental de lo que hoy se conoce como amplificación ártica . [42] El mismo año , William D. Sellers publicó un modelo similar . [43] Ambos estudios atrajeron una atención significativa, ya que insinuaron la posibilidad de una retroalimentación positiva desbocada dentro del sistema climático global. [44]

A principios de la década de 1970, la evidencia de que los aerosoles estaban aumentando en todo el mundo animó a Reid Bryson y algunos otros a advertir sobre la posibilidad de un enfriamiento severo. Mientras tanto, la nueva evidencia de que el momento de las edades de hielo estaba determinado por ciclos orbitales predecibles sugería que el clima se enfriaría gradualmente a lo largo de miles de años. Sin embargo, para el siglo venidero, un estudio de la literatura científica entre 1965 y 1979 encontró que siete artículos predecían el enfriamiento y 44 el calentamiento (muchos otros artículos sobre el clima no hacían predicciones); Los artículos sobre el calentamiento fueron citados con mucha más frecuencia en la literatura científica posterior. [45] Varios paneles científicos de este período concluyeron que se necesitaba más investigación para determinar si era probable el calentamiento o el enfriamiento, lo que indica que la tendencia en la literatura científica aún no se había convertido en un consenso. [46] [47] [48]

John Sawyer publicó el estudio Man-made Carbon Dioxide and the "Greenhouse" Effect en 1972. [49] Resumió los conocimientos de la ciencia de la época, la atribución antropogénica del dióxido de carbono, gas de efecto invernadero, su distribución y su aumento exponencial, hallazgos que todavía se mantiene hoy. Además, predijo con precisión la tasa de calentamiento global para el período comprendido entre 1972 y 2000. [50] [51]

El aumento del 25% de CO2 previsto para finales de siglo corresponde, por tanto, a un aumento de 0,6°C en la temperatura mundial, una cantidad algo mayor que la variación climática de los últimos siglos . – John Sawyer, 1972

Los principales medios de comunicación de la época exageraron las advertencias de la minoría que esperaba un enfriamiento inminente. Por ejemplo, en 1975, la revista Newsweek publicó un artículo que advertía sobre "signos siniestros de que los patrones climáticos de la Tierra han comenzado a cambiar". [52] El artículo continuaba afirmando que la evidencia de enfriamiento global era tan fuerte que a los meteorólogos les estaba costando "mantenerse al día". [52] El 23 de octubre de 2006, Newsweek publicó una actualización afirmando que había estado "espectacularmente equivocado acerca del futuro a corto plazo". [53]

En los dos primeros "Informes para el Club de Roma" de 1972 [54] y 1974 [55] se mencionaron los cambios climáticos antropogénicos debido al aumento del CO 2 y al calor residual . Sobre esto último, John Holdren escribió en un estudio [56] citado en el primer informe: "... que la contaminación térmica global no es nuestra amenaza ambiental más inmediata. Sin embargo, podría llegar a ser la más inexorable, si tenemos la suerte de para evadir todo lo demás." Estimaciones simples a escala global [57] que recientemente han sido actualizadas [58] y confirmadas por cálculos de modelos más refinados [59] [60] muestran contribuciones notables del calor residual al calentamiento global después del año 2100, si sus tasas de crecimiento no son fuertemente reducido (por debajo del promedio anual del 2% registrado desde 1973).

Se han acumulado pruebas del calentamiento. En 1975, Manabe y Wetherald habían desarrollado un modelo climático global tridimensional que ofrecía una representación aproximada del clima actual. Duplicar el CO 2 en la atmósfera del modelo dio como resultado un aumento de aproximadamente 2 °C en la temperatura global. [61] Varios otros tipos de modelos informáticos dieron resultados similares: era imposible hacer un modelo que diera algo parecido al clima real y que no aumentara la temperatura cuando aumentaba la concentración de CO 2 .

La Conferencia Mundial sobre el Clima de 1979 (12 al 23 de febrero) de la Organización Meteorológica Mundial concluyó que "parece plausible que una mayor cantidad de dióxido de carbono en la atmósfera pueda contribuir a un calentamiento gradual de la atmósfera inferior, especialmente en latitudes más altas... Es posible que algunos efectos a escala regional y global sean detectables antes de finales de este siglo y se vuelvan significativos antes de mediados del próximo siglo". [62]

En julio de 1979, el Consejo Nacional de Investigación de los Estados Unidos publicó un informe [63] en el que concluía (en parte):

Cuando se supone que el contenido de CO 2 de la atmósfera se duplica y se logra el equilibrio térmico estadístico, los esfuerzos de modelización más realistas predicen un calentamiento global de la superficie de entre 2 °C y 3,5 °C, con mayores aumentos en latitudes altas. ... lo hemos intentado, pero no hemos podido encontrar ningún efecto físico pasado por alto o subestimado que pudiera reducir los calentamientos globales estimados actualmente debido a la duplicación del CO 2 atmosférico a proporciones insignificantes o revertirlos por completo.

James Hansen durante su testimonio ante el Congreso en 1988, que alertó al público sobre los peligros del calentamiento global.

A principios de la década de 1980, la ligera tendencia al enfriamiento que se había producido entre 1945 y 1975 se había detenido. La contaminación por aerosoles había disminuido en muchas zonas debido a la legislación ambiental y a los cambios en el uso de combustible, y quedó claro que el efecto refrescante de los aerosoles no iba a aumentar sustancialmente mientras los niveles de dióxido de carbono aumentaran progresivamente.

Hansen y otros publicaron el estudio de 1981 Impacto climático del aumento del dióxido de carbono atmosférico y señalaron:

Se ha demostrado que el calentamiento antropogénico del dióxido de carbono debería surgir del nivel de ruido de la variabilidad climática natural hacia finales de siglo, y existe una alta probabilidad de calentamiento en la década de 1980. Los posibles efectos sobre el clima en el siglo XXI incluyen la creación de regiones propensas a la sequía en América del Norte y Asia central como parte de un cambio de zonas climáticas, la erosión de la capa de hielo de la Antártida occidental con el consiguiente aumento mundial del nivel del mar y la apertura de el legendario Pasaje del Noroeste. [64]

En 1982, los núcleos de hielo de Groenlandia perforados por Hans Oeschger , Willi Dansgaard y sus colaboradores revelaron dramáticas oscilaciones de temperatura en el espacio de un siglo en el pasado distante. [65] El más destacado de los cambios en su registro correspondió a la violenta oscilación climática del Younger Dryas observada en cambios en los tipos de polen en los lechos de los lagos de toda Europa. Evidentemente, era posible que se produjeran cambios climáticos drásticos durante la vida humana.

En 1985, una conferencia conjunta PNUMA/OMM/CIUC sobre la "Evaluación del papel del dióxido de carbono y otros gases de efecto invernadero en las variaciones climáticas y sus impactos asociados" concluyó que "se espera" que los gases de efecto invernadero causen un calentamiento significativo en el próximo siglo y que algunos El calentamiento es inevitable. [66]

Mientras tanto, los núcleos de hielo perforados por un equipo franco-soviético en la estación Vostok en la Antártida mostraron que el CO 2 y la temperatura habían subido y bajado juntos en grandes oscilaciones a lo largo de glaciaciones pasadas. Esto confirmó la relación entre el CO 2 y la temperatura de una manera totalmente independiente de los modelos climáticos informáticos, lo que reforzó fuertemente el consenso científico emergente. Los hallazgos también apuntaron a poderosas retroalimentaciones biológicas y geoquímicas. [67]

En junio de 1988, James E. Hansen hizo una de las primeras evaluaciones de que el calentamiento provocado por el hombre ya había afectado de manera mensurable el clima global. [68] Poco después, una " Conferencia Mundial sobre la Atmósfera Cambiante: Implicaciones para la Seguridad Global " reunió a cientos de científicos y otras personas en Toronto . Concluyeron que los cambios en la atmósfera debidos a la contaminación humana "representan una gran amenaza a la seguridad internacional y ya están teniendo consecuencias perjudiciales en muchas partes del mundo", y declararon que para 2005 sería aconsejable que el mundo aumentara sus emisiones. aproximadamente un 20% por debajo del nivel de 1988. [69]

En la década de 1980 se produjeron importantes avances con respecto a los desafíos ambientales globales. El agotamiento del ozono fue mitigado por la Convención de Viena (1985) y el Protocolo de Montreal (1987). La lluvia ácida se reguló principalmente a nivel nacional y regional.

Los colores indican anomalías de temperatura ( NASA / NOAA ; 20 de enero de 2016). [70] En 1988, la OMM estableció el Panel Intergubernamental sobre el Cambio Climático con el apoyo del PNUMA. El IPCC continúa su trabajo hasta el día de hoy y publica una serie de informes de evaluación e informes complementarios que describen el estado de la comprensión científica en el momento en que se prepara cada informe. Los avances científicos durante este período se resumen aproximadamente una vez cada cinco o seis años en los informes de evaluación del IPCC que se publicaron en 1990 ( primer informe de evaluación ), 1995 ( segundo informe de evaluación ), 2001 ( tercer informe de evaluación ), 2007 ( cuarto informe de evaluación ). , y 2013/2014 ( Quinto Informe de Evaluación ). [71]

Desde la década de 1990, la investigación sobre el cambio climático se ha ampliado y crecido, vinculando muchos campos como las ciencias atmosféricas, la modelización numérica, las ciencias del comportamiento, la geología y la economía o la seguridad .

Ingeniería y Tecnología

Primer vuelo del Wright Flyer I, 17 de diciembre de 1903, Orville pilotando y Wilbur corriendo en la punta del ala.

Uno de los rasgos destacados del siglo XX fue el espectacular crecimiento de la tecnología. La investigación organizada y la práctica de la ciencia condujeron a avances en los campos de las comunicaciones, la ingeniería, los viajes, la medicina y la guerra.

Matemáticas

En el siglo XX, las matemáticas se convirtieron en una profesión importante. Como en la mayoría de las áreas de estudio, la explosión del conocimiento en la era científica ha llevado a la especialización: a finales de siglo había cientos de áreas especializadas en matemáticas y la Clasificación de Matemáticas por Materias tenía decenas de páginas. [72] Cada año, se otorgaban miles de nuevos doctorados en matemáticas y había puestos de trabajo disponibles tanto en la enseñanza como en la industria. Se publicaron cada vez más revistas de matemáticas y, a finales de siglo, el desarrollo de la World Wide Web condujo a la publicación en línea. Se produjeron colaboraciones matemáticas de un tamaño y alcance sin precedentes. Un ejemplo es la clasificación de grupos finitos simples (también llamado "teorema enorme"), cuya demostración entre 1955 y 1983 requirió unos 500 artículos de revistas de unos 100 autores y llenó decenas de miles de páginas.

En un discurso de 1900 ante el Congreso Internacional de Matemáticos , David Hilbert expuso una lista de 23 problemas de matemáticas sin resolver . Estos problemas, que abarcan muchas áreas de las matemáticas, constituyeron un foco central para gran parte de las matemáticas del siglo XX. A día de hoy, 10 han sido solucionados, 7 están parcialmente solucionados y 2 siguen abiertos. Los 4 restantes están formulados de manera demasiado vaga para considerarlos resueltos o no.

En 1929 y 1930, se demostró que la verdad o falsedad de todas las afirmaciones formuladas sobre los números naturales más uno de la suma y la multiplicación, era decidible , es decir, podía determinarse mediante algún algoritmo. En 1931, Kurt Gödel descubrió que este no era el caso de los números naturales más la suma y la multiplicación; este sistema, conocido como aritmética de Peano , era de hecho incompleto . (La aritmética de Peano es adecuada para gran parte de la teoría de números , incluida la noción de número primo ). Una consecuencia de los dos teoremas de incompletitud de Gödel es que en cualquier sistema matemático que incluya la aritmética de Peano (incluido todo el análisis y la geometría ), la verdad necesariamente supera a la verdad . prueba, es decir, hay afirmaciones verdaderas que no se pueden probar dentro del sistema. Por lo tanto, las matemáticas no pueden reducirse a la lógica matemática, y era necesario reformular el sueño de David Hilbert de hacer que todas las matemáticas fueran completas y consistentes.

En 1963, Paul Cohen demostró que la hipótesis del continuo es independiente de (no se puede probar ni refutar) los axiomas estándar de la teoría de conjuntos . En 1976, Wolfgang Haken y Kenneth Appel utilizaron una computadora para demostrar el teorema de los cuatro colores . Andrew Wiles , basándose en el trabajo de otros, demostró el último teorema de Fermat en 1995. En 1998, Thomas Callister Hales demostró la conjetura de Kepler .

Órbita newtoniana (roja) versus einsteiniana (azul) de un planeta solitario que orbita una estrella, con precesión relativista de los ápsides

La geometría diferencial cobró importancia cuando Albert Einstein la utilizó en la relatividad general . Áreas completamente nuevas de las matemáticas, como la lógica matemática , la topología y la teoría de juegos de John von Neumann, cambiaron los tipos de preguntas que podían responderse mediante métodos matemáticos. Se abstrajeron todo tipo de estructuras utilizando axiomas y nombres como espacios métricos , espacios topológicos , etc. Como hacen los matemáticos, el concepto de estructura abstracta fue en sí mismo abstraído y condujo a la teoría de categorías . Grothendieck y Serre reformularon la geometría algebraica utilizando la teoría de la gavilla . Se lograron grandes avances en el estudio cualitativo de los sistemas dinámicos que Poincaré había iniciado en la década de 1890. La teoría de la medida se desarrolló a finales del siglo XIX y principios del XX. Las aplicaciones de las medidas incluyen la integral de Lebesgue , la axiomatización de la teoría de la probabilidad de Kolmogorov y la teoría ergódica . La teoría de nudos se expandió enormemente. La mecánica cuántica condujo al desarrollo del análisis funcional . Otras áreas nuevas incluyen la teoría de la distribución de Laurent Schwartz , la teoría del punto fijo , la teoría de la singularidad y la teoría de la catástrofe de René Thom , la teoría de modelos y los fractales de Mandelbrot . La teoría de Lie con sus grupos de Lie y sus álgebras de Lie se convirtió en una de las principales áreas de estudio.

El análisis no estándar , introducido por Abraham Robinson , rehabilitó el enfoque infinitesimal del cálculo, que había caído en descrédito en favor de la teoría de los límites , al extender el campo de los números reales a los números hiperrealistas que incluyen cantidades infinitesimales e infinitas. Un sistema numérico aún mayor, los números surrealistas, fue descubierto por John Horton Conway en relación con los juegos combinatorios .

El desarrollo y la mejora continua de las computadoras , al principio máquinas analógicas mecánicas y luego máquinas electrónicas digitales, permitió a la industria manejar cantidades cada vez mayores de datos para facilitar la producción, distribución y comunicación en masa, y se desarrollaron nuevas áreas de las matemáticas para abordar esto. : Teoría de la computabilidad de Alan Turing ; teoría de la complejidad ; el uso de ENIAC por parte de Derrick Henry Lehmer para promover la teoría de números y la prueba de Lucas-Lehmer ; la teoría de la función recursiva de Rózsa Péter ; la teoría de la información de Claude Shannon ; procesamiento de la señal ; análisis de los datos ; optimización y otras áreas de la investigación de operaciones . En los siglos anteriores, gran parte de la atención matemática se centró en el cálculo y las funciones continuas, pero el auge de las redes informáticas y de comunicación llevó a una importancia cada vez mayor de los conceptos discretos y a la expansión de la combinatoria , incluida la teoría de grafos . La velocidad y la capacidad de procesamiento de datos de las computadoras también permitieron el manejo de problemas matemáticos que requerían demasiado tiempo para resolverlos mediante cálculos con lápiz y papel, lo que llevó a áreas como el análisis numérico y el cálculo simbólico . Algunos de los métodos y algoritmos más importantes del siglo XX son: el algoritmo simplex , la transformada rápida de Fourier , los códigos de corrección de errores , el filtro de Kalman de la teoría de control y el algoritmo RSA de criptografía de clave pública .

Física

Mecánica cuántica

En 1924, el físico cuántico francés Louis de Broglie publicó su tesis, en la que introdujo una teoría revolucionaria de las ondas de electrones basada en la dualidad onda-partícula . En su época, se consideraba que las interpretaciones de la luz y la materia como ondas y partículas estaban en desacuerdo entre sí, pero de Broglie sugirió que estas características aparentemente diferentes eran en cambio el mismo comportamiento observado desde diferentes perspectivas: que las partículas pueden comportarse como ondas y que las partículas pueden comportarse como ondas. Las ondas (radiación) pueden comportarse como partículas. La propuesta de Broglie ofrecía una explicación del movimiento restringido de los electrones dentro del átomo. Las primeras publicaciones de la idea de Broglie sobre las "ondas de materia" habían llamado poco la atención de otros físicos, pero una copia de su tesis doctoral llegó a manos de Einstein, cuya respuesta fue entusiasta. Einstein destacó la importancia del trabajo de Broglie, tanto explícitamente como basándose en él.

En 1925, el físico de origen austriaco Wolfgang Pauli desarrolló el principio de exclusión de Pauli , que establece que no hay dos electrones alrededor de un único núcleo en un átomo que puedan ocupar el mismo estado cuántico simultáneamente, como lo describen cuatro números cuánticos . Pauli hizo importantes contribuciones a la mecánica cuántica y a la teoría cuántica de campos (le concedieron el Premio Nobel de Física en 1945 por su descubrimiento del principio de exclusión de Pauli), así como a la física del estado sólido, y planteó con éxito la hipótesis de la existencia del neutrino . Además de su trabajo original, escribió síntesis magistrales de varias áreas de la teoría física que se consideran clásicos de la literatura científica.

En 1926, a la edad de 39 años, el físico teórico austriaco Erwin Schrödinger escribió los artículos que sentaron las bases de la mecánica ondulatoria cuántica. En esos artículos describió su ecuación diferencial parcial, que es la ecuación básica de la mecánica cuántica y tiene la misma relación con la mecánica del átomo que las ecuaciones de movimiento de Newton con la astronomía planetaria. Adoptando una propuesta hecha por Louis de Broglie en 1924 de que las partículas de materia tienen una naturaleza dual y en algunas situaciones actúan como ondas, Schrödinger introdujo una teoría que describe el comportamiento de dicho sistema mediante una ecuación de onda que ahora se conoce como ecuación de Schrödinger . Las soluciones de la ecuación de Schrödinger, a diferencia de las soluciones de las ecuaciones de Newton, son funciones de onda que sólo pueden relacionarse con la probable ocurrencia de eventos físicos. La secuencia fácilmente visualizada de eventos de las órbitas planetarias de Newton es reemplazada, en la mecánica cuántica, por la noción más abstracta de probabilidad . (Este aspecto de la teoría cuántica hizo profundamente infelices a Schrödinger y a varios otros físicos, y dedicó gran parte de su vida posterior a formular objeciones filosóficas a la interpretación generalmente aceptada de la teoría que tanto había hecho para crear.)

El físico teórico alemán Werner Heisenberg fue uno de los creadores clave de la mecánica cuántica. En 1925, Heisenberg descubrió una manera de formular la mecánica cuántica en términos de matrices. Por ese descubrimiento recibió el Premio Nobel de Física de 1932. En 1927 publicó su principio de incertidumbre , sobre el que construyó su filosofía y por el que es más conocido. Heisenberg pudo demostrar que si estudiabas un electrón en un átomo podías decir dónde estaba (la ubicación del electrón) o hacia dónde se dirigía (la velocidad del electrón), pero era imposible expresar ambas cosas al mismo tiempo. También hizo importantes contribuciones a las teorías de la hidrodinámica de los flujos turbulentos , el núcleo atómico, el ferromagnetismo , los rayos cósmicos y las partículas subatómicas , y contribuyó decisivamente a la planificación del primer reactor nuclear de Alemania Occidental en Karlsruhe , junto con un reactor de investigación en Munich. , en 1957. Una considerable controversia rodea su trabajo sobre la investigación atómica durante la Segunda Guerra Mundial.

Ciencias Sociales

Referencias

  1. ^ Agar, Jon (2012). La ciencia en el siglo XX y más allá . Cambridge: Prensa política. ISBN 978-0-7456-3469-2.
  2. ^ Thomson, señor William (1862). "Sobre la era del calor del sol". Revista de Macmillan . 5 : 288–293.
  3. ^ abc "El Premio Nobel de Fisiología o Medicina 1962". Premio Nobel.org . Nobel Media AB . Consultado el 5 de noviembre de 2011 .
  4. ^ abcd "James Watson, Francis Crick, Maurice Wilkins y Rosalind Franklin". Instituto de Historia de la Ciencia . Junio ​​de 2016. Archivado desde el original el 21 de marzo de 2018 . Consultado el 20 de marzo de 2018 .
  5. ^ W. Heitler y F. London , Wechselwirkung neutraler Atome und Homöopolare Bindung nach der Quantenmechanik , Z. Physik, 44, 455 (1927).
  6. ^ PAM Dirac , Mecánica cuántica de sistemas de muchos electrones , Proc. R. Soc. Londres, A 123, 714 (1929).
  7. ^ CCJ Roothaan , Un estudio de integrales de dos centros útiles en cálculos de estructura molecular , J. Chem. Phys., 19, 1445 (1951).
  8. ^ Watson, J. y Crick, F., "Estructura molecular de los ácidos nucleicos" Nature, 25 de abril de 1953, páginas 737–8
  9. ^ El experimento Miller Urey - Ventanas al universo
  10. ^ WJ Hehre, WA Lathan, R. Ditchfield, MD Newton y JA Pople, Gaussian 70 (Intercambio del programa de química cuántica, programa n.° 237, 1970).
  11. ^ Catalizar la transformación de oléfines par les complexes du tungstène. II. Télomérisation des oléfines cycliques en présence d'oléfines acycliques Die Makromolekulare Chemie Volumen 141, Número 1, Fecha: 9 de febrero de 1971 , Páginas: 161–176 Por Jean-Louis Hérisson, Yves Chauvin doi :10.1002/macp.1971.021410112
  12. ^ Katsuki, T.; Sharpless, KB J. Am. Química. Soc. 1980 , 102 , 5974. ( doi :10.1021/ja00538a077)
  13. ^ Colina, JG; Sin filo, KB ; Exón, CM; Regenye, R. Org. Sintetizador. , col. vol. 7, p.461 (1990); vol. 63, p.66 (1985). (Artículo)
  14. ^ Jacobsen, EN; Marko, I.; Mungall, WS; Schroeder, G.; Sharpless, KB J. Am. Química. Soc. 1988 , 110 , 1968. ( doi :10.1021/ja00214a053)
  15. ^ Kolb, HC; Van Nieuwenhze, MS; Sharpless, KB Chem. Rev. 1994 , 94 , 2483–2547. (Revisión) ( doi :10.1021/cr00032a009)
  16. ^ González, J.; Aurigemma, C.; Truesdale, L. Org. Sintetizador. , col. vol. 10, p.603 (2004); vol. 79, p.93 (2002). (Artículo archivado el 24 de agosto de 2010 en Wayback Machine )
  17. ^ Sin filo, KB ; Patricio, DW; Truesdale, LK; Biller, SA J. Am. Química. Soc. 1975 , 97 , 2305. ( doi :10.1021/ja00841a071)
  18. ^ Herranz, E.; Facturador, SA; Sharpless, KB J. Am. Química. Soc. 1978 , 100 , 3596–3598. ( doi :10.1021/ja00479a051)
  19. ^ Herranz, E.; Sharpless, KB Org. Sintetizador. , col. vol. 7, p.375 (1990); vol. 61, p.85 (1983). (Artículo archivado el 20 de octubre de 2012 en Wayback Machine )
  20. ^ "El Premio Nobel de Química 1996". Premio Nobel.org . La Fundación Nobel . Consultado el 28 de febrero de 2007 .
  21. ^ "Medalla Benjamin Franklin otorgada al Dr. Sumio Iijima, Director del Centro de Investigación de Materiales Avanzados de Carbono, AIST". Instituto Nacional de Ciencia y Tecnología Industrial Avanzada. 2002. Archivado desde el original el 4 de abril de 2007 . Consultado el 27 de marzo de 2007 .
  22. ^ Primera síntesis total de taxol 1. Funcionalización del anillo B Robert A. Holton, Carmen Somoza, Hyeong Baik Kim, Feng Liang, Ronald J. Biediger, P. Douglas Boatman, Mitsuru Shindo, Chase C. Smith, Soekchan Kim, et al Alabama.; Mermelada. Química. Soc. ; 1994 ; 116(4); 1597–1598. Resumen del DOI
  23. ^ Primera síntesis total de taxol. 2. Finalización de los anillos C y D Robert A. Holton, Hyeong Baik Kim, Carmen Somoza, Feng Liang, Ronald J. Biediger, P. Douglas Boatman, Mitsuru Shindo, Chase C. Smith, Soekchan Kim y et al. Mermelada. Química. Soc. ; 1994 ; 116 (4) págs. 1599–1600 DOI Resumen
  24. ^ Una síntesis de taxusina Robert A. Holton, RR Juo, Hyeong B. Kim, Andrew D. Williams, Shinya Harusawa, Richard E. Lowenthal, Sadamu Yogai J. Am. Química. Soc. ; 1988 ; 110(19); 6558–6560. Abstracto
  25. ^ "Cornell y Wieman comparten el Premio Nobel de Física 2001". Comunicado de prensa del NIST . Instituto Nacional de Estándares y Tecnología. 2001. Archivado desde el original el 10 de junio de 2007 . Consultado el 27 de marzo de 2007 .
  26. ^ Wegener, Alfred (1912). "Die Herausbildung der Grossformen der Erdrinde (Kontinente und Ozeane), auf geophysikalischer Grundlage" (PDF)". Petermanns Geographische Mitteilungen . 63 : 185–95, 253–56, 305–09.
  27. ^ Holmes, Arturo (1931). «Radiactividad y Movimientos de la Tierra» (PDF) . Transacciones de la Sociedad Geológica de Glasgow . 18 (3). Sociedad Geológica de Glasgow : 559–606. doi :10.1144/transglas.18.3.559. S2CID  122872384.
  28. ^ Hess, HH (1 de noviembre de 1962). «Historia de las cuencas oceánicas» (PDF) . En AEJ Engel; Harold L. James; BF Leonard (eds.). Estudios petrológicos: un volumen en honor a AF Buddington . Boulder, CO: Sociedad Geológica de América. págs. 599–620.
  29. ^ Wilson, JT> (1963). "Hipótesis sobre el comportamiento de la Tierra". Naturaleza . 198 (4884): 849–65. Código Bib :1963Natur.198..849H. doi :10.1038/198849a0. S2CID  4209203.
  30. ^ Wilson, J. Tuzo (1965). "Una nueva clase de fallas y su influencia en la deriva continental". Naturaleza . 207 (4995): 343–47. Código bibliográfico : 1965Natur.207..343W. doi :10.1038/207343a0. S2CID  4294401.
  31. ^ Blacket, síndrome premenstrual; Bullard, E.; Runcorn, SK, eds. (1965). "Un simposio sobre la deriva continental, celebrado el 28 de octubre de 1965". Transacciones filosóficas de la Royal Society A. 258 (1088). Sociedad Real de Londres.
  32. ^ ab Spencer Weart (2011). "Sol cambiante, clima cambiante". El descubrimiento del calentamiento global .
  33. ^ ab Hufbauer, K. (1991). Explorando el Sol: ciencia solar desde Galileo . Baltimore, MD: Prensa de la Universidad Johns Hopkins.
  34. ^ Cordero, Hubert H. (1997). A través de todas las escenas cambiantes de la vida: el cuento de un meteorólogo . Norfolk, Reino Unido: Taverner. págs. 192-193. ISBN 1-901470-02-4.
  35. ^ ab Spencer Weart (2011). "Ciclos climáticos pasados: especulaciones sobre la edad de hielo". El descubrimiento del calentamiento global .
  36. ^ Fleming, James R. (2007). El efecto Callendar. La vida y obra de Guy Stewart Callendar (1898-1964), el científico que estableció la teoría del cambio climático sobre el dióxido de carbono . Boston, MA: Sociedad Meteorológica Estadounidense. ISBN 978-1878220769.
  37. ^ Spencer Weart (2011). "Modelos climáticos de circulación general". El descubrimiento del calentamiento global .
  38. ^ Manabe S.; WetheraldRT (1967). "Equilibrio térmico de la atmósfera con una distribución dada de humedad relativa". Revista de Ciencias Atmosféricas . 24 (3): 241–259. Código bibliográfico : 1967JAtS...24..241M. doi : 10.1175/1520-0469(1967)024<0241:teotaw>2.0.co;2 .
  39. ^ Ehrlich, Paul R. (1968). La bomba demográfica . San Francisco: Sierra Club. pag. 52.
  40. ^ E. Robinson; RC Robbins (1968). "Humos y emanaciones, fuentes, abundancia y destino de los contaminantes atmosféricos". Instituto de Investigación de Stanford.
  41. ^ ab Die Frühgeschichte der globalen Umweltkrise und die Formierung der deutschen Umweltpolitik (1950-1973) (Historia temprana de la crisis ambiental y el establecimiento de la política ambiental alemana 1950-1973), Kai F. Hünemörder, Franz Steiner Verlag, 2004 ISBN 3- 515-08188-7 
  42. ^ "Hielo en acción: el hielo marino en el Polo Norte tiene algo que decir sobre el cambio climático". Yale Científico . 2016.
  43. ^ William D. Vendedores (1969). "Un modelo climático global basado en el equilibrio energético del sistema Tierra-Atmósfera". Revista de Meteorología Aplicada . 8 (3): 392–400. Código Bib : 1969JApMe...8..392S. doi : 10.1175/1520-0450(1969)008<0392:AGCMBO>2.0.CO;2 .
  44. ^ Jonathan D. Oldfield (2016). "Contribuciones de Mikhail Budyko (1920-2001) a la ciencia del clima global: desde los balances de calor hasta el cambio climático y la ecología global". Revisión avanzada . 7 (5): 682–692. doi : 10.1002/wcc.412 .
  45. ^ Peterson, TC; W. M. Connolley; J. Fleck (2008). "El mito del consenso científico sobre enfriamiento global de la década de 1970" (PDF) . Boletín de la Sociedad Meteorológica Estadounidense . 89 (9): 1325-1337. Código bibliográfico : 2008BAMS...89.1325P. doi :10.1175/2008BAMS2370.1. S2CID  123635044.
  46. ^ La ciencia y los desafíos futuros. Informe de la Junta Nacional de Ciencias. Washington, DC: Junta Nacional de Ciencias, Fundación Nacional de Ciencias. 1974.
  47. ^ WM Connolley. "Informe del Consejo Nacional de Investigación de la Academia Nacional de Ciencias de Estados Unidos de 1975" . Consultado el 28 de junio de 2009 .
  48. ^ Reid A. Bryson: una reconciliación de varias teorías del cambio climático , en: John P. Holdren (Ed.): Ecología global. Lecturas hacia una estrategia racional para el hombre , Nueva York, etc. 1971, págs. 78–84
  49. ^ JS Sawyer (1 de septiembre de 1972). "El dióxido de carbono producido por el hombre y el efecto" invernadero "". Naturaleza . 239 (5366): 23–26. Código Bib :1972Natur.239...23S. doi :10.1038/239023a0. S2CID  4180899.
  50. ^ Neville Nicholls (30 de agosto de 2007). "Clima: Sawyer predijo la tasa de calentamiento en 1972". Naturaleza . 448 (7157): 992. Bibcode :2007Natur.448..992N. doi : 10.1038/448992c . PMID  17728736.
  51. ^ Dana Andrew Nuccitelli (3 de marzo de 2015). Climatología versus pseudociencia: exponiendo las predicciones fallidas de los escépticos del calentamiento global. Naturaleza. págs. 22-25. ISBN 9781440832024.
  52. ^ ab Peter Gwynne (1975). "El mundo que se enfría" (PDF) . Archivado desde el original (PDF) el 20 de abril de 2013 . Consultado el 17 de junio de 2020 .
  53. ^ Jerry Adler (23 de octubre de 2006). "Cambio climático: peligros de predicción". Semana de noticias .
  54. ^ Meadows, D. y otros, Los límites del crecimiento. Nueva York 1972.
  55. ^ Mesarovic, M., Pestel, E., La humanidad en el punto de inflexión. Nueva York 1974.
  56. ^ John P. Holdren: "Contaminación térmica global", en: John P. Holdren (Ed.): Ecología global. Lecturas hacia una estrategia racional para el hombre , Nueva York, etc. 1971, págs. 85–88. El autor se convirtió en director de la Oficina de Política Científica y Tecnológica de la Casa Blanca en 2009.
  57. ^ R. Döpel , "Über die geophysikalische Schranke der industriellen Energieerzeugung". Wissenschaftl. Zeitschrift der Technischen Hochschule Ilmenau, ISSN  0043-6917, Bd. 19 (1973, H.2), 37–52. en línea.
  58. ^ H. Arnold, " Robert Döpel y su modelo de calentamiento global. Una alerta temprana y su actualización". Universitätsverlag Ilmenau (Alemania) 2013. ISBN 978-3-86360 063-1 en línea 
  59. ^ Chaisson EJ (2008). "Calentamiento global a largo plazo debido al uso de energía". Eos . 89 (28): 253–260. Código Bib : 2008EOSTr..89..253C. doi : 10.1029/2008eo280001 .
  60. ^ Flanner, MG (2009). "Integración del flujo de calor antropogénico con modelos climáticos globales". Geofís. Res. Lett . 36 (2): L02801. Código Bib : 2009GeoRL..36.2801F. doi :10.1029/2008GL036465.
  61. ^ Manabe S.; Wetherald RT (1975). "Los efectos de duplicar la concentración de CO2 sobre el clima de un modelo de circulación general". Revista de Ciencias Atmosféricas . 32 (3): 3–15. Código bibliográfico : 1975JAtS...32....3M. doi : 10.1175/1520-0469(1975)032<0003:teodtc>2.0.co;2 .
  62. ^ "Declaración de la Conferencia Mundial sobre el Clima" (PDF) . Organización Meteorológica Mundial . Consultado el 28 de junio de 2009 .
  63. ^ Consejo Nacional de Investigaciones (1979). Dióxido de carbono y clima: una evaluación científica . Washington, DC: Prensa de las Academias Nacionales. doi :10.17226/12181. ISBN 978-0-309-11910-8.
  64. ^ Hansen, J.; et al. (1981). "Impacto climático del aumento del dióxido de carbono atmosférico". Ciencia . 231 (4511): 957–966. Código bibliográfico : 1981 Ciencia... 213..957H. doi : 10.1126/ciencia.213.4511.957. PMID  17789014. S2CID  20971423.
  65. ^ Dansgaard W.; et al. (mil novecientos ochenta y dos). "Un nuevo núcleo de hielo profundo de Groenlandia". Ciencia . 218 (4579): 1273–77. Código bibliográfico : 1982 Ciencia... 218.1273D. doi : 10.1126/ciencia.218.4579.1273. PMID  17770148. S2CID  35224174.
  66. ^ Organización Meteorológica Mundial (OMM) (1986). "Informe de la Conferencia Internacional sobre la evaluación del papel del dióxido de carbono y de otros gases de efecto invernadero en las variaciones climáticas y los impactos asociados". Villach, Austria. Archivado desde el original el 21 de noviembre de 2013 . Consultado el 28 de junio de 2009 .
  67. ^ Lorio Claude; et al. (1985). "Un récord climático de 150.000 años del hielo antártico". Naturaleza . 316 (6029): 591–596. Código Bib :1985Natur.316..591L. doi :10.1038/316591a0. S2CID  4368173.
  68. ^ "Declaración del Dr. James Hansen, director del Instituto Goddard de Estudios Espaciales de la NASA" (PDF) . El guardián . Londres . Consultado el 28 de junio de 2009 .
  69. ^ OMM (Organización Meteorológica Mundial) (1989). La atmósfera cambiante: implicaciones para la seguridad global, Toronto, Canadá, 27 a 30 de junio de 1988: Actas de la conferencia (PDF) . Ginebra: Secretaría de la Organización Meteorológica Mundial. Archivado desde el original (PDF) el 29 de junio de 2012.
  70. ^ Marrón, Dwayne; Repollo, Michael; McCarthy, Leslie; Norton, Karen (20 de enero de 2016). "Los análisis de la NASA y la NOAA revelan temperaturas cálidas globales récord en 2015". NASA . Consultado el 21 de enero de 2016 .
  71. ^ "IPCC - Panel Intergubernamental sobre Cambio Climático". ipcc.ch.
  72. ^ Clasificación de materias de matemáticas 2000