[3] Entre las posibles catástrofes globales se incluyen no solo el cambio climático, las pandemias y guerras nucleares, sino también los riesgos relacionados con la nanotecnología o una absorción por parte de una inteligencia artificial hostil, y los eventos originados en el espacio tales como los impactos de meteoritos.La definición enfatiza las consecuencias económicas y permite una clasificación precisa de los riesgos catastróficos en esta categoría.Los alaridos son escenarios de futuros distópicos, como los regímenes totalitarios que utilizan inteligencias artificiales para controlar la especie humana.Algunos escenarios combinan causas naturales y artificiales: una gran tormenta magnética del Sol o una reversión del campo magnético de la Tierra podría bloquear el funcionamiento de los dispositivos electrónicos y las redes que se han vuelto totalmente dependientes de la economía global, dando lugar a una quiebra financiera global y conflictos a gran escala.Escenarios menos extremos, sin hacer la Tierra inhabitable, podrían causar el fin de la civilización.La energía requerida para el trabajo agrícola fue proporcionada por los combustibles fósiles, ya sea para tractores e irrigación (con motores que consumen hidrocarburos), o para la fabricación de fertilizantes y pesticidas.Sin embargo, la nube marrón de Asia podría tener consecuencias climáticas en todo el mundo.Aunque la probabilidad anual de tal guerra es baja, Martin Hellman señaló en 1985 que si esta probabilidad permanece constante o no disminuye lo suficientemente rápido, la guerra es inevitable a largo plazo e inevitablemente llegará el día en que se agotará la suerte de la civilización.La más conocida de estas crisis es la llegada del pico del petróleo (y, en particular, sus consecuencias para la agricultura),[35][36] pero se anticipa durante varias décadas, y serían solo efectos indirectos inesperados lo que podría convertirlo en un colapso global.[68] También es posible que la primera superinteligencia aparente elimine a todas las demás, pudiendo también manipular cualquier inteligencia inferior para lograr sus objetivos.[75] Nick Bostrom se unió a esta posición publicando en 2014 Superinteligencia: caminos, peligros, estrategias,[76] así como Stuart Russell en con su libro Human Compatible: AI and the Problem of Control de 2019.[77] La biotecnología puede crear un riesgo de catástrofe global al desarrollar agentes infecciosos naturales o artificiales, que luego podrían propagarse mediante el uso de armas biológicas, ataques terroristas o por accidente,[78] lo que podría causar pandemias.Noun y Chyba predicen que esto llevará a una gran mejora en estas técnicas en las próximas décadas.[78] El virus modificado se ha vuelto extremadamente letal incluso en ratones vacunados o naturalmente resistentes.Así podrían, entre otras cosas, fabricar a un precio bajo armas sofisticadas, autónomas y duraderas.Así, en 1986, en su libro Engines of Creation,[91] Eric Drexler consideró la noción de plaga gris, un tema a menudo tratado por los medios y la ciencia ficción.[92][93] Este escenario involucra pequeños robots autorreplicantes que destruirían toda la biosfera al utilizarla como fuente de energía y materiales.Sin embargo, ahora los expertos en este campo (incluido Drexler) han desacreditado este escenario; Según Chris Phoenix una plaga gris no podría ser más que el resultado de un proceso delicado y deliberado, y no de un accidente.Ya, a algunos científicos les preocupaba que la primera prueba nuclear pudiera incendiar la atmósfera[96],[97] y más recientemente, ha habido especulaciones alarmistas sobre la posible producción de micro agujeros negros,[98] strangelets u otros estados físicos anormales en el Gran colisionador de hadrones, y considerando una reacción en cadena que podría llevar al desastre.[14] La mortalidad pandémica es igual a la virulencia del agente infeccioso multiplicada por el número total de personas infectadas.Sin embargo, esta hipótesis no siempre se verifica, y cuando existe una relación entre la virulencia y la transmisión, por ejemplo, debido a que la descomposición del cadáver libera el agente infeccioso, pueden aparecer niveles altos de virulencia,[104] limitados solo por otros factores, como las interacciones entre diferentes hospedadores (pulgas, ratas y humanos en el caso de plaga, por ejemplo).En un pasado relativamente reciente (geológicamente), la Tierra ha experimentado climas que van desde los períodos glaciales hasta episodios tan calientes como para crecer palmeras en la Antártida.Dado que la civilización (y en particular la agricultura) se ha desarrollado durante un período de climas estables, una variación natural hacia un nuevo régimen climático (más cálido o más frío) podría constituir un riesgo de catástrofe global.La mayor atención se ha prestado a los riesgos durante los próximos cien años, pero los pronósticos de este tiempo son difíciles.[138] Dada la edad del universo y su gran número de estrellas, la vida extraterrestre debe ser trivial, a menos que la Tierra sea muy atípica.Según la estimación de su número, se puede considerar que una ligera disminución del riesgo tiene un gran valor moral.[158] Más recientemente, la Fundación Lifeboat (establecida en 2006) financia investigaciones para prevenir un desastre tecnológico,[159] y la mayor parte de los fondos se destina a proyectos universitarios.[160] El Future of Life Institute (FLI) se creó en 2014 para buscar los medios de salvaguardar la humanidad frente a nuevos desafíos tecnológicos.[183] Las novelas que describen desastres debidos a las nuevas tecnologías (inteligencia artificial, biotecnologías, nanotecnologías, etc.) no aparecen antes de 1990 y siguen siendo marginales.Sin embargo, todas estas películas han sido criticadas por su falta de realismo o probabilidad.
Francis Fukuyama en 2015
Extensión de los traps siberianos (mapa en
alemán
)
La extinción masiva del Pérmico-Triásico señalada como "Final P" en el gráfico.
Una vista de la banquisa alaskeña. Tal vez así era toda la superficie de la Tierra durante la edad de hielo conocida como
Tierra Bola de Nieve.
3 escenarios de evolución de la población mundial entre 1800 y 2100.
[
31
]
[
32
]
Las partículas de
contaminación del aire de la
" Nube Marrón Asiática " (la misma superficie que los Estados Unidos) pueden viajar por todo el planeta.
Efecto asumido de la
Bomba del Zar
(la bomba H más grande jamás probada, con una potencia de 57 Mt ) en la región de París: el círculo rojo (radio:
35 km
) corresponde a la zona de destrucción completa.
Conatos de
pánico
bancario en
Inglaterra
: colas de clientes frente a las oficinas del Northern Rock para sacar los ahorros.
Fulguración solar
Un algoritmo evolutivo utiliza operadores de selección iterativa (en azul) y variación (en amarillo). i: inicialización, f (X): evaluación,? : criterio de parada, Se: selección, Cr: cruce, Mu: mutación, Re: reemplazo, X *: óptimo.