stringtranslate.com

Riesgo catastrófico global

Impresión artística del gran impacto de un asteroide . Un asteroide provocó la extinción de los dinosaurios no aviares . [1]

Un riesgo catastrófico global o un escenario apocalíptico es un evento hipotético que podría dañar el bienestar humano a escala global, [2] incluso poniendo en peligro o destruyendo la civilización moderna . [3] Un evento que podría causar la extinción humana o reducir de manera permanente y drástica la existencia o el potencial de la humanidad se conoce como un " riesgo existencial ". [4]

En el siglo XXI, se han creado varias organizaciones académicas y sin fines de lucro para investigar los riesgos catastróficos y existenciales globales, formular posibles medidas de mitigación y defender o implementar esas medidas. [5] [6] [7] [8]

Definición y clasificación

Tabla de alcance y gravedad del artículo de Bostrom “La prevención del riesgo existencial como prioridad global” [9]

Definición de riesgos catastróficos globales

El término riesgo catastrófico global “carece de una definición precisa” y generalmente se refiere (vagamente) a un riesgo que podría causar “daños graves al bienestar humano a escala global”. [10]

La humanidad ha sufrido grandes catástrofes en el pasado. Algunas de ellas han causado graves daños, pero sólo han tenido un alcance local (por ejemplo, la Peste Negra puede haber provocado la muerte de un tercio de la población de Europa, [11] el 10% de la población mundial en ese momento). [12] Algunas fueron globales, pero no tan graves (por ejemplo, la pandemia de gripe de 1918 mató a un 3-6% de la población mundial, según se estima). [13] La mayoría de los riesgos catastróficos globales no serían tan intensos como para matar a la mayoría de la vida en la Tierra, pero incluso si uno lo hiciera, el ecosistema y la humanidad acabarían recuperándose (a diferencia de los riesgos existenciales ).

De manera similar, en Catástrofe: riesgo y respuesta , Richard Posner identifica y agrupa los eventos que provocan “una catástrofe total o una ruina total” a escala global, en lugar de “local o regional”. Posner destaca esos eventos como dignos de especial atención por razones de costo-beneficio porque podrían poner en peligro directa o indirectamente la supervivencia de la raza humana en su conjunto. [14]

Definición de riesgos existenciales

Los riesgos existenciales se definen como "riesgos que amenazan con la destrucción del potencial a largo plazo de la humanidad". [15] La materialización de un riesgo existencial (una catástrofe existencial [16] ) causaría la extinción total de la humanidad o la dejaría irreversiblemente atrapada en un estado de cosas drásticamente inferior. [9] [17] Los riesgos existenciales son una subclase de riesgos catastróficos globales, donde el daño no es solo global sino también terminal y permanente, impidiendo la recuperación y afectando así a las generaciones actuales y futuras. [9]

Riesgos de no extinción

Aunque la extinción es la forma más obvia en la que se podría destruir el potencial a largo plazo de la humanidad, hay otras, incluyendo el colapso irrecuperable y la distopía irrecuperable . [18] Un desastre lo suficientemente grave como para causar el colapso permanente e irreversible de la civilización humana constituiría una catástrofe existencial, incluso si no llegara a la extinción. [18] De manera similar, si la humanidad cayera bajo un régimen totalitario, y no hubiera posibilidad de recuperación, entonces tal distopía también sería una catástrofe existencial. [19] Bryan Caplan escribe que "quizás una eternidad de totalitarismo sería peor que la extinción". [19] ( La novela de George Orwell Mil novecientos ochenta y cuatro sugiere [20] un ejemplo. [21] ) Un escenario distópico comparte las características clave de la extinción y el colapso irrecuperable de la civilización: antes de la catástrofe, la humanidad se enfrentaba a una amplia gama de futuros brillantes para elegir; después de la catástrofe, la humanidad está atrapada para siempre en un estado terrible. [18]

El psicólogo Steven Pinker ha calificado el riesgo existencial como una “categoría inútil” que puede distraer la atención de amenazas que él considera reales y solucionables, como el cambio climático y la guerra nuclear. [22]

Posibles fuentes de riesgo

Los riesgos catastróficos globales potenciales se clasifican convencionalmente como peligros antropogénicos o no antropogénicos. Ejemplos de riesgos no antropogénicos son un impacto de asteroide o cometa , una erupción supervolcánica , una pandemia natural , un estallido letal de rayos gamma , una tormenta geomagnética causada por una eyección de masa coronal que destruya equipos electrónicos, un cambio climático natural a largo plazo , vida extraterrestre hostil o la transformación del Sol en una estrella gigante roja que envuelva a la Tierra dentro de miles de millones de años . [23]

Clasificación de los riesgos catastróficos globales en tres grupos según sean en gran medida causados ​​por el hombre, influencias humanas sobre la naturaleza o puramente naturales.

Los riesgos antropogénicos son aquellos causados ​​por los humanos e incluyen aquellos relacionados con la tecnología, la gobernanza y el cambio climático. Los riesgos tecnológicos incluyen la creación de inteligencia artificial desalineada con los objetivos humanos, la biotecnología y la nanotecnología . La gobernanza global insuficiente o maligna crea riesgos en el ámbito social y político, como la guerra global y el holocausto nuclear , [24] la guerra biológica y el bioterrorismo utilizando organismos genéticamente modificados , la guerra cibernética y el ciberterrorismo que destruyen infraestructura crítica como la red eléctrica , o la guerra radiológica utilizando armas como grandes bombas de cobalto . Otros riesgos catastróficos globales incluyen el cambio climático, la degradación ambiental , la extinción de especies , la hambruna como resultado de la distribución no equitativa de los recursos, la superpoblación o subpoblación humana , las malas cosechas y la agricultura no sostenible .

Desafíos metodológicos

La investigación sobre la naturaleza y la mitigación de los riesgos catastróficos globales y los riesgos existenciales está sujeta a un conjunto único de desafíos y, como resultado, no es fácil someterla a los estándares habituales de rigor científico. [18] Por ejemplo, no es factible ni ético estudiar estos riesgos experimentalmente. Carl Sagan expresó esto con respecto a la guerra nuclear: "Comprender las consecuencias a largo plazo de la guerra nuclear no es un problema que se pueda verificar experimentalmente". [25] Además, muchos riesgos catastróficos cambian rápidamente a medida que avanza la tecnología y cambian las condiciones de fondo, como las condiciones geopolíticas. Otro desafío es la dificultad general de predecir con precisión el futuro en escalas de tiempo largas, especialmente para los riesgos antropogénicos que dependen de sistemas políticos, económicos y sociales humanos complejos. [18] Además de los riesgos conocidos y tangibles, pueden ocurrir eventos de extinción imprevisibles del tipo cisne negro , lo que presenta un problema metodológico adicional. [18] [26]

Falta de precedentes históricos

La humanidad nunca ha sufrido una catástrofe existencial y, si ocurriera una, sería necesariamente algo sin precedentes. [18] Por lo tanto, los riesgos existenciales plantean desafíos únicos para la predicción, incluso más que otros eventos de largo plazo, debido a los efectos de selección de la observación . [27] A diferencia de la mayoría de los eventos, el hecho de que no haya ocurrido un evento de extinción completa en el pasado no es evidencia en contra de su probabilidad en el futuro, porque todos los mundos que han experimentado un evento de extinción de este tipo han pasado desapercibidos para la humanidad. Independientemente de la frecuencia de los eventos de colapso de civilizaciones, ninguna civilización observa riesgos existenciales en su historia. [27] Estos problemas antrópicos pueden evitarse en parte analizando la evidencia que no tiene tales efectos de selección, como los cráteres de impacto de asteroides en la Luna, o evaluando directamente el impacto probable de las nuevas tecnologías. [9]

Para entender la dinámica de un colapso civilizacional global sin precedentes e irrecuperable (un tipo de riesgo existencial), puede ser instructivo estudiar los diversos colapsos civilizacionales locales que han ocurrido a lo largo de la historia humana. [28] Por ejemplo, civilizaciones como el Imperio Romano han terminado con una pérdida de gobierno centralizado y una importante pérdida de infraestructura y tecnología avanzada en toda la civilización. Sin embargo, estos ejemplos demuestran que las sociedades parecen ser bastante resistentes a las catástrofes; por ejemplo, la Europa medieval sobrevivió a la Peste Negra sin sufrir nada parecido a un colapso de civilización a pesar de perder entre el 25 y el 50 por ciento de su población. [29]

Incentivos y coordinación

Existen razones económicas que pueden explicar por qué se dedica tan poco esfuerzo a la reducción del riesgo existencial. Se trata de un bien público global , por lo que deberíamos esperar que los mercados no lo ofrezcan en cantidad suficiente. [9] Incluso si una nación grande invierte en medidas de mitigación del riesgo, esa nación disfrutará sólo una pequeña fracción del beneficio que ello le reportaría. Además, la reducción del riesgo existencial es un bien público global intergeneracional , ya que la mayoría de los beneficios de la reducción del riesgo existencial serían disfrutados por las generaciones futuras, y aunque en teoría esas personas futuras tal vez estén dispuestas a pagar sumas sustanciales por la reducción del riesgo existencial, no existe ningún mecanismo para tal transacción. [9]

Sesgos cognitivos

Numerosos sesgos cognitivos pueden influir en el juicio de las personas sobre la importancia de los riesgos existenciales, entre ellos la insensibilidad al alcance , el descuento hiperbólico , la heurística de disponibilidad , la falacia de conjunción , la heurística del afecto y el efecto del exceso de confianza . [30]

La insensibilidad al alcance de la acción influye en la percepción que la gente tiene de la extinción de la raza humana. Por ejemplo, cuando la gente está motivada a donar dinero a causas altruistas, la cantidad que está dispuesta a dar no aumenta linealmente con la magnitud del problema: la gente está más o menos dispuesta a evitar la muerte de 200.000 o de 2.000 aves. [31] De manera similar, la gente suele estar más preocupada por las amenazas a individuos que a grupos más grandes. [30]

Eliezer Yudkowsky teoriza que la negligencia en el alcance juega un papel en la percepción pública de los riesgos existenciales: [32] [33]

Cifras sustancialmente mayores, como 500 millones de muertes, y especialmente escenarios cualitativamente diferentes, como la extinción de toda la especie humana, parecen desencadenar un modo diferente de pensar... Las personas que nunca soñarían con lastimar a un niño oyen hablar de riesgo existencial y dicen: "Bueno, tal vez la especie humana realmente no merece sobrevivir".

Todas las predicciones anteriores sobre la extinción humana han resultado ser falsas. Para algunos, esto hace que las advertencias futuras parezcan menos creíbles. Nick Bostrom sostiene que la ausencia de extinciones humanas en el pasado es una prueba débil de que no habrá extinciones humanas en el futuro, debido al sesgo de supervivencia y otros efectos antrópicos . [34]

El sociobiólogo E. O. Wilson sostuvo que: "La razón de esta neblina miope, sostienen los biólogos evolucionistas, es que en realidad fue ventajosa durante todos los milenios, salvo los últimos, de los dos millones de años de existencia del género Homo... Se dio prioridad a la atención al futuro cercano y a la reproducción temprana, y poco más. Los desastres de una magnitud que sólo ocurren una vez cada pocos siglos fueron olvidados o transmutados en mitos". [35]

Mitigación propuesta

Defensa multicapa

La defensa en profundidad es un marco útil para categorizar las medidas de mitigación de riesgos en tres capas de defensa: [36]

  1. Prevención : reducir la probabilidad de que ocurra una catástrofe. Ejemplo: medidas para prevenir brotes de nuevas enfermedades altamente infecciosas.
  2. Respuesta : Prevenir que una catástrofe se agrave a escala mundial. Ejemplo: Medidas para impedir que un intercambio nuclear a pequeña escala se convierta en una guerra nuclear total.
  3. Resiliencia : aumentar la resiliencia de la humanidad (frente a la extinción) ante catástrofes globales. Ejemplo: medidas para aumentar la seguridad alimentaria durante un invierno nuclear.

La extinción humana es más probable cuando las tres defensas son débiles, es decir, "por riesgos que es poco probable que podamos prevenir, a los que es poco probable que podamos responder con éxito y frente a los que es poco probable que podamos ser resilientes". [36]

La naturaleza sin precedentes de los riesgos existenciales plantea un desafío especial a la hora de diseñar medidas de mitigación de riesgos, ya que la humanidad no podrá aprender de un historial de acontecimientos anteriores. [18]

Fondos

Algunos investigadores sostienen que tanto la investigación como otras iniciativas relacionadas con el riesgo existencial están insuficientemente financiadas. Nick Bostrom afirma que se han realizado más investigaciones sobre Star Trek , el snowboard o los escarabajos peloteros que sobre los riesgos existenciales. Las comparaciones de Bostrom han sido criticadas por ser "prepotentes". [22] [37] En 2020, la organización de la Convención sobre Armas Biológicas tenía un presupuesto anual de 1,4 millones de dólares. [38]

Planificación de supervivencia

Algunos investigadores proponen el establecimiento en la Tierra de uno o más asentamientos remotos, autosuficientes y permanentemente ocupados, creados específicamente con el propósito de sobrevivir a un desastre global. [39] [40] [41] El economista Robin Hanson sostiene que un refugio que albergara permanentemente a tan sólo 100 personas mejoraría significativamente las posibilidades de supervivencia humana durante una serie de catástrofes globales. [39] [42]

Se ha propuesto el almacenamiento de alimentos a nivel mundial, pero el costo monetario sería alto. Además, probablemente contribuiría a los millones de muertes actuales por año debido a la desnutrición . [43] En 2022, un equipo dirigido por David Denkenberger modeló la rentabilidad de los alimentos resilientes para la seguridad de la inteligencia general artificial (AGI) y encontró "~98-99% de confianza" para un mayor impacto marginal del trabajo sobre alimentos resilientes. [44] Algunos supervivientes abastecen los refugios de supervivencia con suministros de alimentos para varios años.

La Bóveda Global de Semillas de Svalbard está enterrada a 120 m (400 pies) dentro de una montaña en una isla del Ártico . Está diseñada para albergar 2500 millones de semillas de más de 100 países como medida de precaución para preservar los cultivos del mundo. La roca circundante está a -6 °C (21 °F) (a partir de 2015), pero la bóveda se mantiene a -18 °C (0 °F) mediante refrigeradores alimentados con carbón de origen local. [45] [46]

En términos más especulativos, si la sociedad sigue funcionando y la biosfera sigue siendo habitable, las necesidades calóricas de la población humana actual podrían, en teoría, satisfacerse durante una ausencia prolongada de luz solar, siempre que se planifique con suficiente antelación. Entre las soluciones conjeturadas se encuentran el cultivo de hongos en la biomasa vegetal muerta que quedó tras la catástrofe, la conversión de celulosa en azúcar o la alimentación de bacterias que digieren metano con gas natural. [47] [48]

Riesgos catastróficos globales y gobernanza global

La falta de gobernanza global genera riesgos en el ámbito social y político, pero los mecanismos de gobernanza se desarrollan más lentamente que el cambio tecnológico y social. Los gobiernos, el sector privado y el público en general están preocupados por la falta de mecanismos de gobernanza para abordar eficazmente los riesgos, negociar y arbitrar entre intereses diversos y conflictivos. Esto se ve subrayado aún más por la comprensión de la interconexión de los riesgos sistémicos globales. [49] En ausencia o anticipación de una gobernanza global, los gobiernos nacionales pueden actuar individualmente para comprender, mitigar y prepararse mejor para las catástrofes globales. [50]

Planes de emergencia climática

En 2018, el Club de Roma pidió una mayor acción frente al cambio climático y publicó su Plan de Emergencia Climática, que propone diez puntos de acción para limitar el aumento de la temperatura media global a 1,5 grados Celsius. [51] Además, en 2019, el Club publicó el Plan de Emergencia Planetaria, más completo. [52]

Hay evidencia que sugiere que la interacción colectiva con las experiencias emocionales que surgen al contemplar la vulnerabilidad de la especie humana en el contexto del cambio climático permite que estas experiencias sean adaptativas. Cuando la interacción colectiva con las experiencias emocionales y su procesamiento es de apoyo, esto puede conducir al crecimiento de la resiliencia, la flexibilidad psicológica, la tolerancia a las experiencias emocionales y la participación comunitaria. [53]

Colonización espacial

La colonización espacial es una alternativa propuesta para mejorar las probabilidades de sobrevivir a un escenario de extinción. [54] Soluciones de este alcance pueden requerir ingeniería a gran escala .

El astrofísico Stephen Hawking abogó por la colonización de otros planetas dentro del Sistema Solar una vez que la tecnología progrese lo suficiente, con el fin de mejorar las posibilidades de supervivencia humana ante eventos de alcance planetario como una guerra termonuclear global. [55] [56]

El multimillonario Elon Musk escribe que la humanidad debe convertirse en una especie multiplanetaria para evitar la extinción. [57] Su empresa SpaceX está desarrollando tecnología que, según sus proyecciones, se utilizará para colonizar Marte .

Organizaciones

El Boletín de los Científicos Atómicos (fundado en 1945) es una de las organizaciones de riesgo global más antiguas, fundada después de que el público se alarmara por el potencial de una guerra atómica tras la Segunda Guerra Mundial. Estudia los riesgos asociados con la guerra y la energía nuclear y es famoso por mantener el Reloj del Juicio Final establecido en 1947. El Instituto Foresight (fundado en 1986) examina los riesgos de la nanotecnología y sus beneficios. Fue una de las primeras organizaciones en estudiar las consecuencias no deseadas de una tecnología inofensiva que se descontrola a escala global. Fue fundado por K. Eric Drexler, quien postuló la " sustancia viscosa gris ". [58] [59]

A partir del año 2000, un número cada vez mayor de científicos, filósofos y multimillonarios del sector tecnológico crearon organizaciones dedicadas a estudiar los riesgos globales tanto dentro como fuera del ámbito académico. [60]

Las organizaciones no gubernamentales (ONG) independientes incluyen el Machine Intelligence Research Institute (fundado en 2000), que tiene como objetivo reducir el riesgo de una catástrofe causada por la inteligencia artificial, [61] con donantes como Peter Thiel y Jed McCaleb . [62] La Nuclear Threat Initiative (fundada en 2001) busca reducir las amenazas globales de amenazas nucleares, biológicas y químicas, y la contención de daños después de un evento. [8] Mantiene un índice de seguridad de material nuclear. [63] La Lifeboat Foundation (fundada en 2009) financia investigaciones para prevenir una catástrofe tecnológica. [64] La mayor parte del dinero de investigación financia proyectos en universidades. [65] El Global Catastrophic Risk Institute (fundado en 2011) es un grupo de expertos no partidista y sin fines de lucro con sede en EE. UU. fundado por Seth Baum y Tony Barrett. GCRI realiza investigaciones y trabajo de políticas en varios riesgos, incluidos la inteligencia artificial, la guerra nuclear, el cambio climático y los impactos de asteroides. [66] La Global Challenges Foundation (fundada en 2012), con sede en Estocolmo y fundada por Laszlo Szombatfalvy , publica un informe anual sobre el estado de los riesgos globales. [67] [68] El Future of Life Institute (fundado en 2014) trabaja para reducir los riesgos extremos a gran escala de las tecnologías transformadoras, así como para dirigir el desarrollo y el uso de estas tecnologías en beneficio de toda la vida, mediante la concesión de subvenciones, la promoción de políticas en los Estados Unidos, la Unión Europea y las Naciones Unidas, y la divulgación educativa. [7] Elon Musk , Vitalik Buterin y Jaan Tallinn son algunos de sus mayores donantes. [69] El Center on Long-Term Risk (fundado en 2016), anteriormente conocido como Foundational Research Institute, es una organización británica centrada en la reducción de los riesgos de sufrimiento astronómico ( s-risks ) de las tecnologías emergentes. [70]

Entre las organizaciones universitarias se encontraba el Future of Humanity Institute (fundado en 2005), que investigaba las cuestiones del futuro a largo plazo de la humanidad, en particular el riesgo existencial. [5] Fue fundado por Nick Bostrom y tenía su sede en la Universidad de Oxford. [5] El Centre for the Study of Existential Risk (fundado en 2012) es una organización con sede en la Universidad de Cambridge que estudia cuatro grandes riesgos tecnológicos: la inteligencia artificial, la biotecnología, el calentamiento global y la guerra. [6] Todos son riesgos provocados por el hombre, como explicó Huw Price a la agencia de noticias AFP: "Parece una predicción razonable que en algún momento de este siglo o del próximo la inteligencia escapará de las limitaciones de la biología". Añadió que cuando esto ocurra "ya no seremos las cosas más inteligentes del mundo" y correremos el riesgo de estar a merced de "máquinas que no son maliciosas, sino máquinas cuyos intereses no nos incluyen". [71] Stephen Hawking fue asesor interino. La Alianza del Milenio para la Humanidad y la Biosfera es una organización con sede en la Universidad de Stanford que se centra en muchos temas relacionados con la catástrofe global al reunir a miembros del mundo académico en las humanidades. [72] [73] Fue fundada por Paul Ehrlich , entre otros. [74] La Universidad de Stanford también tiene el Centro para la Seguridad y la Cooperación Internacional, que se centra en la cooperación política para reducir el riesgo catastrófico global. [75] El Centro para la Seguridad y la Tecnología Emergente se estableció en enero de 2019 en la Escuela Walsh de Servicio Exterior de Georgetown y se centrará en la investigación de políticas de tecnologías emergentes con un énfasis inicial en la inteligencia artificial. [76] Recibieron una subvención de 55 millones de dólares de Good Ventures según lo sugerido por Open Philanthropy . [76]

Otros grupos de evaluación de riesgos tienen su base en organizaciones gubernamentales o forman parte de ellas. La Organización Mundial de la Salud (OMS) incluye una división llamada Alerta y Respuesta Global (GAR) que monitorea y responde a las crisis epidémicas globales. [77] GAR ayuda a los estados miembros con la capacitación y coordinación de la respuesta a las epidemias. [78] La Agencia de los Estados Unidos para el Desarrollo Internacional (USAID) tiene su Programa de Amenazas Pandémicas Emergentes que tiene como objetivo prevenir y contener las pandemias generadas naturalmente en su origen. [79] El Laboratorio Nacional Lawrence Livermore tiene una división llamada Dirección Principal de Seguridad Global que investiga en nombre del gobierno cuestiones como la bioseguridad y el contraterrorismo. [80]

Véase también

Referencias

  1. ^ Schulte, P.; et al. (5 de marzo de 2010). "El impacto del asteroide Chicxulub y la extinción masiva en el límite Cretácico-Paleógeno" (PDF) . Science . 327 (5970): 1214–1218. Bibcode :2010Sci...327.1214S. doi :10.1126/science.1177265. PMID  20203042. S2CID  2659741.
  2. ^ Bostrom, Nick (2008). Riesgos catastróficos globales (PDF) . Oxford University Press. pág. 1.
  3. ^ Ripple WJ, Wolf C, Newsome TM, Galetti M, Alamgir M, Crist E, Mahmoud MI, Laurance WF (13 de noviembre de 2017). "Advertencia de los científicos mundiales a la humanidad: un segundo aviso". BioScience . 67 (12): 1026–1028. doi : 10.1093/biosci/bix125 . hdl : 11336/71342 .
  4. ^ Bostrom, Nick (marzo de 2002). "Riesgos existenciales: análisis de escenarios de extinción humana y peligros relacionados". Journal of Evolution and Technology . 9 .
  5. ^ abc "Acerca de FHI". Future of Humanity Institute . Consultado el 12 de agosto de 2021 .
  6. ^ ab «Sobre nosotros». Centro de Estudios del Riesgo Existencial . Consultado el 12 de agosto de 2021 .
  7. ^ ab "The Future of Life Institute". Instituto del Futuro de la Vida . Consultado el 5 de mayo de 2014 .
  8. ^ ab "Iniciativa sobre la amenaza nuclear". Iniciativa sobre la amenaza nuclear . Consultado el 5 de junio de 2015 .
  9. ^ abcdef Bostrom, Nick (2013). "La prevención del riesgo existencial como prioridad global" (PDF) . Política global . 4 (1): 15–3. doi :10.1111/1758-5899.12002 – vía Riesgo existencial.
  10. ^ Bostrom, Nick; Cirkovic, Milán (2008). Riesgos catastróficos globales . Oxford: Oxford University Press. pág. 1. ISBN 978-0-19-857050-9.
  11. ^ Ziegler, Philip (2012). La Peste Negra . Faber y Faber. p. 397. ISBN 9780571287116.
  12. ^ Muehlhauser, Luke (15 de marzo de 2017). "¿Qué importancia tuvo la Revolución Industrial?". lukemuelhauser.com . Consultado el 3 de agosto de 2020 .
  13. ^ Taubenberger, Jeffery; Morens, David (2006). "Influenza de 1918: la madre de todas las pandemias". Enfermedades infecciosas emergentes . 12 (1): 15–22. doi :10.3201/eid1201.050979. PMC 3291398 . PMID  16494711. 
  14. ^ Posner, Richard A. (2006). Catástrofe: riesgo y respuesta . Oxford: Oxford University Press. ISBN 978-0195306477.Introducción, "¿Qué es una catástrofe?"
  15. ^ Ord, Toby (2020). El precipicio: riesgo existencial y el futuro de la humanidad . Nueva York: Hachette. ISBN 9780316484916. Esta es una definición equivalente, aunque más precisa, de Nick Bostrom : "Un riesgo existencial es aquel que amenaza con la extinción prematura de la vida inteligente originada en la Tierra o la destrucción permanente y drástica de su potencial para un desarrollo futuro deseable". Fuente: Bostrom, Nick (2013). "Existential Risk Prevention as Global Priority". Global Policy. 4:15-31.
  16. ^ Cotton-Barratt, Owen; Ord, Toby (2015), Riesgo existencial y esperanza existencial: definiciones (PDF) , Future of Humanity Institute – Informe técnico n.° 2015-1, págs. 1–4
  17. ^ Bostrom, Nick (2009). "Desperdicio astronómico: el costo de oportunidad del desarrollo tecnológico retrasado". Utilitas . 15 (3): 308–314. CiteSeerX 10.1.1.429.2849 . doi :10.1017/s0953820800004076. S2CID  15860897. 
  18. ^ abcdefgh Ord, Toby (2020). El precipicio: riesgo existencial y el futuro de la humanidad . Nueva York: Hachette. ISBN 9780316484916.
  19. ^ de Bryan Caplan (2008). "La amenaza totalitaria". Global Catastrophic Risks , eds. Bostrom & Cirkovic (Oxford University Press): 504–519. ISBN 9780198570509 
  20. ^ Glover, Dennis (1 de junio de 2017). "¿Reescribió George Orwell en secreto el final de Mil novecientos ochenta y cuatro mientras agonizaba?". The Sydney Morning Herald . Consultado el 21 de noviembre de 2021. El creador de Winston, George Orwell, creía que la libertad acabaría derrotando al totalitarismo distorsionador de la verdad retratado en Mil novecientos ochenta y cuatro.
  21. ^ Orwell, George (1949). Mil novecientos ochenta y cuatro. Una novela. Londres: Secker & Warburg. Archivado desde el original el 4 de mayo de 2012. Consultado el 12 de agosto de 2021 .
  22. ^ ab Kupferschmidt, Kai (11 de enero de 2018). "¿Podría la ciencia destruir el mundo? Estos eruditos quieren salvarnos de un Frankenstein moderno". Science . AAAS . Consultado el 20 de abril de 2020 .
  23. ^ Baum, Seth D. (2023). "Evaluación de riesgos catastróficos globales naturales". Peligros naturales . 115 (3): 2699–2719. Código Bibliográfico :2023NatHa.115.2699B. doi : 10.1007/s11069-022-05660-w . PMC 9553633 . PMID  36245947. 
  24. ^ Scouras, James (2019). "La guerra nuclear como riesgo catastrófico global". Revista de análisis costo-beneficio . 10 (2): 274–295. doi : 10.1017/bca.2019.16 .
  25. ^ Sagan, Carl (invierno de 1983). "Guerra nuclear y catástrofe climática: algunas implicaciones políticas". Asuntos Exteriores . Consejo de Relaciones Exteriores. doi :10.2307/20041818. JSTOR  20041818 . Consultado el 4 de agosto de 2020 .
  26. ^ Jebari, Karim (2014). "Existential Risks: Exploring a Robust Risk Reduction Strategy" (PDF) . Ética de la ciencia y la ingeniería . 21 (3): 541–54. doi :10.1007/s11948-014-9559-3. PMID  24891130. S2CID  30387504 . Consultado el 26 de agosto de 2018 .
  27. ^ ab Cirkovic, Milan M. ; Bostrom, Nick ; Sandberg, Anders (2010). "Sombra antrópica: efectos de la selección de la observación y riesgos de extinción humana" (PDF) . Análisis de riesgos . 30 (10): 1495–1506. Código Bibliográfico :2010RiskA..30.1495C. doi :10.1111/j.1539-6924.2010.01460.x. PMID  20626690. S2CID  6485564.
  28. ^ Kemp, Luke (febrero de 2019). "¿Estamos en el camino hacia el colapso de la civilización?". BBC . Consultado el 12 de agosto de 2021 .
  29. ^ Ord, Toby (2020). El precipicio: riesgo existencial y el futuro de la humanidad . Hachette Books. ISBN 9780316484893Europa sobrevivió a la pérdida del 25 al 50 por ciento de su población en la Peste Negra, mientras que mantuvo la civilización firmemente intacta.
  30. ^ ab Yudkowsky, Eliezer (2008). "Sesgos cognitivos que pueden afectar el juicio sobre riesgos globales" (PDF) . Riesgos catastróficos globales : 91–119. Bibcode :2008gcr..book...86Y.
  31. ^ Desvousges, WH, Johnson, FR, Dunford, RW, Boyle, KJ, Hudson, SP y Wilson, N. 1993, Medición de daños a los recursos naturales con valoración contingente: pruebas de validez y fiabilidad. En Hausman, JA (ed), Contingent Valuation:A Critical Assessment , págs. 91–159 (Ámsterdam: Holanda Septentrional).
  32. ^ Bostrom 2013.
  33. ^ Yudkowsky, Eliezer. "Sesgos cognitivos que pueden afectar el juicio sobre los riesgos globales". Riesgos catastróficos globales 1 (2008): 86. p.114
  34. ^ "Estamos subestimando el riesgo de extinción humana". The Atlantic. 6 de marzo de 2012. Consultado el 1 de julio de 2016 .
  35. ^ ¿ Es la humanidad suicida? The New York Times Magazine , 30 de mayo de 1993)
  36. ^ ab Cotton-Barratt, Owen; Daniel, Max; Sandberg, Anders (2020). "Defensa en profundidad contra la extinción humana: prevención, respuesta, resiliencia y por qué todas ellas son importantes". Política global . 11 (3): 271–282. doi :10.1111/1758-5899.12786. ISSN  1758-5899. PMC 7228299 . PMID  32427180. 
  37. ^ "El Instituto Oxford pronostica la posible ruina de la humanidad". Popular Science . 2013 . Consultado el 20 de abril de 2020 .
  38. ^ Toby Ord (2020). El precipicio: riesgo existencial y el futuro de la humanidad . Hachette Books. ISBN 9780316484893El organismo internacional responsable de la prohibición continua de las armas biológicas (la Convención sobre Armas Biológicas) tiene un presupuesto anual de 1,4 millones de dólares, menos que el restaurante McDonald's promedio .
  39. ^ ab Matheny, Jason Gaverick (2007). "Reducing the Risk of Human Extinction" (PDF) . Análisis de riesgos . 27 (5): 1335–1344. Código bibliográfico :2007RiskA..27.1335M. doi :10.1111/j.1539-6924.2007.00960.x. PMID  18076500. S2CID  14265396. Archivado desde el original (PDF) el 27 de agosto de 2014 . Consultado el 16 de mayo de 2015 .
  40. ^ Wells, Willard. (2009). ¿Cuándo será el apocalipsis? . Praxis. ISBN 978-0387098364.
  41. ^ Wells, Willard. (2017). Perspectivas para la supervivencia humana . Fundación Lifeboat. ISBN 978-0998413105.
  42. ^ Hanson, Robin. "Catástrofe, colapso social y extinción humana". Riesgos catastróficos globales 1 (2008): 357.
  43. ^ Smil, Vaclav (2003). La biosfera de la Tierra: evolución, dinámica y cambio. MIT Press . pág. 25. ISBN 978-0-262-69298-4.
  44. ^ Denkenberger, David C.; Sandberg, Anders; Tieman, Ross John; Pearce, Joshua M. (2022). "Rentabilidad a largo plazo de alimentos resilientes para catástrofes globales en comparación con la seguridad general de la inteligencia artificial". Revista Internacional de Reducción del Riesgo de Desastres . 73 : 102798. Bibcode :2022IJDRR..7302798D. doi :10.1016/j.ijdrr.2022.102798.
  45. ^ Lewis Smith (27 de febrero de 2008). "Se abre una bóveda del fin del mundo para las semillas del mundo bajo una montaña del Ártico". The Times Online . Londres. Archivado desde el original el 12 de mayo de 2008.
  46. ^ Suzanne Goldenberg (20 de mayo de 2015). «La bóveda del fin del mundo: las semillas que podrían salvar un mundo postapocalíptico». The Guardian . Consultado el 30 de junio de 2017 .
  47. ^ "Así es como podría acabar el mundo y qué podemos hacer al respecto". Science . AAAS. 8 de julio de 2016 . Consultado el 23 de marzo de 2018 .
  48. ^ Denkenberger, David C.; Pearce, Joshua M. (septiembre de 2015). "Alimentar a todos: resolver la crisis alimentaria en caso de catástrofes globales que maten cultivos u oculten el sol" (PDF) . Futures . 72 : 57–68. doi :10.1016/j.futures.2014.11.008. S2CID  153917693.
  49. ^ "Global Challenges Foundation | Understanding Global Systemic Risk" (Fundación Desafíos Globales | Entendiendo el Riesgo Sistémico Global). globalchallenges.org . Archivado desde el original el 16 de agosto de 2017. Consultado el 15 de agosto de 2017 .
  50. ^ "Política global de riesgo catastrófico". gcrpolicy.com . Archivado desde el original el 11 de agosto de 2019. Consultado el 11 de agosto de 2019 .
  51. ^ Club de Roma (2018). «El plan de emergencia climática» . Consultado el 17 de agosto de 2020 .
  52. ^ Club de Roma (2019). «El plan de emergencia planetaria» . Consultado el 17 de agosto de 2020 .
  53. ^ Kieft, J.; Bendell, J (2021). "La responsabilidad de comunicar verdades difíciles sobre el clima influyó en la disrupción y el colapso social: una introducción a la investigación psicológica". Documentos ocasionales del Instituto de Liderazgo y Sostenibilidad (IFLAS) . 7 : 1–39.
  54. ^ "La humanidad debe abandonar la Tierra o enfrentarse a la extinción: Hawking", physorg.com , 9 de agosto de 2010 , consultado el 23 de enero de 2012
  55. ^ Malik, Tariq (13 de abril de 2013). «Stephen Hawking: la humanidad debe colonizar el espacio para sobrevivir». Space.com . Consultado el 1 de julio de 2016 .
  56. ^ Shukman, David (19 de enero de 2016). "Hawking: los humanos corren el riesgo de un 'gol en propia puerta' letal". BBC News . Consultado el 1 de julio de 2016 .
  57. ^ Ginsberg, Leah (16 de junio de 2017). "Elon Musk cree que la vida en la Tierra se extinguirá y está destinando la mayor parte de su fortuna a colonizar Marte". CNBC .
  58. ^ Fred Hapgood (noviembre de 1986). «Nanotecnología: máquinas moleculares que imitan la vida» (PDF) . Omni . Archivado desde el original (PDF) el 27 de julio de 2013. Consultado el 5 de junio de 2015 .
  59. ^ Giles, Jim (2004). "La nanotecnología da un pequeño paso hacia el entierro de la 'sustancia gris'". Nature . 429 (6992): 591. Bibcode :2004Natur.429..591G. doi : 10.1038/429591b . PMID  15190320.
  60. Sophie McBain (25 de septiembre de 2014). «Apocalipsis pronto: los científicos se preparan para el fin de los tiempos». New Statesman . Consultado el 5 de junio de 2015 .
  61. ^ "Reducción de los riesgos catastróficos a largo plazo derivados de la inteligencia artificial". Instituto de Investigación de Inteligencia Artificial . Consultado el 5 de junio de 2015. El Instituto de Investigación de Inteligencia Artificial tiene como objetivo reducir el riesgo de una catástrofe, en caso de que tal evento finalmente ocurra.
  62. ^ Angela Chen (11 de septiembre de 2014). "¿Es la inteligencia artificial una amenaza?". The Chronicle of Higher Education . Consultado el 5 de junio de 2015 .
  63. Alexander Sehmar (31 de mayo de 2015). «ISIS podría obtener armas nucleares de Pakistán, advierte India». The Independent . Archivado desde el original el 2 de junio de 2015. Consultado el 5 de junio de 2015 .
  64. ^ "Acerca de la Fundación Lifeboat". The Lifeboat Foundation . Consultado el 26 de abril de 2013 .
  65. ^ Ashlee, Vance (20 de julio de 2010). "The Lifeboat Foundation: Battling Asteroids, Nanobots and AI" (La Fundación del Bote Salvavidas: Luchando contra asteroides, nanobots e inteligencia artificial) The New York Times . Consultado el 5 de junio de 2015 .
  66. ^ "Global Catastrophic Risk Institute". gcrinstitute.org . Consultado el 22 de marzo de 2022 .
  67. ^ Meyer, Robinson (29 de abril de 2016). "La extinción humana no es tan improbable". The Atlantic . Boston, Massachusetts: Emerson Collective . Consultado el 30 de abril de 2016 .
  68. ^ "Sitio web de la Fundación Global Challenges". globalchallenges.org . Consultado el 30 de abril de 2016 .
  69. ^ Nick Bilton (28 de mayo de 2015). "Ava de 'Ex Machina' es solo ciencia ficción (por ahora)". New York Times . Consultado el 5 de junio de 2015 .
  70. ^ "Acerca de nosotros". Centro de Riesgo a Largo Plazo . Consultado el 17 de mayo de 2020. Actualmente nos centramos en los esfuerzos para reducir los peores riesgos de sufrimiento astronómico (riesgos-s) de las tecnologías emergentes, con un enfoque en la inteligencia artificial transformadora.
  71. ^ Hui, Sylvia (25 de noviembre de 2012). «Cambridge estudiará los riesgos de la tecnología para los seres humanos». Associated Press. Archivado desde el original el 1 de diciembre de 2012. Consultado el 30 de enero de 2012 .
  72. ^ Scott Barrett (2014). Economía del medio ambiente y el desarrollo: ensayos en honor a Sir Partha Dasgupta. Oxford University Press. pág. 112. ISBN 9780199677856. Recuperado el 5 de junio de 2015 .
  73. ^ "Alianza del Milenio para la Humanidad y la Biosfera". Alianza del Milenio para la Humanidad y la Biosfera . Consultado el 5 de junio de 2015 .
  74. ^ Guruprasad Madhavan (2012). Practicando la sostenibilidad. Springer Science & Business Media. pág. 43. ISBN 9781461443483. Recuperado el 5 de junio de 2015 .
  75. ^ "Centro para la Seguridad y la Cooperación Internacional". Centro para la Seguridad y la Cooperación Internacional . Consultado el 5 de junio de 2015 .
  76. ^ ab Anderson, Nick (28 de febrero de 2019). «Georgetown lanza un grupo de expertos sobre seguridad y tecnología emergente». Washington Post . Consultado el 12 de marzo de 2019 .
  77. ^ "Alerta y respuesta global (GAR)". Organización Mundial de la Salud . Archivado desde el original el 16 de febrero de 2003. Consultado el 5 de junio de 2015 .
  78. ^ Kelley Lee (2013). Diccionario histórico de la Organización Mundial de la Salud. Rowman & Littlefield. pág. 92. ISBN 9780810878587. Recuperado el 5 de junio de 2015 .
  79. ^ "Programa de Amenazas Pandémicas Emergentes de USAID". USAID . Archivado desde el original el 22 de octubre de 2014 . Consultado el 5 de junio de 2015 .
  80. ^ "Seguridad global". Laboratorio Nacional Lawrence Livermore . Archivado desde el original el 27 de diciembre de 2007. Consultado el 5 de junio de 2015 .

Lectura adicional

Enlaces externos