stringtranslate.com

Riesgo catastrófico global

"Impresión artística del impacto de un asteroide importante ". Un asteroide provocó la extinción de los dinosaurios no aviares . [1]

Un riesgo catastrófico global o un escenario apocalíptico es un evento hipotético que podría dañar el bienestar humano a escala global, [2] incluso poniendo en peligro o destruyendo la civilización moderna . [3] Un evento que podría causar la extinción humana o reducir permanente y drásticamente la existencia o el potencial de la humanidad se conoce como " riesgo existencial ". [4]

Durante las últimas dos décadas, [ ¿cuándo? ] Se han establecido varias organizaciones académicas y sin fines de lucro para investigar riesgos catastróficos y existenciales globales, formular posibles medidas de mitigación y defender o implementar estas medidas. [5] [6] [7] [8]

Definición y clasificación

Cuadro alcance-gravedad del artículo de Bostrom "La prevención de riesgos existenciales como prioridad global" [9]

Definición de riesgos catastróficos globales

El término riesgo catastrófico global "carece de una definición clara" y generalmente se refiere (vagamente) a un riesgo que podría infligir "daños graves al bienestar humano a escala global". [10]

La humanidad ha sufrido grandes catástrofes antes. Algunos de ellos causaron graves daños, pero sólo tuvieron un alcance local; por ejemplo, la peste negra pudo haber causado la muerte de un tercio de la población europea, [11] el 10% de la población mundial en ese momento. [12] Algunas fueron globales, pero no tan graves; por ejemplo, la pandemia de gripe de 1918 mató a aproximadamente entre el 3% y el 6% de la población mundial. [13] La mayoría de los riesgos catastróficos globales no serían tan intensos como para matar a la mayor parte de la vida en la Tierra, pero incluso si uno lo hiciera, el ecosistema y la humanidad eventualmente se recuperarían (en contraste con los riesgos existenciales ).

De manera similar, en Catastrophe: Risk and Response , Richard Posner destaca y agrupa eventos que provocan "un derrocamiento o ruina total" a escala global, en lugar de "local o regional". Posner destaca estos acontecimientos como dignos de especial atención por razones de coste-beneficio porque podrían poner en peligro directa o indirectamente la supervivencia de la raza humana en su conjunto. [14]

Definición de riesgos existenciales

Los riesgos existenciales se definen como "riesgos que amenazan con la destrucción del potencial a largo plazo de la humanidad". [15] La instanciación de un riesgo existencial (una catástrofe existencial [16] ) causaría la extinción total de la humanidad o bloquearía irreversiblemente un estado de cosas drásticamente inferior. [9] [17] Los riesgos existenciales son una subclase de riesgos catastróficos globales, donde el daño no es solo global sino también terminal y permanente, impidiendo la recuperación y, por lo tanto, afectando tanto a las generaciones actuales como a todas las futuras. [9]

Riesgos de no extinción

Si bien la extinción es la forma más obvia en la que podría destruirse el potencial a largo plazo de la humanidad, existen otras, incluido el colapso irrecuperable y la distopía irrecuperable . [18] Un desastre lo suficientemente grave como para causar el colapso permanente e irreversible de la civilización humana constituiría una catástrofe existencial, incluso si no llegara a la extinción. [18] De manera similar, si la humanidad cayera bajo un régimen totalitario y no hubiera posibilidades de recuperación, entonces tal distopía también sería una catástrofe existencial. [19] Bryan Caplan escribe que "quizás una eternidad de totalitarismo sería peor que la extinción". [19] ( La novela Mil novecientos ochenta y cuatro de George Orwell sugiere [20] un ejemplo. [21] ) Un escenario distópico comparte las características clave de la extinción y el colapso irrecuperable de la civilización: antes de la catástrofe, la humanidad enfrentaba una amplia gama de futuros brillantes. Para escoger de; Después de la catástrofe, la humanidad queda encerrada para siempre en un estado terrible. [18]

Fuentes potenciales de riesgo

Los riesgos catastróficos globales potenciales se clasifican convencionalmente como peligros antropogénicos o no antropogénicos. Ejemplos de riesgos no antropogénicos son el impacto de un asteroide o cometa , una erupción supervolcánica , una pandemia natural , una explosión letal de rayos gamma , una tormenta geomagnética derivada de una eyección de masa coronal que destruya equipos electrónicos, un cambio climático natural a largo plazo , extraterrestres hostiles. vida , o que el Sol se transforme en una estrella gigante roja y engulla la Tierra miles de millones de años en el futuro . [22]

Disposición de los riesgos catastróficos globales en tres conjuntos según si son causados ​​en gran medida por el hombre, influencias humanas sobre la naturaleza o puramente naturales.

Los riesgos antropogénicos son aquellos causados ​​por los humanos e incluyen aquellos relacionados con la tecnología, la gobernanza y el cambio climático. Los riesgos tecnológicos incluyen la creación de inteligencia artificial desalineada con los objetivos humanos, la biotecnología y la nanotecnología . Una gobernanza global insuficiente o maligna crea riesgos en el ámbito social y político, como la guerra global y el holocausto nuclear , [23] la guerra biológica y el bioterrorismo utilizando organismos genéticamente modificados , la guerra cibernética y el terrorismo cibernético que destruyen infraestructuras críticas como la red eléctrica , o la guerra radiológica utilizando armas. como grandes bombas de cobalto . Los riesgos catastróficos globales en el ámbito de la gobernanza del sistema terrestre incluyen el calentamiento global , la degradación ambiental , la extinción de especies , la hambruna como resultado de una distribución no equitativa de los recursos, la superpoblación humana , las malas cosechas y la agricultura no sostenible .

Desafíos metodológicos

La investigación sobre la naturaleza y la mitigación de los riesgos catastróficos globales y los riesgos existenciales está sujeta a un conjunto único de desafíos y, como resultado, no es fácil sujetarla a los estándares habituales de rigor científico. [18] Por ejemplo, no es factible ni ético estudiar estos riesgos experimentalmente. Carl Sagan expresó esto con respecto a la guerra nuclear: "Comprender las consecuencias a largo plazo de la guerra nuclear no es un problema susceptible de verificación experimental". [24] Además, muchos riesgos catastróficos cambian rápidamente a medida que avanza la tecnología y cambian las condiciones de fondo, como las condiciones geopolíticas. Otro desafío es la dificultad general de predecir con precisión el futuro en escalas de tiempo largas, especialmente para los riesgos antropogénicos que dependen de sistemas humanos políticos, económicos y sociales complejos. [18] Además de los riesgos conocidos y tangibles, pueden ocurrir eventos imprevisibles de extinción del cisne negro , lo que presenta un problema metodológico adicional. [18] [25]

Falta de precedente histórico

La humanidad nunca ha sufrido una catástrofe existencial y si ocurriera, sería necesariamente sin precedentes. [18] Por lo tanto, los riesgos existenciales plantean desafíos únicos para la predicción, incluso más que otros eventos a largo plazo, debido a los efectos de selección de observación . [26] A diferencia de la mayoría de los eventos, el hecho de que no haya ocurrido un evento de extinción completa en el pasado no es evidencia contra su probabilidad en el futuro, porque cada mundo que ha experimentado tal evento de extinción no tiene observadores, por lo que, independientemente de su frecuencia, Ninguna civilización observa riesgos existenciales en su historia. [26] Estos problemas antrópicos pueden evitarse en parte observando evidencia que no tenga tales efectos de selección, como los cráteres de impacto de asteroides en la Luna, o evaluando directamente el probable impacto de nueva tecnología. [9]

Para comprender la dinámica de un colapso civilizacional global irrecuperable y sin precedentes (un tipo de riesgo existencial), puede resultar instructivo estudiar los diversos colapsos civilizacionales locales que han ocurrido a lo largo de la historia humana. [27] Por ejemplo, civilizaciones como el Imperio Romano han terminado en una pérdida de gobierno centralizado y una pérdida importante de infraestructura y tecnología avanzada en toda la civilización. Sin embargo, estos ejemplos demuestran que las sociedades parecen ser bastante resilientes a las catástrofes; por ejemplo, la Europa medieval sobrevivió a la peste negra sin sufrir nada parecido al colapso de una civilización a pesar de perder entre el 25 y el 50 por ciento de su población. [28]

Incentivos y coordinación

Hay razones económicas que pueden explicar por qué se están dedicando tan pocos esfuerzos a la reducción del riesgo existencial. Es un bien público global , por lo que deberíamos esperar que los mercados no lo ofrezcan en forma suficiente. [9] Incluso si una nación grande invierte en medidas de mitigación de riesgos, esa nación disfrutará sólo de una pequeña fracción del beneficio de hacerlo. Además, la reducción del riesgo existencial es un bien público global intergeneracional , ya que la mayoría de los beneficios de la reducción del riesgo existencial serían disfrutados por las generaciones futuras, y aunque estas personas futuras en teoría tal vez estarían dispuestas a pagar sumas sustanciales por la reducción del riesgo existencial, no existe ningún mecanismo. para tal transacción existe. [9]

Sesgos cognitivos

Numerosos sesgos cognitivos pueden influir en el juicio de las personas sobre la importancia de los riesgos existenciales, incluida la insensibilidad al alcance , el descuento hiperbólico , la heurística de disponibilidad , la falacia de la conjunción , la heurística del afecto y el efecto de exceso de confianza . [29]

La insensibilidad al alcance influye en lo mala que la gente considera la extinción de la raza humana. Por ejemplo, cuando las personas están motivadas a donar dinero para causas altruistas, la cantidad que están dispuestas a donar no aumenta linealmente con la magnitud del problema: las personas están aproximadamente igual de dispuestas a evitar la muerte de 200.000 o 2.000 aves. [30] De manera similar, la gente suele estar más preocupada por las amenazas a individuos que a grupos más grandes. [29]

Eliezer Yudkowsky teoriza que la negligencia del alcance juega un papel en la percepción pública de los riesgos existenciales: [31] [32]

Cifras sustancialmente mayores, como 500 millones de muertes, y escenarios especialmente cualitativamente diferentes, como la extinción de toda la especie humana, parecen desencadenar un modo de pensar diferente... Personas que nunca soñarían con lastimar a un niño oyen hablar de riesgo existencial, y decir: "Bueno, tal vez la especie humana realmente no merece sobrevivir".

Todas las predicciones pasadas sobre la extinción humana han demostrado ser falsas. Para algunos, esto hace que las advertencias futuras parezcan menos creíbles. Nick Bostrom sostiene que la ausencia de extinción humana en el pasado es una evidencia débil de que no habrá extinción humana en el futuro, debido al sesgo de supervivencia y otros efectos antrópicos . [33]

El sociobiólogo E. O. Wilson argumentó que: "La razón de esta niebla miope, sostienen los biólogos evolutivos, es que en realidad fue ventajosa durante todos los milenios de los dos millones de años de existencia del género Homo , salvo los últimos pocos... mucha atención al futuro cercano y a la reproducción temprana, y poco más. Desastres de una magnitud que ocurre sólo una vez cada pocos siglos fueron olvidados o transmutados en mito." [34]

Mitigación propuesta

Defensa multicapa

La defensa en profundidad es un marco útil para categorizar las medidas de mitigación de riesgos en tres capas de defensa: [35]

  1. Prevención : Reducir la probabilidad de que ocurra una catástrofe en primer lugar. Ejemplo: Medidas para prevenir brotes de nuevas enfermedades altamente infecciosas.
  2. Respuesta : Prevenir la extensión de una catástrofe a nivel global. Ejemplo: Medidas para evitar que un intercambio nuclear a pequeña escala se convierta en una guerra nuclear total.
  3. Resiliencia : Incrementar la resiliencia de la humanidad (contra la extinción) ante catástrofes globales. Ejemplo: Medidas para aumentar la seguridad alimentaria durante un invierno nuclear.

La extinción humana es más probable cuando las tres defensas son débiles, es decir, "por riesgos que es poco probable que podamos prevenir, a los que es poco probable que respondamos con éxito y que es poco probable que seamos resilientes". [35]

La naturaleza sin precedentes de los riesgos existenciales plantea un desafío especial en el diseño de medidas de mitigación de riesgos, ya que la humanidad no podrá aprender de un historial de eventos anteriores. [18]

Fondos

Algunos investigadores sostienen que tanto la investigación como otras iniciativas relacionadas con el riesgo existencial carecen de financiación suficiente. Nick Bostrom afirma que se han realizado más investigaciones sobre Star Trek , el snowboard o los escarabajos peloteros que sobre los riesgos existenciales. Las comparaciones de Bostrom han sido criticadas como "prepotentes". [36] [37] A partir de 2020, la organización de la Convención sobre Armas Biológicas tenía un presupuesto anual de 1,4 millones de dólares estadounidenses. [38]

Planificación de supervivencia

Algunos académicos proponen el establecimiento en la Tierra de uno o más asentamientos autosuficientes, remotos y permanentemente ocupados creados específicamente con el propósito de sobrevivir a un desastre global. [39] [40] [41] El economista Robin Hanson sostiene que un refugio que albergara permanentemente a tan solo 100 personas mejoraría significativamente las posibilidades de supervivencia humana durante una variedad de catástrofes globales. [39] [42]

El almacenamiento de alimentos se ha propuesto a nivel mundial, pero el costo monetario sería alto. Además, probablemente contribuiría a los actuales millones de muertes al año debido a la desnutrición . [43] En 2022, un equipo dirigido por David Denkenberger modeló la rentabilidad de los alimentos resilientes según la seguridad de la inteligencia artificial general (AGI) y encontró "~98-99% de confianza" para un mayor impacto marginal del trabajo sobre alimentos resilientes. [44] Algunos supervivientes abastecen los retiros de supervivencia con suministros de alimentos para varios años.

La Bóveda Global de Semillas de Svalbard está enterrada a 120 m (400 pies) dentro de una montaña en una isla en el Ártico . Está diseñado para contener 2.500 millones de semillas de más de 100 países como medida de precaución para preservar los cultivos del mundo. La roca circundante está a -6 °C (21 °F) (a partir de 2015), pero la bóveda se mantiene a -18 °C (0 °F) mediante refrigeradores que funcionan con carbón de origen local. [45] [46]

En términos más especulativos, si la sociedad continúa funcionando y la biosfera sigue siendo habitable, las necesidades calóricas de la población humana actual podrían, en teoría, satisfacerse durante una ausencia prolongada de luz solar, si se planifica con suficiente antelación. Las soluciones conjeturadas incluyen cultivar hongos en la biomasa de plantas muertas que quedó tras la catástrofe, convertir la celulosa en azúcar o alimentar con gas natural a las bacterias que digieren el metano. [47] [48]

Riesgos catastróficos globales y gobernanza global

Una gobernanza global insuficiente crea riesgos en el ámbito social y político, pero los mecanismos de gobernanza se desarrollan más lentamente que el cambio tecnológico y social. Los gobiernos, el sector privado y el público en general están preocupados por la falta de mecanismos de gobernanza para abordar de manera eficiente los riesgos, negociar y decidir entre intereses diversos y en conflicto. Esto se ve aún más subrayado por la comprensión de la interconexión de los riesgos sistémicos globales. [49] En ausencia o anticipación de una gobernanza global, los gobiernos nacionales pueden actuar individualmente para comprender, mitigar y prepararse mejor para las catástrofes globales. [50]

Planes de emergencia climática

En 2018, el Club de Roma pidió una mayor acción contra el cambio climático y publicó su Plan de Emergencia Climática, que propone diez puntos de acción para limitar el aumento de la temperatura promedio global a 1,5 grados Celsius. [51] Además, en 2019, el Club publicó el Plan de Emergencia Planetaria más completo. [52]

Hay evidencia que sugiere que involucrarse colectivamente con las experiencias emocionales que surgen al contemplar la vulnerabilidad de la especie humana en el contexto del cambio climático permite que estas experiencias sean adaptativas. Cuando la participación colectiva y el procesamiento de experiencias emocionales brindan apoyo, esto puede conducir a un crecimiento en la resiliencia, la flexibilidad psicológica, la tolerancia de las experiencias emocionales y la participación comunitaria. [53]

Colonización espacial

La colonización espacial es una alternativa propuesta para mejorar las probabilidades de sobrevivir a un escenario de extinción. [54] Las soluciones de este alcance pueden requerir ingeniería a megaescala .

El astrofísico Stephen Hawking abogó por colonizar otros planetas dentro del Sistema Solar una vez que la tecnología progrese lo suficiente, con el fin de mejorar las posibilidades de supervivencia humana ante eventos planetarios como la guerra termonuclear global. [55] [56]

El multimillonario Elon Musk escribe que la humanidad debe convertirse en una especie multiplanetaria para evitar la extinción. [57] Musk está utilizando su empresa SpaceX para desarrollar tecnología que espera que se utilice en la colonización de Marte .

Moviendo la Tierra

En unos pocos miles de millones de años, el Sol se expandirá hasta convertirse en una gigante roja y se tragará a la Tierra. Esto se puede evitar alejando la Tierra del Sol, manteniendo la temperatura aproximadamente constante. Esto se puede lograr modificando las órbitas de los cometas y asteroides para que pasen cerca de la Tierra de tal manera que agreguen energía a la órbita terrestre. [58] Dado que la expansión del Sol es lenta, aproximadamente un encuentro de este tipo cada 6.000 años sería suficiente. [ cita necesaria ]

Escépticos y opositores

El psicólogo Steven Pinker ha calificado el riesgo existencial como una "categoría inútil" que puede distraer la atención de amenazas reales como el cambio climático y la guerra nuclear. [36]

Organizaciones

El Boletín de Científicos Atómicos (fundado en 1945) es una de las organizaciones de riesgo global más antiguas, fundada después de que el público se alarmara por el potencial de una guerra atómica después de la Segunda Guerra Mundial. Estudia los riesgos asociados con la guerra y la energía nucleares y mantiene el famoso Reloj del Juicio Final establecido en 1947. El Foresight Institute (fundado en 1986) examina los riesgos de la nanotecnología y sus beneficios. Fue una de las primeras organizaciones en estudiar las consecuencias no deseadas de una tecnología que de otro modo sería inofensiva se descontroló a escala global. Fue fundada por K. Eric Drexler , quien postuló la " goo gris ". [59] [60]

A partir del año 2000, un número creciente de científicos, filósofos y multimillonarios de la tecnología crearon organizaciones dedicadas a estudiar los riesgos globales tanto dentro como fuera del mundo académico. [61]

Las organizaciones no gubernamentales (ONG) independientes incluyen el Machine Intelligence Research Institute (fundado en 2000), cuyo objetivo es reducir el riesgo de una catástrofe causada por la inteligencia artificial, [62] con donantes como Peter Thiel y Jed McCaleb . [63] La Iniciativa sobre Amenaza Nuclear (est. 2001) busca reducir las amenazas globales provenientes de amenazas nucleares, biológicas y químicas, y la contención de daños después de un evento. [8] Mantiene un índice de seguridad del material nuclear. [64] La Lifeboat Foundation (fundada en 2009) financia investigaciones para prevenir una catástrofe tecnológica. [65] La mayor parte del dinero para investigación financia proyectos en universidades. [66] El Global Catastrophic Risk Institute (fundado en 2011) es un grupo de expertos no partidista y sin fines de lucro con sede en Estados Unidos fundado por Seth Baum y Tony Barrett. GCRI realiza trabajos de investigación y políticas sobre diversos riesgos, incluida la inteligencia artificial, la guerra nuclear, el cambio climático y los impactos de asteroides. [67] La ​​Fundación Global Challenges (fundada en 2012), con sede en Estocolmo y fundada por Laszlo Szombatfalvy , publica un informe anual sobre el estado de los riesgos globales. [68] [69] El Future of Life Institute (est. 2014) trabaja para reducir los riesgos extremos a gran escala de las tecnologías transformadoras, así como para dirigir el desarrollo y el uso de estas tecnologías en beneficio de toda la vida, a través de la concesión de subvenciones y la promoción de políticas. en Estados Unidos, Unión Europea y Naciones Unidas, y extensión educativa. [7] Elon Musk , Vitalik Buterin y Jaan Tallinn son algunos de sus mayores donantes. [70] El Centro sobre Riesgos a Largo Plazo (est. 2016), anteriormente conocido como Foundational Research Institute, es una organización británica centrada en reducir los riesgos de sufrimiento astronómico ( s-riesgos ) de las tecnologías emergentes. [71]

Las organizaciones universitarias incluyen el Future of Humanity Institute (fundado en 2005), que investiga las cuestiones del futuro a largo plazo de la humanidad, en particular el riesgo existencial. [5] Fue fundada por Nick Bostrom y tiene su sede en la Universidad de Oxford. [5] El Centro para el Estudio del Riesgo Existencial (fundado en 2012) es una organización con sede en la Universidad de Cambridge que estudia cuatro riesgos tecnológicos principales: inteligencia artificial, biotecnología, calentamiento global y guerra. [6] Todos son riesgos creados por el hombre, como explicó Huw Price a la agencia de noticias AFP: "Parece una predicción razonable que en algún momento de este siglo o del próximo la inteligencia escapará de las limitaciones de la biología". Añadió que cuando esto suceda "ya no seremos los más inteligentes que existen" y correremos el riesgo de quedar a merced de "máquinas que no son maliciosas, pero sí máquinas cuyos intereses no nos incluyen a nosotros". [72] Stephen Hawking fue un asesor interino. La Alianza del Milenio para la Humanidad y la Biosfera es una organización con sede en la Universidad de Stanford que se centra en muchas cuestiones relacionadas con la catástrofe global reuniendo a miembros del mundo académico en humanidades. [73] [74] Fue fundada por Paul Ehrlich , entre otros. [75] La Universidad de Stanford también tiene el Centro para la Seguridad y la Cooperación Internacionales que se centra en la cooperación política para reducir el riesgo catastrófico global. [76] El Centro de Seguridad y Tecnología Emergente se estableció en enero de 2019 en la Escuela Walsh de Servicio Exterior de Georgetown y se centrará en la investigación de políticas de tecnologías emergentes con un énfasis inicial en la inteligencia artificial. [77] Recibieron una subvención de 55 millones de dólares de Good Ventures según lo sugerido por Open Philanthropy . [77]

Otros grupos de evaluación de riesgos tienen su sede o son parte de organizaciones gubernamentales. La Organización Mundial de la Salud (OMS) incluye una división llamada Alerta y Respuesta Global (GAR) que monitorea y responde a la crisis epidémica global. [78] GAR ayuda a los estados miembros con la capacitación y coordinación de la respuesta a las epidemias. [79] La Agencia de los Estados Unidos para el Desarrollo Internacional (USAID) tiene su Programa de Amenazas Pandémicas Emergentes cuyo objetivo es prevenir y contener las pandemias generadas naturalmente en su origen. [80] El Laboratorio Nacional Lawrence Livermore tiene una división llamada Dirección Principal de Seguridad Global que investiga en nombre del gobierno cuestiones como la bioseguridad y el contraterrorismo. [81]

Ver también

Referencias

  1. ^ Schulte, P.; et al. (5 de marzo de 2010). "El impacto del asteroide Chicxulub y la extinción masiva en el límite Cretácico-Paleógeno" (PDF) . Ciencia . 327 (5970): 1214–1218. Código Bib : 2010 Ciencia... 327.1214S. doi : 10.1126/ciencia.1177265. PMID  20203042. S2CID  2659741.
  2. ^ Bostrom, Nick (2008). Riesgos catastróficos globales (PDF) . Prensa de la Universidad de Oxford. pag. 1.
  3. ^ Ripple WJ, Wolf C, Newsome TM, Galetti M, Alamgir M, Crist E, Mahmoud MI, Laurance WF (13 de noviembre de 2017). "Advertencia de los científicos mundiales a la humanidad: un segundo aviso". Biociencia . 67 (12): 1026–1028. doi : 10.1093/biosci/bix125 . hdl : 11336/71342 .
  4. ^ Bostrom, Nick (marzo de 2002). "Riesgos existenciales: análisis de escenarios de extinción humana y peligros relacionados". Revista de Evolución y Tecnología . 9 .
  5. ^ a b "Acerca de FHI". Instituto Futuro de la Humanidad . Consultado el 12 de agosto de 2021 .
  6. ^ ab "Acerca de nosotros". Centro de Estudios del Riesgo Existencial . Consultado el 12 de agosto de 2021 .
  7. ^ ab "Instituto El Futuro de la Vida". Instituto Futuro de la Vida . Consultado el 5 de mayo de 2014 .
  8. ^ ab "Iniciativa contra la amenaza nuclear". Iniciativa contra la amenaza nuclear . Consultado el 5 de junio de 2015 .
  9. ^ abcdef Bostrom, Nick (2013). «La Prevención de Riesgos Existenciales como Prioridad Global» (PDF) . Política Mundial . 4 (1): 15–3. doi :10.1111/1758-5899.12002 – vía Riesgo Existencial.
  10. ^ Bostrom, Nick; Cirkovic, Milán (2008). Riesgos catastróficos globales . Oxford: Prensa de la Universidad de Oxford. pag. 1.ISBN 978-0-19-857050-9.
  11. ^ Ziegler, Felipe (2012). La muerte negra . Faber y Faber. pag. 397.ISBN 9780571287116.
  12. ^ Muehlhauser, Luke (15 de marzo de 2017). "¿Qué importancia tuvo la Revolución Industrial?". lukemuelhauser.com . Consultado el 3 de agosto de 2020 .
  13. ^ Taubenberger, Jeffery; Morens, David (2006). "Gripe de 1918: la madre de todas las pandemias". Enfermedades infecciosas emergentes . 12 (1): 15-22. doi : 10.3201/eid1201.050979. PMC 3291398 . PMID  16494711. 
  14. ^ Posner, Richard A. (2006). Catástrofe: riesgo y respuesta . Oxford: Prensa de la Universidad de Oxford. ISBN 978-0195306477.Introducción, "¿Qué es una catástrofe?"
  15. ^ Ord, Toby (2020). El precipicio: riesgo existencial y el futuro de la humanidad . Nueva York: Hachette. ISBN 9780316484916. Ésta es una afirmación equivalente, aunque más nítida, de la definición de Nick Bostrom : "Un riesgo existencial es aquel que amenaza con la extinción prematura de la vida inteligente originada en la Tierra o con la destrucción permanente y drástica de su potencial para un desarrollo futuro deseable". Fuente: Bostrom, Nick (2013). "La Prevención de Riesgos Existenciales como Prioridad Global". Política global. 4:15-31.
  16. ^ Algodón-Barratt, Owen; Ord, Toby (2015), Riesgo existencial y esperanza existencial: Definiciones (PDF) , Instituto del Futuro de la Humanidad - Informe técnico n.º 2015-1, págs.
  17. ^ Bostrom, Nick (2009). "Residuos astronómicos: el costo de oportunidad del retraso en el desarrollo tecnológico". Utilitas . 15 (3): 308–314. CiteSeerX 10.1.1.429.2849 . doi :10.1017/s0953820800004076. S2CID  15860897. 
  18. ^ abcdefgh Ord, Toby (2020). El precipicio: riesgo existencial y el futuro de la humanidad . Nueva York: Hachette. ISBN 9780316484916.
  19. ^ ab Bryan Caplan (2008). "La amenaza totalitaria". Riesgos catastróficos globales , eds. Bostrom y Cirkovic (Prensa de la Universidad de Oxford): 504–519. ISBN 9780198570509 
  20. ^ Glover, Dennis (1 de junio de 2017). "¿George Orwell reescribió en secreto el final de 1984 mientras agonizaba?". El Sydney Morning Herald . Consultado el 21 de noviembre de 2021 . El creador de Winston, George Orwell, creía que la libertad acabaría por derrotar al totalitarismo distorsionador de la verdad retratado en 1984.
  21. ^ Orwell, George (1949). 1984. Una novela. Londres: Secker y Warburg.
  22. ^ Baum, Seth D. (2023). "Evaluación de riesgos catastróficos globales naturales". Peligros Naturales . 115 (3): 2699–2719. doi : 10.1007/s11069-022-05660-w . PMC 9553633 . PMID  36245947. 
  23. ^ Scouras, James (2019). "La guerra nuclear como riesgo catastrófico global". Revista de análisis costo-beneficio . 10 (2): 274–295. doi : 10.1017/bca.2019.16 .
  24. ^ Sagan, Carl (invierno de 1983). "Guerra nuclear y catástrofe climática: algunas implicaciones políticas". Relaciones Exteriores . Consejo de Relaciones Exteriores. doi :10.2307/20041818. JSTOR  20041818 . Consultado el 4 de agosto de 2020 .
  25. ^ Jebari, Karim (2014). "Riesgos existenciales: exploración de una estrategia sólida de reducción de riesgos" (PDF) . Ética de la ciencia y la ingeniería . 21 (3): 541–54. doi :10.1007/s11948-014-9559-3. PMID  24891130. S2CID  30387504 . Consultado el 26 de agosto de 2018 .
  26. ^ ab Cirkovic, Milán M .; Bostrom, Nick ; Sandberg, Anders (2010). "Sombra antrópica: efectos de la selección de observaciones y riesgos de extinción humana" (PDF) . Análisis de riesgo . 30 (10): 1495-1506. Código Bib : 2010RiskA..30.1495C. doi :10.1111/j.1539-6924.2010.01460.x. PMID  20626690. S2CID  6485564.
  27. ^ Kemp, Luke (febrero de 2019). "¿Estamos en el camino hacia el colapso de la civilización?". BBC . Consultado el 12 de agosto de 2021 .
  28. ^ Ord, Toby (2020). El precipicio: riesgo existencial y el futuro de la humanidad . Libros Hachette. ISBN 9780316484893. Europa sobrevivió a la pérdida del 25 al 50 por ciento de su población a la peste negra, manteniendo la civilización firmemente intacta.
  29. ^ ab Yudkowsky, Eliezer (2008). "Sesgos cognitivos que potencialmente afectan el juicio de riesgos globales" (PDF) . Riesgos catastróficos globales : 91–119. Código Bib : 2008gcr..libro...86Y.
  30. ^ Desvousges, WH, Johnson, FR, Dunford, RW, Boyle, KJ, Hudson, SP y Wilson, N. 1993, Medición de daños a los recursos naturales con valoración contingente: pruebas de validez y confiabilidad. En Hausman, JA (ed), Valoración contingente: una evaluación crítica , págs. 91-159 (Ámsterdam: Holanda Septentrional).
  31. ^ Bostrom 2013.
  32. ^ Yudkowsky, Eliezer. "Sesgos cognitivos que potencialmente afectan el juicio sobre los riesgos globales". Riesgos catastróficos globales 1 (2008): 86. p.114
  33. ^ "Estamos subestimando el riesgo de extinción humana". El Atlántico. 6 de marzo de 2012 . Consultado el 1 de julio de 2016 .
  34. ^ ¿ Es la humanidad suicida? Revista del New York Times 30 de mayo de 1993)
  35. ^ ab Cotton-Barratt, Owen; Daniel, Max; Sandberg, Anders (2020). "Defensa en profundidad contra la extinción humana: prevención, respuesta, resiliencia y por qué todas son importantes". Política Mundial . 11 (3): 271–282. doi :10.1111/1758-5899.12786. ISSN  1758-5899. PMC 7228299 . PMID  32427180. 
  36. ^ ab Kupferschmidt, Kai (11 de enero de 2018). "¿Podría la ciencia destruir el mundo? Estos académicos quieren salvarnos de un Frankenstein moderno". Ciencia . AAAS . Consultado el 20 de abril de 2020 .
  37. ^ "El Instituto Oxford pronostica la posible perdición de la humanidad". Ciencia popular . 2013 . Consultado el 20 de abril de 2020 .
  38. ^ Toby Ord (2020). El precipicio: Riesgo existencial y futuro de la humanidad . Libros Hachette. ISBN 9780316484893. El organismo internacional responsable de la continua prohibición de las armas biológicas (la Convención sobre Armas Biológicas) tiene un presupuesto anual de 1,4 millones de dólares, menos que el promedio de un restaurante McDonald's.
  39. ^ ab Matheny, Jason Gaverick (2007). "Reducir el riesgo de extinción humana" (PDF) . Análisis de riesgo . 27 (5): 1335-1344. Código Bib : 2007RiskA..27.1335M. doi :10.1111/j.1539-6924.2007.00960.x. PMID  18076500. S2CID  14265396.
  40. ^ Pozos, Willard. (2009). Apocalipsis ¿cuándo? . Práctica. ISBN 978-0387098364.
  41. ^ Pozos, Willard. (2017). Perspectivas de supervivencia humana . Fundación Bote Salvavidas. ISBN 978-0998413105.
  42. ^ Hanson, Robin. "Catástrofe, colapso social y extinción humana". Riesgos catastróficos globales 1 (2008): 357.
  43. ^ Sonríe, Vaclav (2003). La biosfera de la Tierra: evolución, dinámica y cambio. Prensa del MIT . pag. 25.ISBN 978-0-262-69298-4.
  44. ^ Denkenberger, David C.; Sandberg, Anders; Tieman, Ross John; Pearce, Joshua M. (2022). "Rentabilidad a largo plazo de los alimentos resilientes ante catástrofes globales en comparación con la seguridad de la inteligencia artificial general". Revista Internacional de Reducción del Riesgo de Desastres . 73 : 102798. Código bibliográfico : 2022IJDRR..7302798D. doi :10.1016/j.ijdrr.2022.102798.
  45. ^ Lewis Smith (27 de febrero de 2008). "Se abre la bóveda del fin del mundo para las semillas del mundo bajo la montaña ártica". Los tiempos en línea . Londres. Archivado desde el original el 12 de mayo de 2008.
  46. ^ Suzanne Goldenberg (20 de mayo de 2015). "La bóveda del fin del mundo: las semillas que podrían salvar un mundo post-apocalíptico". El guardián . Consultado el 30 de junio de 2017 .
  47. ^ "Así es como podría terminar el mundo y qué podemos hacer al respecto". Ciencia . AAAS. 8 de julio de 2016 . Consultado el 23 de marzo de 2018 .
  48. ^ Denkenberger, David C.; Pearce, Joshua M. (septiembre de 2015). "Alimentar a todos: resolver la crisis alimentaria en caso de catástrofes globales que acaben con las cosechas u oscurezcan el sol" (PDF) . Futuros . 72 : 57–68. doi :10.1016/j.futures.2014.11.008. S2CID  153917693.
  49. ^ "Fundación Global Challenges | Comprensión del riesgo sistémico global". globalchallenges.org . Archivado desde el original el 16 de agosto de 2017 . Consultado el 15 de agosto de 2017 .
  50. ^ "Política global de riesgos catastróficos". gcrpolicy.com . Consultado el 11 de agosto de 2019 .
  51. ^ Club de Roma (2018). «El Plan de Emergencia Climática» . Consultado el 17 de agosto de 2020 .
  52. ^ Club de Roma (2019). «El Plan de Emergencia Planetaria» . Consultado el 17 de agosto de 2020 .
  53. ^ Kieft, J.; Bendell, J (2021). "La responsabilidad de comunicar verdades difíciles sobre el clima influyó en la alteración y el colapso de la sociedad: una introducción a la investigación psicológica". Documentos ocasionales del Instituto para el Liderazgo y la Sostenibilidad (IFLAS) . 7 : 1–39.
  54. ^ "La humanidad debe abandonar la Tierra o enfrentarse a la extinción: Hawking", physorg.com , 9 de agosto de 2010 , consultado el 23 de enero de 2012
  55. ^ Malik, Tariq (13 de abril de 2013). "Stephen Hawking: la humanidad debe colonizar el espacio para sobrevivir". Espacio.com . Consultado el 1 de julio de 2016 .
  56. ^ Shukman, David (19 de enero de 2016). "Hawking: Los humanos corren el riesgo de sufrir un gol en propia puerta letal'". Noticias de la BBC . Consultado el 1 de julio de 2016 .
  57. ^ Ginsberg, Leah (16 de junio de 2017). "Elon Musk cree que la vida en la Tierra se extinguirá y está invirtiendo la mayor parte de su fortuna en la colonización de Marte". CNBC .
  58. ^ Korycansky, Donald G.; Laughlin, Gregorio; Adams, Fred C. (2001). "Ingeniería astronómica: una estrategia para modificar las órbitas planetarias". Astrofísica y Ciencias Espaciales . 275 (4): 349–366. arXiv : astro-ph/0102126 . Código Bib : 2001Ap&SS.275..349K. doi :10.1023/A:1002790227314. hdl :2027.42/41972. S2CID  5550304.
  59. ^ Fred Hapgood (noviembre de 1986). "Nanotecnología: máquinas moleculares que imitan la vida" (PDF) . Omni . Archivado desde el original (PDF) el 27 de julio de 2013 . Consultado el 5 de junio de 2015 .
  60. ^ Giles, Jim (2004). "La nanotecnología da un pequeño paso para enterrar la 'cosa gris'". Naturaleza . 429 (6992): 591. Bibcode :2004Natur.429..591G. doi : 10.1038/429591b . PMID  15190320.
  61. ^ Sophie McBain (25 de septiembre de 2014). "Apocalipsis pronto: los científicos se preparan para el fin de los tiempos". Nuevo estadista . Consultado el 5 de junio de 2015 .
  62. ^ "Reducir los riesgos catastróficos a largo plazo derivados de la inteligencia artificial". Instituto de Investigación de Inteligencia Artificial . Consultado el 5 de junio de 2015 . El Instituto de Investigación de Inteligencia de Máquinas tiene como objetivo reducir el riesgo de una catástrofe, en caso de que finalmente se produzca un evento de este tipo.
  63. ^ Angela Chen (11 de septiembre de 2014). "¿Es la inteligencia artificial una amenaza?". La Crónica de la Educación Superior . Consultado el 5 de junio de 2015 .
  64. ^ Alexander Sehmar (31 de mayo de 2015). "Isis podría obtener armas nucleares de Pakistán, advierte la India". El independiente . Archivado desde el original el 2 de junio de 2015 . Consultado el 5 de junio de 2015 .
  65. ^ "Acerca de la Fundación Lifeboat". La Fundación Bote Salvavidas . Consultado el 26 de abril de 2013 .
  66. ^ Ashlee, Vance (20 de julio de 2010). "The Lifeboat Foundation: luchando contra los asteroides, los nanobots y la inteligencia artificial" New York Times . Consultado el 5 de junio de 2015 .
  67. ^ "Instituto Global de Riesgo Catastrófico". gcrinstitute.org . Consultado el 22 de marzo de 2022 .
  68. ^ Meyer, Robinson (29 de abril de 2016). "La extinción humana no es tan improbable". El Atlántico . Boston, Massachusetts: Colectivo Emerson . Consultado el 30 de abril de 2016 .
  69. ^ "Sitio web de la Fundación Global Challenges". globalchallenges.org . Consultado el 30 de abril de 2016 .
  70. ^ Nick Bilton (28 de mayo de 2015). "Ava de 'Ex Machina' es solo ciencia ficción (por ahora)". New York Times . Consultado el 5 de junio de 2015 .
  71. ^ "Acerca de nosotros". Centro de Riesgos a Largo Plazo . Consultado el 17 de mayo de 2020 . Actualmente nos centramos en los esfuerzos para reducir los peores riesgos de sufrimiento astronómico (riesgos s) derivados de las tecnologías emergentes, con especial atención en la inteligencia artificial transformadora.
  72. ^ Hui, Sylvia (25 de noviembre de 2012). "Cambridge estudiará los riesgos de la tecnología para los humanos". Associated Press. Archivado desde el original el 1 de diciembre de 2012 . Consultado el 30 de enero de 2012 .
  73. ^ Scott Barrett (2014). Economía del medio ambiente y el desarrollo: ensayos en honor a Sir Partha Dasgupta. Prensa de la Universidad de Oxford. pag. 112.ISBN 9780199677856. Consultado el 5 de junio de 2015 .
  74. ^ "Alianza del Milenio para la Humanidad y la Biosfera". Alianza del Milenio para la Humanidad y la Biosfera . Consultado el 5 de junio de 2015 .
  75. ^ Guruprasad Madhavan (2012). Practicando la sostenibilidad. Medios de ciencia y negocios de Springer. pag. 43.ISBN 9781461443483. Consultado el 5 de junio de 2015 .
  76. ^ "Centro para la Seguridad y la Cooperación Internacional". Centro para la Seguridad y la Cooperación Internacional . Consultado el 5 de junio de 2015 .
  77. ^ ab Anderson, Nick (28 de febrero de 2019). "Georgetown lanza un grupo de expertos sobre seguridad y tecnología emergente". El Correo de Washington . Consultado el 12 de marzo de 2019 .
  78. ^ "Alerta y respuesta global (GAR)". Organización Mundial de la Salud . Archivado desde el original el 16 de febrero de 2003 . Consultado el 5 de junio de 2015 .
  79. ^ Kelly Lee (2013). Diccionario histórico de la Organización Mundial de la Salud. Rowman y Littlefield. pag. 92.ISBN 9780810878587. Consultado el 5 de junio de 2015 .
  80. ^ "Programa de amenazas pandémicas emergentes de USAID". TU DIJISTE . Archivado desde el original el 22 de octubre de 2014 . Consultado el 5 de junio de 2015 .
  81. ^ "Seguridad global". Laboratorio Nacional Lawrence Livermore . Consultado el 5 de junio de 2015 .

Otras lecturas

enlaces externos