El consenso científico es que existe un riesgo relativamente bajo de extinción humana a corto plazo debido a causas naturales. [2] [3] Sin embargo, la probabilidad de extinción humana a través de las propias actividades de la humanidad es un área actual de investigación y debate.
Historia del pensamiento
Historia temprana del pensamiento sobre la extinción humana
Antes de los siglos XVIII y XIX, la posibilidad de que los humanos u otros organismos pudieran extinguirse era vista con escepticismo. [4] Contradecía el principio de plenitud , una doctrina que sostiene que existen todas las cosas posibles. [4] El principio se remonta a Aristóteles y fue un principio importante de la teología cristiana. [5] Filósofos antiguos como Platón , Aristóteles y Lucrecio escribieron sobre el fin de la humanidad solo como parte de un ciclo de renovación. Marción de Sinope fue un protoprotestante que abogó por el antinatalismo que podría conducir a la extinción humana. [6] [7] Filósofos posteriores como Al-Ghazali , Guillermo de Ockham y Gerolamo Cardano ampliaron el estudio de la lógica y la probabilidad y comenzaron a preguntarse si existían mundos abstractos, incluido un mundo sin humanos. El físico Edmond Halley afirmó que la extinción de la raza humana puede ser beneficiosa para el futuro del mundo. [8]
La noción de que las especies pueden extinguirse ganó aceptación científica durante la Era de la Ilustración en los siglos XVII y XVIII, y para 1800 Georges Cuvier había identificado 23 especies prehistóricas extintas. [4] La doctrina fue gradualmente socavada por la evidencia de las ciencias naturales, particularmente el descubrimiento de evidencia fósil de especies que parecían ya no existir, y el desarrollo de teorías de la evolución. [5] En El origen de las especies , Darwin discutió la extinción de las especies como un proceso natural y un componente central de la selección natural. [9] Cabe destacar que Darwin era escéptico sobre la posibilidad de una extinción repentina, viéndola como un proceso gradual. Sostuvo que las desapariciones abruptas de especies del registro fósil no eran evidencia de extinciones catastróficas, sino que representaban lagunas no reconocidas [ aclaración necesaria ] en el registro. [9]
A medida que la posibilidad de extinción se hizo más ampliamente establecida en las ciencias, también lo hizo la perspectiva de la extinción humana. [4] En el siglo XIX, la extinción humana se convirtió en un tema popular en la ciencia (por ejemplo, Ensayo sobre el principio de población de Thomas Robert Malthus ) y la ficción (por ejemplo, El último hombre de Jean-Baptiste Cousin de Grainville ). En 1863, unos años después de que Charles Darwin publicara El origen de las especies , William King propuso que los neandertales eran una especie extinta del género Homo . Los autores y poetas románticos estaban particularmente interesados en el tema. [4] Lord Byron escribió sobre la extinción de la vida en la Tierra en su poema de 1816 " Oscuridad ", y en 1824 imaginó a la humanidad amenazada por el impacto de un cometa y empleando un sistema de misiles para defenderse de él. [4] La novela de Mary Shelley de 1826 El último hombre está ambientada en un mundo donde la humanidad ha sido casi destruida por una misteriosa plaga. [4] A principios del siglo XX, el cosmismo ruso , precursor del transhumanismo moderno , abogó por evitar la extinción de la humanidad mediante la colonización del espacio. [4]
Era atómica
La invención de la bomba atómica provocó una ola de debates entre científicos, intelectuales y el público en general sobre el riesgo de extinción humana. [4] En un ensayo de 1945, Bertrand Russell escribió que "[L]a perspectiva para la raza humana es sombría más allá de todo precedente. La humanidad se enfrenta a una alternativa clara: o todos perecemos, o tendremos que adquirir un ligero grado de sentido común". [10] En 1950, Leo Szilard sugirió que era tecnológicamente factible construir una bomba de cobalto que podría hacer que el planeta fuera inhabitable. Una encuesta de Gallup de 1950 encontró que el 19% de los estadounidenses creía que otra guerra mundial significaría "el fin de la humanidad". [11] El libro de Rachel Carson de 1962 Primavera silenciosa aumentó la conciencia sobre la catástrofe ambiental. En 1983, Brandon Carter propuso el argumento del día del juicio final , que utilizó la probabilidad bayesiana para predecir el número total de humanos que existirán alguna vez.
El descubrimiento del “ invierno nuclear ” a principios de los años 1980, un mecanismo específico por el cual una guerra nuclear podría provocar la extinción humana, volvió a poner de relieve la cuestión. Al escribir sobre estos hallazgos en 1983, Carl Sagan sostuvo que medir la gravedad de la extinción únicamente en términos de quienes mueren “oculta su impacto total”, y que la guerra nuclear “pone en peligro a todos nuestros descendientes, mientras haya seres humanos”. [12]
Posguerra fría
El libro de John Leslie de 1996, The End of The World , fue un tratamiento académico de la ciencia y la ética de la extinción humana. En él, Leslie consideró una variedad de amenazas a la humanidad y lo que tienen en común. En 2003, el astrónomo británico Royal Sir Martin Rees publicó Our Final Hour , en el que sostiene que los avances en ciertas tecnologías crean nuevas amenazas a la supervivencia de la humanidad y que el siglo XXI puede ser un momento crítico en la historia en el que se decida el destino de la humanidad. [13] Editado por Nick Bostrom y Milan M. Ćirković , Global Catastrophic Risks se publicó en 2008, una colección de ensayos de 26 académicos sobre varios riesgos catastróficos y existenciales globales. [14] El libro de Toby Ord de 2020, The Precipice: Existential Risk and the Future of Humanity, sostiene que prevenir los riesgos existenciales es una de las cuestiones morales más importantes de nuestro tiempo. El libro analiza, cuantifica y compara diferentes riesgos existenciales y concluye que los mayores riesgos los presentan la inteligencia artificial y la biotecnología no alineadas. [15]
Los humanos (por ejemplo, el Homo sapiens sapiens ) como especie también pueden considerarse "extintos" simplemente al ser reemplazados por descendientes distantes cuya evolución continua puede producir nuevas especies o subespecies de Homo o de homínidos .
Sin la intervención de fuerzas inesperadas, se espera que la evolución estelar del Sol haga que la Tierra sea inhabitable y luego la destruya. Dependiendo de su destino final , el universo entero podría llegar a ser inhabitable.
Probabilidad
Natural vs. antropogénico
Los expertos coinciden en general en que los riesgos existenciales de origen antropogénico son (mucho) más probables que los riesgos naturales. [16] [13] [17] [2] [18] Una diferencia clave entre estos tipos de riesgo es que la evidencia empírica puede establecer un límite superior al nivel de riesgo natural. [2] La humanidad ha existido durante al menos 200.000 años, durante los cuales ha estado sujeta a un nivel de riesgo natural aproximadamente constante. Si el riesgo natural fuera lo suficientemente alto, sería muy improbable que la humanidad hubiera sobrevivido tanto tiempo. Basándose en una formalización de este argumento, los investigadores han llegado a la conclusión de que podemos estar seguros de que el riesgo natural es inferior a 1 en 14.000 por año (equivalente a 1 en 140 por siglo, en promedio). [2]
Otro método empírico para estudiar la probabilidad de ciertos riesgos naturales es investigar el registro geológico. [16] Por ejemplo, se ha estimado que un evento de impacto de cometa o asteroide de escala suficiente para causar un invierno de impacto que causaría la extinción humana antes del año 2100 es de uno en un millón. [19] [20] Además, las grandes erupciones de supervolcanes pueden causar un invierno volcánico que podría poner en peligro la supervivencia de la humanidad. [21] El registro geológico sugiere que se estima que las erupciones supervolcánicas ocurren en promedio aproximadamente una vez cada 50.000 años, aunque la mayoría de estas erupciones no alcanzarían la escala necesaria para causar la extinción humana. [21] Es famoso el hecho de que el supervolcán Monte Toba casi haya exterminado a la humanidad en el momento de su última erupción (aunque esto es polémico). [21] [22]
Como el riesgo antropogénico es un fenómeno relativamente reciente, el historial de supervivencia de la humanidad no puede ofrecer garantías similares. [2] La humanidad sólo ha sobrevivido 78 años desde la creación de las armas nucleares, y no hay historial de tecnologías futuras. Esto ha llevado a pensadores como Carl Sagan a concluir que la humanidad se encuentra actualmente en una "época de peligros" [23] , un período excepcionalmente peligroso en la historia humana, en el que está sujeta a niveles de riesgo sin precedentes, a partir de que los humanos comenzaron a plantearse riesgos a sí mismos con sus acciones. [16] [24] El paleobiólogo Olev Vinn ha sugerido que los humanos presumiblemente tienen una serie de patrones de comportamiento heredados (PCI) que no están ajustados a las condiciones prevalecientes en la civilización tecnológica. De hecho, algunos PCI pueden ser altamente incompatibles con tales condiciones y tener un alto potencial para inducir la autodestrucción. Estos patrones pueden incluir respuestas de individuos que buscan poder sobre sus congéneres en relación con la recolección y el consumo de energía. [25]
Estimaciones de riesgo
Dadas las limitaciones de la observación y el modelado ordinarios, con frecuencia se recurre a la obtención de información por expertos para obtener estimaciones de probabilidad. [26]
La humanidad tiene un 95% de probabilidades de extinguirse en 7.800.000 años, según la formulación de J. Richard Gott del controvertido argumento del fin del mundo , que sostiene que probablemente ya hemos vivido la mitad de la duración de la historia humana. [27]
En 1996, John A. Leslie estimó un riesgo del 30% durante los próximos cinco siglos (equivalente a alrededor del 6% por siglo, en promedio). [28]
En 2003, Martin Rees estimó que había un 50% de posibilidades de que la civilización colapsara en el siglo XXI. [29]
Una encuesta realizada en 2008 por el Future of Humanity Institute estimó una probabilidad del 5% de extinción por superinteligencia para el año 2100. [17]
El informe anual de 2016 de la Global Challenges Foundation estima una probabilidad anual de extinción humana de al menos el 0,05% por año (equivalente al 5% por siglo, en promedio). [30]
Una encuesta realizada en 2016 a expertos en IA determinó que una estimación media del 5 % de que la IA a nivel humano causaría un resultado "extremadamente malo (por ejemplo, la extinción humana)" [31] . En 2019, el riesgo se redujo al 2 %, pero en 2022 volvió a aumentar al 5 %. En 2023, el riesgo se duplicó al 10 % [32] .
Según el artículo del 10 de julio de 2023 de The Economist , los científicos estimaron una probabilidad del 12 % de una catástrofe causada por la IA y una probabilidad del 3 % de una extinción causada por la IA para el año 2100. También estiman una probabilidad del 8 % de que una guerra nuclear cause una catástrofe global y una probabilidad del 0,5625 % de que una guerra nuclear cause la extinción humana. [34]
El 1 de mayo de 2023, el Tratado sobre Seguridad y Cooperación en Materia de Inteligencia Artificial (TAISC) estimó un riesgo del 30,5 % de una catástrofe causada por IA para 2200, aunque también estimó un riesgo del 32,2 % de una catástrofe causada por IA para 2026, si no hay una moratoria de seis meses. [35]
Al 26 de marzo de 2024, los usuarios de Metaculus estiman una probabilidad del 1% de extinción humana para el año 2100. [36]
Según un estudio de 2020 publicado en Scientific Reports , si la deforestación y el consumo de recursos continúan al ritmo actual, podrían culminar en un "colapso catastrófico de la población humana" y posiblemente "un colapso irreversible de nuestra civilización" en los próximos 20 a 40 años. Según el escenario más optimista que plantea el estudio, las posibilidades de que la civilización humana sobreviva son menores del 10%. Para evitar este colapso, dice el estudio, la humanidad debería pasar de una civilización dominada por la economía a una "sociedad cultural" que "privilegie el interés del ecosistema por encima del interés individual de sus componentes, pero eventualmente de acuerdo con el interés comunitario general". [38] [39]
Nick Bostrom, un filósofo de la Universidad de Oxford conocido por su trabajo sobre el riesgo existencial , sostiene que sería "equivocado" [40] suponer que la probabilidad de extinción a corto plazo es inferior al 25% y que será "una tarea difícil" para la raza humana "tomar las precauciones suficientemente correctas la primera vez", dado que un riesgo existencial no ofrece ninguna oportunidad de aprender de los fracasos. [3] [19]
El filósofo John A. Leslie asigna un 70% de posibilidades de que la humanidad sobreviva los próximos cinco siglos, basándose en parte en el controvertido argumento filosófico del fin del mundo que Leslie defiende. El argumento de Leslie es algo frecuentista , basado en la observación de que la extinción humana nunca se ha observado, pero requiere argumentos antrópicos subjetivos. [41] Leslie también analiza el sesgo de supervivencia antrópica (al que llama un efecto de "selección observacional" en la página 139) y afirma que la certeza a priori de observar un "pasado no desastroso" podría dificultar el argumento de que debemos estar a salvo porque nada terrible ha ocurrido todavía. Cita la formulación de Holger Bech Nielsen : "Ni siquiera sabemos si debería existir alguna desintegración extremadamente peligrosa, por ejemplo, del protón que causó la erradicación de la Tierra, porque si sucede ya no estaríamos allí para observarlo y si no sucede, no hay nada que observar". [42]
Jean-Marc Salotti calculó la probabilidad de extinción humana causada por el impacto de un asteroide gigante. [43] Es de entre 0,03 y 0,3 para los próximos mil millones de años, si no hay colonización de otros planetas. Según ese estudio, el objeto más aterrador es un cometa gigante de largo período con un tiempo de advertencia de solo unos pocos años y, por lo tanto, sin tiempo para ninguna intervención en el espacio o asentamiento en la Luna o Marte. La probabilidad de un impacto de un cometa gigante en los próximos cien años es2,2 × 10 −12 . [43]
Riesgos individuales y de especie
Aunque los riesgos existenciales son menos manejables por los individuos que, por ejemplo, los riesgos para la salud, según Ken Olum, Joshua Knobe y Alexander Vilenkin, la posibilidad de la extinción humana tiene implicaciones prácticas. Por ejemplo, si se acepta el argumento del fin del mundo "universal" , cambia la fuente más probable de desastres y, por lo tanto, los medios más eficientes para prevenirlos. Escriben: "...deberíamos estar más preocupados por el hecho de que todavía no se haya detectado una gran cantidad de asteroides que por la órbita particular de cada uno de ellos. No deberíamos preocuparnos especialmente por la posibilidad de que alguna estrella cercana específica se convierta en una supernova, sino más por la posibilidad de que las supernovas sean más letales para la vida cercana de lo que creemos". [44]
Dificultad
Algunos académicos sostienen que ciertos escenarios, como una guerra termonuclear global , tendrían dificultades para erradicar hasta el último asentamiento en la Tierra. El físico Willard Wells señala que cualquier escenario de extinción creíble tendría que llegar a un conjunto diverso de áreas, incluidos los subterráneos de las principales ciudades, las montañas del Tíbet, las islas más remotas del Pacífico Sur e incluso la estación McMurdo en la Antártida, que tiene planes de contingencia y suministros para un aislamiento prolongado. [45] Además, existen búnkeres elaborados para que los líderes gubernamentales los ocupen durante una guerra nuclear. [19] También debería considerarse la existencia de submarinos nucleares , que pueden permanecer a cientos de metros de profundidad en el océano durante potencialmente años a la vez. Cualquier número de eventos podría llevar a una pérdida masiva de vidas humanas, pero si es poco probable que los últimos humanos (ver población mínima viable ) más resistentes también mueran, entonces ese escenario particular de extinción humana puede no parecer creíble. [46]
Ética
Valor de la vida humana
Los "riesgos existenciales" son aquellos que amenazan el futuro entero de la humanidad, ya sea causando la extinción humana o paralizando de algún otro modo el progreso humano. [3] Numerosos estudiosos han argumentado, basándose en el tamaño de la "dotación cósmica", que debido a la inconcebible cantidad de vidas futuras potenciales que están en juego, incluso pequeñas reducciones del riesgo existencial tienen un gran valor.
En una de las primeras discusiones sobre la ética de la extinción humana, Derek Parfit ofrece el siguiente experimento mental: [47]
Creo que si destruimos a la humanidad, como podemos hacer ahora, el resultado será mucho peor de lo que la mayoría de la gente cree. Comparemos tres resultados:
(1) Paz. (2) Una guerra nuclear que mate al 99% de la población mundial actual. (3) Una guerra nuclear que mate al 100%.
(2) sería peor que (1), y (3) sería peor que (2). ¿Cuál es la mayor de estas dos diferencias? La mayoría de la gente cree que la mayor diferencia está entre (1) y (2). Yo creo que la diferencia entre (2) y (3) es mucho mayor.
—Derek Parfit
La escala de lo que se pierde en una catástrofe existencial está determinada por el potencial a largo plazo de la humanidad: lo que la humanidad podría esperar lograr si sobreviviera. [16] Desde una perspectiva utilitarista , el valor de proteger a la humanidad es el producto de su duración (cuánto tiempo sobrevive la humanidad), su tamaño (cuántos humanos hay a lo largo del tiempo) y su calidad (en promedio, qué tan buena es la vida para las personas futuras). [16] : 273 [48] En promedio, las especies sobreviven alrededor de un millón de años antes de extinguirse. Parfit señala que la Tierra seguirá siendo habitable durante alrededor de mil millones de años. [47] Y estos podrían ser límites inferiores a nuestro potencial: si la humanidad es capaz de expandirse más allá de la Tierra , podría aumentar enormemente la población humana y sobrevivir durante billones de años. [49] [16] : 21 El tamaño del potencial perdido que se perdería, si la humanidad se extinguiera, es muy grande. Por lo tanto, reducir el riesgo existencial incluso en una pequeña cantidad tendría un valor moral muy significativo. [3] [50]
Carl Sagan escribió en 1983: “Si tuviéramos que calibrar la extinción en términos numéricos, me aseguraría de incluir el número de personas de las generaciones futuras que no nacerían... (Según un cálculo), lo que está en juego es un millón de veces mayor en el caso de la extinción que en el de las guerras nucleares más modestas que matan “sólo” a cientos de millones de personas. Hay muchas otras posibles medidas de la pérdida potencial, entre ellas la cultura y la ciencia, la historia evolutiva del planeta y la importancia de las vidas de todos nuestros antepasados que contribuyeron al futuro de sus descendientes. La extinción es la ruina de la empresa humana”. [51]
En 1989, el filósofo Robert Adams rechazó las opiniones "impersonales" de Parfit, pero habló en cambio de un imperativo moral de lealtad y compromiso con "el futuro de la humanidad como un vasto proyecto... La aspiración a una sociedad mejor -más justa, más gratificante y más pacífica... nuestro interés en las vidas de nuestros hijos y nietos, y las esperanzas de que ellos puedan, a su vez, tener las vidas de sus hijos y nietos como proyectos". [52]
El filósofo Nick Bostrom sostiene en 2013 que los argumentos satisfaccionistas de preferencias , democráticos, custodios e intuicionistas convergen en la visión de sentido común de que prevenir el riesgo existencial es una alta prioridad moral, incluso si el "grado de maldad" exacto de la extinción humana varía entre estas filosofías. [53]
Parfit sostiene que el tamaño de la "dotación cósmica" se puede calcular a partir del siguiente argumento: si la Tierra sigue siendo habitable durante mil millones de años más y puede sustentar de manera sostenible una población de más de mil millones de humanos, entonces existe un potencial para 10 16 (o 10.000.000.000.000.000) de vidas humanas de duración normal. [54] Bostrom va más allá, afirmando que si el universo está vacío, entonces el universo accesible puede soportar al menos 10 34 años de vida humana biológica; y, si algunos humanos se cargaran en computadoras, podría incluso soportar el equivalente a 10 54 años de vida humana cibernética. [3]
Algunos economistas y filósofos han defendido puntos de vista, entre ellos el descuento exponencial y los que afectan a las personas, sobre la ética de la población , según los cuales las personas futuras no importan (o importan mucho menos), moralmente hablando. [55] Si bien estos puntos de vista son controvertidos, [19] [56] [57] estarían de acuerdo en que una catástrofe existencial sería una de las peores cosas imaginables. Cortaría las vidas de ocho mil millones de personas que existen actualmente, destruyendo todo lo que hace que sus vidas sean valiosas y, muy probablemente, sometiendo a muchas de ellas a un profundo sufrimiento. De modo que, incluso dejando de lado el valor de las generaciones futuras, puede haber fuertes razones para reducir el riesgo existencial, basadas en la preocupación por las personas que existen actualmente. [58]
Más allá del utilitarismo, otras perspectivas morales respaldan la importancia de reducir el riesgo existencial. Una catástrofe existencial destruiría más que la humanidad: destruiría todos los artefactos culturales, los idiomas y las tradiciones, y muchas de las cosas que valoramos. [16] [59] Por lo tanto, los puntos de vista morales según los cuales tenemos el deber de proteger y apreciar las cosas de valor verían esto como una enorme pérdida que debería evitarse. [16] También se pueden considerar razones basadas en deberes hacia las generaciones pasadas. Por ejemplo, Edmund Burke escribe sobre una "asociación... entre los que están vivos, los que están muertos y los que están por nacer". [60] Si uno toma en serio la deuda que la humanidad tiene con las generaciones pasadas, Ord sostiene que la mejor manera de pagarla podría ser "devolverla a los demás" y garantizar que la herencia de la humanidad se transmita a las generaciones futuras. [16] : 49–51
Hay varios economistas que han analizado la importancia de los riesgos catastróficos globales. Por ejemplo, Martin Weitzman sostiene que la mayor parte del daño económico previsto por el cambio climático puede provenir de la pequeña posibilidad de que el calentamiento supere ampliamente las expectativas intermedias, lo que daría como resultado daños catastróficos. [61] Richard Posner ha sostenido que la humanidad está haciendo muy poco, en general, respecto de los riesgos pequeños y difíciles de estimar de catástrofes a gran escala. [62]
Extinción voluntaria
Algunos filósofos adoptan la posición antinatalista de que la extinción humana no sería algo malo, sino algo bueno. David Benatar sostiene que el surgimiento de la existencia siempre supone un daño grave y, por lo tanto, es mejor que la gente no exista en el futuro. [63] Además, David Benatar, el activista por los derechos de los animales Steven Best y el anarquista Todd May postulan que la extinción humana sería algo positivo para los demás organismos del planeta y para el planeta mismo, citando, por ejemplo, la naturaleza omnicida de la civilización humana. [64] [65] [66] La visión ambientalista a favor de la extinción humana es compartida por los miembros del Movimiento de Extinción Humana Voluntaria y la Iglesia de la Eutanasia, que piden abstenerse de la reproducción y permitir que la especie humana se extinga pacíficamente, deteniendo así una mayor degradación ambiental . [67]
En la ficción
La novela de fantasía científica de 1805 de Jean-Baptiste Cousin de Grainville Le dernier homme ( El último hombre ), que describe la extinción humana debido a la infertilidad, se considera la primera novela apocalíptica moderna y se le atribuye el lanzamiento del género. [68] Otras obras tempranas notables incluyen El último hombre de 1826 de Mary Shelley , que describe la extinción humana causada por una pandemia , y Star Maker de 1937 de Olaf Stapledon , "un estudio comparativo del omnicidio". [4]
Algunas obras de ciencia popular del siglo XXI, incluyendo El mundo sin nosotros de Alan Weisman , y los especiales de televisión Life After People y Aftermath: Population Zero plantean un experimento mental : ¿qué pasaría con el resto del planeta si los humanos desaparecieran repentinamente? [69] [70] Una amenaza de extinción humana, como a través de una singularidad tecnológica (también llamada explosión de inteligencia), impulsa la trama de innumerables historias de ciencia ficción; un ejemplo temprano influyente es la adaptación cinematográfica de 1951 de Cuando los mundos chocan . [71] Por lo general, la amenaza de extinción se evita por poco, pero existen algunas excepciones, como RUR y AI de Steven Spielberg [72] [ página necesaria ]
^ Di Mardi (15 de octubre de 2020). "El sombrío destino que podría ser 'peor que la extinción'". BBC News . Consultado el 11 de noviembre de 2020. Cuando pensamos en riesgos existenciales, a menudo nos vienen a la mente eventos como la guerra nuclear o los impactos de asteroides.
^ abcde Snyder-Beattie, Andrew E.; Ord, Toby; Bonsall, Michael B. (30 de julio de 2019). "Un límite superior para la tasa de fondo de extinción humana". Scientific Reports . 9 (1): 11054. Bibcode :2019NatSR...911054S. doi :10.1038/s41598-019-47540-7. ISSN 2045-2322. PMC 6667434 . PMID 31363134.
^ abcde Bostrom 2013.
^ abcdefghij Moynihan, Thomas (23 de septiembre de 2020). «Cómo la humanidad llegó a contemplar su posible extinción: una cronología». The MIT Press Reader . Consultado el 11 de octubre de 2020 . Ver también:
Moynihan, Thomas (febrero de 2020). "Riesgo existencial y extinción humana: una historia intelectual". Futures . 116 : 102495. doi :10.1016/j.futures.2019.102495. ISSN 0016-3287. S2CID 213388167.
Moynihan, Thomas (2020). Riesgo X: cómo la humanidad descubrió su propia extinción. MIT Press . ISBN 978-1-913029-82-1.
^ ab Darwin, Charles; Costa, James T. (2009). El origen anotado . Harvard University Press. pág. 121. ISBN978-0674032811.
^ Moll, S. (2010). El archihereje Marción. Wissenschaftliche Untersuchungen zum Neuen Testament. Mohr Siebeck. pag. 132.ISBN978-3-16-150268-2. Consultado el 11 de junio de 2023 .
^ Welchman, A. (2014). Política de la religión/Religiones de la política. Estudios de Sophia sobre filosofía transcultural de las tradiciones y las culturas. Springer Netherlands. pág. 21. ISBN978-94-017-9448-0. Consultado el 11 de junio de 2023 .
^ Moynihan, T. (2020). X-Risk: cómo la humanidad descubrió su propia extinción. MIT Press. pág. 56. ISBN978-1-913029-84-5. Consultado el 19 de octubre de 2022 .
^ ab Raup, David M. (1995). "El papel de la extinción en la evolución". En Fitch, WM; Ayala, FJ (eds.). Tempo y modo en la evolución: genética y paleontología 50 años después de Simpson . National Academies Press (EE. UU.).
^ Russell, Bertrand (1945). «La bomba y la civilización». Archivado desde el original el 7 de agosto de 2020.
^ Erskine, Hazel Gaudet (1963). "Las encuestas: armas atómicas y energía nuclear". The Public Opinion Quarterly . 27 (2): 155–190. doi :10.1086/267159. JSTOR 2746913.
^ Sagan, Carl (28 de enero de 2009). "Guerra nuclear y catástrofe climática: algunas implicaciones políticas". doi :10.2307/20041818. JSTOR 20041818. Consultado el 11 de agosto de 2021 .
^ ab Reese, Martin (2003). Nuestra última hora: la advertencia de un científico: cómo el terrorismo, el error y el desastre medioambiental amenazan el futuro de la humanidad en este siglo, en la Tierra y más allá . Libros básicos . ISBN0-465-06863-4.
^ Ord, Toby (2020). El precipicio: riesgo existencial y el futuro de la humanidad . Nueva York: Hachette. 4:15–31. ISBN9780316484916. Esta es una definición equivalente, aunque más precisa, de Nick Bostrom : "Un riesgo existencial es aquel que amenaza con la extinción prematura de la vida inteligente originada en la Tierra o la destrucción permanente y drástica de su potencial para un desarrollo futuro deseable". Fuente: Bostrom, Nick (2013). "Existential Risk Prevention as Global Priority". Global Policy.
^ abcdefghij Ord, Toby (2020). El precipicio: riesgo existencial y el futuro de la humanidad . Nueva York: Hachette. ISBN9780316484916.
^ "Preguntas frecuentes". Riesgo existencial . Future of Humanity Institute . Consultado el 26 de julio de 2013 . La mayor parte del riesgo existencial en el futuro previsible es antropogénico; es decir, surge de la actividad humana.
^ abcd Matheny, Jason Gaverick (2007). "Reducing the Risk of Human Extinction" (PDF) . Análisis de riesgos . 27 (5): 1335–1344. Código bibliográfico :2007RiskA..27.1335M. doi :10.1111/j.1539-6924.2007.00960.x. PMID 18076500. S2CID 14265396. Archivado desde el original (PDF) el 27 de agosto de 2014 . Consultado el 1 de julio de 2016 .
^ Asher, DJ; Bailey, ME; Emel'yanenko, V.; Napier, WM (2005). "La Tierra en la galería de tiro cósmica" (PDF) . El Observatorio . 125 : 319–322. Código Bibliográfico :2005Obs...125..319A.
^ abc Rampino, MR; Ambrose, SH (2002). «Supererupciones como amenaza para las civilizaciones en planetas similares a la Tierra» (PDF) . Icarus . 156 (2): 562–569. Bibcode :2002Icar..156..562R. doi :10.1006/icar.2001.6808. Archivado desde el original (PDF) el 24 de septiembre de 2015 . Consultado el 14 de febrero de 2022 .
^ Yost, Chad L.; Jackson, Lily J.; Stone, Jeffery R.; Cohen, Andrew S. (1 de marzo de 2018). "Los registros subdecadales de fitolitos y carbón del lago Malawi, África Oriental, implican efectos mínimos en la evolución humana a partir de la supererupción del Toba de hace unos 74.000 años". Journal of Human Evolution . 116 : 75–94. Bibcode :2018JHumE.116...75Y. doi : 10.1016/j.jhevol.2017.11.005 . ISSN 0047-2484. PMID 29477183.
^ Sagan, Carl (1994). Un punto azul pálido . Random House. Págs. 305-6. ISBN.0-679-43841-6Algunas civilizaciones planetarias logran abrirse camino, establecen límites a lo que se puede y no se debe hacer y atraviesan con seguridad la época de los peligros. Otras no son tan afortunadas ni tan prudentes y perecen.
^ Parfit, Derek (2011). On What Matters, vol. 2. Oxford University Press. pág. 616. ISBN9780199681044Vivimos en el momento decisivo de la historia... Si actuamos con sabiduría en los próximos siglos, la humanidad sobrevivirá a su período más peligroso y decisivo.
^ Vinn, O. (2024). "Potencial incompatibilidad de los patrones de comportamiento heredados con la civilización: implicaciones para la paradoja de Fermi". Science Progress . 107 (3): 1–6. doi :10.1177/00368504241272491. PMC 11307330 . PMID 39105260.
^ Rowe, Thomas; Beard, Simon (2018). "Probabilidades, metodologías y la base de evidencia en las evaluaciones de riesgo existencial" (PDF) . Documento de trabajo, Centro para el Estudio del Riesgo Existencial . Consultado el 26 de agosto de 2018 .
^ Gott, III, J. Richard (1993). "Implicaciones del principio copernicano para nuestras perspectivas futuras". Nature . 363 (6427): 315–319. Código Bibliográfico :1993Natur.363..315G. doi :10.1038/363315a0. S2CID 4252750.
^ Leslie 1996, pág. 146.
^ Rees, Martin (2004) [2003]. Nuestro último siglo . Arrow Books. pág. 9.
^ Meyer, Robinson (29 de abril de 2016). "La extinción humana no es tan improbable". The Atlantic . Boston, Massachusetts: Emerson Collective . Consultado el 30 de abril de 2016 .
^ Grace, Katja; Salvatier, John; Dafoe, Allen; Zhang, Baobao; Evans, Owain (3 de mayo de 2018). "¿Cuándo superará la IA el desempeño humano? Evidencia de expertos en IA". arXiv : 1705.08807 [cs.AI].
^ Strick, Katie (31 de mayo de 2023). "¿Se acerca realmente el apocalipsis de la IA? Cómo podría ser la vida si los robots tomaran el control". The Standard . Consultado el 31 de mayo de 2023 .
^ Purtill, Corinne. "¿Qué tan cerca está la humanidad del borde?". The New Yorker . Consultado el 8 de enero de 2021 .
^ "¿Cuáles son las posibilidades de un apocalipsis de IA?". The Economist . 10 de julio de 2023. Consultado el 10 de julio de 2023 .
^ "Un 30% de posibilidades de catástrofe de IA: previsiones de Samotsvety sobre los riesgos de la IA y el impacto de un tratado de IA sólido". Tratado sobre Seguridad y Cooperación en materia de Inteligencia Artificial (TAISC) . 1 de mayo de 2023. Consultado el 1 de mayo de 2023 .
^ "¿Los humanos se extinguirán en el año 2100?". Metaculus . 12 de noviembre de 2017 . Consultado el 26 de marzo de 2024 .
^ Edwards, Lin (23 de junio de 2010). «Los humanos se extinguirán en 100 años, afirma un eminente científico». Phys.org . Consultado el 10 de enero de 2021 .
^ Nafeez, Ahmed (28 de julio de 2020). "Los físicos teóricos dicen que hay un 90 % de posibilidades de colapso social en varias décadas". Vice . Consultado el 2 de agosto de 2021 .
^ Bolonia, M.; Aquino, G. (2020). "Deforestación y sostenibilidad de la población mundial: un análisis cuantitativo". Scientific Reports . 10 (7631): 7631. arXiv : 2006.12202 . Bibcode :2020NatSR..10.7631B. doi :10.1038/s41598-020-63657-6. PMC 7203172 . PMID 32376879.
^ Bostrom, Nick (2002), "Riesgos existenciales: análisis de escenarios de extinción humana y peligros relacionados", Journal of Evolution and Technology , vol. 9, Mi opinión subjetiva es que establecer esta probabilidad por debajo del 25% sería un error, y la mejor estimación puede ser considerablemente mayor.
^ Whitmire, Daniel P. (3 de agosto de 2017). "Implicación de que nuestra especie tecnológica sea la primera y temprana". Revista Internacional de Astrobiología . 18 (2): 183–188. doi : 10.1017/S1473550417000271 .
^ Leslie 1996, pág. 139.
^ ab Salotti, Jean-Marc (abril de 2022). "Extinción humana por impacto de asteroide". Futures . 138 : 102933. doi : 10.1016/j.futures.2022.102933 . S2CID 247718308.
^ "Aplicación práctica", del artículo de la Universidad de Princeton : Implicaciones filosóficas de la cosmología inflacionaria, pág. 39. Archivado el 12 de mayo de 2005 en Wayback Machine .
^ Tonn, Bruce; MacGregor, Donald (2009). "Una cadena singular de eventos". Futures . 41 (10): 706–714. doi :10.1016/j.futures.2009.07.009. S2CID 144553194. SSRN 1775342.
^ ab Parfit, Derek (1984). Razones y personas . Oxford University Press. págs. 453–454.
^ MacAskill, William ; Yetter Chappell, Richard (2021). «Ética de la población | Implicaciones prácticas de las teorías éticas de la población». Introducción al utilitarismo . Consultado el 12 de agosto de 2021 .
^ Bostrom, Nick (2009). "Desperdicio astronómico: el costo de oportunidad del desarrollo tecnológico retrasado". Utilitas . 15 (3): 308–314. CiteSeerX 10.1.1.429.2849 . doi :10.1017/s0953820800004076. S2CID 15860897.
^ Todd, Benjamin (2017). "Argumentos a favor de la reducción de los riesgos existenciales". 80.000 Hours . Consultado el 8 de enero de 2020 .
^ Sagan, Carl (1983). "Guerra nuclear y catástrofe climática: algunas implicaciones políticas". Asuntos Exteriores . 62 (2): 257–292. doi :10.2307/20041818. JSTOR 20041818. S2CID 151058846.
^ Adams, Robert Merrihew (octubre de 1989). "¿Debería la ética ser más impersonal? Una reseña crítica de Derek Parfit, Reasons and Persons". The Philosophical Review . 98 (4): 439–484. doi :10.2307/2185115. JSTOR 2185115.
^ Bostrom 2013, págs. 23-24.
^ Parfit, D. (1984) Razones y personas . Oxford, Inglaterra: Clarendon Press. págs. 453–454.
^ Narveson, Jan (1973). "Problemas morales de la población". The Monist . 57 (1): 62–86. doi :10.5840/monist197357134. PMID 11661014.
^ Greaves, Hilary (2017). "Descuento para políticas públicas: una encuesta". Economía y filosofía . 33 (3): 391–439. doi :10.1017/S0266267117000062. ISSN 0266-2671. S2CID 21730172.
^ Greaves, Hilary (2017). "Axiología de la población". Philosophy Compass . 12 (11): e12442. doi :10.1111/phc3.12442. ISSN 1747-9991.
^ Lewis, Gregory (23 de mayo de 2018). "El valor de la reducción del riesgo existencial que afecta a la persona". www.gregoryjlewis.com . Consultado el 7 de agosto de 2020 .
^ Sagan, Carl (invierno de 1983). "Guerra nuclear y catástrofe climática: algunas implicaciones políticas". Asuntos Exteriores . Consejo de Relaciones Exteriores. doi :10.2307/20041818. JSTOR 20041818 . Consultado el 4 de agosto de 2020 .
^ Burke, Edmund (1999) [1790]. "Reflexiones sobre la revolución en Francia" (PDF) . En Canavan, Francis (ed.). Obras selectas de Edmund Burke, volumen 2. Liberty Fund. pág. 192.
^ Weitzman, Martin (2009). "Sobre el modelado y la interpretación de la economía del cambio climático catastrófico" (PDF) . The Review of Economics and Statistics . 91 (1): 1–19. doi :10.1162/rest.91.1.1. S2CID 216093786.
^ Benatar, David (2008). Mejor no haber existido nunca: el daño de llegar a existir. Oxford University Press . p. 224. ISBN978-0199549269Aunque existen muchas especies no humanas –especialmente carnívoras– que también causan mucho sufrimiento, los humanos tenemos la desafortunada distinción de ser la especie más destructiva y dañina de la Tierra. La cantidad de sufrimiento en el mundo podría reducirse radicalmente si no hubiera más humanos.
^ Best, Steven (2014). "Conclusión: Reflexiones sobre el activismo y la esperanza en un mundo moribundo y una cultura suicida". La política de la liberación total: revolución para el siglo XXI . Palgrave Macmillan . pág. 165. doi :10.1057/9781137440723_7. ISBN.978-1137471116En una era de catástrofes y crisis, la continuación de la especie humana en una forma viable o deseable es obviamente contingente y no un bien dado o necesario . Pero, si se considera desde el punto de vista de los animales y de la Tierra , la desaparición de la humanidad sería el mejor acontecimiento imaginable posible, y cuanto antes, mejor. La extinción del Homo sapiens eliminaría la malignidad que asola el planeta, destruiría un parásito que devora a su anfitrión, apagaría las máquinas de matar y permitiría que la Tierra se regenerara, permitiendo al mismo tiempo que evolucionaran nuevas especies.
^ May, Todd (17 de diciembre de 2018). "¿Sería una tragedia la extinción humana?". The New York Times . Los seres humanos están destruyendo grandes partes de la Tierra habitable y causando un sufrimiento inimaginable a muchos de los animales que la habitan. Esto está sucediendo a través de al menos tres medios. Primero, la contribución humana al cambio climático está devastando los ecosistemas... Segundo, la creciente población humana está invadiendo ecosistemas que de otro modo estarían intactos. Tercero, la ganadería industrial fomenta la creación de millones y millones de animales a los que no ofrece nada más que sufrimiento y miseria antes de sacrificarlos de formas a menudo bárbaras. No hay razón para pensar que esas prácticas vayan a disminuir en un futuro próximo. Todo lo contrario.
^ Wagar, W. Warren (2003). "Reseña de El último hombre, Jean-Baptiste François Xavier Cousin de Grainville". Estudios utópicos . 14 (1): 178–180. ISSN 1045-991X. JSTOR 20718566.
^ "Él imagina un mundo sin gente. Pero ¿por qué?". The Boston Globe . 18 de agosto de 2007. Consultado el 20 de julio de 2016 .
^ Tucker, Neely (8 de marzo de 2008). "Depopulation Boom". The Washington Post . Consultado el 20 de julio de 2016 .
^ Barcella, Laura (2012). El fin: 50 visiones apocalípticas de la cultura pop que deberías conocer antes de que sea demasiado tarde . San Francisco, California: Zest Books. ISBN978-0982732250.
^ Dinello, Daniel (2005). ¡Tecnofobia!: visiones de ciencia ficción de la tecnología posthumana (1.ª ed.). Austin, Texas: University of Texas Press. ISBN978-0-292-70986-7.
Rampino, Michael R. "10: Supervulcanismo y otros procesos geofísicos de importancia catastrófica". En Bostrom & Cirkovic (2011), págs. 205–221.
Napier, William . "11: Peligros de cometas y asteroides". En Bostrom & Cirkovic (2011), págs. 222–237.
Dar, Arnon. "12: Influencia de las supernovas, los estallidos de rayos gamma, las erupciones solares y los rayos cósmicos en el entorno terrestre". En Bostrom & Cirkovic (2011), págs. 238–262.
Frame, David; Allen, Myles R. "13: Cambio climático y riesgo global". En Bostrom & Cirkovic (2011), págs. 265–286.
Kilbourne, Edwin Dennis . "14: Plagas y pandemias: pasado, presente y futuro". En Bostrom & Cirkovic (2011), págs. 287–304.
Yudkowsky, Eliezer . "15: La inteligencia artificial como factor positivo y negativo en el riesgo global". En Bostrom & Cirkovic (2011), pp. 308–345.
Wilczek, Frank . "16: Grandes problemas, imaginarios y reales". En Bostrom & Cirkovic (2011), págs. 346–362.
Cirincione, Joseph . "18: La amenaza continua de una guerra nuclear". En Bostrom & Cirkovic (2011), págs. 381–401.
Ackerman, Gary ; Potter, William C. "19: Terrorismo nuclear catastrófico: un peligro evitable". En Bostrom & Cirkovic (2011), págs. 402–449.
Nouri, Ali; Chyba, Christopher F. "20: Biotecnología y bioseguridad". En Bostrom & Cirkovic (2011), págs. 450–480.
Phoenix, Chris ; Treder, Mike. "21: La nanotecnología como riesgo catastrófico global". En Bostrom & Cirkovic (2011), págs. 481–503.
Bostrom, Nick (2013). "La prevención del riesgo existencial como prioridad global". Política global . 4 (1): 15–31. doi :10.1111/1758-5899.12002. ISSN 1758-5899.[ PDF ]
Rees, Martin J. (19 de marzo de 2003). Nuestra última hora: la advertencia de un científico: cómo el terrorismo, el error y el desastre medioambiental amenazan el futuro de la humanidad en este siglo, en la Tierra y más allá. Basic Books . ISBN 978-0-465-06862-3.OCLC 51315429 .
de Bellaigue, Christopher , "A World Off the Hinges" (reseña de Peter Frankopan , The Earth Transformed: An Untold History , Knopf, 2023, 695 pp.), The New York Review of Books , vol. LXX, no. 18 (23 de noviembre de 2023), pp. 40-42. De Bellaigue escribe: "Al igual que los mayas y los acadios, hemos aprendido que un medio ambiente dañado agrava la disfunción política y económica y que lo inverso también es cierto. Al igual que los Qing, lamentamos el deterioro de nuestros suelos . Pero la lección nunca se aprende. [...] El negacionismo [...] es uno de los rasgos humanos más fundamentales y ayuda a explicar nuestra incapacidad actual para dar una respuesta acorde con los peligros que enfrentamos". (p. 41.)
Brain, Marshall (2020) El libro del juicio final: la ciencia detrás de las mayores amenazas a la humanidad Union Square ISBN 9781454939962
Holt, Jim , "El poder del pensamiento catastrófico" (reseña de Toby Ord , El precipicio: riesgo existencial y el futuro de la humanidad , Hachette, 2020, 468 pp.), The New York Review of Books , vol. LXVIII, no. 3 (25 de febrero de 2021), pp. 26-29. Jim Holt escribe (p. 28): "Tanto si buscas una cura para el cáncer, como si sigues una carrera académica o artística, o te dedicas a establecer instituciones más justas, una amenaza al futuro de la humanidad es también una amenaza a la trascendencia de lo que haces".
MacCormack, Patricia (2020). "Abrazando la muerte, abriendo el mundo". Estudios Feministas Australianos . 35 (104): 101–115. doi :10.1080/08164649.2020.1791689. S2CID 221790005. Archivado desde el original el 5 de abril de 2023. Consultado el 20 de febrero de 2023 .
Michael Moyer (septiembre de 2010). "Fascinaciones eternas con el fin: por qué nos dejamos llevar por las historias de nuestra propia desaparición: nuestro cerebro, que busca patrones, y nuestro deseo de ser especiales ayudan a explicar nuestros temores al apocalipsis". Scientific American .
Plait, Philip (2008) ¡Muerte desde los cielos!: Así acabará el mundo Viking ISBN 9780670019977
Schubert, Stefan; Caviola, Lucius; Faber, Nadira S. (2019). "La psicología del riesgo existencial: juicios morales sobre la extinción humana". Scientific Reports . 9 (1): 15100. Bibcode :2019NatSR...915100S. doi :10.1038/s41598-019-50145-9. PMC 6803761 . PMID 31636277.
Torres, Phil. (2017). Moralidad, previsión y prosperidad humana: una introducción a los riesgos existenciales . Pitchstone Publishing. ISBN 978-1634311427 .
Michel Weber , "Reseña de libro: Alejándose del Imperio ", Cosmos and History: The Journal of Natural and Social Philosophy , vol. 10, núm. 2, 2014, pp. 329–336.
Doomsday: 10 maneras en las que el mundo acabará (2016) History Channel
¿Qué pasaría con la Tierra si los humanos se extinguieran? Live Science , 16 de agosto de 2020.
La IA plantea un riesgo de extinción humana equivalente al de una guerra nuclear, advierten Sam Altman y otros líderes tecnológicos. CNBC . 31 de mayo de 2023.
"Treading Thin Air: Geoff Mann on Uncertainty and Climate Change", London Review of Books , vol. 45, no. 17 (7 de septiembre de 2023), pp. 17-19. "Necesitamos desesperadamente una política que afronte la catastrófica incertidumbre [del calentamiento global y el cambio climático ] directamente. Eso significaría tomar medidas mucho más grandes y transformadoras: prácticamente eliminar los combustibles fósiles ... y priorizar las instituciones democráticas sobre los mercados. La carga de este esfuerzo debe recaer casi por completo sobre las personas más ricas y las partes más ricas del mundo, porque son ellos quienes siguen jugando con el destino de todos los demás". (p. 19.)