La extinción humana es el fin hipotético de la especie humana , ya sea por una disminución de la población debido a causas naturales extrañas, como el impacto de un asteroide o un vulcanismo a gran escala , o por destrucción antropogénica (autoextinción), por ejemplo por fertilidad subreemplazo .
Algunos de los muchos posibles contribuyentes al peligro antropogénico son el cambio climático , la aniquilación nuclear global , la guerra biológica , las armas de destrucción masiva y el colapso ecológico . Otros escenarios se centran en tecnologías emergentes, como la inteligencia artificial avanzada , la biotecnología o los nanobots autorreplicantes .
El consenso científico es que existe un riesgo relativamente bajo de extinción humana a corto plazo debido a causas naturales. [2] [3] Sin embargo, la probabilidad de extinción humana a través de las propias actividades de la humanidad es un área actual de investigación y debate.
Antes de los siglos XVIII y XIX, se veía con escepticismo la posibilidad de que los humanos u otros organismos se extinguieran. [4] Contradecía el principio de plenitud , doctrina de que existen todas las cosas posibles. [4] El principio se remonta a Aristóteles y fue un principio importante de la teología cristiana. [5] Los filósofos antiguos como Platón , Aristóteles y Lucrecio escribieron sobre el fin de la humanidad sólo como parte de un ciclo de renovación. Marción de Sinope era un protoprotestante que defendía el antinatalismo que podría conducir a la extinción humana. [6] [7] Filósofos posteriores como Al-Ghazali , Guillermo de Ockham y Gerolamo Cardano ampliaron el estudio de la lógica y la probabilidad y comenzaron a preguntarse si existían mundos abstractos, incluido un mundo sin humanos. El físico Edmond Halley afirmó que la extinción de la raza humana puede ser beneficiosa para el futuro del mundo. [8]
La noción de que las especies pueden extinguirse ganó aceptación científica durante el Siglo de las Luces en los siglos XVII y XVIII, y en 1800 Georges Cuvier había identificado 23 especies prehistóricas extintas. [4] La doctrina fue socavada gradualmente por la evidencia de las ciencias naturales, particularmente el descubrimiento de evidencia fósil de especies que parecían ya no existir, y el desarrollo de teorías de la evolución. [5] En El origen de las especies , Darwin discutió la extinción de las especies como un proceso natural y un componente central de la selección natural. [9] En particular, Darwin se mostró escéptico ante la posibilidad de una extinción repentina, considerándola un proceso gradual. Sostuvo que las desapariciones abruptas de especies del registro fósil no eran evidencia de extinciones catastróficas, sino que representaban lagunas no reconocidas [ se necesita aclaración ] en el registro. [9]
A medida que la posibilidad de extinción se fue estableciendo más ampliamente en las ciencias, también lo hizo la perspectiva de la extinción humana. [4] En el siglo XIX, la extinción humana se convirtió en un tema popular en la ciencia (por ejemplo, Un ensayo sobre el principio de población de Thomas Robert Malthus ) y en la ficción (por ejemplo, El último hombre de Jean-Baptiste Cousin de Grainville ). En 1863, unos años después de que Charles Darwin publicara El origen de las especies , William King propuso que los neandertales eran una especie extinta del género Homo . Los autores y poetas románticos se interesaron especialmente por el tema. [4] Lord Byron escribió sobre la extinción de la vida en la Tierra en su poema de 1816 " Darkness ", y en 1824 imaginó a la humanidad amenazada por el impacto de un cometa y empleando un sistema de misiles para defenderse de él. [4] La novela de Mary Shelley de 1826, El último hombre, se desarrolla en un mundo donde la humanidad casi ha sido destruida por una misteriosa plaga. [4] A principios del siglo XX, el cosmismo ruso , precursor del transhumanismo moderno , abogaba por evitar la extinción de la humanidad colonizando el espacio. [4]
La invención de la bomba atómica provocó una ola de debates entre científicos, intelectuales y el público en general sobre el riesgo de extinción humana. [4] En un ensayo de 1945, Bertrand Russell escribió que "[L]a perspectiva para la raza humana es más sombría que cualquier precedente. La humanidad se enfrenta a una alternativa clara: o pereceremos todos o tendremos que adquirir un ligero grado de sentido común." [10] En 1950, Leo Szilard sugirió que era tecnológicamente factible construir una bomba de cobalto que pudiera hacer que el planeta fuera inhabitable. Una encuesta Gallup de 1950 encontró que el 19% de los estadounidenses creía que otra guerra mundial significaría "el fin de la humanidad". [11] El libro de Rachel Carson de 1962 Primavera silenciosa generó conciencia sobre la catástrofe ambiental. En 1983, Brandon Carter propuso el argumento del Juicio Final , que utilizaba la probabilidad bayesiana para predecir el número total de humanos que existirán alguna vez.
El descubrimiento del " invierno nuclear " a principios de los años 1980, un mecanismo específico por el cual una guerra nuclear podría provocar la extinción humana, volvió a poner la cuestión en primer plano. Al escribir sobre estos hallazgos en 1983, Carl Sagan argumentó que medir la gravedad de la extinción únicamente en términos de aquellos que mueren "oculta todo su impacto", y que la guerra nuclear "pone en peligro a todos nuestros descendientes, mientras existan humanos". " [12]
El libro de John Leslie de 1996 , El fin del mundo , fue un tratamiento académico de la ciencia y la ética de la extinción humana. En él, Leslie consideró una variedad de amenazas a la humanidad y lo que tienen en común. En 2003, el astrónomo real británico Sir Martin Rees publicó Our Final Hour , en el que sostiene que los avances en ciertas tecnologías crean nuevas amenazas a la supervivencia de la humanidad y que el siglo XXI puede ser un momento crítico de la historia en el que se decide el destino de la humanidad. [13] Editado por Nick Bostrom y Milan M. Ćirković , Global Catastrophic Risks se publicó en 2008, una colección de ensayos de 26 académicos sobre diversos riesgos catastróficos y existenciales globales. [14] El libro de Toby Ord de 2020, The Precipice: Existential Risk and the Future of Humanity, sostiene que prevenir los riesgos existenciales es una de las cuestiones morales más importantes de nuestro tiempo. El libro analiza, cuantifica y compara diferentes riesgos existenciales, y concluye que los mayores riesgos los presentan la inteligencia artificial y la biotecnología no alineadas. [15]
Las posibles causas antropogénicas de la extinción humana incluyen la guerra termonuclear global , el despliegue de un arma biológica altamente eficaz , un colapso ecológico, una inteligencia artificial descontrolada , una nanotecnología descontrolada (como un escenario de sustancia gris ), un desastre de metaestabilidad del vacío , la superpoblación y el aumento del consumo que plantean el riesgo de agotamiento de recursos y una caída demográfica concomitante, disminución de la población al elegir tener menos hijos, desplazamiento de humanos evolucionados naturalmente por una nueva especie producida por ingeniería genética o aumento tecnológico. Los riesgos de extinción natural y externa incluyen una pandemia con una alta tasa de letalidad , una erupción supervolcánica , un impacto de asteroide , una supernova cercana o explosiones de rayos gamma , una erupción solar extrema o una invasión extraterrestre .
También se puede considerar que los humanos (por ejemplo, Homo sapiens sapiens ) como especie se han "extinguido" simplemente por haber sido reemplazados por descendientes lejanos cuya evolución continua puede producir nuevas especies o subespecies de Homo o de homínidos .
Sin la intervención de fuerzas inesperadas, se espera que la evolución estelar del Sol haga que la Tierra sea inhabitable y luego la destruya. Dependiendo de su destino final , el universo entero puede eventualmente volverse inhabitable.
Los expertos generalmente coinciden en que los riesgos existenciales antropogénicos son (mucho) más probables que los riesgos naturales. [16] [13] [17] [2] [18] Una diferencia clave entre estos tipos de riesgo es que la evidencia empírica puede colocar un límite superior al nivel de riesgo natural. [2] La humanidad ha existido durante al menos 200.000 años, durante los cuales ha estado sujeta a un nivel aproximadamente constante de riesgo natural. Si el riesgo natural fuera lo suficientemente alto, sería muy poco probable que la humanidad hubiera sobrevivido tanto tiempo. Sobre la base de una formalización de este argumento, los investigadores han llegado a la conclusión de que podemos estar seguros de que el riesgo natural es inferior a 1 entre 14.000 por año (equivalente a 1 entre 140 por siglo, en promedio). [2]
Otro método empírico para estudiar la probabilidad de ciertos riesgos naturales es investigar el registro geológico. [16] Por ejemplo, se ha estimado que un evento de impacto de un cometa o un asteroide de escala suficiente para causar un impacto invernal que causaría la extinción humana antes del año 2100 es uno entre un millón. [19] [20] Además, las grandes erupciones de supervolcanes pueden provocar un invierno volcánico que podría poner en peligro la supervivencia de la humanidad. [21] El registro geológico sugiere que se estima que las erupciones supervolcánicas ocurren en promedio aproximadamente una vez cada 50.000 años, aunque la mayoría de tales erupciones no alcanzarían la escala requerida para causar la extinción humana. [21] Es famoso que el supervolcán Monte Toba casi haya aniquilado a la humanidad en el momento de su última erupción (aunque esto es polémico). [21] [22]
Dado que el riesgo antropogénico es un fenómeno relativamente reciente, el historial de supervivencia de la humanidad no puede ofrecer garantías similares. [2] La humanidad sólo ha sobrevivido 78 años desde la creación de las armas nucleares, y para las tecnologías futuras, no existe ningún historial. Esto ha llevado a pensadores como Carl Sagan a concluir que la humanidad se encuentra actualmente en una "época de peligros" [23] , un período excepcionalmente peligroso en la historia de la humanidad, donde está sujeta a niveles de riesgo sin precedentes, comenzando desde que los humanos comenzaron a representar riesgos. a sí mismos a través de sus acciones. [16] [24]
Dadas las limitaciones de la observación y la modelación ordinarias, con frecuencia se utiliza la elicitación de expertos para obtener estimaciones de probabilidad. [25]
Aunque los riesgos existenciales son menos manejables por los individuos que, por ejemplo, los riesgos para la salud, según Ken Olum, Joshua Knobe y Alexander Vilenkin, la posibilidad de la extinción humana tiene implicaciones prácticas. Por ejemplo, si se acepta el argumento del fin del mundo "universal" , cambia la fuente más probable de desastres y, por tanto, los medios más eficientes para prevenirlos. Escriben: "... deberías preocuparte más por el hecho de que aún no se ha detectado un gran número de asteroides que por la órbita particular de cada uno. No deberías preocuparte especialmente por la posibilidad de que alguna estrella cercana concreta se convierta en una supernova, pero más sobre la posibilidad de que las supernovas sean más mortales para la vida cercana de lo que creemos". [43]
Algunos académicos sostienen que ciertos escenarios, como una guerra termonuclear global , tendrían dificultades para erradicar hasta el último asentamiento en la Tierra. El físico Willard Wells señala que cualquier escenario de extinción creíble tendría que abarcar un conjunto diverso de áreas, incluidos los metros subterráneos de las principales ciudades, las montañas del Tíbet, las islas más remotas del Pacífico Sur e incluso la estación McMurdo en la Antártida. el cual cuenta con planes de contingencia y suministros para aislamiento prolongado. [44] Además, existen elaborados búnkeres que los líderes gubernamentales pueden ocupar durante una guerra nuclear. [19] También debe considerarse la existencia de submarinos nucleares , que pueden permanecer a cientos de metros de profundidad en el océano durante potencialmente años seguidos. Cualquier número de eventos podría conducir a una pérdida masiva de vidas humanas, pero si es poco probable que los últimos (ver población mínima viable ) los humanos más resilientes también mueran, entonces ese escenario particular de extinción humana puede no parecer creíble. [45]
Los "riesgos existenciales" son riesgos que amenazan todo el futuro de la humanidad, ya sea provocando la extinción humana o paralizando permanentemente el progreso humano. [3] Múltiples estudiosos han argumentado, basándose en el tamaño de la "dotación cósmica", que debido al número inconcebiblemente grande de vidas futuras potenciales que están en juego, incluso pequeñas reducciones del riesgo existencial tienen un gran valor.
En una de las primeras discusiones sobre la ética de la extinción humana, Derek Parfit ofrece el siguiente experimento mental: [46]
Creo que si destruimos a la humanidad, como podemos hacerlo ahora, el resultado será mucho peor de lo que la mayoría de la gente piensa. Compare tres resultados:
(1) Paz.
(2) Una guerra nuclear que mate al 99% de la población mundial.
(3) Una guerra nuclear que mata al 100%.(2) sería peor que (1) y (3) sería peor que (2). ¿Cuál es la mayor de estas dos diferencias? La mayoría de la gente cree que la mayor diferencia está entre (1) y (2). Creo que la diferencia entre (2) y (3) es mucho mayor.
-Derek Parfit
La magnitud de lo que se pierde en una catástrofe existencial está determinada por el potencial a largo plazo de la humanidad: lo que la humanidad podría esperar lograr si sobreviviera. [16] Desde una perspectiva utilitaria , el valor de proteger a la humanidad es el producto de su duración (cuánto tiempo sobrevive la humanidad), su tamaño (cuántos humanos hay a lo largo del tiempo) y su calidad (en promedio, qué tan buena es la vida para personas futuras). [16] : 273 [47] En promedio, las especies sobreviven alrededor de un millón de años antes de extinguirse. Parfit señala que la Tierra seguirá siendo habitable durante unos mil millones de años. [46] Y estos podrían ser límites inferiores de nuestro potencial: si la humanidad es capaz de expandirse más allá de la Tierra , podría aumentar considerablemente la población humana y sobrevivir durante billones de años. [48] [16] : 21 El tamaño del potencial perdido que se perdería si la humanidad se extinguiera es muy grande. Por lo tanto, reducir el riesgo existencial incluso en una pequeña cantidad tendría un valor moral muy significativo. [3] [49]
Carl Sagan escribió en 1983: "Si tuviéramos que calibrar la extinción en términos numéricos, me aseguraría de incluir el número de personas de las generaciones futuras que no nacerían... (Según un cálculo), lo que está en juego es uno millones de veces mayor para la extinción que para las guerras nucleares más modestas que matan "sólo" a cientos de millones de personas. Hay muchas otras medidas posibles de la pérdida potencial, incluidas la cultura y la ciencia, la historia evolutiva del planeta y la importancia de "Las vidas de todos nuestros antepasados que contribuyeron al futuro de sus descendientes. La extinción es la ruina de la empresa humana". [50]
El filósofo Robert Adams rechaza en 1989 las opiniones "impersonales" de Parfit, pero habla en cambio de un imperativo moral de lealtad y compromiso con "el futuro de la humanidad como un vasto proyecto... La aspiración a una sociedad mejor: más justa, más gratificante y más pacífico... nuestro interés en las vidas de nuestros hijos y nietos, y la esperanza de que ellos puedan, a su vez, tener las vidas de sus hijos y nietos como proyectos." [51]
El filósofo Nick Bostrom sostiene en 2013 que los argumentos satisfaccionistas de preferencias , democráticos, custodiales e intuicionistas convergen en la visión de sentido común de que prevenir el riesgo existencial es una alta prioridad moral, incluso si el "grado de maldad" exacto de la extinción humana varía entre estas filosofías. [52]
Parfit sostiene que el tamaño de la "dotación cósmica" se puede calcular a partir del siguiente argumento: si la Tierra sigue siendo habitable durante mil millones de años más y puede sustentar de manera sostenible una población de más de mil millones de seres humanos, entonces existe un potencial para 10 16 ( o 10.000.000.000.000.000) de vidas humanas de duración normal. [53] Bostrom va más allá y afirma que si el universo está vacío, entonces el universo accesible puede sustentar al menos 10 34 años de vida biológica humana; y, si algunos humanos fueran subidos a las computadoras, podrían incluso soportar el equivalente a 10 54 años de vida humana cibernética. [3]
Algunos economistas y filósofos han defendido puntos de vista, incluidos los de descuento exponencial y puntos de vista de la ética de la población que afectan a las personas , según los cuales las personas futuras no importan (o importan mucho menos), moralmente hablando. [54] Si bien estos puntos de vista son controvertidos, [19] [55] [56] incluso ellos estarían de acuerdo en que una catástrofe existencial estaría entre las peores cosas imaginables. Acortaría la vida de ocho mil millones de personas que existen actualmente, destruiría todo lo que hace que sus vidas sean valiosas y, muy probablemente, sometería a muchos de ellos a un profundo sufrimiento. Así que, incluso dejando de lado el valor de las generaciones futuras, puede haber fuertes razones para reducir el riesgo existencial, basadas en la preocupación por las personas que existen actualmente. [57]
Más allá del utilitarismo, otras perspectivas morales respaldan la importancia de reducir el riesgo existencial. Una catástrofe existencial destruiría algo más que la humanidad: destruiría todos los artefactos culturales, los idiomas y las tradiciones, y muchas de las cosas que valoramos. [16] [58] Entonces, los puntos de vista morales según los cuales tenemos el deber de proteger y apreciar las cosas de valor verían esto como una gran pérdida que debería evitarse. [16] También se pueden considerar razones basadas en deberes para con las generaciones pasadas. Por ejemplo, Edmund Burke escribe sobre una "asociación... entre los que están vivos, los que están muertos y los que van a nacer". [59] Si uno toma en serio la deuda que la humanidad tiene con las generaciones pasadas, Ord sostiene que la mejor manera de pagarla podría ser "pagarla hacia adelante" y garantizar que la herencia de la humanidad se transmita a las generaciones futuras. [16] : 49–51
Hay varios economistas que han discutido la importancia de los riesgos catastróficos globales. Por ejemplo, Martin Weitzman sostiene que la mayor parte del daño económico esperado por el cambio climático puede provenir de la pequeña posibilidad de que el calentamiento supere con creces las expectativas de rango medio, lo que resultaría en daños catastróficos. [60] Richard Posner ha argumentado que la humanidad está haciendo muy poco, en general, respecto de los riesgos pequeños y difíciles de estimar de catástrofes a gran escala. [61]
Algunos filósofos adoptan la posición antinatalista de que la extinción humana no sería algo malo, sino bueno. David Benatar sostiene que nacer siempre supone un daño grave y, por tanto, es mejor que las personas no aparezcan en el futuro. [62] Además, David Benatar, el activista por los derechos de los animales Steven Best y el anarquista Todd May , postulan que la extinción humana sería algo positivo para los demás organismos del planeta, y para el planeta mismo, citando, por ejemplo, la naturaleza omnicida de civilización humana. [63] [64] [65] La visión ambientalista a favor de la extinción humana es compartida por los miembros del Movimiento Voluntario de Extinción Humana y la Iglesia de la Eutanasia que llaman a abstenerse de reproducirse y permitir que la especie humana se extinga pacíficamente, deteniendo así mayor degradación ambiental . [66]
La novela de fantasía científica de 1805 de Jean-Baptiste Cousin de Grainville, Le dernier homme ( El último hombre ), que describe la extinción humana debido a la infertilidad, se considera la primera novela apocalíptica moderna y se le atribuye el lanzamiento del género. [67] Otras obras tempranas notables incluyen The Last Man de 1826 de Mary Shelley , que describe la extinción humana causada por una pandemia , y Star Maker de 1937 de Olaf Stapledon , "un estudio comparativo del omnicidio". [4]
Algunas obras de ciencia popular del siglo XXI, incluidas The World Without Us de Alan Weisman , y los especiales de televisión Life After People y Aftermath: Population Zero plantean un experimento mental : ¿qué pasaría con el resto del planeta si los humanos desaparecieran repentinamente? [68] [69] Una amenaza de extinción humana, como a través de una singularidad tecnológica (también llamada explosión de inteligencia), impulsa la trama de innumerables historias de ciencia ficción; Un ejemplo temprano e influyente es la adaptación cinematográfica de 1951 de Cuando los mundos chocan . [70] Por lo general, la amenaza de extinción se evita por poco, pero existen algunas excepciones, como RUR y la IA de Steven Spielberg [71]
Cuando pensamos en riesgos existenciales, a menudo nos vienen a la mente acontecimientos como una guerra nuclear o impactos de asteroides.
Ésta es una afirmación equivalente, aunque más nítida, de la definición de Nick Bostrom : "Un riesgo existencial es aquel que amenaza con la extinción prematura de la vida inteligente originada en la Tierra o con la destrucción permanente y drástica de su potencial para un desarrollo futuro deseable". Fuente: Bostrom, Nick (2013). "La Prevención de Riesgos Existenciales como Prioridad Global". Política global. 4:15-31.
La mayor parte del riesgo existencial en el futuro previsible es antropogénico;
es decir, que surge de la actividad humana.
Algunas civilizaciones planetarias ven su camino, imponen límites a lo que se puede y no se debe hacer y atraviesan con seguridad la época de los peligros. Otros no tienen tanta suerte ni son tan prudentes, perecen.
Vivimos en el momento decisivo de la historia... Si actuamos sabiamente en los próximos siglos, la humanidad sobrevivirá a su período más peligroso y decisivo.
Mi opinión subjetiva es que establecer esta probabilidad por debajo del 25% sería un error y la mejor estimación puede ser considerablemente mayor.
Ser traído a la existencia no es un beneficio sino siempre un daño.
Aunque hay muchas especies no humanas -especialmente carnívoras- que también causan mucho sufrimiento, los humanos tienen la desafortunada distinción de ser la especie más destructiva y dañina de la Tierra. La cantidad de sufrimiento en el mundo podría reducirse radicalmente si no existieran más humanos.
En una era de catástrofe y crisis, la continuación de la especie humana en una forma viable o deseable es obviamente contingente y no un bien dado o necesario . Pero considerado desde el punto de vista de los animales y de la Tierra , la desaparición de la humanidad sería el mejor acontecimiento imaginable posible, y cuanto antes, mejor. La extinción del Homo sapiens eliminaría la malignidad que asola el planeta, destruiría un parásito que consume a su huésped, apagaría las máquinas de matar y permitiría que la Tierra se regenerara al tiempo que permitiría la evolución de nuevas especies.
El ser humano está destruyendo gran parte de la tierra habitable y provocando sufrimientos inimaginables a muchos de los animales que la habitan.
Esto está sucediendo al menos a través de tres medios.
En primer lugar, la contribución humana al cambio climático está devastando los ecosistemas.
.
.
En segundo lugar, la creciente población humana está invadiendo ecosistemas que de otro modo estarían intactos.
En tercer lugar, la cría industrial fomenta la creación de millones y millones de animales a los que no ofrece nada más que sufrimiento y miseria antes de sacrificarlos de forma a menudo bárbara.
No hay razón para pensar que esas prácticas vayan a disminuir en el corto plazo.
Todo lo contrario.