stringtranslate.com

Instituto del Futuro de la Humanidad

El Future of Humanity Institute ( FHI ) fue un centro de investigación interdisciplinario de la Universidad de Oxford que investigaba cuestiones generales sobre la humanidad y sus perspectivas. Fue fundado en 2005 como parte de la Facultad de Filosofía y la Oxford Martin School . [1] Su director fue el filósofo Nick Bostrom , y su personal de investigación incluyó al futurista Anders Sandberg y al fundador de Giving What We Can, Toby Ord . [2]

El instituto, que comparte una oficina y trabaja en estrecha colaboración con el Centro para el Altruismo Eficaz , tenía como objetivo declarado centrar la investigación en donde pudiera marcar la mayor diferencia positiva para la humanidad a largo plazo. [3] [4] Participó en una combinación de actividades académicas y de divulgación, buscando promover el debate informado y la participación pública en el gobierno, las empresas, las universidades y otras organizaciones. Los principales financiadores de investigación del centro incluyeron a Amlin , Elon Musk , el Consejo Europeo de Investigación , Future of Life Institute y Leverhulme Trust . [5]

La Universidad de Oxford cerró el Instituto el 16 de abril de 2024, alegando que había "enfrentado crecientes obstáculos administrativos dentro de la Facultad de Filosofía ". [6] [7]

Historia

Nick Bostrom fundó el instituto en noviembre de 2005 como parte de la Oxford Martin School, entonces James Martin 21st Century School. [1] Entre 2008 y 2010, FHI organizó la conferencia Global Catastrophic Risks, escribió 22 artículos en revistas académicas y publicó 34 capítulos en volúmenes académicos. Los investigadores de FHI han brindado asesoramiento sobre políticas en el Foro Económico Mundial , al sector privado y sin fines de lucro (como la Fundación Macarthur y la Organización Mundial de la Salud ), así como a organismos gubernamentales en Suecia, Singapur, Bélgica, el Reino Unido y los Estados Unidos.

En marzo de 2009, Bostrom y el bioeticista Julian Savulescu también publicaron el libro Human Enhancement . [8] Más recientemente, FHI se ha centrado en los peligros de la inteligencia artificial (IA) avanzada. En 2014, sus investigadores publicaron varios libros sobre los riesgos de la IA, entre ellos Smarter Than Us de Stuart Armstrong y Superintelligence: Paths, Dangers, Strategies de Bostrom . [9] [10]

En 2018, Open Philanthropy recomendó una subvención de hasta aproximadamente £13,4 millones a FHI durante tres años, con una gran parte condicionada al éxito de la contratación. [11]

Riesgo existencial

El tema más importante que FHI ha dedicado tiempo a explorar es el riesgo catastrófico global , y en particular el riesgo existencial. En un artículo de 2002, Bostrom definió un "riesgo existencial" como aquel "en el que un resultado adverso aniquilaría la vida inteligente originada en la Tierra o reduciría de manera permanente y drástica su potencial". [12] Esto incluye escenarios en los que la humanidad no se ve perjudicada directamente, pero no logra colonizar el espacio ni hacer uso de los recursos disponibles del universo observable en proyectos valiosos para el ser humano, como se analiza en el artículo de Bostrom de 2003, "Desperdicio astronómico: el costo de oportunidad del desarrollo tecnológico retrasado". [13]

El libro Global Catastrophic Risks (Riesgos catastróficos globales) de Bostrom y Milan Ćirković (2008 ) recopila ensayos sobre una variedad de riesgos, tanto naturales como antropogénicos. Los posibles riesgos catastróficos de la naturaleza incluyen el supervulcanismo , los eventos de impacto y los eventos astronómicos energéticos como los estallidos de rayos gamma , los rayos cósmicos , las erupciones solares y las supernovas . Estos peligros se caracterizan por ser relativamente pequeños y relativamente bien comprendidos, aunque las pandemias pueden ser excepciones como resultado de ser más comunes y de coincidir con las tendencias tecnológicas. [14] [4]

El FHI presta más atención a las pandemias sintéticas a través de agentes biológicos convertidos en armas. Los resultados tecnológicos en los que el instituto está particularmente interesado incluyen el cambio climático antropogénico , la guerra nuclear y el terrorismo nuclear , la nanotecnología molecular y la inteligencia artificial general . Al esperar que los mayores riesgos surjan de las tecnologías futuras, y de la inteligencia artificial avanzada en particular, el FHI está de acuerdo con otras organizaciones de reducción de riesgos existenciales, como el Centro para el Estudio del Riesgo Existencial y el Instituto de Investigación de Inteligencia Artificial . [15] [16] Los investigadores del FHI también han estudiado el impacto del progreso tecnológico en los riesgos sociales e institucionales, como el totalitarismo , el desempleo impulsado por la automatización y los peligros de la información. [17]

En 2020, Toby Ord, investigador principal de FHI, publicó su libro The Precipice: Existential Risk and the Future of Humanity , en el que sostiene que salvaguardar el futuro de la humanidad es una de las cuestiones morales más importantes de nuestro tiempo. [18] [19]

Razonamiento antrópico

El FHI dedica gran parte de su atención a amenazas exóticas que han sido poco exploradas por otras organizaciones y a consideraciones metodológicas que informan la reducción y previsión de riesgos existenciales. El instituto ha hecho especial hincapié en el razonamiento antrópico en su investigación, como un área poco explorada con implicaciones epistemológicas generales.

Los argumentos antrópicos que FHI ha estudiado incluyen el argumento del fin del mundo , que sostiene que es probable que la humanidad se extinga pronto porque es poco probable que estemos observando un punto en la historia humana que sea extremadamente temprano. En cambio, es probable que los humanos actuales estén cerca de la mitad de la distribución de humanos que alguna vez vivirán. [14] Bostrom también ha popularizado el argumento de la simulación .

Un tema recurrente en la investigación de FHI es la paradoja de Fermi , la sorprendente ausencia de civilizaciones extraterrestres observables. Robin Hanson ha sostenido que debe haber un " Gran Filtro " que impida la colonización del espacio para explicar la paradoja. Ese filtro puede estar en el pasado, si la inteligencia es mucho más rara de lo que predeciría la biología actual; o puede estar en el futuro, si los riesgos existenciales son incluso mayores de lo que se reconoce actualmente.

Mejoramiento humano y racionalidad

Estrechamente vinculado con el trabajo de FHI sobre evaluación de riesgos, desperdicio astronómico y los peligros de las tecnologías futuras está su trabajo sobre la promesa y los riesgos de la mejora humana . Las modificaciones en cuestión pueden ser biológicas, digitales o sociológicas, y se hace hincapié en los cambios hipotéticos más radicales, en lugar de en las innovaciones a corto plazo más probables. La investigación bioética de FHI se centra en las posibles consecuencias de la terapia genética , la extensión de la vida , los implantes cerebrales y las interfaces cerebro-computadora , y la transferencia de información mental . [20]

El enfoque de FHI se ha centrado en los métodos para evaluar y mejorar la inteligencia y la racionalidad humanas, como una forma de dar forma a la velocidad y la dirección del progreso tecnológico y social. El trabajo de FHI sobre la irracionalidad humana, ejemplificada en la heurística cognitiva y los sesgos , incluye una colaboración en curso con Amlin para estudiar el riesgo sistémico que surge de los sesgos en el modelado. [21] [22]

Publicaciones seleccionadas

Véase también

Referencias

  1. ^ ab "El futuro de la humanidad: Future of Humanity Institute". Oxford Martin School . Archivado desde el original el 17 de marzo de 2014. Consultado el 28 de marzo de 2014 .
  2. ^ "Staff". Future of Humanity Institute . Consultado el 28 de marzo de 2014 .
  3. ^ "Acerca de FHI". Future of Humanity Institute . Archivado desde el original el 1 de diciembre de 2015. Consultado el 28 de marzo de 2014 .
  4. ^ por Ross Andersen (25 de febrero de 2013). "Presagios". Revista Aeon . Archivado desde el original el 9 de febrero de 2014. Consultado el 28 de marzo de 2014 .
  5. ^ "Apoyo a FHI". Future of Humanity Institute . 2021. Archivado desde el original el 20 de octubre de 2021. Consultado el 23 de julio de 2022 .
  6. ^ "Future of Humanity Institute". 17 de abril de 2024. Archivado desde el original el 17 de abril de 2024. Consultado el 17 de abril de 2024 .{{cite web}}: CS1 maint: bot: estado de URL original desconocido ( enlace )
  7. ^ Maiberg, Emanuel (17 de abril de 2024). "Cierra el instituto pionero en la investigación del 'riesgo existencial' en inteligencia artificial". 404 Media . Consultado el 17 de abril de 2024 .
  8. ^ Nick Bostrom (18 de julio de 2007). Informe de logros: 2008-2010 (PDF) (Informe). Future of Humanity Institute. Archivado desde el original (PDF) el 21 de diciembre de 2012. Consultado el 31 de marzo de 2014 .
  9. ^ Mark Piesing (17 de mayo de 2012). "La rebelión de la IA: los humanos serán subcontratados, no aniquilados". Wired . Consultado el 31 de marzo de 2014 .
  10. ^ Coughlan, Sean (24 de abril de 2013). "¿Cómo se extinguirán los humanos?". BBC News . Consultado el 29 de marzo de 2014 .
  11. ^ Proyecto de Filantropía Abierta (julio de 2018). “Future of Humanity Institute — Trabajo sobre riesgos catastróficos globales”.
  12. ^ Nick Bostrom (marzo de 2002). «Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards» (Riesgos existenciales: análisis de escenarios de extinción humana y peligros relacionados). Journal of Evolution and Technology (Revista de evolución y tecnología) . 15 (3): 308–314 . Consultado el 31 de marzo de 2014 .
  13. ^ Nick Bostrom (noviembre de 2003). "Desperdicio astronómico: el costo de oportunidad del desarrollo tecnológico retrasado". Utilitas . 15 (3): 308–314. CiteSeerX 10.1.1.429.2849 . doi :10.1017/s0953820800004076. S2CID  15860897 . Consultado el 31 de marzo de 2014 . 
  14. ^ por Ross Andersen (6 de marzo de 2012). "Estamos subestimando el riesgo de extinción humana". The Atlantic . Consultado el 29 de marzo de 2014 .
  15. ^ Kate Whitehead (16 de marzo de 2014). «El centro de estudios de la Universidad de Cambridge se centra en los riesgos que podrían aniquilar a la humanidad». South China Morning Post . Consultado el 29 de marzo de 2014 .
  16. ^ Jenny Hollander (septiembre de 2012). «El Oxford Future of Humanity Institute sabe qué nos hará extinguir». Bustle . Consultado el 31 de marzo de 2014 .
  17. ^ Nick Bostrom. "Information Hazards: A Typology of Potential Harms from Knowledge" (PDF) . Instituto del Futuro de la Humanidad . Consultado el 31 de marzo de 2014 .
  18. ^ Ord, Toby. "El precipicio: riesgo existencial y el futuro de la humanidad". Sitio web de The Precipice . Consultado el 18 de octubre de 2020 .
  19. ^ Chivers, Tom (7 de marzo de 2020). "¿Qué tan cerca está la humanidad de autodestruirse?". The Spectator . Consultado el 18 de octubre de 2020 .
  20. ^ Anders Sandberg y Nick Bostrom. "Emulación de cerebro completo: una hoja de ruta" (PDF) . Future of Humanity Institute . Consultado el 31 de marzo de 2014 .
  21. ^ "Amlin y la Universidad de Oxford lanzan un importante proyecto de investigación sobre el riesgo sistémico de la modelización" (Nota de prensa). Amlin. 11 de febrero de 2014. Archivado desde el original el 13 de abril de 2014 . Consultado el 31 de marzo de 2014 .
  22. ^ "Amlin y la Universidad de Oxford colaborarán en un estudio de modelado de riesgos". Revista Continuity, Insurance & Risk . 11 de febrero de 2014. Consultado el 31 de marzo de 2014 .

Enlaces externos