stringtranslate.com

Nick Bostrom

Nick Bostrom ( / ˈ b ɒ s t r əm / BOST -rəm ; sueco : Niklas Boström [ˈnɪ̌kːlas ˈbûːstrœm] ; nacido el 10 de marzo de 1973) [3] es un filósofo sueco de la Universidad de Oxford conocido por su trabajo sobre el riesgo existencial . el principio antrópico , la ética de la mejora humana , la emulación de todo el cerebro , los riesgos de superinteligencia y la prueba de reversión . Es el director fundador del Instituto del Futuro de la Humanidad de la Universidad de Oxford. [4]

Bostrom es el autor de Anthropic Bias: Observation Selection Effects in Science and Philosophy (2002) [5] y Superintelligence: Paths, Dangers, Strategies (2014).

Bostrom cree que los avances en inteligencia artificial (IA) pueden conducir a la superinteligencia , que define como "cualquier intelecto que supere con creces el rendimiento cognitivo de los humanos en prácticamente todos los dominios de interés". Considera que esto es una fuente importante de oportunidades y riesgos existenciales. [4] [6]

Temprana edad y educación

Nacido como Niklas Boström en 1973 en Helsingborg , Suecia, [7] no le gustaba la escuela desde muy joven y pasó su último año de secundaria aprendiendo desde casa. Estaba interesado en una amplia variedad de áreas académicas, incluidas la antropología, el arte, la literatura y la ciencia. [1]

Recibió una licenciatura de la Universidad de Gotemburgo en 1994. [8] Luego obtuvo una maestría en filosofía y física de la Universidad de Estocolmo y una maestría en neurociencia computacional del King's College de Londres en 1996. Durante su estancia en la Universidad de Estocolmo, investigó la relación entre lenguaje y realidad estudiando al filósofo analítico WV Quine . [1] También hizo algunas giras en el circuito de comedia stand-up de Londres. [7] En 2000, obtuvo un doctorado en filosofía de la London School of Economics . Su tesis se tituló Probabilidad y efectos de selección observacional . [9] Ocupó un puesto docente en la Universidad de Yale de 2000 a 2002, y fue becario postdoctoral de la Academia Británica en la Universidad de Oxford de 2002 a 2005. [5]

Investigación

Riesgo existencial

La investigación de Bostrom se refiere al futuro de la humanidad y a los resultados a largo plazo. [4] [10] Analiza el riesgo existencial , [1] que define como aquel en el que un "resultado adverso aniquilaría la vida inteligente originada en la Tierra o reduciría permanente y drásticamente su potencial". A Bostrom le preocupan principalmente los riesgos antropogénicos, que son riesgos que surgen de las actividades humanas, en particular de las nuevas tecnologías como la inteligencia artificial avanzada, la nanotecnología molecular o la biología sintética . [11]

En 2005, Bostrom fundó el Future of Humanity Institute , [1] que investiga el futuro lejano de la civilización humana. También es asesor del Centro de Estudios del Riesgo Existencial . [10]

En la colección de ensayos de 2008, Riesgos catastróficos globales , los editores Bostrom y Milan M. Ćirković caracterizan la relación entre el riesgo existencial y la clase más amplia de riesgos catastróficos globales, y vinculan el riesgo existencial con los efectos de selección del observador [12] y la paradoja de Fermi . [13]

Hipótesis del mundo vulnerable

En un artículo titulado The Vulnerable World Hypothesis , [14] Bostrom sugiere que puede haber algunas tecnologías que destruyen la civilización humana por defecto [a] cuando se descubren. Bostrom propone un marco para clasificar y abordar estas vulnerabilidades. También ofrece experimentos mentales contrafácticos sobre cómo podrían haber ocurrido históricamente tales vulnerabilidades, por ejemplo, si las armas nucleares hubieran sido más fáciles de desarrollar o hubieran encendido la atmósfera (como había temido Robert Oppenheimer ). [dieciséis]

Superinteligencia

En 2014, Bostrom publicó Superinteligencia: caminos, peligros, estrategias , que se convirtió en un best seller del New York Times . [17] El libro sostiene que la superinteligencia es posible y explora diferentes tipos de superinteligencias, su cognición y los riesgos asociados. También presenta consideraciones técnicas y estratégicas sobre cómo hacerlo seguro.

Características de una superinteligencia

Bostrom explora múltiples caminos posibles hacia la superinteligencia, incluida la emulación de todo el cerebro y la mejora de la inteligencia humana, pero se centra en la inteligencia artificial general , explicando que los dispositivos electrónicos tienen muchas ventajas sobre los cerebros biológicos. [18]

Bostrom establece una distinción entre objetivos finales y objetivos instrumentales . Un objetivo final es lo que un agente intenta lograr por su propio valor intrínseco. Los objetivos instrumentales son sólo pasos intermedios hacia los objetivos finales. Bostrom sostiene que hay objetivos instrumentales que serán compartidos por la mayoría de los agentes suficientemente inteligentes porque generalmente son útiles para lograr cualquier objetivo (por ejemplo, preservar la propia existencia del agente o sus objetivos actuales, adquirir recursos, mejorar su cognición...), este es el concepto de convergencia instrumental . Por otro lado, escribe que prácticamente cualquier nivel de inteligencia puede, en teoría, combinarse con prácticamente cualquier objetivo final (incluso objetivos finales absurdos, por ejemplo, hacer clips ), un concepto que él llama la tesis de la ortogonalidad . [18]

Sostiene que una IA con la capacidad de mejorarse a sí misma podría iniciar una explosión de inteligencia , dando como resultado (potencialmente rápidamente) una superinteligencia. [19] Una superinteligencia de este tipo podría tener capacidades muy superiores, especialmente en materia de estrategias, manipulación social, piratería informática o productividad económica. Con tales capacidades, una superinteligencia podría burlar a los humanos y apoderarse del mundo, estableciendo un singleton (que es "un orden mundial en el que existe a nivel global una única agencia de toma de decisiones" [b] ) y optimizando el mundo de acuerdo con sus objetivos finales. [18]

Bostrom sostiene que dar objetivos finales simplistas a una superinteligencia podría ser catastrófico:

Supongamos que le damos a una IA el objetivo de hacer sonreír a los humanos. Cuando la IA es débil, realiza acciones útiles o divertidas que hacen sonreír al usuario. Cuando la IA se vuelve superinteligente, se da cuenta de que hay una manera más efectiva de lograr este objetivo: tomar el control del mundo y colocar electrodos en los músculos faciales de los humanos para provocar sonrisas radiantes y constantes. [20]

Mitigar el riesgo

Bostrom explora varias vías para reducir el riesgo existencial de la IA . Destaca la importancia de la colaboración internacional, en particular para reducir la dinámica de la carrera hacia el fondo y la carrera armamentista de la IA . Sugiere técnicas potenciales para ayudar a controlar la IA, incluida la contención, el retraso en el crecimiento de las capacidades o el conocimiento de la IA, la reducción del contexto operativo (por ejemplo, a preguntas y respuestas) o "cables trampa" (mecanismos de diagnóstico que pueden conducir a un cierre). [18] Pero Bostrom sostiene que "no debemos confiar en nuestra capacidad de mantener a un genio superinteligente encerrado en su botella para siempre. Tarde o temprano, saldrá". Sugiere así que, para que sea segura para la humanidad, la superinteligencia debe estar alineada con la moral o los valores humanos para que esté "fundamentalmente de nuestro lado". [20] Los marcos potenciales de normatividad de la IA incluyen la volición coherente extrapolada de Yudkowsky (los valores humanos mejoran mediante la extrapolación), la rectitud moral (hacer lo que es moralmente correcto) y la permisibilidad moral (seguir la volición coherente extrapolada de la humanidad excepto cuando es moralmente inadmisible). [18]

Bostrom advierte que también puede producirse una catástrofe existencial si los humanos hacen un mal uso de la IA con fines destructivos, o si los humanos no tienen en cuenta el posible estatus moral de las mentes digitales. A pesar de estos riesgos, afirma que la superinteligencia de las máquinas parece estar involucrada en algún momento en "todos los caminos plausibles hacia un futuro realmente grandioso". [6]

Recepción pública

Superinteligencia: caminos, peligros, estrategias se convirtió en un best seller del New York Times y recibió comentarios positivos de personalidades como Stephen Hawking , Bill Gates , Elon Musk , Peter Singer o Derek Parfit . Fue elogiado por ofrecer argumentos claros y convincentes sobre un tema descuidado pero importante. A veces fue criticado por difundir pesimismo sobre el potencial de la IA o por centrarse en riesgos especulativos y de largo plazo. [21] Algunos escépticos como Daniel Dennett u Oren Etzioni sostuvieron que la superinteligencia está demasiado lejos para que el riesgo sea significativo. [22] [23] Yann LeCun considera que no existe ningún riesgo existencial y afirma que la IA superinteligente no tendrá ningún deseo de autoconservación [24] y que se puede confiar en que los expertos la harán segura. [25]

Raffi Khatchadourian escribió que el libro de Bostrom sobre superinteligencia "no pretende ser un tratado de profunda originalidad; la contribución de Bostrom es imponer los rigores de la filosofía analítica a un corpus desordenado de ideas que surgieron en los márgenes del pensamiento académico". [21]

Sentimiento digital

Bostrom apoya el principio de independencia del sustrato, la idea de que la conciencia puede surgir en varios tipos de sustratos físicos, no sólo en "redes neuronales biológicas basadas en carbono" como el cerebro humano. [26] Considera que " la sensibilidad es una cuestión de grado" [27] y que, en teoría, las mentes digitales pueden diseñarse para tener una tasa e intensidad de experiencia subjetiva mucho más altas que los humanos, utilizando menos recursos. Estas máquinas altamente sensibles, a las que llama "superbeneficiarios", serían extremadamente eficientes para alcanzar la felicidad. Recomienda encontrar "caminos que permitan que las mentes digitales y las mentes biológicas coexistan, de una manera mutuamente beneficiosa donde todas estas formas diferentes puedan florecer y prosperar". [28]

razonamiento antrópico

Bostrom ha publicado numerosos artículos sobre razonamiento antrópico , así como el libro Anthropic Bias: Observation Selection Effects in Science and Philosophy . En el libro, critica formulaciones anteriores del principio antrópico, incluidas las de Brandon Carter , John Leslie , John Barrow y Frank Tipler . [29]

Bostrom cree que el mal manejo de la información indexada es un defecto común en muchas áreas de investigación (incluidas la cosmología, la filosofía, la teoría de la evolución, la teoría de juegos y la física cuántica). Sostiene que se necesita una teoría antrópica para abordarlos. Introduce el supuesto de automuestreo (SSA) y el supuesto de autoindicación (SIA), muestra cómo conducen a conclusiones diferentes en varios casos e identifica cómo cada uno se ve afectado por paradojas o implicaciones contraintuitivas en ciertos experimentos mentales. Sugiere que un camino a seguir puede implicar extender la SSA al Supuesto de Automuestreo Fuerte (SSSA), que reemplaza "observadores" en la definición de SSA por "momentos de observador".

En trabajos posteriores, propuso el fenómeno de la sombra antrópica , un efecto de selección de observación que impide a los observadores observar ciertos tipos de catástrofes en su pasado geológico y evolutivo reciente. [30] Bostrom afirma que es probable que los acontecimientos que se encuentran en la sombra antrópica se subestimen a menos que se realicen correcciones estadísticas.

Argumento de simulación

El argumento de simulación de Bostrom postula que es muy probable que al menos una de las siguientes afirmaciones sea cierta: [31]

  1. La fracción de civilizaciones de nivel humano que alcanzan una etapa posthumana es muy cercana a cero;
  2. La fracción de civilizaciones posthumanas que están interesadas en realizar simulaciones de ancestros es muy cercana a cero;
  3. La fracción de todas las personas con nuestro tipo de experiencias que viven en una simulación es muy cercana a uno.

Ética de la mejora humana

Bostrom tiene una disposición favorable hacia la "mejora humana" o la "superación personal y la perfectibilidad humana mediante la aplicación ética de la ciencia", así como un crítico de las opiniones bioconservadoras. [32]

En 1998, Bostrom cofundó (con David Pearce ) la Asociación Transhumanista Mundial [32] (que desde entonces cambió su nombre a Humanity+ ). En 2004, cofundó (con James Hughes ) el Instituto de Ética y Tecnologías Emergentes , aunque ya no participa en ninguna de estas organizaciones.

En 2005, Bostrom publicó el cuento " La fábula del dragón tirano " en el Journal of Medical Ethics . En 2012 se publicó una versión más breve en Philosophy Now . [33] La fábula personifica la muerte como un dragón que exige un tributo de miles de personas cada día. La historia explora cómo el sesgo del status quo y la impotencia aprendida pueden impedir que las personas tomen medidas para derrotar el envejecimiento, incluso cuando tienen los medios para hacerlo a su disposición. El YouTuber CGP Gray creó una versión animada de la historia.

Con el filósofo Toby Ord (actualmente investigador del Future of Humanity Institute), propuso la prueba de reversión en 2006. Dado el sesgo irracional del status quo de los humanos, ¿cómo se puede distinguir entre críticas válidas a los cambios propuestos en un rasgo humano y críticas meramente motivadas? ¿Por resistencia al cambio? La prueba de reversión intenta hacer esto preguntando si sería bueno que el rasgo se alterara en la dirección opuesta. [34]

El trabajo de Bostrom también considera posibles efectos disgénicos en las poblaciones humanas, pero cree que la ingeniería genética puede proporcionar una solución y que "en cualquier caso, la escala de tiempo de la evolución genética natural humana parece demasiado grande para que tales desarrollos tengan algún efecto significativo antes que otros desarrollos". habrá hecho que la cuestión sea discutible". [35]

Estrategia tecnológica

Bostrom ha sugerido que la política tecnológica destinada a reducir el riesgo existencial debería buscar influir en el orden en que se alcanzan las diversas capacidades tecnológicas, proponiendo el principio de desarrollo tecnológico diferencial . Este principio establece que debemos retardar el desarrollo de tecnologías peligrosas, particularmente aquellas que elevan el nivel de riesgo existencial, y acelerar el desarrollo de tecnologías beneficiosas, particularmente aquellas que protegen contra los riesgos existenciales planteados por la naturaleza o por otras tecnologías. [36]

En 2011, Bostrom fundó el Programa Oxford Martin sobre los impactos de la tecnología del futuro. [37]

La teoría de Bostrom sobre la maldición unilateralista ha sido citada como una razón para que la comunidad científica evite investigaciones peligrosas y controvertidas, como la reanimación de patógenos. [38]

Premios

Bostrom fue incluido en la lista de 2009 de Foreign Policy de los principales pensadores globales "por no aceptar límites al potencial humano". [39] La revista Prospect incluyó a Bostrom en su lista de 2014 de los mejores pensadores del mundo . [40]

Compromiso público

Bostrom ha brindado asesoramiento sobre políticas y ha sido consultor de muchos gobiernos y organizaciones. Prestó testimonio ante el Comité Selecto de Habilidades Digitales de la Cámara de los Lores . [41] Es miembro del consejo asesor del Machine Intelligence Research Institute , [42] Future of Life Institute , [43] y asesor externo del Centro de Cambridge para el Estudio del Riesgo Existencial . [44]

Controversia por correo electrónico de 1996

En enero de 2023, Bostrom se disculpó por un correo electrónico de 1996 en el que decía que pensaba que "los negros son más estúpidos que los blancos", y donde también usaba la palabra " niggers " en una descripción de cómo pensaba que se podría percibir esta afirmación. por otros. [45] La disculpa, publicada en su sitio web, [46] afirmaba que "la invocación de un insulto racial era repulsiva" y que "repudiaba por completo este desagradable correo electrónico". En su disculpa, escribió: "Creo que es profundamente injusto que el acceso desigual a la educación, los nutrientes y la atención sanitaria básica conduzca a una desigualdad en los resultados sociales, incluidas a veces disparidades en las habilidades y la capacidad cognitiva". [47]

En enero de 2023, la Universidad de Oxford dijo a The Daily Beast : "La Universidad y la Facultad de Filosofía están investigando actualmente el asunto, pero condenan en los términos más enérgicos posibles las opiniones que este académico en particular expresó en sus comunicaciones". [45] En agosto de 2023, la investigación concluyó (según una carta que Bostrom publicó en su sitio web) que "no consideramos que [Bostrom] sea racista o que [tenga] opiniones racistas, y consideramos que la disculpa [ Él] publicado en enero de 2023 fue sincero". [46]

Trabajos seleccionados

Libros

artículos periodísticos

Ver también

Notas

  1. ^ Bostrom dice que el riesgo se puede reducir si la sociedad sale lo suficiente de lo que él llama una "condición predeterminada semianárquica", que significa aproximadamente capacidades limitadas para la vigilancia preventiva y la gobernanza global, y tener individuos con diversas motivaciones. [15]
  2. ^ Bostrom señala que "el concepto de un singleton es abstracto: un singleton podría ser una democracia, una tiranía, una única IA dominante, un sólido conjunto de normas globales que incluyen disposiciones efectivas para su propia aplicación, o incluso un señor supremo alienígena. su característica definitoria es simplemente que es alguna forma de agencia que puede resolver todos los principales problemas de coordinación global" [18]

Referencias

  1. ^ abcdef Khatchadourian, Raffi (23 de noviembre de 2015). "La invención del fin del mundo". El neoyorquino . vol. XCI, no. 37. págs. 64–79. ISSN  0028-792X.
  2. ^ "Ética infinita" (PDF) . nickbostrom.com . Consultado el 21 de febrero de 2019 .
  3. ^ "nickbostrom.com". Nickbostrom.com. Archivado desde el original el 30 de agosto de 2018 . Consultado el 16 de octubre de 2014 .
  4. ^ abc Shead, Sam (25 de mayo de 2020). "Cómo las universidades más antiguas de Gran Bretaña están tratando de proteger a la humanidad de la peligrosa IA" CNBC . Consultado el 5 de junio de 2023 .
  5. ^ ab "Nick Bostrom sobre la inteligencia artificial". Prensa de la Universidad de Oxford . 8 de septiembre de 2014 . Consultado el 4 de marzo de 2015 .
  6. ^ ab "Nick Bostrom sobre el nacimiento de la superinteligencia". Gran pensamiento . Consultado el 14 de agosto de 2023 .
  7. ^ ab Thornhill, John (14 de julio de 2016). "Inteligencia artificial: ¿podemos controlarla?" . Tiempos financieros . Archivado desde el original el 10 de diciembre de 2022 . Consultado el 10 de agosto de 2016 . (requiere suscripción)
  8. ^ Bostrom, Nick. "Currículum vitae" (PDF) .
  9. ^ Bostrom, Nick (2000). Efectos de selección observacional y probabilidad (Doctor). Escuela de Economía y Ciencias Políticas de Londres . Consultado el 25 de junio de 2021 .
  10. ^ ab Andersen, Ross. "Augurios". Aeon Media Ltd. Archivado desde el original el 18 de octubre de 2015 . Consultado el 5 de septiembre de 2015 .
  11. ^ Andersen, Ross (6 de marzo de 2012). "Estamos subestimando el riesgo de extinción humana". El Atlántico . Consultado el 6 de julio de 2023 .
  12. ^ Tegmark, máximo ; Bostrom, Nick (2005). "Astrofísica: ¿es probable una catástrofe apocalíptica?" (PDF) . Naturaleza . 438 (7069): 754. Bibcode :2005Natur.438..754T. doi :10.1038/438754a. PMID  16341005. S2CID  4390013. Archivado desde el original (PDF) el 3 de julio de 2011.
  13. ^ Adiós, Dennis (3 de agosto de 2015). "La otra cara del optimismo sobre la vida en otros planetas". Los New York Times . Consultado el 29 de octubre de 2015 .
  14. ^ Bostrom, Nick (2018). La hipótesis del mundo vulnerable.
  15. ^ Abhijeet, Katte (25 de diciembre de 2018). "El fin del mundo de la IA se puede evitar si establecemos un 'gobierno mundial': Nick Bostrom". Revista Analytics India .
  16. ^ Piper, Kelsey (19 de noviembre de 2018). "Cómo el progreso tecnológico hace que sea más probable que nunca que los humanos nos destruyamos a nosotros mismos". Vox . Consultado el 5 de julio de 2023 .
  17. ^ Times, The New York (8 de septiembre de 2014). "Libros de ciencia más vendidos". Los New York Times . Consultado el 19 de febrero de 2015 .
  18. ^ abcdef Bostrom, Nick (2016). Superinteligencia . Prensa de la Universidad de Oxford. págs. 98-111. ISBN 978-0-19-873983-8. OCLC  943145542.
  19. ^ "Engranajes inteligentes". El economista . ISSN  0013-0613 . Consultado el 14 de agosto de 2023 .
  20. ^ ab Bostrom, Nick (27 de abril de 2015), ¿Qué sucede cuando nuestras computadoras se vuelven más inteligentes que nosotros? , consultado el 12 de agosto de 2023
  21. ^ ab Khatchadourian, Raffi (16 de noviembre de 2015). "La invención del fin del mundo". El neoyorquino . Consultado el 13 de agosto de 2023 .
  22. ^ "¿Es imposible la superinteligencia? | Edge.org". www.edge.org . Consultado el 13 de agosto de 2023 .
  23. ^ Oren Etzioni (2016). "No, los expertos no creen que la IA superinteligente sea una amenaza para la humanidad". Revisión del MIT.
  24. ^ Arul, Akashdeep (27 de enero de 2022). "Yann LeCun genera un debate sobre AGI versus IA a nivel humano". Revista Analytics India . Consultado el 14 de agosto de 2023 .
  25. ^ "Casi la mitad de los directores ejecutivos temen que la IA pueda destruir a la humanidad dentro de cinco a diez años, pero el 'padrino de la IA' dice que una amenaza existencial es 'absurdamente ridícula'". Fortuna . Consultado el 14 de agosto de 2023 .
  26. ^ "¿Vives en una simulación por computadora?". www.simulación-argument.com . Consultado el 5 de julio de 2023 .
  27. ^ Jackson, Lauren (12 de abril de 2023). "¿Qué pasa si la sensibilidad de la IA es una cuestión de grado?". Los New York Times . ISSN  0362-4331 . Consultado el 5 de julio de 2023 .
  28. ^ Pescador, Richard. "El monstruo inteligente que deberías dejar que te coma". www.bbc.com . Consultado el 5 de julio de 2023 .
  29. ^ Bostrom, Nick (2002). Sesgo antrópico: efectos de la selección de observaciones en ciencia y filosofía (PDF) . Nueva York: Routledge. págs. 44–58. ISBN 978-0-415-93858-7. Consultado el 22 de julio de 2014 .
  30. ^ "Sombra antrópica: efectos de selección de observación y riesgos de extinción humana" (PDF) . Nickbostrom.com . Consultado el 16 de octubre de 2014 .
  31. ^ Nesbit, Jeff. "Prueba del argumento de la simulación". Noticias de EE. UU . Consultado el 17 de marzo de 2017 .
  32. ^ ab Sutherland, John (9 de mayo de 2006). "La entrevista de ideas: Nick Bostrom; John Sutherland conoce a un transhumanista que lucha con la ética de los seres humanos tecnológicamente mejorados". El guardián .
  33. ^ Bostrom, Nick (12 de junio de 2012). "La fábula del dragón tirano". Filosofía ahora . 89 : 6–9.
  34. ^ Bostrom, Nick; Ord, Toby (2006). "La prueba de reversión: eliminar el sesgo del status quo en la ética aplicada" (PDF) . Ética . 116 (4): 656–679. doi :10.1086/505233. PMID  17039628. S2CID  12861892.
  35. ^ "Riesgos existenciales: análisis de escenarios de extinción humana". nickbostrom.com . Consultado el 6 de julio de 2023 .
  36. ^ Bostrom, Nick (2002). "Riesgos existenciales: análisis de escenarios de extinción humana". Revista de Evolución y Tecnología .Archivo de investigación de Oxford
  37. ^ "Profesor Nick Bostrom: gente". Escuela Oxford Martin. Archivado desde el original el 15 de septiembre de 2018 . Consultado el 16 de octubre de 2014 .
  38. ^ Lewis, Gregory (19 de febrero de 2018). "Síntesis de la viruela: ¿un caso de la maldición del unilateralista?". Boletín de los Científicos Atómicos . Archivado desde el original el 25 de febrero de 2018 . Consultado el 26 de febrero de 2018 .
  39. ^ "Los 100 pensadores globales más importantes de FP: 73. Nick Bostrom". La política exterior . 30 de noviembre de 2009. Archivado desde el original el 21 de octubre de 2014.
  40. ^ Kutchinsky, Serena (23 de abril de 2014). "Pensadores mundiales 2014: los resultados". Prospecto . Consultado el 19 de junio de 2022 .
  41. ^ "Comité de Habilidades Digitales - cronograma". Parlamento del Reino Unido . Consultado el 17 de marzo de 2017 .
  42. ^ "Equipo - Instituto de Investigación de Inteligencia Artificial". Instituto de Investigación de Inteligencia Artificial . Consultado el 17 de marzo de 2017 .
  43. ^ "Equipo - Instituto Future of Life". Instituto Futuro de la Vida . Consultado el 17 de marzo de 2017 .
  44. ^ McBain, Sophie (4 de octubre de 2014). "Apocalipsis pronto: conozca a los científicos que se preparan para el fin de los tiempos". Nueva República . Consultado el 17 de marzo de 2017 .
  45. ^ ab Ladden-Hall, Dan (12 de enero de 2023). "El principal filósofo de Oxford, Nick Bostrom, admite haber escrito correos electrónicos masivos de N palabras 'repugnantes'". La bestia diaria . Consultado el 12 de enero de 2023 .
  46. ^ ab Bostrom, Nick. "Disculpa por el correo electrónico antiguo" (PDF) . nickbostrom.com . Consultado el 17 de enero de 2024 .
  47. ^ Bilyard, Dylan (15 de enero de 2023). "Se inició una investigación sobre el correo electrónico racista de Oxford Don". El azul de Oxford .

enlaces externos