stringtranslate.com

Singleton (gobernanza global)

En futurología , un singleton es un orden mundial hipotético en el que existe una única agencia de toma de decisiones al más alto nivel, capaz de ejercer un control efectivo sobre su dominio y prevenir permanentemente amenazas tanto internas como externas a su supremacía. El término fue definido por primera vez por Nick Bostrom . [1] [2] [3] [4] [5] [6] [7] [8]

Descripción general

Según Nick Bostrom, un singleton es un concepto abstracto que podría implementarse de varias maneras: [9]

un singleton podría ser una democracia, una tiranía, una única IA dominante , un sólido conjunto de normas globales que incluyen disposiciones efectivas para su propia aplicación, o incluso un señor supremo alienígena; su característica definitoria es simplemente que es alguna forma de agencia que puede resolver todos los principales problemas de coordinación global. Puede parecerse, aunque no necesariamente, a cualquier forma familiar de gobierno humano.

Bostrom sostiene que una superinteligencia podría formar un singleton. [9] Las tecnologías de vigilancia y control mental también podrían facilitar la creación de un singleton. [10]

Un singleton tiene riesgos potenciales y beneficios potenciales. En particular, un singleton adecuado podría resolver problemas de coordinación mundial que de otro modo no tendrían solución, abriendo trayectorias de desarrollo para la civilización que de otro modo no estarían disponibles. Por ejemplo, Ben Goertzel , un investigador de AGI , sugiere que los humanos podrían decidir crear una "niñera AI" con "inteligencia ligeramente sobrehumana y poderes de vigilancia", para proteger a la raza humana de riesgos existenciales como la nanotecnología y retrasar el desarrollo de otras ( hostiles) inteligencias artificiales hasta que se resuelvan los problemas de seguridad. [11] Un singleton podría establecer "limitaciones muy estrictas a su propio ejercicio de poder (por ejemplo, limitándose puntillosamente a garantizar que se respeten ciertas reglas internacionales especificadas en tratados, o principios libertarios)". [9] Además, Bostrom sugiere que un singleton podría mantener bajo control las presiones evolutivas darwinianas , evitando que agentes interesados ​​sólo en la reproducción lleguen a dominar. [12]

Sin embargo, Bostrom también considera la posibilidad de un régimen global estable, represivo y totalitario como un grave riesgo existencial. [13] La propia estabilidad de un singleton hace que la instalación de un singleton incorrecto sea especialmente catastrófica, ya que las consecuencias nunca se pueden deshacer. Bryan Caplan escribe que "quizás una eternidad de totalitarismo sería peor que la extinción". [14]

De manera similar, Hans Morgenthau destacó que el desarrollo mecánico de las armas, el transporte y las comunicaciones hace "técnicamente posible la conquista del mundo, y hacen técnicamente posible mantener el mundo en ese estado conquistado". Su carencia fue la razón por la cual los grandes imperios antiguos, aunque vastos, no lograron completar la conquista universal de su mundo y perpetuar la conquista. Ahora, sin embargo, esto es posible. La tecnología derriba barreras tanto geográficas como climáticas. "Hoy en día ningún obstáculo tecnológico se interpone en el camino de un imperio mundial", ya que "la tecnología moderna permite extender el control de la mente y la acción a todos los rincones del planeta, independientemente de la geografía y la estación". [15]

Ver también

Referencias

  1. ^ Nick Bostrom (2006). "¿Qué es un Singleton?". Investigaciones lingüísticas y filosóficas 5 (2): 48-54.
  2. ^ Dvorsky, George (11 de junio de 2013). "7 resultados totalmente inesperados que podrían seguir a la singularidad". io9 . Consultado el 3 de febrero de 2016 .
  3. ^ Miller, James D. (6 de septiembre de 2011). "La solución Singleton". hplusmagazine.com . Consultado el 3 de febrero de 2016 .
  4. ^ Thiel, Thomas (21 de diciembre de 2014). "Die Superintelligenz ist gar nicht super". Faz.net . Frankfurter Allgemeine Zeitung . Consultado el 3 de febrero de 2016 .
  5. ^ Barrat, James (octubre de 2013). Nuestra última invención: la inteligencia artificial y el fin de la era humana. Macmillan. ISBN 978-0312622374. Consultado el 3 de febrero de 2016 .
  6. ^ Haggstrom, Olle (2016). Aquí hay dragones: ciencia, tecnología y el futuro de la humanidad. Prensa de la Universidad de Oxford. ISBN 9780198723547. Consultado el 3 de febrero de 2016 .
  7. ^ O'Mathúna, Dónal (2009). Nanoética: grandes cuestiones éticas con pequeña tecnología . A&C Negro. pag. 185.ISBN 9781847063953. Consultado el 3 de febrero de 2016 .
  8. ^ Könneker, Carsten (19 de noviembre de 2015). "Fukushima der künstlichen Intelligenz". Espectro . Consultado el 3 de febrero de 2016 .
  9. ^ abcBostrom , Nick (2014). Superinteligencia: caminos, peligros, estrategias (1ª ed.). Oxford, Reino Unido Nueva York, NY: Oxford University Press. ISBN 978-0-19-967811-2.
  10. ^ Nick Bostrom (2006). "¿Qué es un Singleton?". Investigaciones lingüísticas y filosóficas 5 (2): 48-54.
  11. ^ Goertzel, Ben. "¿Debería la humanidad construir una niñera global con IA para retrasar la singularidad hasta que se comprenda mejor?", Journal of Awareness Studies 19.1-2 (2012): 1-2.
  12. ^ Nick Bostrom (2004). "El futuro de la evolución humana". Muerte y antimuerte: doscientos años después de Kant, cincuenta años después de Turing , ed. Charles Tandy (Ria University Press: Palo Alto, California): 339-371.
  13. ^ Nick Bostrom (2002). "Riesgos existenciales: análisis de escenarios de extinción humana y peligros relacionados". Revista de Evolución y Tecnología 9 (1).
  14. ^ Bryan Caplan (2008). "La amenaza totalitaria". Riesgos catastróficos globales , eds. Bostrom y Cirkovic (Prensa de la Universidad de Oxford): 504-519. ISBN 9780198570509 
  15. ^ Política entre naciones: la lucha por el poder y la paz , cuarta edición, Nueva York: Alfred A. Knopf, 1967, págs. 358-365.