stringtranslate.com

Desarrollo tecnológico diferencial

El desarrollo tecnológico diferencial es una estrategia de gobernanza tecnológica que tiene como objetivo reducir los riesgos de las tecnologías emergentes influyendo en la secuencia en la que se desarrollan. En esta estrategia, las sociedades procurarían retrasar el desarrollo de tecnologías dañinas y sus aplicaciones, y acelerar el desarrollo de tecnologías beneficiosas, especialmente aquellas que ofrecen protección contra las dañinas. [1] [2]

Historia de la idea

El desarrollo tecnológico diferencial fue propuesto inicialmente por el filósofo Nick Bostrom en 2002 [1] y aplicó la idea a la gobernanza de la inteligencia artificial en su libro de 2014 Superinteligencia: caminos, peligros, estrategias . [3] La estrategia también fue respaldada por el filósofo Toby Ord en su libro de 2020 El precipicio: riesgo existencial y el futuro de la humanidad , quien escribe que "Si bien puede ser demasiado difícil prevenir el desarrollo de una tecnología riesgosa, es posible que podamos reducir el riesgo existencial acelerando el desarrollo de tecnologías protectoras en relación con las peligrosas". [2] [4]

Discusión informal

Paul Christiano cree que, si bien la aceleración del progreso tecnológico parece ser una de las mejores maneras de mejorar el bienestar humano en las próximas décadas, [5] una tasa de crecimiento más rápida no puede ser igualmente importante para el futuro lejano porque el crecimiento debe eventualmente saturarse debido a límites físicos. Por lo tanto, desde la perspectiva del futuro lejano, el desarrollo tecnológico diferencial parece más crucial. [6] [ ¿ Fuente poco confiable? ]

Inspirados por la propuesta de Bostrom, Luke Muehlhauser y Anna Salamon sugirieron un proyecto más general de "progreso intelectual diferencial", en el que la sociedad avanza en su sabiduría, sofisticación filosófica y comprensión de los riesgos más rápido que su poder tecnológico. [7] [ ¿ fuente no confiable? ] [8] [ ¿ fuente no confiable? ] Brian Tomasik ha ampliado esta noción. [9] [ ¿ fuente no confiable? ]

Véase también

Referencias

  1. ^ ab Bostrom, Nick (2002). "Riesgos existenciales: análisis de escenarios de extinción humana". {{cite journal}}: Requiere citar revista |journal=( ayuda ) 9 Revista de evolución y tecnología Jetpress Oxford Research Archive
  2. ^ ab Ord, Toby (2020). El precipicio: riesgo existencial y el futuro de la humanidad . Reino Unido: Bloomsbury Publishing . p. 200. ISBN 978-1526600219.
  3. ^ Bostrom, Nick (2014). Superinteligencia: caminos, peligros, estrategias . Oxford: Oxford University Press. pp. 229–237. ISBN. 978-0199678112.
  4. ^ Purtill, Corinne (21 de noviembre de 2020). "¿Qué tan cerca está la humanidad del borde?". The New Yorker . Consultado el 27 de noviembre de 2020 .
  5. ^ Muehlhauser, Anna Salamon. "Soluciones RFID".
  6. ^ Christiano, Paul (15 de octubre de 2014). "Sobre el progreso y la prosperidad". Foro sobre altruismo eficaz . Consultado el 21 de octubre de 2014 .
  7. ^ Muehlhauser, Luke; Anna Salamon (2012). «Explosión de inteligencia: evidencia e importancia» (PDF) : 18–19. Archivado desde el original (PDF) el 26 de octubre de 2014. Consultado el 29 de noviembre de 2013 . {{cite journal}}: Requiere citar revista |journal=( ayuda )
  8. ^ Muehlhauser, Luke (2013). Facing the Intelligence Explosion. Instituto de Investigación de Inteligencia Artificial . Consultado el 29 de noviembre de 2013 .
  9. ^ Tomasik, Brian (23 de octubre de 2013). "El progreso intelectual diferencial como un proyecto de suma positiva". Foundational Research Institute . Consultado el 18 de febrero de 2016 .