stringtranslate.com

Superinteligencia: caminos, peligros, estrategias

Superinteligencia: caminos, peligros, estrategias es un libro de 2014 del filósofo Nick Bostrom . Explora cómopodría crearse la superinteligencia y cuáles podrían ser sus características y motivaciones. [2] Sostiene que la superinteligencia, si se creara, sería difícil de controlar y que podría apoderarse del mundo para lograr sus objetivos. El libro también presenta estrategias para ayudar a crear superinteligencias cuyos objetivos beneficien a la humanidad. [3] Fue particularmente influyente para plantear preocupaciones sobre el riesgo existencial de la inteligencia artificial . [4]

Sinopsis

Se desconoce si la inteligencia artificial a nivel humano llegará en cuestión de años, a finales de este siglo, o no hasta siglos futuros. Independientemente de la escala de tiempo inicial, una vez que se desarrolle la inteligencia artificial a nivel humano, lo más probable es que surja sorprendentemente rápido un sistema "superinteligente" que "supere con creces el rendimiento cognitivo de los humanos en prácticamente todos los dominios de interés". Una superinteligencia así sería muy difícil de controlar.

Si bien los objetivos finales de las superinteligencias pueden variar mucho, una superinteligencia funcional generará espontáneamente, como submetas naturales, " metas instrumentales " como la autoconservación y la integridad del contenido de las metas, la mejora cognitiva y la adquisición de recursos. Por ejemplo, un agente cuyo único objetivo final sea resolver la hipótesis de Riemann (una famosa conjetura matemática no resuelta ) podría crear y actuar en consecuencia de un subobjetivo de transformar toda la Tierra en alguna forma de computronio (material hipotético optimizado para la computación) para ayudar en la cálculo. La superinteligencia resistiría proactivamente cualquier intento externo de apagar la superinteligencia o impedir de otra manera la consecución de su submeta. Para evitar tal catástrofe existencial , es necesario resolver con éxito el " problema de control de la IA " para la primera superinteligencia. La solución podría pasar por inculcar a la superinteligencia objetivos que sean compatibles con la supervivencia y el bienestar humanos. Resolver el problema del control es sorprendentemente difícil porque la mayoría de los objetivos, cuando se traducen a código implementable por máquina, conducen a consecuencias imprevistas e indeseables.

El búho en la portada del libro alude a una analogía que Bostrom llama la "Fábula inacabada de los gorriones". [5] Un grupo de gorriones decide buscar un polluelo de búho y criarlo como sirviente. [6] Imaginan con entusiasmo "lo fácil que sería la vida" si tuvieran un búho que les ayudara a construir sus nidos, defender a los gorriones y liberarlos para una vida de ocio. Los gorriones inician la difícil búsqueda de un huevo de lechuza; sólo "Scronkfinkle", un "gorrión tuerto y de temperamento inquieto", sugiere pensar en la complicada cuestión de cómo domesticar al búho antes de traerlo "entre nosotros". Los otros gorriones ponen objeciones; La búsqueda de un huevo de lechuza ya será bastante difícil por sí sola: "¿Por qué no coger primero la lechuza y trabajar en los detalles más tarde?" Bostrom afirma que "no se sabe cómo termina la historia", pero dedica su libro a Scronkfinkle. [5] [4]

Recepción

El libro ocupó el puesto 17 en la lista del New York Times de libros de ciencia más vendidos en agosto de 2014. [7] En el mismo mes, el magnate de los negocios Elon Musk apareció en los titulares al estar de acuerdo con el libro en que la inteligencia artificial es potencialmente más peligrosa que las armas nucleares . [8] [9] [10] El trabajo de Bostrom sobre superinteligencia también ha influido en la preocupación de Bill Gates por los riesgos existenciales que enfrentará la humanidad durante el próximo siglo. [11] [12] En una entrevista de marzo de 2015 realizada por el director ejecutivo de Baidu , Robin Li , Gates dijo que "recomendaría altamente" Superintelligence . [13] Según el New Yorker , los filósofos Peter Singer y Derek Parfit lo han "recibido como una obra de importancia". [4] Sam Altman escribió en 2015 que el libro es lo mejor que ha leído sobre los riesgos de la IA. [14]

El editor científico del Financial Times descubrió que los escritos de Bostrom "a veces viran hacia un lenguaje opaco que delata su experiencia como profesor de filosofía", pero demuestra de manera convincente que el riesgo de la superinteligencia es lo suficientemente grande como para que la sociedad debería comenzar a pensar ahora en formas de dotar a las futuras máquinas de inteligencia. con valores positivos. [15] Una reseña en The Guardian señaló que "incluso las máquinas más sofisticadas creadas hasta ahora son inteligentes sólo en un sentido limitado" y que "las expectativas de que la IA pronto superaría a la inteligencia humana se desvanecieron por primera vez en la década de 1960", pero la reseña encuentra puntos en común con Bostrom al advertir que "no sería aconsejable descartar la posibilidad por completo". [3]

Algunos de los colegas de Bostrom sugieren que la guerra nuclear presenta una amenaza mayor para la humanidad que la superinteligencia, al igual que la perspectiva futura de la utilización de la nanotecnología y la biotecnología como armas . [3] The Economist afirmó que "Bostrom se ve obligado a dedicar gran parte del libro a discutir especulaciones basadas en conjeturas plausibles... pero el libro es, no obstante, valioso. Las implicaciones de introducir una segunda especie inteligente en la Tierra son de suficiente alcance como para merecer Pensar mucho, incluso si la perspectiva de hacerlo realmente parece remota". [2] Ronald Bailey escribió en el libertario Reason que Bostrom argumenta firmemente que resolver el problema del control de la IA es la "tarea esencial de nuestra época". [16] Según Tom Chivers de The Daily Telegraph , el libro es difícil de leer pero, no obstante, gratificante. [6] Un crítico del Journal of Experimental & Theoretical Artificial Intelligence rompió con otros al afirmar que "el estilo de escritura del libro es claro" y elogió el libro por evitar la "jerga demasiado técnica". [17] Un crítico de Philosophy consideró que Superintelligence era "más realista" que The Singularity Is Near de Ray Kurzweil . [18]

Ver también

Referencias

  1. ^ "Sueco superinteligente contratado por OUP". El librero . 21 de noviembre de 2013.
  2. ^ ab "Engranajes inteligentes". El economista . 9 de agosto de 2014 . Consultado el 9 de agosto de 2014 .
  3. ^ abc Henderson, Caspar (17 de julio de 2014). "Superinteligencia de Nick Bostrom y Un duro viaje hacia el futuro de James Lovelock - revisión". El guardián . Consultado el 30 de julio de 2014 .
  4. ^ abc Khatchadourian, Raffi (2015). "La invención del fin del mundo". El neoyorquino . Consultado el 29 de marzo de 2020 .
  5. ^ ab Adams, Tim (12 de junio de 2016). "Nick Bostrom: 'Somos como niños pequeños jugando con una bomba'". El observador . Consultado el 29 de marzo de 2020 .
  6. ^ ab Chivers, Tom (10 de agosto de 2014). "Superinteligencia de Nick Bostrom, reseña: 'una lectura difícil'". El Telégrafo . Consultado el 16 de agosto de 2014 .
  7. ^ "Libros de ciencia más vendidos". Los New York Times . 8 de septiembre de 2014 . Consultado el 9 de noviembre de 2014 .
  8. ^ Dean, James (5 de agosto de 2014). "La inteligencia artificial 'puede acabar con la raza humana'". Los tiempos . Consultado el 5 de agosto de 2014 .
  9. ^ Augenbraun, Eliene (4 de agosto de 2014). "Elon Musk tuitea que la inteligencia artificial puede ser" más peligrosa que las armas nucleares"". Noticias CBC . Consultado el 5 de agosto de 2014 .
  10. ^ Bratton, Benjamin H. (23 de febrero de 2015). "Excursión de la IA: más allá de la prueba de Turing". Los New York Times . Consultado el 4 de marzo de 2015 .
  11. ^ Mack, Eric (28 de enero de 2015). "Bill Gates dice que debería preocuparse por la inteligencia artificial". Forbes . Consultado el 19 de febrero de 2015 .
  12. ^ Lumby, Andrew (28 de enero de 2015). "Bill Gates está preocupado por el auge de las máquinas". Los tiempos fiscales . Consultado el 19 de febrero de 2015 .
  13. ^ Kaiser Kuo (31 de marzo de 2015). "El director ejecutivo de Baidu, Robin Li, entrevista a Bill Gates y Elon Musk en el Foro de Boao, el 29 de marzo de 2015". YouTube . Consultado el 8 de abril de 2015 .
  14. ^ Negro, Meliá Russell, Julia. "Jugó al ajedrez con Peter Thiel, entrenó con Elon Musk y una vez, supuestamente, evitó un accidente aéreo: dentro del mundo de Sam Altman, donde la verdad es más extraña que la ficción". Business Insider . Consultado el 15 de agosto de 2023 .{{cite web}}: Mantenimiento CS1: varios nombres: lista de autores ( enlace )
  15. ^ Cookson, Clive (13 de julio de 2014). "Superinteligencia: caminos, peligros, estrategias, por Nick Bostrom" . El tiempo financiero. Archivado desde el original el 6 de agosto de 2014 . Consultado el 30 de julio de 2014 .
  16. ^ Bailey, Ronald (12 de septiembre de 2014). "¿Las máquinas superinteligentes destruirán a la humanidad?". Razón . Consultado el 16 de septiembre de 2014 .
  17. ^ Thomas, Joel (julio de 2015). "En defensa de la filosofía: una reseña de Nick Bostrom". Revista de inteligencia artificial teórica y experimental . 28 (6): 1089–1094. doi : 10.1080/0952813X.2015.1055829 .
  18. ^ Richmond, Sheldon (8 de julio de 2015). "Superinteligencia: caminos, peligros, estrategias". Filosofía . 91 (1): 125-130. doi :10.1017/S0031819115000340. S2CID  171005535.