stringtranslate.com

Superinteligencia: caminos, peligros y estrategias

Superinteligencia: caminos, peligros, estrategias es un libro de 2014 del filósofo Nick Bostrom . Explora cómose podría crear la superinteligencia y cuáles podrían ser sus características y motivaciones. [2] Argumenta que la superinteligencia, si se creara, sería difícil de controlar y que podría apoderarse del mundo para lograr sus objetivos. El libro también presenta estrategias para ayudar a crear superinteligencias cuyos objetivos beneficien a la humanidad. [3] Fue particularmente influyente para plantear preocupaciones sobre el riesgo existencial de la inteligencia artificial . [4]

Sinopsis

No se sabe si la inteligencia artificial de nivel humano llegará en cuestión de años, a finales de este siglo, o no hasta siglos futuros. Independientemente de la escala de tiempo inicial, una vez que se desarrolle una inteligencia artificial de nivel humano, lo más probable es que aparezca con una rapidez sorprendente un sistema "superinteligente" que "supere ampliamente el rendimiento cognitivo de los humanos en prácticamente todos los dominios de interés". Sería muy difícil controlar una superinteligencia de ese tipo.

Aunque los objetivos finales de las superinteligencias pueden variar enormemente, una superinteligencia funcional generará espontáneamente, como subobjetivos naturales, " objetivos instrumentales " como la autoconservación y la integridad del contenido de los objetivos, la mejora cognitiva y la adquisición de recursos. Por ejemplo, un agente cuyo único objetivo final sea resolver la hipótesis de Riemann (una famosa conjetura matemática sin resolver ) podría crear y actuar sobre un subobjetivo de transformar toda la Tierra en alguna forma de computronio (material hipotético optimizado para la computación) para ayudar en el cálculo. La superinteligencia resistiría proactivamente cualquier intento externo de apagar la superinteligencia o impedir de otro modo la finalización de su subobjetivo. Para evitar una catástrofe existencial de este tipo , es necesario resolver con éxito el " problema de control de la IA " para la primera superinteligencia. La solución podría implicar inculcar a la superinteligencia objetivos que sean compatibles con la supervivencia y el bienestar humanos. Resolver el problema de control es sorprendentemente difícil porque la mayoría de los objetivos, cuando se traducen en código implementable por máquina, conducen a consecuencias imprevistas e indeseables.

El búho de la portada del libro alude a una analogía que Bostrom llama la «fábula inacabada de los gorriones». [5] Un grupo de gorriones decide encontrar un polluelo de búho y criarlo como su sirviente. [6] Imaginan con entusiasmo «lo fácil que sería la vida» si tuvieran un búho que les ayudara a construir sus nidos, a defender a los gorriones y a liberarlos para una vida de ocio. Los gorriones emprenden la difícil búsqueda de un huevo de búho; sólo «Scronkfinkle», un «gorrión tuerto de temperamento inquieto», sugiere pensar en la complicada cuestión de cómo domesticar al búho antes de traerlo «a nuestro medio». Los demás gorriones se muestran reticentes; la búsqueda de un huevo de búho ya será bastante difícil por sí sola: «¿Por qué no conseguir primero el búho y resolver los detalles más tarde?». Bostrom afirma que «no se sabe cómo termina la historia», pero dedica su libro a Scronkfinkle. [5] [4]

Recepción

El libro ocupó el puesto número 17 en la lista de The New York Times de los libros de ciencia más vendidos en agosto de 2014. [7] En el mismo mes, el magnate de negocios Elon Musk fue noticia al estar de acuerdo con el libro en que la inteligencia artificial es potencialmente más peligrosa que las armas nucleares . [8] [9] [10] El trabajo de Bostrom sobre la superinteligencia también ha influido en la preocupación de Bill Gates por los riesgos existenciales que enfrenta la humanidad durante el próximo siglo. [11] [12] En una entrevista de marzo de 2015 realizada por el director ejecutivo de Baidu , Robin Li , Gates dijo que "recomendaría encarecidamente" Superinteligencia . [13] Según The New Yorker , los filósofos Peter Singer y Derek Parfit lo han "recibido como una obra de importancia". [4] Sam Altman escribió en 2015 que el libro es lo mejor que ha leído sobre los riesgos de la IA. [14]

El editor científico del Financial Times encontró que los escritos de Bostrom "a veces viran hacia un lenguaje opaco que delata su formación como profesor de filosofía", pero demuestran convincentemente que el riesgo de la superinteligencia es lo suficientemente grande como para que la sociedad comience a pensar ahora en formas de dotar a la inteligencia artificial futura de valores positivos. [15] Una reseña en The Guardian señaló que "incluso las máquinas más sofisticadas creadas hasta ahora son inteligentes solo en un sentido limitado" y que "las expectativas de que la IA pronto superaría a la inteligencia humana se desvanecieron por primera vez en la década de 1960", pero la reseña encuentra puntos en común con Bostrom al aconsejar que "uno sería desaconsejable descartar la posibilidad por completo". [3]

Algunos de los colegas de Bostrom sugieren que la guerra nuclear presenta una amenaza mayor para la humanidad que la superinteligencia, al igual que la perspectiva futura de la militarización de la nanotecnología y la biotecnología . [3] The Economist afirmó que "Bostrom se ve obligado a pasar gran parte del libro discutiendo especulaciones basadas en conjeturas plausibles... pero el libro es, no obstante, valioso. Las implicaciones de introducir una segunda especie inteligente en la Tierra son de alcance suficiente como para merecer una reflexión profunda, incluso si la perspectiva de hacerlo realmente parece remota". [2] Ronald Bailey escribió en la libertaria Reason que Bostrom presenta un argumento sólido de que resolver el problema del control de la IA es la "tarea esencial de nuestra era". [16] Según Tom Chivers de The Daily Telegraph , el libro es difícil de leer, pero no obstante gratificante. [6] Un crítico del Journal of Experimental & Theoretical Artificial Intelligence rompió con otros al afirmar que el "estilo de escritura del libro es claro" y elogió el libro por evitar la "jerga excesivamente técnica". [17] Un crítico de Philosophy consideró que Superintelligence era "más realista" que The Singularity Is Near de Ray Kurzweil . [18]

Véase también

Referencias

  1. ^ "El sueco superinteligente se hace con el dinero de la OUP". The Bookseller . 21 de noviembre de 2013.
  2. ^ ab "Clever cogs". The Economist . 9 de agosto de 2014 . Consultado el 9 de agosto de 2014 .
  3. ^ abc Henderson, Caspar (17 de julio de 2014). «Superinteligencia de Nick Bostrom y Un duro viaje hacia el futuro de James Lovelock – reseña». The Guardian . Consultado el 30 de julio de 2014 .
  4. ^ abc Khatchadourian, Raffi (2015). "La invención del fin del mundo". The New Yorker . Consultado el 29 de marzo de 2020 .
  5. ^ ab Adams, Tim (12 de junio de 2016). «Nick Bostrom: 'Somos como niños pequeños jugando con una bomba'». The Observer . Consultado el 29 de marzo de 2020 .
  6. ^ ab Chivers, Tom (10 de agosto de 2014). «Superinteligencia de Nick Bostrom, reseña: 'una lectura difícil'». The Telegraph . Consultado el 16 de agosto de 2014 .
  7. ^ "Los libros científicos más vendidos". The New York Times . 8 de septiembre de 2014 . Consultado el 9 de noviembre de 2014 .
  8. ^ Dean, James (5 de agosto de 2014). «La inteligencia artificial «puede acabar con la raza humana»». The Times . Consultado el 5 de agosto de 2014 .
  9. ^ Augenbraun, Eliene (4 de agosto de 2014). "Elon Musk tuitea que la inteligencia artificial puede ser "más peligrosa que las armas nucleares"". CBC News . Consultado el 5 de agosto de 2014 .
  10. ^ Bratton, Benjamin H. (23 de febrero de 2015). "Outing AI: Beyond the Turing Test". The New York Times . Consultado el 4 de marzo de 2015 .
  11. ^ Mack, Eric (28 de enero de 2015). «Bill Gates dice que deberías preocuparte por la inteligencia artificial». Forbes . Consultado el 19 de febrero de 2015 .
  12. ^ Lumby, Andrew (28 de enero de 2015). "Bill Gates está preocupado por el auge de las máquinas". The Fiscal Times . Consultado el 19 de febrero de 2015 .
  13. ^ Kaiser Kuo (31 de marzo de 2015). «El director ejecutivo de Baidu, Robin Li, entrevista a Bill Gates y Elon Musk en el Foro de Boao, 29 de marzo de 2015». YouTube . Consultado el 8 de abril de 2015 .
  14. ^ Black, Melia Russell, Julia. "Jugó al ajedrez con Peter Thiel, se entrenó con Elon Musk y, una vez, supuestamente, detuvo un accidente aéreo: dentro del mundo de Sam Altman, donde la verdad es más extraña que la ficción". Business Insider . Consultado el 15 de agosto de 2023 .{{cite web}}: CS1 maint: varios nombres: lista de autores ( enlace )
  15. ^ Cookson, Clive (13 de julio de 2014). «Superinteligencia: caminos, peligros, estrategias, por Nick Bostrom» . The Financial Times. Archivado desde el original el 6 de agosto de 2014 . Consultado el 30 de julio de 2014 .
  16. ^ Bailey, Ronald (12 de septiembre de 2014). "¿Las máquinas superinteligentes destruirán a la humanidad?". Reason . Consultado el 16 de septiembre de 2014 .
  17. ^ Thomas, Joel (julio de 2015). "En defensa de la filosofía: una reseña de Nick Bostrom". Revista de Inteligencia Artificial Experimental y Teórica . 28 (6): 1089–1094. doi : 10.1080/0952813X.2015.1055829 .
  18. ^ Richmond, Sheldon (8 de julio de 2015). "Superinteligencia: caminos, peligros, estrategias". Philosophy . 91 (1): 125–130. doi :10.1017/S0031819115000340. S2CID  171005535.