Superinteligencia: caminos, peligros, estrategias es un libro de 2014 del filósofo Nick Bostrom . Explora cómose podría crear la superinteligencia y cuáles podrían ser sus características y motivaciones. [2] Argumenta que la superinteligencia, si se creara, sería difícil de controlar y que podría apoderarse del mundo para lograr sus objetivos. El libro también presenta estrategias para ayudar a crear superinteligencias cuyos objetivos beneficien a la humanidad. [3] Fue particularmente influyente para plantear preocupaciones sobre el riesgo existencial de la inteligencia artificial . [4]
No se sabe si la inteligencia artificial de nivel humano llegará en cuestión de años, a finales de este siglo, o no hasta siglos futuros. Independientemente de la escala de tiempo inicial, una vez que se desarrolle una inteligencia artificial de nivel humano, lo más probable es que aparezca con una rapidez sorprendente un sistema "superinteligente" que "supere ampliamente el rendimiento cognitivo de los humanos en prácticamente todos los dominios de interés". Sería muy difícil controlar una superinteligencia de ese tipo.
Aunque los objetivos finales de las superinteligencias pueden variar enormemente, una superinteligencia funcional generará espontáneamente, como subobjetivos naturales, " objetivos instrumentales " como la autoconservación y la integridad del contenido de los objetivos, la mejora cognitiva y la adquisición de recursos. Por ejemplo, un agente cuyo único objetivo final sea resolver la hipótesis de Riemann (una famosa conjetura matemática sin resolver ) podría crear y actuar sobre un subobjetivo de transformar toda la Tierra en alguna forma de computronio (material hipotético optimizado para la computación) para ayudar en el cálculo. La superinteligencia resistiría proactivamente cualquier intento externo de apagar la superinteligencia o impedir de otro modo la finalización de su subobjetivo. Para evitar una catástrofe existencial de este tipo , es necesario resolver con éxito el " problema de control de la IA " para la primera superinteligencia. La solución podría implicar inculcar a la superinteligencia objetivos que sean compatibles con la supervivencia y el bienestar humanos. Resolver el problema de control es sorprendentemente difícil porque la mayoría de los objetivos, cuando se traducen en código implementable por máquina, conducen a consecuencias imprevistas e indeseables.
El búho de la portada del libro alude a una analogía que Bostrom llama la «fábula inacabada de los gorriones». [5] Un grupo de gorriones decide encontrar un polluelo de búho y criarlo como su sirviente. [6] Imaginan con entusiasmo «lo fácil que sería la vida» si tuvieran un búho que les ayudara a construir sus nidos, a defender a los gorriones y a liberarlos para una vida de ocio. Los gorriones emprenden la difícil búsqueda de un huevo de búho; sólo «Scronkfinkle», un «gorrión tuerto de temperamento inquieto», sugiere pensar en la complicada cuestión de cómo domesticar al búho antes de traerlo «a nuestro medio». Los demás gorriones se muestran reticentes; la búsqueda de un huevo de búho ya será bastante difícil por sí sola: «¿Por qué no conseguir primero el búho y resolver los detalles más tarde?». Bostrom afirma que «no se sabe cómo termina la historia», pero dedica su libro a Scronkfinkle. [5] [4]
El libro ocupó el puesto número 17 en la lista de The New York Times de los libros de ciencia más vendidos en agosto de 2014. [7] En el mismo mes, el magnate de negocios Elon Musk fue noticia al estar de acuerdo con el libro en que la inteligencia artificial es potencialmente más peligrosa que las armas nucleares . [8] [9] [10] El trabajo de Bostrom sobre la superinteligencia también ha influido en la preocupación de Bill Gates por los riesgos existenciales que enfrenta la humanidad durante el próximo siglo. [11] [12] En una entrevista de marzo de 2015 realizada por el director ejecutivo de Baidu , Robin Li , Gates dijo que "recomendaría encarecidamente" Superinteligencia . [13] Según The New Yorker , los filósofos Peter Singer y Derek Parfit lo han "recibido como una obra de importancia". [4] Sam Altman escribió en 2015 que el libro es lo mejor que ha leído sobre los riesgos de la IA. [14]
El editor científico del Financial Times encontró que los escritos de Bostrom "a veces viran hacia un lenguaje opaco que delata su formación como profesor de filosofía", pero demuestran convincentemente que el riesgo de la superinteligencia es lo suficientemente grande como para que la sociedad comience a pensar ahora en formas de dotar a la inteligencia artificial futura de valores positivos. [15] Una reseña en The Guardian señaló que "incluso las máquinas más sofisticadas creadas hasta ahora son inteligentes solo en un sentido limitado" y que "las expectativas de que la IA pronto superaría a la inteligencia humana se desvanecieron por primera vez en la década de 1960", pero la reseña encuentra puntos en común con Bostrom al aconsejar que "uno sería desaconsejable descartar la posibilidad por completo". [3]
Algunos de los colegas de Bostrom sugieren que la guerra nuclear presenta una amenaza mayor para la humanidad que la superinteligencia, al igual que la perspectiva futura de la militarización de la nanotecnología y la biotecnología . [3] The Economist afirmó que "Bostrom se ve obligado a pasar gran parte del libro discutiendo especulaciones basadas en conjeturas plausibles... pero el libro es, no obstante, valioso. Las implicaciones de introducir una segunda especie inteligente en la Tierra son de alcance suficiente como para merecer una reflexión profunda, incluso si la perspectiva de hacerlo realmente parece remota". [2] Ronald Bailey escribió en la libertaria Reason que Bostrom presenta un argumento sólido de que resolver el problema del control de la IA es la "tarea esencial de nuestra era". [16] Según Tom Chivers de The Daily Telegraph , el libro es difícil de leer, pero no obstante gratificante. [6] Un crítico del Journal of Experimental & Theoretical Artificial Intelligence rompió con otros al afirmar que el "estilo de escritura del libro es claro" y elogió el libro por evitar la "jerga excesivamente técnica". [17] Un crítico de Philosophy consideró que Superintelligence era "más realista" que The Singularity Is Near de Ray Kurzweil . [18]
{{cite web}}
: CS1 maint: varios nombres: lista de autores ( enlace )