El singularitarismo es un movimiento definido por la creencia de que una singularidad tecnológica —la creación de una superinteligencia— probablemente ocurrirá en el futuro medio, y que se deben tomar medidas deliberadas para garantizar que la singularidad beneficie a los humanos . [1]
Los singularitaristas se distinguen de otros futuristas que especulan sobre una singularidad tecnológica por su creencia de que la singularidad no sólo es posible, sino deseable si se la guía con prudencia. Por consiguiente, a veces pueden dedicar su vida a actuar de maneras que creen que contribuirán a su rápida y segura realización. [2]
La revista Time describe la visión del mundo de los Singularitaristas diciendo que "aunque suene a ciencia ficción, no lo es, como tampoco lo es un pronóstico del tiempo. No es una idea marginal; es una hipótesis seria sobre el futuro de la vida en la Tierra. Existe un reflejo nauseoso intelectual que se activa cada vez que intentas tragarte una idea que involucra a cíborgs inmortales superinteligentes, pero... aunque la Singularidad parece, a primera vista, absurda, es una idea que recompensa una evaluación sobria y cuidadosa". [1]
El término "singularitario" fue definido originalmente por el pensador extropiano Mark Plus (Mark Potts) en 1991 como "alguien que cree en el concepto de una singularidad". [ cita requerida ] Este término ha sido redefinido desde entonces para significar "activista de la singularidad" o "amigo de la singularidad"; es decir, alguien que actúa de manera tal de generar la singularidad. [3]
El singularitarismo también puede considerarse como una orientación o una perspectiva que prefiere la mejora de la inteligencia humana como un objetivo transhumanista específico en lugar de centrarse en tecnologías específicas como la IA [4]. También hay definiciones que identifican a un singularitarista como un activista o un amigo del concepto de singularidad, es decir, alguien que actúa para generar una singularidad. [5] Algunas fuentes lo describen como una filosofía moral que aboga por la acción deliberada para generar y dirigir el desarrollo de una superinteligencia que conducirá a un punto futuro teórico que emerge durante una época de cambio acelerado. [6]
El inventor y futurista Ray Kurzweil , autor del libro de 2005 The Singularity Is Near: When Humans Transcend Biology , define a un Singularitarista como alguien "que entiende la Singularidad y que ha reflexionado sobre sus implicaciones para su propia vida" [2] y estima que la singularidad ocurrirá alrededor de 2045. [ 2]
Una temprana articulación singularista de que la historia está avanzando hacia un punto de inteligencia sobrehumana se encuentra en la obra de Hegel , La fenomenología del espíritu . [7] En 1993, el matemático , científico informático y autor de ciencia ficción Vernor Vinge planteó la hipótesis de que podría llegar el momento en que la tecnología permita "la creación de entidades con una inteligencia mayor que la humana" [8] y utilizó el término "la Singularidad" para describir este momento. [9] Sugirió que la singularidad puede representar un riesgo existencial para la humanidad, y que podría suceder a través de uno de cuatro medios:
El singularitarismo se fusionó en una ideología coherente en 2000, cuando el investigador de inteligencia artificial (IA) Eliezer Yudkowsky escribió The Singularitarian Principles [ 2] [11], en el que afirmó que un singularitarista cree que la singularidad es un evento secular, no místico, que es posible y beneficioso para el mundo y que sus seguidores trabajan para lograrlo. [11] La conceptualización de Yudkowsky de la singularidad ofreció una definición amplia desarrollada para incluir varias interpretaciones. [4] Hay teóricos como Michael Anissimov que abogaron por una definición estricta, que se refiera únicamente a la defensa del desarrollo de la inteligencia posthumana (mayor que la humana). [4]
En junio de 2000, Yudkowsky, con el apoyo de los empresarios de Internet Brian Atkins y Sabine Atkins, fundó el Machine Intelligence Research Institute para trabajar en la creación de una IA amigable que se automejorara. Los escritos de MIRI defienden la idea de que una IA con la capacidad de mejorar su propio diseño ( IA semilla ) conduciría rápidamente a la superinteligencia . Estos singularitaristas creen que alcanzar la singularidad de forma rápida y segura es la mejor manera posible de minimizar el riesgo existencial neto .
Mucha gente cree que es posible una singularidad tecnológica sin adoptar el Singularitarianismo como filosofía moral. Aunque las cifras exactas son difíciles de cuantificar, el Singularitarianismo es un movimiento pequeño, que incluye al filósofo transhumanista Nick Bostrom . El inventor y futurista Ray Kurzweil , que predice que la Singularidad ocurrirá alrededor de 2045 , contribuyó en gran medida a popularizar el Singularitarianismo con su libro de 2005 The Singularity Is Near: When Humans Transcend Biology . [2]
¿Qué es, entonces, la Singularidad? Es un período futuro durante el cual el ritmo del cambio tecnológico será tan rápido y su impacto tan profundo que la vida humana se transformará irreversiblemente. Aunque no es ni utópica ni distópica, esta época transformará los conceptos en los que nos apoyamos para dar sentido a nuestras vidas, desde nuestros modelos de negocio hasta el ciclo de la vida humana, incluida la muerte misma. Comprender la Singularidad alterará nuestra perspectiva sobre el significado de nuestro pasado y las ramificaciones para nuestro futuro. Comprenderla verdaderamente cambia inherentemente la visión que uno tiene de la vida en general y de la vida en particular. Considero que alguien que comprende la Singularidad y que ha reflexionado sobre sus implicaciones para su propia vida es un "singularitarista". [2]
Con el apoyo de la NASA , Google y una amplia gama de pronosticadores tecnológicos y tecnocapitalistas , la Singularity University abrió sus puertas en junio de 2009 en el Parque de Investigación de la NASA en Silicon Valley con el objetivo de preparar a la próxima generación de líderes para abordar los desafíos del cambio acelerado .
En julio de 2009, muchos Singularitaristas destacados participaron en una conferencia organizada por la Asociación para el Avance de la Inteligencia Artificial (AAAI) para discutir el impacto potencial de los robots y las computadoras y el impacto de la posibilidad hipotética de que pudieran volverse autosuficientes y capaces de tomar sus propias decisiones. Discutieron la posibilidad y el grado en que las computadoras y los robots podrían adquirir algún nivel de autonomía, y hasta qué punto podrían usar tales habilidades para posiblemente plantear cualquier amenaza o peligro (es decir, una revuelta cibernética ). Observaron que algunas máquinas han adquirido varias formas de semiautonomía, incluida la capacidad de encontrar fuentes de energía por sí mismas y poder elegir independientemente objetivos para atacar con armas. Advirtieron que algunos virus informáticos pueden evadir la eliminación y han alcanzado la "inteligencia de cucaracha". Afirmaron que la autoconciencia como se describe en la ciencia ficción es probablemente poco probable, pero que existen otros peligros y trampas potenciales. [9] Algunos expertos y académicos han cuestionado el uso de robots para el combate militar , especialmente cuando a dichos robots se les da algún grado de funciones autónomas. [12] El Presidente de la AAAI ha encargado un estudio para analizar esta cuestión. [13]
Existen varias objeciones al singularitarismo de Kurzweil, y estas incluyen incluso críticas de optimistas dentro del campo de la IA. Por ejemplo, el autor ganador del Premio Pulitzer Douglas Hofstadter sostuvo que el logro predicho por Kurzweil de una IA de nivel humano para el año 2045 no es viable. [14] Incluso Gordon Moore , el homónimo de la Ley de Moore que predijo [15] la noción de singularidad, sostuvo que nunca ocurrirá. [16] Según algunos observadores, estas críticas no disminuyen el entusiasmo por la singularidad porque ha asumido una respuesta cuasirreligiosa al miedo a la muerte, permitiendo a sus seguidores disfrutar de los beneficios de la religión sin sus cargas ontológicas. [14] El periodista científico John Horgan proporcionó más ideas sobre esta noción al comparar el singularitarismo con una religión:
Seamos realistas. La singularidad es una visión religiosa, no científica. El escritor de ciencia ficción Ken MacLeod la ha denominado "el rapto de los nerds", en alusión al fin de los tiempos, cuando Jesús se lleve a los fieles al cielo y nos deje a los pecadores atrás. Ese anhelo de trascendencia, ya sea espiritual o tecnológica, es perfectamente comprensible. Tanto como individuos como como especie, nos enfrentamos a problemas muy graves, como el terrorismo , la proliferación nuclear , la superpoblación , la pobreza , el hambre , la degradación medioambiental , el cambio climático , el agotamiento de los recursos y el sida . Los ingenieros y los científicos deberían ayudarnos a afrontar los problemas del mundo y a encontrarles soluciones, en lugar de entregarnos a fantasías escapistas y pseudocientíficas como la singularidad. [17]
Kurzweil rechazó esta categorización, afirmando que sus predicciones sobre la singularidad están impulsadas por los datos que indican que los aumentos en la tecnología computacional han sido exponenciales en el pasado. [18] Afirmó que los críticos que cuestionan su punto de vista adoptan erróneamente una visión lineal intuitiva del avance tecnológico en lugar de tener en cuenta ese crecimiento exponencial. [19]