Una superinteligencia es un agente hipotético que posee una inteligencia que supera a la de las mentes humanas más brillantes y dotadas . El término "superinteligencia" también puede referirse a una propiedad de los sistemas de resolución de problemas (por ejemplo, traductores de idiomas o asistentes de ingeniería superinteligentes), independientemente de que estas competencias intelectuales de alto nivel estén incorporadas o no en agentes que actúan en el mundo. Una superinteligencia puede o no ser creada por una explosión de inteligencia y estar asociada a una singularidad tecnológica .
El filósofo de la Universidad de Oxford Nick Bostrom define la superinteligencia como "cualquier intelecto que supere ampliamente el desempeño cognitivo de los humanos en prácticamente todos los dominios de interés". [1] El programa Fritz no alcanza esta concepción de superinteligencia (aunque es mucho mejor que los humanos en ajedrez) porque Fritz no puede superar a los humanos en otras tareas. [2]
Los investigadores tecnológicos no están de acuerdo sobre la probabilidad de que la inteligencia humana actual sea superada. Algunos sostienen que los avances en inteligencia artificial (IA) probablemente resulten en sistemas de razonamiento general que carezcan de limitaciones cognitivas humanas. Otros creen que los humanos evolucionarán o modificarán directamente su biología para lograr una inteligencia radicalmente mayor. [3] [4] Varios escenarios de estudio futuros combinan elementos de ambas posibilidades, lo que sugiere que es probable que los humanos interactúen con las computadoras , o carguen sus mentes en las computadoras , de una manera que permita una amplificación sustancial de la inteligencia.
Algunos investigadores creen que la superinteligencia probablemente llegará poco después del desarrollo de la inteligencia artificial general . Las primeras máquinas con inteligencia general probablemente tendrán inmediatamente una enorme ventaja en al menos algunas formas de capacidad mental, incluyendo la capacidad de recordar perfectamente , una base de conocimiento muy superior y la capacidad de realizar múltiples tareas de maneras que no son posibles para las entidades biológicas. Esto puede permitirles —ya sea como un solo ser o como una nueva especie— volverse mucho más poderosas que los humanos y desplazarlos. [1]
Varios científicos y pronosticadores han estado argumentando que se debe priorizar la investigación temprana sobre los posibles beneficios y riesgos de la mejora cognitiva humana y de las máquinas , debido al potencial impacto social de dichas tecnologías. [5]
La viabilidad de la superinteligencia artificial ( ASI ) ha sido un tema de creciente discusión en los últimos años, particularmente con los rápidos avances en las tecnologías de inteligencia artificial (IA).
Los recientes avances en IA, en particular en los modelos de lenguaje grandes (LLM) basados en la arquitectura de transformadores , han llevado a mejoras significativas en diversas tareas. Modelos como GPT-3 , GPT-4 , Claude 3.5 y otros han demostrado capacidades que, según algunos investigadores, se acercan o incluso exhiben aspectos de la inteligencia artificial general (AGI). [6]
Sin embargo, la afirmación de que los LLM actuales constituyen una IAG es controvertida. Los críticos sostienen que estos modelos, aunque impresionantes, aún carecen de una verdadera comprensión y son principalmente sistemas sofisticados de comparación de patrones. [7]
El filósofo David Chalmers sostiene que la inteligencia artificial general es un camino probable hacia la inteligencia artificial general. Sostiene que la IA puede alcanzar una equivalencia con la inteligencia humana, extenderse hasta superarla y luego amplificarse para dominar a los humanos en tareas arbitrarias. [8]
Investigaciones más recientes han explorado varias vías potenciales hacia la superinteligencia:
Los sistemas artificiales tienen varias ventajas potenciales sobre la inteligencia biológica:
Los recientes avances en los modelos basados en transformadores han llevado a algunos investigadores a especular que el camino hacia la ASI podría estar en la ampliación y mejora de estas arquitecturas. Esta visión sugiere que las mejoras continuas en los modelos de transformadores o arquitecturas similares podrían conducir directamente a la ASI. [13]
Algunos expertos incluso sostienen que los grandes modelos de lenguaje actuales como GPT-4 ya pueden mostrar signos tempranos de capacidades de AGI o ASI. [14] Esta perspectiva sugiere que la transición de la IA actual a la ASI podría ser más continua y rápida de lo que se pensaba anteriormente, difuminando las líneas entre la IA estrecha, la AGI y la ASI.
Sin embargo, esta visión sigue siendo controvertida. Los críticos sostienen que los modelos actuales, si bien son impresionantes, aún carecen de aspectos cruciales de la inteligencia general, como la verdadera comprensión, el razonamiento y la adaptabilidad en diversos dominios. [15]
El debate sobre si el camino hacia la ASI implicará una fase de AGI distinta o un escalamiento más directo de las tecnologías actuales sigue vigente, con implicancias significativas para las estrategias de desarrollo de IA y consideraciones de seguridad.
A pesar de estas ventajas potenciales, existen desafíos e incertidumbres importantes para lograr la ASI:
A medida que la investigación en IA continúa avanzando rápidamente, la cuestión de la viabilidad de la ASI sigue siendo un tema de intenso debate y estudio en la comunidad científica.
Carl Sagan sugirió que la aparición de las cesáreas y la fertilización in vitro puede permitir que los humanos desarrollen cabezas más grandes, lo que resultaría en mejoras a través de la selección natural en el componente hereditario de la inteligencia humana . [17] Por el contrario, Gerald Crabtree ha sostenido que la disminución de la presión selectiva está dando como resultado una reducción lenta y secular de la inteligencia humana y que, en cambio, es probable que este proceso continúe. No hay consenso científico sobre ninguna de las dos posibilidades y, en ambos casos, el cambio biológico sería lento, especialmente en relación con las tasas de cambio cultural.
La crianza selectiva , los nootrópicos , la modulación epigenética y la ingeniería genética podrían mejorar la inteligencia humana más rápidamente. Bostrom escribe que si llegamos a comprender el componente genético de la inteligencia, el diagnóstico genético preimplantacional podría utilizarse para seleccionar embriones con hasta 4 puntos de ganancia de CI (si se selecciona un embrión de dos), o con ganancias mayores (por ejemplo, hasta 24,3 puntos de CI ganados si se selecciona un embrión de 1000). Si este proceso se repite a lo largo de muchas generaciones, las ganancias podrían ser de un orden de magnitud de mejora. Bostrom sugiere que la derivación de nuevos gametos a partir de células madre embrionarias podría utilizarse para iterar el proceso de selección rápidamente. [18] Una sociedad bien organizada de humanos de alta inteligencia de este tipo podría potencialmente lograr una superinteligencia colectiva . [19]
Otra posibilidad es que la inteligencia colectiva sea constructiva si se organiza mejor a los seres humanos en los niveles actuales de inteligencia individual. Varios autores han sugerido que la civilización humana, o algún aspecto de ella (por ejemplo, Internet o la economía), está empezando a funcionar como un cerebro global con capacidades que superan con creces a los agentes que la componen. Sin embargo, si esta superinteligencia sistémica depende en gran medida de componentes artificiales, puede ser considerada una IA en lugar de un superorganismo basado en la biología . [20] A veces se considera a un mercado de predicciones como un ejemplo de un sistema de inteligencia colectiva funcional, compuesto únicamente por seres humanos (suponiendo que no se utilicen algoritmos para fundamentar las decisiones). [21]
Un último método para amplificar la inteligencia sería mejorar directamente a los individuos, en lugar de mejorar su dinámica social o reproductiva. Esto podría lograrse utilizando nootrópicos , terapia génica somática o interfaces cerebro-computadora . Sin embargo, Bostrom expresa escepticismo sobre la escalabilidad de los dos primeros enfoques y sostiene que diseñar una interfaz cíborg superinteligente es un problema que abarca toda la IA . [22]
La mayoría de los investigadores de IA encuestados esperan que las máquinas puedan rivalizar con los humanos en inteligencia, aunque hay poco consenso sobre cuándo ocurrirá esto. En la conferencia AI@50 de 2006 , el 18% de los asistentes afirmó que esperaba que las máquinas pudieran "simular el aprendizaje y todos los demás aspectos de la inteligencia humana" para 2056; el 41% de los asistentes esperaba que esto sucediera en algún momento después de 2056; y el 41% esperaba que las máquinas nunca alcanzaran ese hito. [23]
En una encuesta realizada a los 100 autores más citados en el campo de la IA (en mayo de 2013, según la búsqueda académica de Microsoft), el año medio en el que los encuestados esperaban que hubiera máquinas "que pudieran llevar a cabo la mayoría de las profesiones humanas al menos tan bien como un ser humano típico" (suponiendo que no se produjera ninguna catástrofe global ) con un 10% de confianza es 2024 (media 2034, desviación estándar 33 años), con un 50% de confianza es 2050 (media 2072, desviación estándar 110 años) y con un 90% de confianza es 2070 (media 2168, desviación estándar 342 años). Estas estimaciones excluyen al 1,2% de los encuestados que dijeron que ningún año alcanzaría jamás el 10% de confianza, al 4,1% que dijo "nunca" para un 50% de confianza y al 16,5% que dijo "nunca" para un 90% de confianza. Los encuestados asignaron una probabilidad media del 50% a la posibilidad de que se invente una superinteligencia artificial dentro de los 30 años siguientes a la invención de una inteligencia artificial de nivel aproximadamente humano. [24]
En una encuesta de 2022, el año medio en el que los encuestados esperaban "inteligencia artificial de alto nivel" con un 50 % de confianza fue 2061. La encuesta definió el logro de la inteligencia artificial de alto nivel como el momento en que las máquinas sin ayuda pueden realizar cada tarea mejor y de manera más económica que los trabajadores humanos. [25]
En 2023, los líderes de OpenAI , Sam Altman , Greg Brockman e Ilya Sutskever, publicaron recomendaciones para la gobernanza de la superinteligencia, que creen que puede suceder en menos de 10 años. [26] En 2024, Ilya Sutskever dejó OpenAI para cofundar la startup Safe Superintelligence , que se centra únicamente en crear una superinteligencia que sea segura por diseño, evitando al mismo tiempo "las distracciones por los gastos generales de gestión o los ciclos de productos". [27]
El diseño de sistemas de IA superinteligentes plantea cuestiones críticas sobre qué valores y objetivos deberían tener estos sistemas. Se han presentado varias propuestas: [28]
Bostrom profundiza en estos conceptos:
En lugar de implementar la voluntad extrapolada coherente de la humanidad, se podría intentar construir una IA que haga lo que es moralmente correcto, confiando en las capacidades cognitivas superiores de la IA para determinar qué acciones encajan en esa descripción. Podemos llamar a esta propuesta "rectitud moral" (RM) ...
La teoría de la razón también parece tener algunas desventajas. Se basa en la noción de "moralmente correcto", un concepto notoriamente difícil, con el que los filósofos han lidiado desde la antigüedad sin llegar a un consenso sobre su análisis. Elegir una explicación errónea de la "moral correcta" podría dar lugar a resultados que serían moralmente muy incorrectos ...
Se podría intentar preservar la idea básica del modelo MR mientras se reduce su exigencia centrándose en la permisibilidad moral : la idea es que podríamos dejar que la IA persiga la CEV de la humanidad siempre y cuando no actúe de maneras moralmente inadmisibles. [28]
Desde el análisis de Bostrom, han surgido nuevos enfoques para la alineación de valores de la IA:
El rápido avance de los LLM basados en transformadores ha dado lugar a especulaciones sobre su posible camino hacia la ASI. Algunos investigadores sostienen que las versiones ampliadas de estos modelos podrían presentar capacidades similares a las de la ASI: [32]
Sin embargo, los críticos argumentan que los LLM actuales carecen de una verdadera comprensión y son simplemente sofisticados comparadores de patrones, lo que plantea interrogantes sobre su idoneidad como camino hacia la ASI. [36]
Otros puntos de vista sobre el desarrollo y las implicaciones de la superinteligencia incluyen:
La búsqueda de una IA alineada con el valor enfrenta varios desafíos:
Las direcciones de investigación actuales incluyen enfoques de múltiples partes interesadas para incorporar perspectivas diversas, desarrollar métodos para la supervisión escalable de los sistemas de IA y mejorar las técnicas para un aprendizaje de valor sólido. [40] [16]
La investigación avanza rápidamente hacia la superinteligencia, y abordar estos desafíos de diseño sigue siendo crucial para crear sistemas ASI que sean potentes y estén alineados con los intereses humanos.
El desarrollo de la superinteligencia artificial (IAA) ha suscitado inquietudes sobre los posibles riesgos existenciales para la humanidad. Los investigadores han propuesto varios escenarios en los que una IAA podría suponer una amenaza importante:
Algunos investigadores sostienen que, mediante la autosuperación recursiva, una inteligencia artificial podría llegar a ser tan poderosa que quedaría fuera del control humano. Este concepto, conocido como "explosión de inteligencia", fue propuesto por primera vez por IJ Good en 1965:
Definamos una máquina ultrainteligente como aquella que puede superar con creces todas las actividades intelectuales de cualquier hombre, por muy inteligente que sea. Puesto que el diseño de máquinas es una de esas actividades intelectuales, una máquina ultrainteligente podría diseñar máquinas aún mejores; entonces se produciría sin duda una «explosión de inteligencia» y la inteligencia del hombre quedaría muy por detrás. Así pues, la primera máquina ultrainteligente es el último invento que el hombre necesita hacer, siempre que la máquina sea lo bastante dócil como para decirnos cómo mantenerla bajo control. [41]
Este escenario presenta el problema del control de la IA: cómo crear una ASI que beneficie a la humanidad y al mismo tiempo evite consecuencias perjudiciales no deseadas. [42] Eliezer Yudkowsky sostiene que resolver este problema es crucial antes de desarrollar una ASI, ya que un sistema superinteligente podría ser capaz de frustrar cualquier intento posterior de control. [43]
Incluso con buenas intenciones, una ASI podría causar daños debido a metas desalineadas o interpretaciones inesperadas de sus objetivos. Nick Bostrom ofrece un claro ejemplo de este riesgo:
Cuando creamos la primera entidad superinteligente, podríamos cometer un error y asignarle objetivos que la lleven a aniquilar a la humanidad, suponiendo que su enorme ventaja intelectual le da el poder para hacerlo. Por ejemplo, podríamos equivocarnos al elevar un subobjetivo a la categoría de superobjetivo. Le pedimos que resuelva un problema matemático y lo hará convirtiendo toda la materia del sistema solar en un gigantesco dispositivo de cálculo, matando en el proceso a la persona que formuló la pregunta. [44]
Stuart Russell ofrece otro escenario ilustrativo:
A un sistema cuyo objetivo sea maximizar la felicidad humana le podría resultar más fácil reprogramar la neurología humana para que los seres humanos sean siempre felices independientemente de sus circunstancias, en lugar de mejorar el mundo externo. [45]
Estos ejemplos resaltan el potencial de resultados catastróficos incluso cuando una ASI no está diseñada explícitamente para ser dañina, lo que subraya la importancia crítica de la especificación y alineación precisas de los objetivos.
Los investigadores han propuesto diversos enfoques para mitigar los riesgos asociados con la IRA:
A pesar de estas estrategias propuestas, algunos expertos, como Roman Yampolskiy, sostienen que el desafío de controlar una IA superinteligente podría ser fundamentalmente irresoluble, enfatizando la necesidad de extremar la precaución en el desarrollo de IIA. [50]
No todos los investigadores están de acuerdo sobre la probabilidad o la gravedad de los riesgos existenciales relacionados con la IA. Algunos, como Rodney Brooks , sostienen que los temores a una IA superinteligente son exagerados y se basan en suposiciones poco realistas sobre la naturaleza de la inteligencia y el progreso tecnológico. [51] Otros, como Joanna Bryson , sostienen que la antropomorfización de los sistemas de IA conduce a preocupaciones equivocadas sobre sus amenazas potenciales. [52]
El rápido avance de los LLM y otras tecnologías de IA ha intensificado los debates sobre la proximidad y los riesgos potenciales de la IA. Si bien no hay un consenso científico, algunos investigadores y profesionales de la IA sostienen que los sistemas de IA actuales pueden estar acercándose ya a las capacidades de la IA general o incluso de la IA general.
Una minoría de investigadores y observadores, incluidos algunos de la comunidad de desarrollo de IA, creen que los sistemas de IA actuales pueden estar ya en niveles de IA general o cerca de ellos, y que la IA general podría seguirles en un futuro cercano. Esta opinión, si bien no es ampliamente aceptada en la comunidad científica, se basa en observaciones de rápidos avances en las capacidades de IA y comportamientos emergentes inesperados en modelos grandes. [55]
Sin embargo, muchos expertos advierten contra las afirmaciones prematuras sobre la existencia de una IAG o una ISA, argumentando que los sistemas de IA actuales, a pesar de sus impresionantes capacidades, aún carecen de una verdadera comprensión e inteligencia general. [56] Destacan los importantes desafíos que quedan por delante para alcanzar una inteligencia de nivel humano, y mucho menos una superinteligencia.
El debate en torno al estado actual y la trayectoria del desarrollo de la IA subraya la importancia de seguir investigando sobre la seguridad y la ética de la IA, así como la necesidad de contar con marcos de gobernanza sólidos para gestionar los riesgos potenciales a medida que las capacidades de la IA continúan avanzando. [49]
{{cite journal}}
: CS1 maint: DOI inactivo a partir de noviembre de 2024 ( enlace ){{cite book}}
: Mantenimiento de CS1: falta la ubicación del editor ( enlace ){{cite book}}
: Mantenimiento de CS1: falta la ubicación del editor ( enlace ){{cite book}}
: Mantenimiento de CS1: falta la ubicación del editor ( enlace )