stringtranslate.com

superinteligencia

Una superinteligencia es un agente hipotético que posee una inteligencia que supera con creces la de las mentes humanas más brillantes y dotadas . "Superinteligencia" también puede referirse a una propiedad de los sistemas de resolución de problemas (por ejemplo, traductores de idiomas o asistentes de ingeniería superinteligentes), independientemente de que estas competencias intelectuales de alto nivel estén incorporadas o no en agentes que actúan en el mundo. Una superinteligencia puede o no ser creada por una explosión de inteligencia y asociada a una singularidad tecnológica .

El filósofo de la Universidad de Oxford, Nick Bostrom, define la superinteligencia como "cualquier intelecto que supera con creces el rendimiento cognitivo de los humanos en prácticamente todos los ámbitos de interés". [1] El programa Fritz no alcanza esta concepción de superinteligencia, aunque es mucho mejor que los humanos en el ajedrez, porque Fritz no puede superar a los humanos en otras tareas. [2] Siguiendo a Hutter y Legg , Bostrom trata la superinteligencia como un dominio general en el comportamiento orientado a objetivos, dejando abierto si una superinteligencia artificial o humana poseería capacidades como la intencionalidad (cf. el argumento de la habitación china ) o la conciencia de primera persona ( cf. El difícil problema de la conciencia ).

Los investigadores tecnológicos no están de acuerdo sobre las posibilidades de superar la inteligencia humana actual . Algunos sostienen que los avances en inteligencia artificial (IA) probablemente darán como resultado sistemas de razonamiento general que carezcan de las limitaciones cognitivas humanas. Otros creen que los humanos evolucionarán o modificarán directamente su biología para alcanzar una inteligencia radicalmente mayor. [3] [4] Varios escenarios de estudios de futuros combinan elementos de ambas posibilidades, lo que sugiere que es probable que los humanos interactúen con las computadoras , o carguen sus mentes en las computadoras , de una manera que permita una amplificación sustancial de la inteligencia.

Algunos investigadores creen que la superinteligencia probablemente surgirá poco después del desarrollo de la inteligencia artificial general . Es probable que las primeras máquinas generalmente inteligentes tengan inmediatamente una enorme ventaja en al menos algunas formas de capacidad mental, incluida la capacidad de recordar perfectamente , una base de conocimientos muy superior y la capacidad de realizar múltiples tareas en formas que no son posibles para las entidades biológicas. Esto puede darles la oportunidad de volverse mucho más poderosos que los humanos, ya sea como un solo ser o como una nueva especie , y desplazarlos. [1]

Varios científicos y pronosticadores abogan por priorizar la investigación temprana sobre los posibles beneficios y riesgos de la mejora cognitiva humana y mecánica , debido al posible impacto social de tales tecnologías. [5]

Viabilidad de la superinteligencia artificial

Progresos en la clasificación automática de imágenes.
La tasa de error de la IA por año; la línea roja representa la tasa de error de un humano capacitado.

El filósofo David Chalmers sostiene que la inteligencia artificial general es un camino muy probable hacia la inteligencia sobrehumana. Chalmers descompone esta afirmación en el argumento de que la IA puede alcanzar una equivalencia con la inteligencia humana, que puede ampliarse para superar la inteligencia humana y que puede ampliarse aún más para dominar completamente a los humanos en tareas arbitrarias. [6]

En cuanto a la equivalencia a nivel humano, Chalmers sostiene que el cerebro humano es un sistema mecánico y, por tanto, debería ser emulado mediante materiales sintéticos. [7] También señala que la inteligencia humana pudo evolucionar biológicamente, lo que hace más probable que los ingenieros humanos puedan recapitular esta invención. Los algoritmos evolutivos en particular deberían poder producir IA a nivel humano. [8] En cuanto a la extensión y amplificación de la inteligencia, Chalmers sostiene que las nuevas tecnologías de IA generalmente se pueden mejorar, y que esto es particularmente probable cuando la invención puede ayudar a diseñar nuevas tecnologías. [9]

Un sistema de IA capaz de mejorarse a sí mismo podría mejorar su propia inteligencia, volviéndose así más eficiente a la hora de mejorarse a sí mismo. Este ciclo de "superación personal recursiva" podría provocar una explosión de inteligencia , que daría como resultado la creación de una superinteligencia. [10]

Los componentes informáticos ya superan con creces el rendimiento humano en velocidad. Bostrom escribe: "Las neuronas biológicas operan a una velocidad máxima de aproximadamente 200 Hz, siete órdenes de magnitud más lentas que un microprocesador moderno (~2 GHz)". [11] Además, las neuronas transmiten señales de pico a través de los axones a no más de 120 m/s, "mientras que los núcleos de procesamiento electrónico existentes pueden comunicarse ópticamente a la velocidad de la luz". Por lo tanto, el ejemplo más simple de superinteligencia puede ser una mente humana emulada ejecutada en un hardware mucho más rápido que el cerebro. Un razonador parecido a un humano que pudiera pensar millones de veces más rápido que los humanos actuales tendría una ventaja dominante en la mayoría de las tareas de razonamiento, particularmente aquellas que requieren prisa o largas cadenas de acciones.

Otra ventaja de las computadoras es la modularidad, es decir, se puede aumentar su tamaño o capacidad computacional. Un cerebro no humano (o humano modificado) podría llegar a ser mucho más grande que un cerebro humano actual, como muchas supercomputadoras . Bostrom también plantea la posibilidad de una superinteligencia colectiva : un número suficientemente grande de sistemas de razonamiento separados, si se comunicaran y coordinaran lo suficientemente bien, podrían actuar en conjunto con capacidades mucho mayores que cualquier subagente.

También puede haber formas de mejorar cualitativamente el razonamiento y la toma de decisiones humanos. [12] Los humanos superan a los animales no humanos en gran parte debido a capacidades de razonamiento nuevas o mejoradas, como la planificación a largo plazo y el uso del lenguaje . (Ver evolución de la inteligencia humana y la cognición de los primates .) Si hay otras posibles mejoras en el razonamiento que tendrían un impacto igualmente grande, esto hace que sea más probable que se pueda construir un agente que supere a los humanos de la misma manera que los humanos superan a los chimpancés. [13]

Las ventajas anteriores son válidas para la superinteligencia artificial, pero no está claro cuántas son válidas para la superinteligencia biológica. Las limitaciones fisiológicas limitan la velocidad y el tamaño de los cerebros biológicos de muchas maneras que son inaplicables a la inteligencia artificial. Como tal, los escritores sobre superinteligencia han dedicado mucha más atención a los escenarios de IA superinteligente. [14]

Viabilidad de la superinteligencia biológica

Carl Sagan sugirió que la llegada de las cesáreas y la fertilización in vitro puede permitir a los humanos desarrollar cabezas más grandes, lo que resulta en mejoras a través de la selección natural en el componente hereditario de la inteligencia humana . [15] Por el contrario, Gerald Crabtree ha argumentado que la disminución de la presión de selección está dando como resultado una reducción lenta, que dura siglos, de la inteligencia humana , y que es probable que este proceso continúe en el futuro. No existe consenso científico sobre ninguna de las dos posibilidades, y en ambos casos el cambio biológico sería lento, especialmente en relación con las tasas de cambio cultural.

La cría selectiva , los nootrópicos , la modulación epigenética y la ingeniería genética podrían mejorar la inteligencia humana más rápidamente. Bostrom escribe que si llegamos a comprender el componente genético de la inteligencia, el diagnóstico genético previo a la implantación podría usarse para seleccionar embriones con hasta 4 puntos de ganancia de coeficiente intelectual (si se selecciona un embrión entre dos), o con ganancias mayores. (p. ej., se ganan hasta 24,3 puntos de coeficiente intelectual si se selecciona un embrión entre 1000). Si este proceso se repite a lo largo de muchas generaciones, los beneficios podrían representar una mejora de un orden de magnitud. Bostrom sugiere que la obtención de nuevos gametos a partir de células madre embrionarias podría utilizarse para repetir rápidamente el proceso de selección. [16] Esta noción, selección iterada de embriones, ha recibido un amplio tratamiento por parte de otros autores. [17] Una sociedad bien organizada de humanos de alta inteligencia de este tipo podría potencialmente lograr una superinteligencia colectiva . [18]

Alternativamente, la inteligencia colectiva podría ser construible organizando mejor a los humanos en los niveles actuales de inteligencia individual. Varios escritores han sugerido que la civilización humana, o algún aspecto de ella (por ejemplo, Internet o la economía), está llegando a funcionar como un cerebro global con capacidades que exceden con creces a los agentes que la componen. Sin embargo, si esta superinteligencia basada en sistemas depende en gran medida de componentes artificiales, puede calificarse como una IA en lugar de un superorganismo basado en la biología . [19] Un mercado de predicción a veces se considera como un ejemplo de un sistema de inteligencia colectiva en funcionamiento, compuesto únicamente por humanos (suponiendo que no se utilicen algoritmos para informar las decisiones). [20]

Un último método de amplificación de la inteligencia sería mejorar directamente a los humanos individuales, en lugar de mejorar su dinámica social o reproductiva. Esto podría lograrse utilizando nootrópicos , terapia génica somática o interfaces cerebro-computadora . Sin embargo, Bostrom expresa escepticismo sobre la escalabilidad de los dos primeros enfoques y sostiene que diseñar una interfaz cyborg superinteligente es un problema completo de IA . [21]

Previsiones

La mayoría de los investigadores de IA encuestados esperan que las máquinas eventualmente puedan rivalizar con los humanos en inteligencia, aunque hay poco consenso sobre cuándo sucederá esto. En la conferencia AI@50 de 2006 , el 18% de los asistentes informaron que esperaban que las máquinas pudieran "simular el aprendizaje y todos los demás aspectos de la inteligencia humana" para 2056; El 41% de los asistentes esperaba que esto sucediera en algún momento después de 2056; y el 41% esperaba que las máquinas nunca alcanzaran ese hito. [22]

En una encuesta de los 100 autores más citados en IA (a mayo de 2013, según la búsqueda académica de Microsoft), el año medio en el que los encuestados esperaban máquinas "que puedan realizar la mayoría de las profesiones humanas al menos tan bien como un humano típico" ( suponiendo que no ocurra una catástrofe global ) con un 10% de confianza es 2024 (media 2034, desviación estándar 33 años), con un 50% de confianza es 2050 (media 2072, desviación estándar 110 años) y con un 90% de confianza es 2070 ( media 2168, st dev. Estas estimaciones excluyen al 1,2% de los encuestados que dijeron que ningún año alcanzaría el 10% de confianza, el 4,1% que dijo "nunca" con un 50% de confianza y el 16,5% que dijo "nunca" con un 90% de confianza. Los encuestados asignaron una probabilidad media del 50% a la posibilidad de que la superinteligencia de las máquinas se invente dentro de los 30 años siguientes a la invención de la inteligencia de las máquinas aproximadamente a nivel humano. [23]

En una encuesta de 2022, el año medio en el que los encuestados esperaban "inteligencia de máquina de alto nivel" con un 50% de confianza es 2061. La encuesta definió el logro de inteligencia de máquina de alto nivel como cuando las máquinas sin ayuda pueden realizar todas las tareas mejor y más barato que trabajadores humanos. [24]

En 2023, los líderes de OpenAI publicaron recomendaciones para la gobernanza de la superinteligencia, que creen que puede suceder en menos de 10 años. [25]

Consideraciones de diseño

Bostrom expresó su preocupación sobre los valores que debería tener una superinteligencia. Comparó varias propuestas: [26]

Bostrom aclara estos términos:

en lugar de implementar la volición coherente extrapolada de la humanidad, se podría intentar construir una IA con el objetivo de hacer lo que es moralmente correcto, confiando en las capacidades cognitivas superiores de la IA para descubrir qué acciones se ajustan a esa descripción. Podemos llamar a esta propuesta "rectitud moral" (MR)  ... La MR también parece tener algunas desventajas. Se basa en la noción de "moralmente correcto", un concepto notoriamente difícil, con el que los filósofos han luchado desde la antigüedad sin lograr todavía un consenso en cuanto a su análisis. Elegir una explicación errónea de "corrección moral" podría dar como resultado resultados que serían moralmente muy incorrectos  ... El camino para dotar a una IA de cualquiera de estos conceptos [morales] podría implicar darle una capacidad lingüística general (comparable, al menos, a el de un adulto humano normal). Esta capacidad general para comprender el lenguaje natural podría utilizarse entonces para comprender lo que se entiende por "moralmente correcto". Si la IA pudiera captar el significado, podría buscar acciones que encajen  ... [26]

Se podría intentar preservar la idea básica del modelo MR al tiempo que se reduce su exigencia centrándose en la permisibilidad moral : la idea es que podríamos dejar que la IA persiga el CEV de la humanidad siempre que no actúe de maneras que sean moralmente inadmisibles. [26]

Amenaza potencial para la humanidad

Se ha sugerido que si los sistemas de IA se vuelven superinteligentes rápidamente, pueden tomar acciones imprevistas o superar a la humanidad. [27] Los investigadores han argumentado que, a través de una "explosión de inteligencia", una IA automejorada podría volverse tan poderosa que sería imparable para los humanos. [28]

En cuanto a los escenarios de extinción humana, Bostrom (2002) identifica la superinteligencia como una posible causa:

Cuando creamos la primera entidad superinteligente, podríamos cometer un error y asignarle objetivos que la lleven a aniquilar a la humanidad, asumiendo que su enorme ventaja intelectual le otorga el poder para hacerlo. Por ejemplo, podríamos elevar por error un subobjetivo al estado de superobjetivo. Le decimos que resuelva un problema matemático, y él cumple convirtiendo toda la materia del sistema solar en un dispositivo de cálculo gigante, matando en el proceso a la persona que hizo la pregunta.

En teoría, dado que una IA superinteligente podría lograr casi cualquier resultado posible y frustrar cualquier intento de impedir la implementación de sus objetivos, podrían surgir muchas consecuencias incontroladas e involuntarias . Podría matar a todos los demás agentes, persuadirlos a cambiar su comportamiento o bloquear sus intentos de interferencia. [29] Eliezer Yudkowsky ilustra tal convergencia instrumental de la siguiente manera: "La IA no te odia ni te ama, pero estás hecho de átomos que puede usar para otra cosa". [30]

Esto presenta el problema del control de la IA : cómo construir un agente inteligente que ayude a sus creadores, evitando al mismo tiempo construir inadvertidamente una superinteligencia que dañará a sus creadores. El peligro de no diseñar correctamente el control "la primera vez" es que una superinteligencia pueda tomar el poder sobre su entorno e impedir que los humanos lo apaguen para lograr sus objetivos. [31] Las posibles estrategias de control de la IA incluyen el "control de capacidad" (limitar la capacidad de una IA para influir en el mundo) y el "control motivacional" (construir una IA cuyos objetivos estén alineados con los valores humanos). [32]

Ver también

Referencias

  1. ^ ab Bostrom 2014, Capítulo 2.
  2. ^ Bostrom 2014, pág. 22.
  3. ^ Pearce, David (2012), Edén, Amnón H.; Moro, James H.; Soraker, Johnny H.; Steinhart, Eric (eds.), "La explosión de la biointeligencia: cómo los robots orgánicos automejorados recursivamente modificarán su propio código fuente y acelerarán nuestro camino hacia la superinteligencia de espectro completo", Singularity Hypotheses , The Frontiers Collection, Berlín, Heidelberg: Springer Berlin Heidelberg, págs. 199–238, doi :10.1007/978-3-642-32560-1_11, ISBN 978-3-642-32559-5, recuperado el 16 de enero de 2022
  4. ^ Gouveia, Steven S., ed. (2020). "cap. 4," Humanos y máquinas inteligentes: ¿coevolución, fusión o reemplazo? ", David Pearce". La era de la inteligencia artificial: una exploración . Prensa de Vernon. ISBN 978-1-62273-872-4.
  5. ^ Legg 2008, págs. 135-137.
  6. ^ Chalmers 2010, pag. 7.
  7. ^ Chalmers 2010, pag. 7-9.
  8. ^ Chalmers 2010, pag. 10-11.
  9. ^ Chalmers 2010, pag. 11-13.
  10. ^ "Engranajes inteligentes". El economista . ISSN  0013-0613 . Consultado el 10 de agosto de 2023 .
  11. ^ Bostrom 2014, pág. 59.
  12. ^ Yudkowsky, Eliezer (2013). Microeconomía de la explosión de inteligencia (PDF) (Informe técnico). Instituto de Investigación de Inteligencia Artificial . pag. 35. 2013-1.
  13. ^ Bostrom 2014, págs. 56–57.
  14. ^ Bostrom 2014, págs. 52, 59–61.
  15. ^ Sagan, Carl (1977). Los dragones del Edén . Casa al azar.
  16. ^ Bostrom 2014, págs. 37-39.
  17. ^ Anomalía, Jonathan; Jones, Garett (2020). "Mejora cognitiva y efectos de red: cómo la prosperidad individual depende de los rasgos del grupo". Filosofía . 48 (5): 1753–1768. doi : 10.1007/s11406-020-00189-3 . S2CID  255167542.
  18. ^ Bostrom 2014, pág. 39.
  19. ^ Bostrom 2014, págs. 48–49.
  20. ^ Watkins, Jennifer H. (2007), Los mercados de predicción como mecanismo de agregación para la inteligencia colectiva
  21. ^ Bostrom 2014, págs. 36–37, 42, 47.
  22. ^ Creadora, Meg Houston (13 de julio de 2006). "AI@50: Primera encuesta". Archivado desde el original el 13 de mayo de 2014.
  23. ^ Müller y Bostrom 2016, págs. 3–4, 6, 9–12.
  24. ^ "Cronologías de la IA: ¿Qué esperan los expertos en inteligencia artificial para el futuro?". Nuestro mundo en datos . Consultado el 9 de agosto de 2023 .
  25. ^ "Gobernanza de la superinteligencia". openai.com . Consultado el 30 de mayo de 2023 .
  26. ^ abc Bostrom 2014, págs.
  27. ^ Alegría, Bill (1 de abril de 2000). "Por qué el futuro no nos necesita". Cableado .Véase también singularidad tecnológica . Nick Bostrom , 2002 Cuestiones éticas en la inteligencia artificial avanzada.
  28. ^ Muehlhauser, Luke y Louie Helm. 2012. "Explosión de inteligencia y ética de las máquinas". En Hipótesis de singularidad: una evaluación científica y filosófica, editado por Amnon Eden, Johnny Søraker, James H. Moor y Eric Steinhart. Berlín, Alemania: Springer.
  29. ^ Bostrom, Nick. 2003. "Cuestiones éticas en la inteligencia artificial avanzada". En Aspectos cognitivos, emotivos y éticos de la toma de decisiones en humanos y en inteligencia artificial, editado por Iva Smit y George E. Lasker, págs. vol. 2. Windsor, Ontario, Canadá: Instituto Internacional de Estudios Avanzados en Investigación de Sistemas/Cibernética.
  30. ^ Eliezer Yudkowsky (2008) en La inteligencia artificial como factor positivo y negativo del riesgo global.
  31. ^ Russell, Stuart (17 de mayo de 2016). "¿Deberíamos temer a los robots superinteligentes?". Científico americano . 314 (6): 58–59. Código Bib : 2016SciAm.314f..58R. doi : 10.1038/scientificamerican0616-58. ISSN  0036-8733. PMID  27196844.
  32. ^ Bostrom 2014, págs. 129-143.

Documentos

Libros

enlaces externos