stringtranslate.com

Inteligencia artificial general

La inteligencia general artificial ( AGI ) es un tipo de inteligencia artificial (IA) que puede funcionar tan bien o mejor que los humanos en una amplia gama de tareas cognitivas. [1] Esto contrasta con la IA limitada , que está diseñada para tareas específicas. [2] AGI se considera una de varias definiciones de IA fuerte .

La creación de AGI es un objetivo principal de la investigación de IA y de empresas como OpenAI , [3] DeepMind y Anthropic . Una encuesta de 2020 identificó 72 proyectos activos de I+D de AGI repartidos en 37 países. [4]

El cronograma para el desarrollo de AGI sigue siendo un tema de debate continuo entre investigadores y expertos. A partir de 2023 , algunos sostienen que puede ser posible en años o décadas; otros sostienen que podría llevar un siglo o más; y una minoría cree que tal vez nunca se logre. [5] Existe un debate sobre la definición exacta de AGI y sobre si los modelos de lenguaje grande (LLM) modernos, como GPT-4, son formas tempranas e incompletas de AGI. [6] AGI es un tema común en la ciencia ficción y los estudios de futuro .

Existe controversia sobre el potencial de que AGI represente una amenaza para la humanidad; [7] por ejemplo, OpenAI afirma tratarlo como un riesgo existencial , mientras que otros consideran que el desarrollo de AGI es demasiado remoto para presentar un riesgo. [8] [5] [9]

Terminología

AGI también se conoce como IA fuerte, [10] [11] IA completa, [12] IA a nivel humano [5] o acción inteligente general. [13] Sin embargo, algunas fuentes académicas reservan el término "IA fuerte" para programas de computadora que experimentan sensibilidad o conciencia . [a] Por el contrario, la IA débil (o IA estrecha) es capaz de resolver un problema específico, pero carece de capacidades cognitivas generales. [14] [11] Algunas fuentes académicas utilizan "IA débil" para referirse más ampliamente a cualquier programa que no experimente conciencia ni tenga una mente en el mismo sentido que los humanos. [a]

Los conceptos relacionados incluyen superinteligencia artificial e IA transformadora. Una superinteligencia artificial (ASI) es un tipo hipotético de AGI que es mucho más inteligente en general que los humanos, [15] mientras que la noción de IA transformadora se relaciona con la IA que tiene un gran impacto en la sociedad, por ejemplo, similar a la revolución agrícola o industrial. . [dieciséis]

Características

Se han propuesto varios criterios de inteligencia (el más famoso es el test de Turing ), pero ninguna definición ha sido ampliamente aceptada. [b]

Rasgos de inteligencia

Sin embargo, los investigadores generalmente sostienen que se requiere inteligencia para hacer todo lo siguiente: [18]

Muchos enfoques interdisciplinarios (por ejemplo, ciencia cognitiva , inteligencia computacional y toma de decisiones ) consideran rasgos adicionales como la imaginación (la capacidad de formar imágenes y conceptos mentales novedosos) [19] y la autonomía . [20]

Existen sistemas informáticos que exhiben muchas de estas capacidades (por ejemplo, ver creatividad computacional , razonamiento automatizado , sistema de soporte de decisiones , robot , computación evolutiva , agente inteligente ). Sin embargo, no hay consenso sobre que los sistemas modernos de IA los posean en un grado adecuado.

Rasgos físicos

Otras capacidades se consideran deseables en los sistemas inteligentes, ya que pueden afectar la inteligencia o ayudar en su expresión. Estos incluyen: [21]

Esto incluye la capacidad de detectar y responder a peligros . [22]

Pruebas de AGI a nivel humano

Se han considerado varias pruebas destinadas a confirmar el AGI a nivel humano, entre ellas: [23] [24]

La prueba de Turing ( Turing )
Una máquina y un humano conversan sin ser vistos con un segundo humano, quien debe evaluar cuál de los dos es la máquina, que pasa la prueba si puede engañar al evaluador una fracción significativa del tiempo. Nota: Turing no prescribe lo que debería calificarse como inteligencia, sólo que saber que es una máquina debería descalificarla. La IA Eugene Goostman , imitando a un niño de 13 años, logró la estimación de Turing de convencer al 33% de los jueces de que era humano en 2014. [25]
La prueba de robot para estudiantes universitarios ( Goertzel )
Una máquina se matricula en una universidad, toma y aprueba las mismas clases que los humanos y obtiene un título. Los LLM ahora pueden aprobar exámenes de nivel universitario sin siquiera asistir a clases. [26]
La prueba de empleo ( Nilsson )
Una máquina realiza un trabajo económicamente importante al menos tan bien como los humanos en el mismo trabajo. Las IA están reemplazando a los humanos en muchas funciones tan variadas como la comida rápida y el marketing. [27]
La prueba de Ikea ( Marcus )
También conocida como prueba de muebles de paquete plano. Una IA ve las piezas y las instrucciones de un producto de paquete plano de Ikea y luego controla un robot para ensamblar los muebles correctamente. [28]
La prueba del café ( Wozniak )
Se requiere una máquina para ingresar a un hogar estadounidense promedio y descubrir cómo preparar café: encontrar la máquina de café, encontrar el café, agregar agua, encontrar una taza y preparar el café presionando los botones adecuados. [29] Esto aún no se ha completado.
La prueba de Turing moderna ( Süleyman )
Un modelo de IA recibe 100.000 dólares y debe obtener 1 millón de dólares. [30] [31]

Problemas completos de IA

Hay muchos problemas que pueden requerir inteligencia general para resolverlos tan bien como lo hacen los humanos. Por ejemplo, incluso tareas sencillas y específicas, como la traducción automática , requieren que una máquina lea y escriba en ambos idiomas (PNL), siga el argumento del autor (razón), sepa de qué se está hablando (conocimiento) y reproduzca fielmente el original del autor. intención (inteligencia social). Todos estos problemas deben resolverse simultáneamente para alcanzar el rendimiento de la máquina al nivel humano.

Un problema se denomina informalmente "IA-completa" o "IA-duro" si se cree que para resolverlo sería necesario implementar una IA potente, porque la solución está más allá de las capacidades de un algoritmo con un propósito específico. [32]

Se plantea la hipótesis de que los problemas completos de IA incluyen visión general por computadora , comprensión del lenguaje natural y manejo de circunstancias inesperadas mientras se resuelve cualquier problema del mundo real. [33]

Los problemas de la IA completa no se pueden resolver únicamente con la tecnología informática actual y requieren computación humana . Esta limitación podría ser útil para probar la presencia de humanos, como pretenden hacer los CAPTCHA ; y para la seguridad informática para repeler ataques de fuerza bruta . [34] [35]

Historia

IA clásica

La investigación moderna en IA comenzó a mediados de la década de 1950. [36] La primera generación de investigadores de IA estaba convencida de que la inteligencia artificial general era posible y que existiría en tan solo unas pocas décadas. [37] El pionero de la IA, Herbert A. Simon , escribió en 1965: "las máquinas serán capaces, dentro de veinte años, de realizar cualquier trabajo que un hombre pueda hacer". [38]

Sus predicciones fueron la inspiración para el personaje HAL 9000 de Stanley Kubrick y Arthur C. Clarke , que encarnaba lo que los investigadores de IA creían que podían crear en el año 2001. El pionero de la IA, Marvin Minsky, fue consultor [39] en el proyecto de hacer HAL 9000. lo más realista posible según las predicciones consensuadas de la época. Dijo en 1967: "Dentro de una generación... el problema de crear 'inteligencia artificial' estará sustancialmente resuelto". [40]

Varios proyectos de IA clásicos , como el proyecto Cyc de Doug Lenat (que comenzó en 1984) y el proyecto Soar de Allen Newell , fueron dirigidos a AGI.

Sin embargo, a principios de la década de 1970, se hizo evidente que los investigadores habían subestimado enormemente la dificultad del proyecto. Las agencias de financiación se volvieron escépticas con respecto a la AGI y presionaron cada vez más a los investigadores para que produjeran una "IA aplicada" útil. [c] A principios de la década de 1980, el Proyecto de Computación de Quinta Generación de Japón revivió el interés en AGI, estableciendo un cronograma de diez años que incluía objetivos de AGI como "mantener una conversación informal". [44] En respuesta a esto y al éxito de los sistemas expertos , tanto la industria como el gobierno inyectaron dinero en este campo. [42] [45] Sin embargo, la confianza en la IA colapsó espectacularmente a finales de la década de 1980 y los objetivos del Proyecto de Computación de Quinta Generación nunca se cumplieron. [46] Por segunda vez en 20 años, los investigadores de IA que predijeron el inminente logro de AGI se habían equivocado. En la década de 1990, los investigadores de IA tenían fama de hacer promesas vanas. Se volvieron reacios a hacer predicciones [d] y evitaron mencionar la inteligencia artificial de "nivel humano" por temor a ser etiquetados como "soñadores de ojos desorbitados". [48]

Investigación limitada de IA

En la década de 1990 y principios del siglo XXI, la IA convencional logró éxito comercial y respetabilidad académica al centrarse en subproblemas específicos en los que la IA puede producir resultados verificables y aplicaciones comerciales, como el reconocimiento de voz y los algoritmos de recomendación . [49] Estos sistemas de "IA aplicada" ahora se utilizan ampliamente en toda la industria tecnológica, y la investigación en este sentido recibe una gran financiación tanto en el mundo académico como en la industria. A partir de 2018 , el desarrollo en este campo se consideraba una tendencia emergente y se esperaba alcanzar una etapa de madurez en más de 10 años. [50]

A principios de siglo, muchos investigadores convencionales de IA [51] esperaban que se pudiera desarrollar una IA potente combinando programas que resolvieran varios subproblemas. Hans Moravec escribió en 1988:

Estoy seguro de que esta ruta ascendente hacia la inteligencia artificial algún día se encontrará con la ruta tradicional de arriba hacia abajo a más de la mitad del camino, lista para proporcionar la competencia del mundo real y el conocimiento de sentido común que ha sido tan frustrantemente difícil de alcanzar en los programas de razonamiento. Se obtendrán máquinas totalmente inteligentes cuando se impulse la metafórica punta dorada uniendo los dos esfuerzos. [51]

Sin embargo, ya en aquel momento esto fue discutido. Por ejemplo, Stevan Harnad de la Universidad de Princeton concluyó su artículo de 1990 sobre la hipótesis de la fundamentación del símbolo afirmando:

A menudo se ha expresado la expectativa de que los enfoques "de arriba hacia abajo" (simbólicos) para modelar la cognición de alguna manera se encontrarán con los enfoques "de abajo hacia arriba" (sensoriales) en algún punto intermedio. Si las consideraciones fundamentales de este artículo son válidas, entonces esta expectativa es irremediablemente modular y en realidad sólo hay una ruta viable desde el sentido a los símbolos: desde cero. Un nivel simbólico flotante como el nivel de software de una computadora nunca será alcanzado por esta ruta (o viceversa) – ni tampoco está claro por qué deberíamos siquiera intentar alcanzar tal nivel, ya que parece que llegar allí simplemente Esto equivale a desarraigar nuestros símbolos de sus significados intrínsecos (reduciéndonos así simplemente al equivalente funcional de una computadora programable). [52]

Investigación moderna sobre inteligencia general artificial.

El término "inteligencia general artificial" fue utilizado ya en 1997 por Mark Gubrud [53] en una discusión sobre las implicaciones de la producción y las operaciones militares totalmente automatizadas. Marcus Hutter propuso un formalismo matemático de AGI en 2000. Llamado AIXI , el agente AGI propuesto maximiza "la capacidad de satisfacer objetivos en una amplia gama de entornos". [54] Este tipo de AGI, caracterizado por la capacidad de maximizar una definición matemática de inteligencia en lugar de exhibir un comportamiento similar al humano, [55] también se llamó inteligencia artificial universal. [56]

El término AGI fue reintroducido y popularizado por Shane Legg y Ben Goertzel alrededor de 2002. [57] Pei Wang y Ben Goertzel [58] describieron la actividad de investigación de AGI en 2006 como "producción de publicaciones y resultados preliminares". La primera escuela de verano en AGI fue organizada en Xiamen, China, en 2009 [59] por el Laboratorio de Cerebro Artificial de la Universidad de Xiamen y OpenCog. El primer curso universitario lo impartió Todor Arnaudov en 2010 [60] y 2011 [61] en la Universidad de Plovdiv, Bulgaria. El MIT presentó un curso sobre AGI en 2018, organizado por Lex Fridman y con varios conferenciantes invitados.

A partir de 2023 , un pequeño número de informáticos participan activamente en la investigación de AGI y muchos contribuyen a una serie de conferencias de AGI . Sin embargo, cada vez más investigadores están interesados ​​en el aprendizaje abierto, [62] [63], que es la idea de permitir que la IA aprenda e innove continuamente como lo hacen los humanos. Aunque la mayoría de los trabajos de aprendizaje abiertos todavía se realizan en Minecraft , [18] [21] [54] su aplicación se puede extender a la robótica y las ciencias.

Factibilidad

A partir de 2023 , las formas completas de AGI siguen siendo especulativas. [64] [65] Aún no se ha demostrado ningún sistema que cumpla con los criterios generalmente acordados para AGI. Las opiniones varían sobre si llegará la inteligencia artificial general y cuándo. El pionero de la IA, Herbert A. Simon, especuló en 1965 que "las máquinas serán capaces, dentro de veinte años, de realizar cualquier trabajo que un hombre pueda hacer". Esta predicción no se hizo realidad. El cofundador de Microsoft, Paul Allen, creía que tal inteligencia es poco probable en el siglo XXI porque requeriría "avances imprevisibles y fundamentalmente impredecibles" y una "comprensión científicamente profunda de la cognición". [66] Escribiendo en The Guardian , el robótico Alan Winfield afirmó que el abismo entre la informática moderna y la inteligencia artificial a nivel humano es tan amplio como el abismo entre los vuelos espaciales actuales y los vuelos espaciales prácticos más rápidos que la luz. [67]

La mayoría de los investigadores de IA creen que en el futuro se puede lograr una IA fuerte, pero algunos pensadores, como Hubert Dreyfus y Roger Penrose , niegan la posibilidad de lograr una IA fuerte. [68] [69] John McCarthy se encuentra entre quienes creen que se logrará la IA a nivel humano, pero que el nivel actual de progreso es tal que no se puede predecir con precisión una fecha. [70] Las opiniones de los expertos en IA sobre la viabilidad del AGI aumentan y disminuyen. Cuatro encuestas realizadas en 2012 y 2013 sugirieron que la estimación mediana entre los expertos de cuándo tendrían un 50% de confianza en que llegaría AGI era de 2040 a 2050, según la encuesta, con una media de 2081. De los expertos, el 16,5% respondió con " nunca" cuando se le hizo la misma pregunta pero con un 90% de confianza. [71] [72] Se pueden encontrar más consideraciones actuales sobre el progreso del AGI en Pruebas para confirmar el AGI a nivel humano.

Un informe de Stuart Armstrong y Kaj Sotala del Machine Intelligence Research Institute encontró que "en un período de 60 años existe un fuerte sesgo hacia la predicción de la llegada de la IA a nivel humano entre 15 y 25 años desde el momento en que se hizo la predicción". Analizaron 95 predicciones hechas entre 1950 y 2012 sobre cuándo surgirá la IA a nivel humano. [73]

En 2023, los investigadores de Microsoft publicaron una evaluación detallada de GPT-4 . Concluyeron: "Dada la amplitud y profundidad de las capacidades de GPT-4, creemos que podría considerarse razonablemente como una versión temprana (aunque aún incompleta) de un sistema de inteligencia artificial general (AGI)". [74] Otro estudio realizado en 2023 informó que GPT-4 supera al 99% de los humanos en las pruebas de pensamiento creativo de Torrance . [75] [76]

Escalas de tiempo

En la introducción a su libro de 2006, [77] Goertzel dice que las estimaciones del tiempo necesario antes de que se construya un AGI verdaderamente flexible varían de 10 años a más de un siglo. En 2007 , el consenso en la comunidad de investigación de AGI parecía ser que la línea de tiempo discutida por Ray Kurzweil en 2005 en The Singularity is Near [78] (es decir, entre 2015 y 2045) era plausible. [79] Los principales investigadores de IA han dado una amplia gama de opiniones sobre si el progreso será tan rápido. Un metaanálisis de 95 opiniones de este tipo realizado en 2012 encontró un sesgo hacia la predicción de que la aparición de AGI ocurriría dentro de 16 a 26 años, tanto para las predicciones modernas como para las históricas. Ese artículo ha sido criticado por cómo categorizó las opiniones como expertas o no expertas. [80]

En 2012, Alex Krizhevsky , Ilya Sutskever y Geoffrey Hinton desarrollaron una red neuronal llamada AlexNet , que ganó la competencia ImageNet con una tasa de error de prueba entre los cinco primeros del 15,3 %, significativamente mejor que la tasa del segundo mejor participante del 26,3 % (la El enfoque tradicional utilizaba una suma ponderada de puntuaciones de diferentes clasificadores predefinidos). [81] AlexNet fue considerado como el pionero inicial de la actual ola de aprendizaje profundo . [81]

En 2017, los investigadores Feng Liu, Yong Shi y Ying Liu realizaron pruebas de inteligencia en IA débiles disponibles públicamente y de libre acceso, como la IA de Google, Siri de Apple y otras. Como máximo, estas IA alcanzaron un valor de coeficiente intelectual de aproximadamente 47, lo que corresponde aproximadamente a un niño de seis años en primer grado. Un adulto llega a unos 100 en promedio. En 2014 se llevaron a cabo pruebas similares, y la puntuación de coeficiente intelectual alcanzó un valor máximo de 27. [82] [83]

En 2020, OpenAI desarrolló GPT-3 , un modelo de lenguaje capaz de realizar muchas tareas diversas sin una formación específica. Según Gary Grossman en un artículo de VentureBeat , si bien existe consenso en que GPT-3 no es un ejemplo de AGI, algunos lo consideran demasiado avanzado para clasificarlo como un sistema de IA limitado. [84]

Ese mismo año, Jason Rohrer utilizó su cuenta GPT-3 para desarrollar un chatbot y proporcionó una plataforma de desarrollo de chatbot llamada "Proyecto Diciembre". OpenAI solicitó cambios en el chatbot para cumplir con sus pautas de seguridad; Rohrer desconectó el Proyecto Diciembre de la API GPT-3. [85]

En 2022, DeepMind desarrolló Gato , un sistema de "propósito general" capaz de realizar más de 600 tareas diferentes. [86]

En 2023, Microsoft Research publicó un estudio sobre una versión inicial de GPT-4 de OpenAI , sosteniendo que exhibía una inteligencia más general que los modelos de IA anteriores y demostraba un rendimiento a nivel humano en tareas que abarcaban múltiples dominios, como matemáticas, codificación y derecho. Esta investigación provocó un debate sobre si GPT-4 podría considerarse una versión temprana e incompleta de inteligencia artificial general, enfatizando la necesidad de una mayor exploración y evaluación de dichos sistemas. [87]

En 2023, el investigador de IA Geoffrey Hinton afirmó que: [88]

La idea de que estas cosas podrían en realidad volverse más inteligentes que las personas; algunas personas creían que, [...]. Pero la mayoría de la gente pensó que estaba muy lejos. Y pensé que estaba muy lejos. Pensé que faltaban entre 30 y 50 años o incluso más. Obviamente ya no pienso eso.

En marzo de 2024, el director ejecutivo de Nvidia , Jensen Huang , expresó su expectativa de que dentro de cinco años la IA sería capaz de pasar cualquier prueba al menos tan bien como los humanos. [89]

Emulación de todo el cerebro

Si bien el desarrollo de grandes modelos de lenguaje se considera el camino más prometedor hacia la AGI, [90] la emulación de todo el cerebro puede servir como un enfoque alternativo. Con la simulación de todo el cerebro, se construye un modelo cerebral escaneando y mapeando un cerebro biológico en detalle, y luego copiándolo y simulándolo en un sistema informático u otro dispositivo computacional. El modelo de simulación debe ser lo suficientemente fiel al original, como para que se comporte prácticamente igual que el cerebro original. [91] La emulación de todo el cerebro es un tipo de simulación cerebral que se analiza en neurociencia computacional y neuroinformática , y con fines de investigación médica. Se ha debatido en investigaciones sobre inteligencia artificial [79] como un enfoque para lograr una IA sólida. Las tecnologías de neuroimagen que podrían ofrecer la comprensión detallada necesaria están mejorando rápidamente, y el futurista Ray Kurzweil en el libro The Singularity Is Near [78] predice que un mapa de calidad suficiente estará disponible en una escala de tiempo similar a la potencia de cálculo necesaria para emularlo.

Estimaciones tempranas

Estimaciones de cuánta potencia de procesamiento se necesita para emular un cerebro humano en varios niveles (de Ray Kurzweil, Anders Sandberg y Nick Bostrom ), junto con la supercomputadora más rápida del TOP500 mapeada por año. Tenga en cuenta la escala logarítmica y la línea de tendencia exponencial, que supone que la capacidad computacional se duplica cada 1,1 años. Kurzweil cree que la carga mental será posible mediante simulación neuronal, mientras que el informe de Sandberg y Bostrom es menos seguro sobre dónde surge la conciencia . [92]

Para la simulación cerebral de bajo nivel, se necesitaría un grupo muy potente de computadoras o GPU, dada la enorme cantidad de sinapsis dentro del cerebro humano . Cada una de las 10 11 (cien mil millones) de neuronas tiene en promedio 7.000 conexiones sinápticas (sinapsis) con otras neuronas. El cerebro de un niño de tres años tiene alrededor de 10 15 sinapsis (1 cuatrillón). Este número disminuye con la edad y se estabiliza en la edad adulta. Las estimaciones varían para un adulto, oscilando entre 10 14 y 5 × 10 14 sinapsis (100 a 500 billones). [93] Una estimación del poder de procesamiento del cerebro, basada en un modelo de conmutación simple para la actividad neuronal, es de alrededor de 10 14 (100 billones) de actualizaciones sinápticas por segundo ( SUPS ). [94]

En 1997, Kurzweil examinó varias estimaciones del hardware necesario para igualar el cerebro humano y adoptó una cifra de 10 16 cálculos por segundo (cps). [e] (A modo de comparación, si un "cálculo" equivaliera a una " operación de punto flotante " -una medida utilizada para calificar las supercomputadoras actuales- entonces 10 16 "cálculos" equivaldrían a 10 petaFLOPS , logrados en 2011 , mientras que 10 18 se logró en 2022. ) Utilizó esta cifra para predecir que el hardware necesario estaría disponible en algún momento entre 2015 y 2025, si continuaba el crecimiento exponencial de la potencia informática en el momento de escribir este artículo.

La investigación actual

El Human Brain Project , una iniciativa financiada por la UE que estará activa desde 2013 hasta 2023, ha desarrollado un atlas del cerebro humano especialmente detallado y accesible al público. [97] En 2023, investigadores de la Universidad de Duke realizaron una exploración de alta resolución del cerebro de un ratón. [98] Se espera que en abril de 2024 aparezca una supercomputadora con una capacidad informática similar a la del cerebro humano. Llamada "DeepSouth", podría realizar 228 billones de operaciones sinápticas por segundo. [99]

Críticas a los enfoques basados ​​en simulación

El modelo de neurona artificial asumido por Kurzweil y utilizado en muchas implementaciones actuales de redes neuronales artificiales es simple en comparación con las neuronas biológicas . Una simulación cerebral probablemente tendría que capturar el comportamiento celular detallado de las neuronas biológicas , que actualmente sólo se comprende a grandes rasgos. La sobrecarga introducida por el modelado completo de los detalles biológicos, químicos y físicos del comportamiento neuronal (especialmente a escala molecular) requeriría poderes computacionales varios órdenes de magnitud mayores que los estimados por Kurzweil. Además, las estimaciones no tienen en cuenta las células gliales , que se sabe que desempeñan un papel en los procesos cognitivos. [100]

Una crítica fundamental al enfoque del cerebro simulado se deriva de la teoría de la cognición corporeizada , que afirma que la encarnación humana es un aspecto esencial de la inteligencia humana y es necesaria para fundamentar el significado. [101] [98] Si esta teoría es correcta, cualquier modelo cerebral completamente funcional deberá abarcar algo más que las neuronas (por ejemplo, un cuerpo robótico). Goertzel [79] propone la encarnación virtual (como en metaversos como Second Life ) como opción, pero se desconoce si esto sería suficiente.

Perspectiva filosófica

"IA fuerte" como se define en la filosofía

En 1980, el filósofo John Searle acuñó el término "IA fuerte" como parte de su argumento sobre la habitación china . [102] Quería distinguir entre dos hipótesis diferentes sobre la inteligencia artificial: [f]

Al primero lo llamó "fuerte" porque hace una declaración más fuerte : supone que le ha sucedido algo especial a la máquina que va más allá de las capacidades que podemos probar. El comportamiento de una máquina de "IA débil" sería exactamente idéntico al de una máquina de "IA fuerte", pero esta última también tendría una experiencia consciente subjetiva. Este uso también es común en libros de texto y investigaciones académicas sobre IA. [103]

A diferencia de Searle y la IA convencional, algunos futuristas como Ray Kurzweil utilizan el término "IA fuerte" para referirse a "inteligencia general artificial a nivel humano". [78] Esto no es lo mismo que la fuerte IA de Searle , a menos que se asuma que la conciencia es necesaria para la AGI a nivel humano. Los filósofos académicos como Searle no creen que ese sea el caso, y para la mayoría de los investigadores de inteligencia artificial la cuestión está fuera de alcance. [104]

La IA convencional está más interesada en cómo se comporta un programa . [105] Según Russell y Norvig , "mientras el programa funcione, no les importa si lo llamas real o simulación". [104] Si el programa puede comportarse como si tuviera una mente, entonces no hay necesidad de saber si realmente tiene mente; de ​​hecho, no habría manera de saberlo. Para la investigación de la IA, la "hipótesis de la IA débil" de Searle equivale a la afirmación "la inteligencia general artificial es posible". Por lo tanto, según Russell y Norvig, "la mayoría de los investigadores de IA dan por sentada la hipótesis de la IA débil y no les importa la hipótesis de la IA fuerte". [104] Por lo tanto, para la investigación académica de IA, "IA fuerte" y "AGI" son dos cosas diferentes.

Conciencia, autoconocimiento, sensibilidad.

Otros aspectos de la mente humana además de la inteligencia son relevantes para el concepto de AGI o "IA fuerte", y desempeñan un papel importante en la ciencia ficción y la ética de la inteligencia artificial :

Estos rasgos tienen una dimensión moral, porque una máquina con esta forma de "IA fuerte" puede tener derechos, análogos a los derechos de los animales no humanos . Se ha realizado un trabajo preliminar para integrar una IA fuerte con los marcos legales y sociales existentes, centrándose en la posición legal y los derechos de la IA "fuerte". [108]

Queda por demostrar si la " conciencia artificial " es necesaria para la AGI. Sin embargo, muchos investigadores de AGI consideran vital la investigación que investiga las posibilidades de implementar la conciencia. [109]

Bill Joy , entre otros, sostiene que una máquina con estas características puede ser una amenaza para la vida o la dignidad humana. [110]

Desafíos de la investigación

Históricamente, el progreso en inteligencia artificial ha pasado por períodos de rápido progreso separados por períodos en los que el progreso parecía detenerse. [68] Poner fin a cada pausa fueron avances fundamentales en hardware, software o ambos para crear espacio para un mayor progreso. [68] [111] [112] Por ejemplo, el hardware informático disponible en el siglo XX no era suficiente para implementar el aprendizaje profundo, que requiere una gran cantidad de CPU habilitadas para GPU . [113]

Otro desafío es la falta de claridad a la hora de definir qué implica la inteligencia . ¿Requiere conciencia? ¿Debe mostrar la capacidad de fijar objetivos y también de perseguirlos? ¿Es puramente una cuestión de escala tal que si el tamaño de los modelos aumenta lo suficiente, surgirá la inteligencia? ¿Se requieren facilidades como planificación, razonamiento y comprensión causal? ¿La inteligencia requiere replicar explícitamente el cerebro y sus facultades específicas? ¿Requiere emociones? [114]

Beneficios

AGI podría tener una amplia variedad de aplicaciones. Si se orienta hacia tales objetivos, la AGI podría ayudar a mitigar diversos problemas en el mundo, como el hambre, la pobreza y los problemas de salud. [115]

AGI podría mejorar la productividad y la eficiencia en la mayoría de los puestos de trabajo. Por ejemplo, en el ámbito de la salud pública, la AGI podría acelerar la investigación médica, en particular contra el cáncer. [116] Podría cuidar a las personas mayores, [117] y democratizar el acceso a diagnósticos médicos rápidos y de alta calidad. Podría ofrecer una educación divertida, barata y personalizada. [117] Para prácticamente cualquier trabajo que beneficie a la sociedad si se hace bien, probablemente tarde o temprano sería preferible dejárselo a un AGI. La necesidad de trabajar para subsistir podría quedar obsoleta si la riqueza producida se redistribuye adecuadamente . [117] [118] Esto también plantea la cuestión del lugar de los humanos en una sociedad radicalmente automatizada.

La AGI también podría ayudar a tomar decisiones racionales y a anticipar y prevenir desastres. También podría ayudar a aprovechar los beneficios de tecnologías potencialmente catastróficas como la nanotecnología o la ingeniería climática , evitando al mismo tiempo los riesgos asociados. [119] Si el objetivo principal de una AGI es prevenir catástrofes existenciales como la extinción humana (lo que podría ser difícil si la Hipótesis del Mundo Vulnerable resulta ser cierta), [120] podría tomar medidas para reducir drásticamente los riesgos [119] mientras minimizando el impacto de estas medidas en nuestra calidad de vida.

Riesgos

Riesgos existenciales

AGI puede representar múltiples tipos de riesgo existencial , que son riesgos que amenazan con "la extinción prematura de la vida inteligente originada en la Tierra o la destrucción permanente y drástica de su potencial para un desarrollo futuro deseable". [121] El riesgo de extinción humana a causa de la AGI ha sido tema de muchos debates, pero también existe la posibilidad de que el desarrollo de la AGI conduzca a un futuro permanentemente defectuoso. En particular, podría utilizarse para difundir y preservar el conjunto de valores de quien lo desarrolla. Si la humanidad todavía tiene puntos ciegos morales similares a la esclavitud en el pasado, AGI podría atrincherarlos irreversiblemente, impidiendo el progreso moral . [122] Además, la AGI podría facilitar la vigilancia y el adoctrinamiento masivos, que podrían utilizarse para crear un régimen totalitario mundial represivo estable. [123] [124] También existe un riesgo para las propias máquinas. Si en el futuro se crean en masa máquinas sensibles o dignas de consideración moral, emprender un camino civilizatorio que descuide indefinidamente su bienestar e intereses podría ser una catástrofe existencial. [125] [126] Considerando cuánto la AGI podría mejorar el futuro de la humanidad y ayudar a reducir otros riesgos existenciales, Toby Ord llama a estos riesgos existenciales "un argumento para proceder con la debida precaución", no para "abandonar la IA". [123]

Riesgo de pérdida de control y extinción humana

La tesis de que la IA plantea un riesgo existencial para los humanos, y que este riesgo necesita más atención, es controvertida, pero ha sido respaldada en 2023 por muchas figuras públicas, investigadores de IA y directores ejecutivos de empresas de IA como Elon Musk , Bill Gates , Geoffrey Hinton , Yoshua Bengio , Demis Hassabis y Sam Altman . [127] [128]

En 2014, Stephen Hawking criticó la indiferencia generalizada:

Entonces, ante posibles futuros de beneficios y riesgos incalculables, los expertos seguramente están haciendo todo lo posible para garantizar el mejor resultado, ¿verdad? Equivocado. Si una civilización alienígena superior nos enviara un mensaje diciendo: "Llegaremos en unas pocas décadas", ¿le responderíamos simplemente: "Está bien, llámanos cuando llegues aquí; dejaremos las luces encendidas?" Probablemente no, pero esto es más o menos lo que está sucediendo con la IA. [129]

En ocasiones se ha comparado el destino potencial de la humanidad con el destino de los gorilas amenazados por las actividades humanas. La comparación afirma que una mayor inteligencia permitió a la humanidad dominar a los gorilas, que ahora son vulnerables en formas que no podrían haber previsto. Como resultado, el gorila se ha convertido en una especie en peligro de extinción, no por malicia, sino simplemente como un daño colateral de las actividades humanas. [130]

El escéptico Yann LeCun considera que los AGI no tendrán ningún deseo de dominar a la humanidad y que debemos tener cuidado de no antropomorfizarlos e interpretar sus intenciones como lo haríamos con los humanos. Dijo que la gente no será "lo suficientemente inteligente como para diseñar máquinas superinteligentes, pero sí ridículamente estúpidas hasta el punto de asignarles objetivos estúpidos y sin salvaguardias". [131] Por otro lado, el concepto de convergencia instrumental sugiere que casi cualesquiera que sean sus objetivos, los agentes inteligentes tendrán razones para tratar de sobrevivir y adquirir más poder como pasos intermedios para lograr estos objetivos. Y que para ello no es necesario tener emociones. [132]

Muchos académicos preocupados por el riesgo existencial abogan por más investigaciones para resolver el " problema de control " para responder a la pregunta: ¿qué tipos de salvaguardas, algoritmos o arquitecturas pueden implementar los programadores para maximizar la probabilidad de que su IA que mejora recursivamente continúe comportándose? de manera amistosa , en lugar de destructiva, una vez que llegue a la superinteligencia? [133] [134] Resolver el problema de control se complica por la carrera armamentista de la IA (que podría llevar a una carrera hacia el fondo de las precauciones de seguridad para lanzar productos antes que los competidores), [135] y el uso de la IA en sistemas de armas. . [136]

La tesis de que la IA puede suponer un riesgo existencial también tiene detractores. Los escépticos suelen decir que la AGI es poco probable en el corto plazo, o que las preocupaciones sobre la AGI distraen de otras cuestiones relacionadas con la IA actual. [137] El ex zar del fraude de Google, Shuman Ghosemajumder, considera que para muchas personas fuera de la industria tecnológica, los chatbots y LLM existentes ya se perciben como si fueran AGI, lo que genera más malentendidos y miedo. [138]

Los escépticos a veces acusan de que la tesis es criptorreligiosa, con una creencia irracional en la posibilidad de que la superinteligencia reemplace una creencia irracional en un Dios omnipotente. [139] Algunos investigadores creen que las campañas de comunicación sobre el riesgo existencial de la IA por parte de ciertos grupos de IA (como OpenAI, Anthropic, DeepMind y Conjecture) pueden ser un intento de captura regulatoria e inflar el interés en sus productos. [140] [141]

En 2023, los directores ejecutivos de Google DeepMind, OpenAI y Anthropic, junto con otros líderes e investigadores de la industria, emitieron una declaración conjunta en la que afirmaban que "Mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala social, como las pandemias y guerra nuclear." [128]

Paro masivo

Los investigadores de OpenAI estimaron que "el 80% de la fuerza laboral estadounidense podría ver afectada al menos el 10% de sus tareas laborales por la introducción de los LLM, mientras que alrededor del 19% de los trabajadores podrían ver afectada al menos el 50% de sus tareas". [142] [143] Consideran que los trabajadores de oficina son los más expuestos, por ejemplo, los matemáticos, los contables o los diseñadores web. [143] AGI podría tener una mayor autonomía, capacidad para tomar decisiones, interactuar con otras herramientas informáticas, pero también controlar cuerpos robotizados.

Según Stephen Hawking, el resultado de la automatización en la calidad de vida dependerá de cómo se redistribuya la riqueza: [118]

Todo el mundo puede disfrutar de una vida de ocio lujoso si se comparte la riqueza producida por las máquinas, o la mayoría de la gente puede terminar miserablemente pobre si los propietarios de las máquinas ejercen presión exitosamente contra la redistribución de la riqueza. Hasta ahora, la tendencia parece apuntar hacia la segunda opción, ya que la tecnología impulsa una desigualdad cada vez mayor.

Elon Musk considera que la automatización de la sociedad requerirá que los gobiernos adopten una renta básica universal . [144]

Ver también

Notas

  1. ^ ab Consulte a continuación el origen del término "IA fuerte" y consulte la definición académica de " IA fuerte " e IA débil en el artículo Sala china .
  2. ^ El fundador de AI, John McCarthy, escribe: "aún no podemos caracterizar en general qué tipo de procedimientos computacionales queremos llamar inteligentes". [17] (Para una discusión de algunas definiciones de inteligencia utilizadas por los investigadores de inteligencia artificial , consulte filosofía de la inteligencia artificial ).
  3. ^ El informe Lighthill criticó específicamente los "objetivos grandiosos" de la IA y dirigió el desmantelamiento de la investigación de la IA en Inglaterra. [41] En los EE.UU., DARPA se decidió a financiar sólo "investigación directa orientada a una misión, en lugar de investigación básica no dirigida". [42] [43]
  4. ^ Como escribe el fundador de AI, John McCarthy , "sería un gran alivio para el resto de los trabajadores de AI si los inventores de nuevos formalismos generales expresaran sus esperanzas de una forma más cautelosa de lo que a veces ha sido el caso". [47]
  5. ^ En "Mind Children" [95] se utiliza 10 15 cps. Más recientemente, en 1997, [96] Moravec defendió 10 8 MIPS, lo que correspondería aproximadamente a 10 14 cps. Moravec habla en términos de MIPS, no de "cps", que es un término no estándar introducido por Kurzweil.
  6. ^ Como se define en un libro de texto estándar de IA: "Los filósofos denominan la hipótesis de que las máquinas podrían actuar de manera inteligente (o, quizás mejor, actuar como si fueran inteligentes), y la afirmación de que las máquinas que lo hacen lo que realmente piensan (en lugar de simular el pensamiento) se denomina hipótesis de la 'IA fuerte'". [94]
  7. ^ Alan Turing señaló este punto en 1950. [107]

Referencias

  1. ^ Cielo, Will Douglas (16 de noviembre de 2023). "Google DeepMind quiere definir lo que se considera inteligencia artificial general". Revisión de tecnología del MIT . Consultado el 1 de marzo de 2024 .
  2. ^ Krishna, Sri (9 de febrero de 2023). "¿Qué es la inteligencia artificial restringida (ANI)?". VentureBeat . Consultado el 1 de marzo de 2024 .
  3. ^ "Carta de OpenAI". openai.com . Consultado el 6 de abril de 2023 .
  4. ^ Baum, Seth, Una encuesta sobre proyectos de inteligencia general artificial para la ética, el riesgo y las políticas (PDF) , documento de trabajo 20 del Global Catastrophic Risk Institute, archivado (PDF) del original el 14 de noviembre de 2021 , recuperado 13 de enero 2022
  5. ^ abc "Cronologías de la IA: ¿Qué esperan los expertos en inteligencia artificial para el futuro?". Nuestro mundo en datos . Consultado el 6 de abril de 2023 .
  6. ^ "Los investigadores de Microsoft afirman que GPT-4 está mostrando" chispas "de AGI". Futurismo . Consultado el 13 de diciembre de 2023 .
  7. ^ Morozov, Evgeny (30 de junio de 2023). "La verdadera amenaza de la inteligencia artificial". Los New York Times . Archivado desde el original el 30 de junio de 2023 . Consultado el 30 de junio de 2023 .
  8. ^ "¿Impresionado por la inteligencia artificial? Los expertos dicen que AGI será el próximo paso y que tiene riesgos 'existenciales'". ABC Noticias . 23 de marzo de 2023 . Consultado el 6 de abril de 2023 .
  9. ^ "Inteligencia general artificial: ¿estamos cerca? ¿Tiene sentido intentarlo?". Revisión de tecnología del MIT . Consultado el 6 de abril de 2023 .
  10. ^ Kurzweil 2005, pág. 260.
  11. ^ ab Kurzweil, Ray (5 de agosto de 2005a), "Larga vida a la IA", Forbes , archivado desde el original el 14 de agosto de 2005: Kurzweil describe la IA fuerte como "inteligencia de máquina con toda la gama de inteligencia humana".
  12. ^ "La era de la inteligencia artificial: George John en TEDxLondonBusinessSchool 2013". Archivado desde el original el 26 de febrero de 2014 . Consultado el 22 de febrero de 2014 .
  13. ^ Newell y Simon 1976, este es el término que utilizan para la inteligencia "a nivel humano" en la hipótesis del sistema de símbolos físicos .
  14. ^ "La Universidad Abierta sobre IA fuerte y débil". Archivado desde el original el 25 de septiembre de 2009 . Consultado el 8 de octubre de 2007 .
  15. ^ "¿Qué es la superinteligencia artificial (ASI)? | Definición de TechTarget". IA empresarial . Consultado el 8 de octubre de 2023 .
  16. ^ "La inteligencia artificial está transformando nuestro mundo; depende de todos nosotros asegurarnos de que vaya bien". Nuestro mundo en datos . Consultado el 8 de octubre de 2023 .
  17. ^ McCarthy, John (2007a). "Preguntas básicas". Universidad Stanford . Archivado desde el original el 26 de octubre de 2007 . Consultado el 6 de diciembre de 2007 .
  18. ^ ab Esta lista de rasgos inteligentes se basa en los temas tratados en los principales libros de texto de IA, incluidos: Russell & Norvig 2003, Luger & Stubblefield 2004, Poole, Mackworth & Goebel 1998 y Nilsson 1998.
  19. ^ Johnson 1987
  20. ^ de Charms, R. (1968). Causalidad personal. Nueva York: Academic Press.
  21. ^ ab Pfeifer, R. y Bongard JC, Cómo el cuerpo da forma a nuestra forma de pensar: una nueva visión de la inteligencia (The MIT Press, 2007). ISBN 0-262-16239-3 
  22. ^ Blanco, RW (1959). "Reconsideración de la motivación: el concepto de competencia". Revisión psicológica . 66 (5): 297–333. doi :10.1037/h0040934. PMID  13844397. S2CID  37385966.
  23. ^ Muehlhauser, Luke (11 de agosto de 2013). "¿Qué es AGI?". Instituto de Investigación de Inteligencia Artificial. Archivado desde el original el 25 de abril de 2014 . Consultado el 1 de mayo de 2014 .
  24. ^ "¿Qué es la inteligencia general artificial (AGI)? | 4 pruebas para garantizar la inteligencia general artificial". Blog hablador . 13 de julio de 2019. Archivado desde el original el 17 de julio de 2019 . Consultado el 17 de julio de 2019 .
  25. ^ "Eugene Goostman es un niño de verdad; la prueba de Turing lo dice". El guardián . 9 de junio de 2014. ISSN  0261-3077 . Consultado el 3 de marzo de 2024 .
  26. ^ Varanasi, Lakshmi (21 de marzo de 2023). "Los modelos de IA como ChatGPT y GPT-4 están superando en todo, desde el examen de la barra hasta Biología AP. Aquí hay una lista de exámenes difíciles que han aprobado ambas versiones de IA". Business Insider . Consultado el 30 de mayo de 2023 .
  27. ^ Naysmith, Caleb (7 de febrero de 2023). "Seis puestos de trabajo que la inteligencia artificial ya está reemplazando y cómo los inversores pueden aprovecharlos" . Consultado el 30 de mayo de 2023 .
  28. ^ Turk, Victoria (28 de enero de 2015). "El plan para sustituir la prueba de Turing por unas 'Olimpiadas de Turing'". Vicio . Consultado el 3 de marzo de 2024 .
  29. ^ Gopani, Avi (25 de mayo de 2022). "La prueba de Turing no es fiable. El esquema de Winograd está obsoleto. El café es la respuesta". Revista Analytics India . Consultado el 3 de marzo de 2024 .
  30. ^ Bhaimiya, Sawdah (20 de junio de 2023). "El cofundador de DeepMind sugirió probar la capacidad de un chatbot de IA para convertir 100.000 dólares en 1 millón de dólares para medir la inteligencia humana". Business Insider . Consultado el 3 de marzo de 2024 .
  31. ^ Suleyman, Mustafa (14 de julio de 2023). "Mustafa Suleyman: Mi nueva prueba de Turing vería si la IA puede ganar 1 millón de dólares". Revisión de tecnología del MIT . Consultado el 3 de marzo de 2024 .
  32. ^ Shapiro, Stuart C. (1992). «Inteligencia artificial» (PDF) . En Stuart C. Shapiro (ed.). Enciclopedia de Inteligencia Artificial (Segunda ed.). Nueva York: John Wiley. págs. 54–57. Archivado (PDF) desde el original el 1 de febrero de 2016.(La Sección 4 trata sobre "Tareas completas con IA".)
  33. ^ Yampolskiy, Roman V. (2012). Xin-She Yang (ed.). "La prueba de Turing como característica definitoria de la integridad de la IA" (PDF) . Inteligencia artificial, computación evolutiva y metaheurística (AIECM) : 3–17. Archivado (PDF) desde el original el 22 de mayo de 2013.
  34. ^ Luis von Ahn, Manuel Blum, Nicholas Hopper y John Langford. CAPTCHA: Uso de problemas difíciles de IA para seguridad Archivado el 4 de marzo de 2016 en Wayback Machine . En Actas de Eurocrypt , vol. 2656 (2003), págs. 294–311.
  35. ^ Bergmair, Richard (7 de enero de 2006). "Esteganografía del lenguaje natural y una primitiva de seguridad" completa con IA ". CiteSeer . CiteSeerX 10.1.1.105.129 . 
  36. ^ Crevier 1993, págs. 48–50
  37. ^ Kaplan, Andreas (2022). "Inteligencia artificial, negocios y civilización: nuestro destino hecho en máquinas". Archivado desde el original el 6 de mayo de 2022 . Consultado el 12 de marzo de 2022 .
  38. ^ Simón 1965, pag. 96 citado en Crevier 1993, p. 109
  39. ^ "Científico en el set: una entrevista con Marvin Minsky". Archivado desde el original el 16 de julio de 2012 . Consultado el 5 de abril de 2008 .
  40. ^ Marvin Minsky a Darrach (1970), citado en Crevier (1993, p. 109).
  41. ^ Colina ligera 1973; Howe 1994
  42. ^ ab NRC 1999, "El cambio a la investigación aplicada aumenta la inversión".
  43. ^ Crevier 1993, págs. 115-117; Russell y Norvig 2003, págs. 21-22.
  44. ^ Crevier 1993, pag. 211, Russell y Norvig 2003, pág. 24 y véase también Feigenbaum y McCorduck 1983.
  45. ^ Crevier 1993, págs. 161–162, 197–203, 240; Russell y Norvig 2003, pág. 25.
  46. ^ Crevier 1993, págs. 209-212
  47. ^ McCarthy, John (2000). "Responder a Lighthill". Universidad Stanford. Archivado desde el original el 30 de septiembre de 2008 . Consultado el 29 de septiembre de 2007 .
  48. ^ Markoff, John (14 de octubre de 2005). "Detrás de la inteligencia artificial, un escuadrón de personas reales brillantes". Los New York Times . Archivado desde el original el 2 de febrero de 2023 . Consultado el 18 de febrero de 2017 . En su punto más bajo, algunos científicos informáticos e ingenieros de software evitaron el término inteligencia artificial por miedo a ser vistos como soñadores de ojos desorbitados.
  49. ^ Russell y Norvig 2003, págs. 25-26
  50. ^ "Tendencias en el ciclo de exageración de las tecnologías emergentes". Informes Gartner. Archivado desde el original el 22 de mayo de 2019 . Consultado el 7 de mayo de 2019 .
  51. ^ ab Moravec 1988, pág. 20
  52. ^ Harnad, S. (1990). "El problema de la puesta a tierra del símbolo". Física D. 42 (1–3): 335–346. arXiv : cs/9906002 . Código bibliográfico : 1990PhyD...42..335H. doi :10.1016/0167-2789(90)90087-6. S2CID  3204300.
  53. ^ Gubrud 1997
  54. ^ ab Hutter, Marcus (2005). Inteligencia artificial universal: decisiones secuenciales basadas en probabilidad algorítmica. Textos de Informática Teórica y Serie EATCS. Saltador. doi :10.1007/b138233. ISBN 978-3-540-26877-2. S2CID  33352850. Archivado desde el original el 19 de julio de 2022 . Consultado el 19 de julio de 2022 .
  55. ^ Legg, Shane (2008). Superinteligencia de la máquina (PDF) (Tesis). Universidad de Lugano. Archivado (PDF) desde el original el 15 de junio de 2022 . Consultado el 19 de julio de 2022 .
  56. ^ Goertzel, Ben (2014). Inteligencia general artificial. Apuntes de conferencias sobre informática. vol. 8598. Revista de Inteligencia General Artificial. doi :10.1007/978-3-319-09274-4. ISBN 978-3-319-09273-7. S2CID  8387410.
  57. ^ "¿Quién acuñó el término" AGI "?". goertzel.org . Archivado desde el original el 28 de diciembre de 2018 . Consultado el 28 de diciembre de 2018 ., vía Life 3.0 : 'El término "AGI" fue popularizado por... Shane Legg, Mark Gubrud y Ben Goertzel'
  58. ^ Wang y Goertzel 2007
  59. ^ "Primera escuela internacional de verano en inteligencia artificial general, escuela de verano principal: 22 de junio - 3 de julio de 2009, OpenCog Lab: 6 al 9 de julio de 2009". Archivado desde el original el 28 de septiembre de 2020 . Consultado el 11 de mayo de 2020 .
  60. ^ "Избираеми дисциплини 2009/2010 - пролетен триместър" [Cursos optativos 2009/2010 - trimestre de primavera]. Факултет по математика и информатика [Facultad de Matemáticas e Informática] (en búlgaro). Archivado desde el original el 26 de julio de 2020 . Consultado el 11 de mayo de 2020 .
  61. ^ "Избираеми дисциплини 2010/2011 - зимен триместър" [Cursos optativos 2010/2011 - trimestre de invierno]. Факултет по математика и информатика [Facultad de Matemáticas e Informática] (en búlgaro). Archivado desde el original el 26 de julio de 2020 . Consultado el 11 de mayo de 2020 .
  62. ^ Shevlin, Henry; Vold, Karina; Crosby, Mateo; Halina, Marta (4 de octubre de 2019). "Los límites de la inteligencia artificial: a pesar de los avances en la inteligencia artificial, la inteligencia artificial general sigue siendo un gran desafío". Informes EMBO . 20 (10): e49177. doi :10.15252/embr.201949177. ISSN  1469-221X. PMC 6776890 . PMID  31531926. 
  63. ^ Bubeck, Sébastien; Chandrasekaran, Varun; Eldan, Ronen; Gehrke, Johannes; Horvitz, Eric; Kamar, Ece; Lee, Pedro; Lee, Yin Tat; Li, Yuanzhi; Lundberg, Scott; Nori, Harsha; Palangi, Hamid; Ribeiro, Marco Tulio; Zhang, Yi (27 de marzo de 2023). "Chispas de inteligencia general artificial: primeros experimentos con GPT-4". arXiv : 2303.12712 [cs.CL].
  64. ^ Boucher, Philip (marzo de 2019). "Observaciones finales". Cómo funciona la inteligencia artificial (PDF) (Reporte). Servicio de Investigación del Parlamento Europeo. Archivado (PDF) desde el original el 3 de marzo de 2020 . Consultado el 3 de marzo de 2020 . La IA actual es poderosa y útil, pero aún está lejos de lo que se especula como AGI o ASI.
  65. ^ itu.int: Beyond Mad?: The Race For Artificial General Intelligence Archivado el 9 de noviembre de 2020 en Wayback Machine , "AGI representa un nivel de poder que permanece firmemente en el ámbito de la ficción especulativa hasta la fecha". 2 de febrero de 2018, consultado el 3 de marzo de 2020
  66. ^ Allen, Pablo; Greaves, Mark (12 de octubre de 2011). "La singularidad no está cerca". Revisión de tecnología del MIT . Consultado el 17 de septiembre de 2014 .
  67. ^ Winfield, Alan. "La inteligencia artificial no se convertirá en un monstruo de Frankenstein". El guardián . Archivado desde el original el 17 de septiembre de 2014 . Consultado el 17 de septiembre de 2014 .
  68. ^ abc Relojes en 2003.
  69. ^ Fjelland, Ragnar (17 de junio de 2020). "Por qué no se realizará la inteligencia artificial general". Comunicaciones de Humanidades y Ciencias Sociales . 7 (1): 1–9. doi : 10.1057/s41599-020-0494-4 . hdl : 11250/2726984 . ISSN  2662-9992. S2CID  219710554.
  70. ^ McCarthy 2007.
  71. ^ Khatchadourian, Raffi (23 de noviembre de 2015). "La invención del fin del mundo: ¿La inteligencia artificial nos traerá utopía o destrucción?". El neoyorquino . Archivado desde el original el 28 de enero de 2016 . Consultado el 7 de febrero de 2016 .
  72. ^ Müller, VC y Bostrom, N. (2016). Progresos futuros en inteligencia artificial: una encuesta de opinión de expertos. En Cuestiones fundamentales de la inteligencia artificial (págs. 555–572). Springer, Cham.
  73. ^ Armstrong, Stuart y Kaj Sotala. 2012. "Cómo predecimos la IA o no". En Beyond AI: Artificial Dreams , editado por Jan Romportl, Pavel Ircing, Eva Zackova, Michal Polak y Radek Schuster, 52–75. Pilsen: Universidad de Bohemia Occidental
  74. ^ "Microsoft ahora afirma que GPT-4 muestra 'chispas' de inteligencia general". 24 de marzo de 2023.
  75. ^ Shimek, Cary (6 de julio de 2023). "La IA supera a los humanos en la prueba de creatividad". Noticias de neurociencia . Consultado el 20 de octubre de 2023 .
  76. ^ Guzik, Erik E.; Byrge, cristiano; Gilde, Christian (1 de diciembre de 2023). "La originalidad de las máquinas: la IA pasa la prueba de Torrance". Revista de Creatividad . 33 (3): 100065. doi : 10.1016/j.yjoc.2023.100065 . ISSN  2713-3745. S2CID  261087185.
  77. ^ Goertzel y Pennachin 2006.
  78. ^ a B C (Kurzweil 2005, pag. 260)
  79. ^ abcGoertzel 2007.
  80. ^ Gracia, Katja (2016). "Error en Armstrong y Sotala 2012". Impactos de la IA (blog). Archivado desde el original el 4 de diciembre de 2020 . Consultado el 24 de agosto de 2020 .
  81. ^ ab Butz, Martin V. (1 de marzo de 2021). "Hacia una IA fuerte". KI – Künstliche Intelligenz . 35 (1): 91-101. doi : 10.1007/s13218-021-00705-x . ISSN  1610-1987. S2CID  256065190.
  82. ^ Liu, Feng; Shi, Yong; Liu, Ying (2017). "Coeficiente intelectual y grado de inteligencia de la inteligencia artificial". Anales de ciencia de datos . 4 (2): 179–191. arXiv : 1709.10242 . doi :10.1007/s40745-017-0109-0. S2CID  37900130.
  83. ^ Brien, Jörn (5 de octubre de 2017). "Google-KI doppelt so schlau wie Siri" [La IA de Google es dos veces más inteligente que Siri, pero un niño de seis años supera a ambos] (en alemán). Archivado desde el original el 3 de enero de 2019 . Consultado el 2 de enero de 2019 .
  84. ^ Grossman, Gary (3 de septiembre de 2020). "Estamos entrando en la zona de penumbra de la IA entre la IA general y la estrecha". VentureBeat . Archivado desde el original el 4 de septiembre de 2020 . Consultado el 5 de septiembre de 2020 . Ciertamente, también hay quienes afirman que ya estamos viendo un ejemplo temprano de un sistema AGI en la red neuronal de procesamiento del lenguaje natural (NLP) GPT-3 recientemente anunciada. ... Entonces, ¿es GPT-3 el primer ejemplo de un sistema AGI? Esto es discutible, pero el consenso es que no es AGI. ... Al menos, GPT-3 nos dice que existe un término medio entre la IA estrecha y la general.
  85. ^ Quach, Katyanna. "Un desarrollador creó un chatbot de IA utilizando GPT-3 que ayudó a un hombre a hablar nuevamente con su difunta prometida. OpenAI lo cerró". El registro. Archivado desde el original el 16 de octubre de 2021 . Consultado el 16 de octubre de 2021 .
  86. ^ Wiggers, Kyle (13 de mayo de 2022), "La nueva IA de DeepMind puede realizar más de 600 tareas, desde jugar hasta controlar robots", TechCrunch , archivado desde el original el 16 de junio de 2022 , recuperado 12 de junio de 2022
  87. ^ Bubeck, Sébastien; Chandrasekaran, Varun; Eldan, Ronen; Gehrke, Johannes; Horvitz, Eric; Kamar, Ece; Lee, Pedro; Lee, Yin Tat; Li, Yuanzhi; Lundberg, Scott; Nori, Harsha; Palangi, Hamid; Ribeiro, Marco Tulio; Zhang, Yi (22 de marzo de 2023). "Chispas de inteligencia general artificial: primeros experimentos con GPT-4". arXiv : 2303.12712 [cs.CL].
  88. ^ Metz, Cade (1 de mayo de 2023). "'El padrino de la IA' abandona Google y advierte sobre el peligro que se avecina ". Los New York Times . ISSN  0362-4331 . Consultado el 7 de junio de 2023 .
  89. ^ Nellis, Stephen (2 de marzo de 2024). "El director ejecutivo de Nvidia dice que la IA podría superar las pruebas en humanos en cinco años". Reuters .
  90. ^ Nosta, John (5 de enero de 2024). "El camino acelerado hacia la inteligencia general artificial". Psicología Hoy . Consultado el 30 de marzo de 2024 .
  91. ^ Chupetón, Alex. "Emulación de todo el cerebro: un paso de gigante para la neurociencia". Cerveza tecnológica . Consultado el 8 de noviembre de 2023 .
  92. ^ Sandberg y Boström 2008.
  93. ^ Drachman 2005.
  94. ^ ab Russell y Norvig 2003.
  95. ^ Moravec 1988, pag. 61.
  96. ^ Moravec 1998.
  97. ^ Holmgaard Mersh, Amalie (15 de septiembre de 2023). "Un proyecto de investigación europeo de una década mapea el cerebro humano". euroactiv .
  98. ^ ab Thornton, Angela (26 de junio de 2023). "Cómo podría ser posible cargar nuestras mentes en una computadora". La conversación . Consultado el 8 de noviembre de 2023 .
  99. ^ Vicinanza, Domenico (18 de diciembre de 2023). "Una nueva supercomputadora tiene como objetivo imitar fielmente el cerebro humano; podría ayudar a descubrir los secretos de la mente y hacer avanzar la IA". La conversación . Consultado el 29 de marzo de 2024 .
  100. ^ Swaminathan, Nikhil (enero-febrero de 2011). "Glia: las otras células cerebrales". Descubrir . Archivado desde el original el 8 de febrero de 2014 . Consultado el 24 de enero de 2014 .
  101. ^ de Vega, Glenberg & Graesser 2008. Una amplia gama de puntos de vista en la investigación actual, todos los cuales requieren cierta base
  102. ^ Searle 1980
  103. ^ Por ejemplo:
    • Russell y Norvig 2003,
    • Diccionario de Psicología de Oxford University Press Archivado el 3 de diciembre de 2007 en Wayback Machine (citado en "Encyclopedia.com"),
    • Enciclopedia de ciencia cognitiva del MIT Archivada el 19 de julio de 2008 en Wayback Machine (citada en "AITopics"),
    • ¿Las computadoras biológicas permitirán que las máquinas con inteligencia artificial se conviertan en personas? Archivado el 13 de mayo de 2008 en Wayback Machine Anthony Tongen.
  104. ^ abc Russell y Norvig 2003, pág. 947.
  105. ^ aunque consulte Inteligencia artificial explicable para la curiosidad del campo sobre por qué un programa se comporta como lo hace.
  106. ^ Nagel 1974.
  107. ^ Turing 1950.
  108. ^ Sotala, Kaj; Yampolskiy, Roman V. (19 de diciembre de 2014). "Respuestas al riesgo catastrófico de AGI: una encuesta". Escritura física . 90 (1): 018001. doi : 10.1088/0031-8949/90/1/018001 . ISSN  0031-8949.
  109. ^ Yudkowsky 2006.
  110. ^ Alegría, Bill (abril de 2000). "Por qué el futuro no nos necesita". Cableado .
  111. ^ James, Alex P. (2022). "El por qué, el qué y el cómo del desarrollo de chips de inteligencia general artificial". Transacciones IEEE sobre sistemas cognitivos y de desarrollo . 14 (2): 333–347. arXiv : 2012.06338 . doi : 10.1109/TCDS.2021.3069871. ISSN  2379-8920. S2CID  228376556. Archivado desde el original el 28 de agosto de 2022 . Consultado el 28 de agosto de 2022 .
  112. ^ Pei, Jing; Deng, Lei; Canción, Sen; Zhao, Mingguo; Zhang, Youhui; Wu, Shuang; Wang, Guanrui; Zou, Zhe; Wu, Zhenzhi; Él, Wei; Chen, Feng; Deng, Ning; Wu, Si; Wang, Yu; Wu, Yujie (2019). "Hacia la inteligencia artificial general con arquitectura de chip híbrido Tianjic". Naturaleza . 572 (7767): 106–111. Código Bib :2019Natur.572..106P. doi :10.1038/s41586-019-1424-8. ISSN  1476-4687. PMID  31367028. S2CID  199056116. Archivado desde el original el 29 de agosto de 2022 . Consultado el 29 de agosto de 2022 .
  113. ^ Pandey, Mohit; Fernández, Michael; Gentil, Francesco; Isayev, Olexandr; Tropsha, Alejandro; Stern, Abraham C.; Cherkasov, Artem (marzo de 2022). "El papel transformador de la computación GPU y el aprendizaje profundo en el descubrimiento de fármacos". Inteligencia de la máquina de la naturaleza . 4 (3): 211–221. doi : 10.1038/s42256-022-00463-x . ISSN  2522-5839. S2CID  252081559.
  114. ^ Deane, George (2022). "Máquinas que sienten y piensan: el papel de los sentimientos afectivos y la acción mental en la inteligencia general (artificial)". Vida artificial . 28 (3): 289–309. doi :10.1162/artl_a_00368. ISSN  1064-5462. PMID  35881678. S2CID  251069071.
  115. ^ "Inteligencia general artificial: ¿el costo supera los beneficios?". 23 de agosto de 2021 . Consultado el 7 de junio de 2023 .
  116. ^ "Cómo podemos beneficiarnos del avance de la inteligencia general artificial (AGI) - Unite.AI". www.unite.ai . Consultado el 7 de junio de 2023 .
  117. ^ abc Talty, Jules; Julián, Esteban. "¿Cómo será nuestra sociedad cuando la inteligencia artificial esté en todas partes?". Revista Smithsonian . Consultado el 7 de junio de 2023 .
  118. ^ ab Stevenson, Matt (8 de octubre de 2015). "¡Las respuestas a la AMA de Stephen Hawking están aquí!". Cableado . ISSN  1059-1028 . Consultado el 8 de junio de 2023 .
  119. ^ ab Bostrom, Nick (2017). "§ Orden de llegada preferente". Superinteligencia: caminos, peligros, estrategias (Reimpreso con correcciones ed. 2017). Oxford, Reino Unido; Nueva York, Nueva York, Estados Unidos: Oxford University Press. ISBN 978-0-19-967811-2.
  120. ^ Piper, Kelsey (19 de noviembre de 2018). "Cómo el progreso tecnológico hace que sea más probable que nunca que los humanos nos destruyamos a nosotros mismos". Vox . Consultado el 8 de junio de 2023 .
  121. ^ Doherty, Ben (17 de mayo de 2018). "El cambio climático es un 'riesgo de seguridad existencial' para Australia, dice la investigación del Senado". El guardián . ISSN  0261-3077 . Consultado el 16 de julio de 2023 .
  122. ^ MacAskill, William (2022). Lo que le debemos al futuro . Nueva York, NY: Libros básicos. ISBN 978-1-5416-1862-6.
  123. ^ ab Ord, Toby (2020). "Capítulo 5: Riesgos futuros, inteligencia artificial no alineada". El precipicio: riesgo existencial y el futuro de la humanidad . Publicación de Bloomsbury. ISBN 978-1-5266-0021-9.
  124. ^ Al-Sibai, Noor (13 de febrero de 2022). "El científico jefe de OpenAI dice que la IA avanzada puede ya ser consciente". Futurismo . Consultado el 24 de diciembre de 2023 .
  125. ^ Samuelsson, Paul Conrad (2019). "Conciencia artificial: nuestro mayor desafío ético". Filosofía ahora . Consultado el 23 de diciembre de 2023 .
  126. ^ Kateman, Brian (24 de julio de 2023). "La IA debería tener miedo de los humanos". TIEMPO . Consultado el 23 de diciembre de 2023 .
  127. ^ Roose, Kevin (30 de mayo de 2023). "La IA plantea 'riesgo de extinción', advierten los líderes de la industria". Los New York Times . ISSN  0362-4331 . Consultado el 24 de diciembre de 2023 .
  128. ^ ab "Declaración sobre el riesgo de la IA". Centro para la seguridad de la IA . 30 de mayo de 2023 . Consultado el 8 de junio de 2023 .
  129. ^ "Stephen Hawking: 'La trascendencia analiza las implicaciones de la inteligencia artificial, pero ¿nos estamos tomando la IA lo suficientemente en serio?'". The Independent (Reino Unido) . Archivado desde el original el 25 de septiembre de 2015 . Consultado el 3 de diciembre de 2014 .
  130. ^ Herger, Mario. "El problema del gorila: Enterprise Garage" . Consultado el 7 de junio de 2023 .
  131. ^ "El fascinante debate en Facebook entre Yann LeCun, Stuart Russel y Yoshua Bengio sobre los riesgos de una IA fuerte". El fascinante debate en Facebook entre Yann LeCun, Stuart Russel y Yoshua Bengio sobre los riesgos de una IA fuerte (en francés) . Consultado el 8 de junio de 2023 .
  132. ^ "¿La inteligencia artificial condenará a la raza humana en los próximos 100 años?". Huffpost . 22 de agosto de 2014 . Consultado el 8 de junio de 2023 .
  133. ^ Sotala, Kaj; Yampolskiy, Roman V. (19 de diciembre de 2014). "Respuestas al riesgo catastrófico de AGI: una encuesta". Escritura física . 90 (1): 018001. doi : 10.1088/0031-8949/90/1/018001 . ISSN  0031-8949.
  134. ^ Bostrom, Nick (2014). Superinteligencia: caminos, peligros, estrategias (Primera ed.). Prensa de la Universidad de Oxford. ISBN 978-0199678112.
  135. ^ Chow, Andrew R.; Perrigo, Billy (16 de febrero de 2023). "La carrera armamentista de la IA ha comenzado. Empiece a preocuparse". TIEMPO . Consultado el 24 de diciembre de 2023 .
  136. ^ Tetlow, Gemma (12 de enero de 2017). "La carrera armamentista de la IA corre el riesgo de salirse de control, advierte un informe". www.ft.com . Consultado el 24 de diciembre de 2023 .
  137. ^ Milmo, Dan; Stacey, Kiran (25 de septiembre de 2023). "Los expertos no están de acuerdo sobre la amenaza que representa, pero no se puede ignorar la inteligencia artificial". El guardián . ISSN  0261-3077 . Consultado el 24 de diciembre de 2023 .
  138. ^ "Humanidad, seguridad e inteligencia artificial, ¡Dios mío! (con Ian Bremmer y Shuman Ghosemajumder)". CAFÉ . 20 de julio de 2023 . Consultado el 15 de septiembre de 2023 .
  139. ^ Hamblin, James (9 de mayo de 2014). "¿Pero qué significaría para mí el fin de la humanidad?". El Atlántico . Archivado desde el original el 4 de junio de 2014 . Consultado el 12 de diciembre de 2015 .
  140. ^ Titcomb, James (30 de octubre de 2023). "Las grandes tecnologías están avivando los temores sobre la IA, advierten los científicos". El Telégrafo . Consultado el 7 de diciembre de 2023 .
  141. ^ "El fundador de Google Brain dice que las grandes tecnologías mienten sobre el peligro de extinción de la IA". Revisión financiera australiana . 30 de octubre de 2023 . Consultado el 7 de diciembre de 2023 .
  142. ^ "Los GPT son GPT: una mirada temprana al potencial de impacto de los grandes modelos lingüísticos en el mercado laboral". openai.com . Consultado el 7 de junio de 2023 .
  143. ^ ab "El 80% de los trabajadores estarán expuestos a la IA. Estos trabajos serán los más afectados". euronoticias . 23 de marzo de 2023 . Consultado el 8 de junio de 2023 .
  144. ^ Sheffey, Ayelet. "Elon Musk dice que necesitamos una renta básica universal porque 'en el futuro, el trabajo físico será una opción'". Business Insider . Consultado el 8 de junio de 2023 .

Fuentes

Otras lecturas

enlaces externos