Hipotética IA a nivel humano o más potente para una amplia gama de tareas
La inteligencia general artificial ( AGI ) es un tipo de inteligencia artificial (IA) que puede funcionar tan bien o mejor que los humanos en una amplia gama de tareas cognitivas. [1] Esto contrasta con la IA limitada , que está diseñada para tareas específicas. [2] AGI se considera una de varias definiciones de IA fuerte .
La creación de AGI es un objetivo principal de la investigación de IA y de empresas como OpenAI , [3] DeepMind y Anthropic . Una encuesta de 2020 identificó 72 proyectos activos de I+D de AGI repartidos en 37 países. [4]
El cronograma para el desarrollo de AGI sigue siendo un tema de debate continuo entre investigadores y expertos. A partir de 2023 [update], algunos sostienen que puede ser posible en años o décadas; otros sostienen que podría llevar un siglo o más; y una minoría cree que tal vez nunca se logre. [5] Existe un debate sobre la definición exacta de AGI y sobre si los modelos de lenguaje grande (LLM) modernos, como GPT-4, son formas tempranas e incompletas de AGI. [6] AGI es un tema común en la ciencia ficción y los estudios de futuro .
Existe controversia sobre el potencial de que AGI represente una amenaza para la humanidad; [7] por ejemplo, OpenAI afirma tratarlo como un riesgo existencial , mientras que otros consideran que el desarrollo de AGI es demasiado remoto para presentar un riesgo. [8] [5] [9]
Terminología
AGI también se conoce como IA fuerte, [10] [11] IA completa, [12] IA a nivel humano [5] o acción inteligente general. [13] Sin embargo, algunas fuentes académicas reservan el término "IA fuerte" para programas de computadora que experimentan sensibilidad o conciencia . [a] Por el contrario, la IA débil (o IA estrecha) es capaz de resolver un problema específico, pero carece de capacidades cognitivas generales. [14] [11] Algunas fuentes académicas utilizan "IA débil" para referirse más ampliamente a cualquier programa que no experimente conciencia ni tenga una mente en el mismo sentido que los humanos. [a]
Los conceptos relacionados incluyen superinteligencia artificial e IA transformadora. Una superinteligencia artificial (ASI) es un tipo hipotético de AGI que es mucho más inteligente en general que los humanos, [15] mientras que la noción de IA transformadora se relaciona con la IA que tiene un gran impacto en la sociedad, por ejemplo, similar a la revolución agrícola o industrial. . [dieciséis]
Otras capacidades se consideran deseables en los sistemas inteligentes, ya que pueden afectar la inteligencia o ayudar en su expresión. Estos incluyen: [21]
la capacidad de sentir (por ejemplo , ver , oír, etc.), y
la capacidad de actuar (por ejemplo, mover y manipular objetos , cambiar de ubicación para explorar, etc.)
Esto incluye la capacidad de detectar y responder a peligros . [22]
Pruebas de AGI a nivel humano
Se han considerado varias pruebas destinadas a confirmar el AGI a nivel humano, entre ellas: [23] [24]
Una máquina y un humano conversan sin ser vistos con un segundo humano, quien debe evaluar cuál de los dos es la máquina, que pasa la prueba si puede engañar al evaluador una fracción significativa del tiempo. Nota: Turing no prescribe lo que debería calificarse como inteligencia, sólo que saber que es una máquina debería descalificarla. La IA Eugene Goostman , imitando a un niño de 13 años, logró la estimación de Turing de convencer al 33% de los jueces de que era humano en 2014. [25]
La prueba de robot para estudiantes universitarios ( Goertzel )
Una máquina se matricula en una universidad, toma y aprueba las mismas clases que los humanos y obtiene un título. Los LLM ahora pueden aprobar exámenes de nivel universitario sin siquiera asistir a clases. [26]
Una máquina realiza un trabajo económicamente importante al menos tan bien como los humanos en el mismo trabajo. Las IA están reemplazando a los humanos en muchas funciones tan variadas como la comida rápida y el marketing. [27]
También conocida como prueba de muebles de paquete plano. Una IA ve las piezas y las instrucciones de un producto de paquete plano de Ikea y luego controla un robot para ensamblar los muebles correctamente. [28]
Se requiere una máquina para ingresar a un hogar estadounidense promedio y descubrir cómo preparar café: encontrar la máquina de café, encontrar el café, agregar agua, encontrar una taza y preparar el café presionando los botones adecuados. [29] Esto aún no se ha completado.
Un modelo de IA recibe 100.000 dólares y debe obtener 1 millón de dólares. [30] [31]
Problemas completos de IA
Hay muchos problemas que pueden requerir inteligencia general para resolverlos tan bien como lo hacen los humanos. Por ejemplo, incluso tareas sencillas y específicas, como la traducción automática , requieren que una máquina lea y escriba en ambos idiomas (PNL), siga el argumento del autor (razón), sepa de qué se está hablando (conocimiento) y reproduzca fielmente el original del autor. intención (inteligencia social). Todos estos problemas deben resolverse simultáneamente para alcanzar el rendimiento de la máquina al nivel humano.
Un problema se denomina informalmente "IA-completa" o "IA-duro" si se cree que para resolverlo sería necesario implementar una IA potente, porque la solución está más allá de las capacidades de un algoritmo con un propósito específico. [32]
Los problemas de la IA completa no se pueden resolver únicamente con la tecnología informática actual y requieren computación humana . Esta limitación podría ser útil para probar la presencia de humanos, como pretenden hacer los CAPTCHA ; y para la seguridad informática para repeler ataques de fuerza bruta . [34] [35]
Historia
IA clásica
La investigación moderna en IA comenzó a mediados de la década de 1950. [36] La primera generación de investigadores de IA estaba convencida de que la inteligencia artificial general era posible y que existiría en tan solo unas pocas décadas. [37] El pionero de la IA, Herbert A. Simon , escribió en 1965: "las máquinas serán capaces, dentro de veinte años, de realizar cualquier trabajo que un hombre pueda hacer". [38]
Sus predicciones fueron la inspiración para el personaje HAL 9000 de Stanley Kubrick y Arthur C. Clarke , que encarnaba lo que los investigadores de IA creían que podían crear en el año 2001. El pionero de la IA, Marvin Minsky, fue consultor [39] en el proyecto de hacer HAL 9000. lo más realista posible según las predicciones consensuadas de la época. Dijo en 1967: "Dentro de una generación... el problema de crear 'inteligencia artificial' estará sustancialmente resuelto". [40]
Sin embargo, a principios de la década de 1970, se hizo evidente que los investigadores habían subestimado enormemente la dificultad del proyecto. Las agencias de financiación se volvieron escépticas con respecto a la AGI y presionaron cada vez más a los investigadores para que produjeran una "IA aplicada" útil. [c] A principios de la década de 1980, el Proyecto de Computación de Quinta Generación de Japón revivió el interés en AGI, estableciendo un cronograma de diez años que incluía objetivos de AGI como "mantener una conversación informal". [44] En respuesta a esto y al éxito de los sistemas expertos , tanto la industria como el gobierno inyectaron dinero en este campo. [42] [45] Sin embargo, la confianza en la IA colapsó espectacularmente a finales de la década de 1980 y los objetivos del Proyecto de Computación de Quinta Generación nunca se cumplieron. [46] Por segunda vez en 20 años, los investigadores de IA que predijeron el inminente logro de AGI se habían equivocado. En la década de 1990, los investigadores de IA tenían fama de hacer promesas vanas. Se volvieron reacios a hacer predicciones [d] y evitaron mencionar la inteligencia artificial de "nivel humano" por temor a ser etiquetados como "soñadores de ojos desorbitados". [48]
Investigación limitada de IA
En la década de 1990 y principios del siglo XXI, la IA convencional logró éxito comercial y respetabilidad académica al centrarse en subproblemas específicos en los que la IA puede producir resultados verificables y aplicaciones comerciales, como el reconocimiento de voz y los algoritmos de recomendación . [49] Estos sistemas de "IA aplicada" ahora se utilizan ampliamente en toda la industria tecnológica, y la investigación en este sentido recibe una gran financiación tanto en el mundo académico como en la industria. A partir de 2018 [update], el desarrollo en este campo se consideraba una tendencia emergente y se esperaba alcanzar una etapa de madurez en más de 10 años. [50]
A principios de siglo, muchos investigadores convencionales de IA [51] esperaban que se pudiera desarrollar una IA potente combinando programas que resolvieran varios subproblemas. Hans Moravec escribió en 1988:
Estoy seguro de que esta ruta ascendente hacia la inteligencia artificial algún día se encontrará con la ruta tradicional de arriba hacia abajo a más de la mitad del camino, lista para proporcionar la competencia del mundo real y el conocimiento de sentido común que ha sido tan frustrantemente difícil de alcanzar en los programas de razonamiento. Se obtendrán máquinas totalmente inteligentes cuando se impulse la metafórica punta dorada uniendo los dos esfuerzos. [51]
Sin embargo, ya en aquel momento esto fue discutido. Por ejemplo, Stevan Harnad de la Universidad de Princeton concluyó su artículo de 1990 sobre la hipótesis de la fundamentación del símbolo afirmando:
A menudo se ha expresado la expectativa de que los enfoques "de arriba hacia abajo" (simbólicos) para modelar la cognición de alguna manera se encontrarán con los enfoques "de abajo hacia arriba" (sensoriales) en algún punto intermedio. Si las consideraciones fundamentales de este artículo son válidas, entonces esta expectativa es irremediablemente modular y en realidad sólo hay una ruta viable desde el sentido a los símbolos: desde cero. Un nivel simbólico flotante como el nivel de software de una computadora nunca será alcanzado por esta ruta (o viceversa) – ni tampoco está claro por qué deberíamos siquiera intentar alcanzar tal nivel, ya que parece que llegar allí simplemente Esto equivale a desarraigar nuestros símbolos de sus significados intrínsecos (reduciéndonos así simplemente al equivalente funcional de una computadora programable). [52]
Investigación moderna sobre inteligencia general artificial.
El término "inteligencia general artificial" fue utilizado ya en 1997 por Mark Gubrud [53] en una discusión sobre las implicaciones de la producción y las operaciones militares totalmente automatizadas. Marcus Hutter propuso un formalismo matemático de AGI en 2000. Llamado AIXI , el agente AGI propuesto maximiza "la capacidad de satisfacer objetivos en una amplia gama de entornos". [54] Este tipo de AGI, caracterizado por la capacidad de maximizar una definición matemática de inteligencia en lugar de exhibir un comportamiento similar al humano, [55] también se llamó inteligencia artificial universal. [56]
El término AGI fue reintroducido y popularizado por Shane Legg y Ben Goertzel alrededor de 2002. [57] Pei Wang y Ben Goertzel [58] describieron la actividad de investigación de AGI en 2006 como "producción de publicaciones y resultados preliminares". La primera escuela de verano en AGI fue organizada en Xiamen, China, en 2009 [59] por el Laboratorio de Cerebro Artificial de la Universidad de Xiamen y OpenCog. El primer curso universitario lo impartió Todor Arnaudov en 2010 [60] y 2011 [61] en la Universidad de Plovdiv, Bulgaria. El MIT presentó un curso sobre AGI en 2018, organizado por Lex Fridman y con varios conferenciantes invitados.
A partir de 2023 [update], un pequeño número de informáticos participan activamente en la investigación de AGI y muchos contribuyen a una serie de conferencias de AGI . Sin embargo, cada vez más investigadores están interesados en el aprendizaje abierto, [62] [63], que es la idea de permitir que la IA aprenda e innove continuamente como lo hacen los humanos. Aunque la mayoría de los trabajos de aprendizaje abiertos todavía se realizan en Minecraft , [18] [21] [54] su aplicación se puede extender a la robótica y las ciencias.
Factibilidad
A partir de 2023 [update], las formas completas de AGI siguen siendo especulativas. [64] [65] Aún no se ha demostrado ningún sistema que cumpla con los criterios generalmente acordados para AGI. Las opiniones varían sobre si llegará la inteligencia artificial general y cuándo. El pionero de la IA, Herbert A. Simon, especuló en 1965 que "las máquinas serán capaces, dentro de veinte años, de realizar cualquier trabajo que un hombre pueda hacer". Esta predicción no se hizo realidad. El cofundador de Microsoft, Paul Allen, creía que tal inteligencia es poco probable en el siglo XXI porque requeriría "avances imprevisibles y fundamentalmente impredecibles" y una "comprensión científicamente profunda de la cognición". [66] Escribiendo en The Guardian , el robótico Alan Winfield afirmó que el abismo entre la informática moderna y la inteligencia artificial a nivel humano es tan amplio como el abismo entre los vuelos espaciales actuales y los vuelos espaciales prácticos más rápidos que la luz. [67]
La mayoría de los investigadores de IA creen que en el futuro se puede lograr una IA fuerte, pero algunos pensadores, como Hubert Dreyfus y Roger Penrose , niegan la posibilidad de lograr una IA fuerte. [68] [69] John McCarthy se encuentra entre quienes creen que se logrará la IA a nivel humano, pero que el nivel actual de progreso es tal que no se puede predecir con precisión una fecha. [70] Las opiniones de los expertos en IA sobre la viabilidad del AGI aumentan y disminuyen. Cuatro encuestas realizadas en 2012 y 2013 sugirieron que la estimación mediana entre los expertos de cuándo tendrían un 50% de confianza en que llegaría AGI era de 2040 a 2050, según la encuesta, con una media de 2081. De los expertos, el 16,5% respondió con " nunca" cuando se le hizo la misma pregunta pero con un 90% de confianza. [71] [72] Se pueden encontrar más consideraciones actuales sobre el progreso del AGI en Pruebas para confirmar el AGI a nivel humano.
Un informe de Stuart Armstrong y Kaj Sotala del Machine Intelligence Research Institute encontró que "en un período de 60 años existe un fuerte sesgo hacia la predicción de la llegada de la IA a nivel humano entre 15 y 25 años desde el momento en que se hizo la predicción". Analizaron 95 predicciones hechas entre 1950 y 2012 sobre cuándo surgirá la IA a nivel humano. [73]
En 2023, los investigadores de Microsoft publicaron una evaluación detallada de GPT-4 . Concluyeron: "Dada la amplitud y profundidad de las capacidades de GPT-4, creemos que podría considerarse razonablemente como una versión temprana (aunque aún incompleta) de un sistema de inteligencia artificial general (AGI)". [74] Otro estudio realizado en 2023 informó que GPT-4 supera al 99% de los humanos en las pruebas de pensamiento creativo de Torrance . [75] [76]
Escalas de tiempo
En la introducción a su libro de 2006, [77] Goertzel dice que las estimaciones del tiempo necesario antes de que se construya un AGI verdaderamente flexible varían de 10 años a más de un siglo. En 2007 [update], el consenso en la comunidad de investigación de AGI parecía ser que la línea de tiempo discutida por Ray Kurzweil en 2005 en The Singularity is Near [78] (es decir, entre 2015 y 2045) era plausible. [79] Los principales investigadores de IA han dado una amplia gama de opiniones sobre si el progreso será tan rápido. Un metaanálisis de 95 opiniones de este tipo realizado en 2012 encontró un sesgo hacia la predicción de que la aparición de AGI ocurriría dentro de 16 a 26 años, tanto para las predicciones modernas como para las históricas. Ese artículo ha sido criticado por cómo categorizó las opiniones como expertas o no expertas. [80]
En 2012, Alex Krizhevsky , Ilya Sutskever y Geoffrey Hinton desarrollaron una red neuronal llamada AlexNet , que ganó la competencia ImageNet con una tasa de error de prueba entre los cinco primeros del 15,3 %, significativamente mejor que la tasa del segundo mejor participante del 26,3 % (la El enfoque tradicional utilizaba una suma ponderada de puntuaciones de diferentes clasificadores predefinidos). [81] AlexNet fue considerado como el pionero inicial de la actual ola de aprendizaje profundo . [81]
En 2017, los investigadores Feng Liu, Yong Shi y Ying Liu realizaron pruebas de inteligencia en IA débiles disponibles públicamente y de libre acceso, como la IA de Google, Siri de Apple y otras. Como máximo, estas IA alcanzaron un valor de coeficiente intelectual de aproximadamente 47, lo que corresponde aproximadamente a un niño de seis años en primer grado. Un adulto llega a unos 100 en promedio. En 2014 se llevaron a cabo pruebas similares, y la puntuación de coeficiente intelectual alcanzó un valor máximo de 27. [82] [83]
En 2020, OpenAI desarrolló GPT-3 , un modelo de lenguaje capaz de realizar muchas tareas diversas sin una formación específica. Según Gary Grossman en un artículo de VentureBeat , si bien existe consenso en que GPT-3 no es un ejemplo de AGI, algunos lo consideran demasiado avanzado para clasificarlo como un sistema de IA limitado. [84]
Ese mismo año, Jason Rohrer utilizó su cuenta GPT-3 para desarrollar un chatbot y proporcionó una plataforma de desarrollo de chatbot llamada "Proyecto Diciembre". OpenAI solicitó cambios en el chatbot para cumplir con sus pautas de seguridad; Rohrer desconectó el Proyecto Diciembre de la API GPT-3. [85]
En 2022, DeepMind desarrolló Gato , un sistema de "propósito general" capaz de realizar más de 600 tareas diferentes. [86]
En 2023, Microsoft Research publicó un estudio sobre una versión inicial de GPT-4 de OpenAI , sosteniendo que exhibía una inteligencia más general que los modelos de IA anteriores y demostraba un rendimiento a nivel humano en tareas que abarcaban múltiples dominios, como matemáticas, codificación y derecho. Esta investigación provocó un debate sobre si GPT-4 podría considerarse una versión temprana e incompleta de inteligencia artificial general, enfatizando la necesidad de una mayor exploración y evaluación de dichos sistemas. [87]
En 2023, el investigador de IA Geoffrey Hinton afirmó que: [88]
La idea de que estas cosas podrían en realidad volverse más inteligentes que las personas; algunas personas creían que, [...]. Pero la mayoría de la gente pensó que estaba muy lejos. Y pensé que estaba muy lejos. Pensé que faltaban entre 30 y 50 años o incluso más. Obviamente ya no pienso eso.
En marzo de 2024, el director ejecutivo de Nvidia , Jensen Huang , expresó su expectativa de que dentro de cinco años la IA sería capaz de pasar cualquier prueba al menos tan bien como los humanos. [89]
Emulación de todo el cerebro
Si bien el desarrollo de grandes modelos de lenguaje se considera el camino más prometedor hacia la AGI, [90] la emulación de todo el cerebro puede servir como un enfoque alternativo. Con la simulación de todo el cerebro, se construye un modelo cerebral escaneando y mapeando un cerebro biológico en detalle, y luego copiándolo y simulándolo en un sistema informático u otro dispositivo computacional. El modelo de simulación debe ser lo suficientemente fiel al original, como para que se comporte prácticamente igual que el cerebro original. [91] La emulación de todo el cerebro es un tipo de simulación cerebral que se analiza en neurociencia computacional y neuroinformática , y con fines de investigación médica. Se ha debatido en investigaciones sobre inteligencia artificial [79] como un enfoque para lograr una IA sólida. Las tecnologías de neuroimagen que podrían ofrecer la comprensión detallada necesaria están mejorando rápidamente, y el futurista Ray Kurzweil en el libro The Singularity Is Near [78] predice que un mapa de calidad suficiente estará disponible en una escala de tiempo similar a la potencia de cálculo necesaria para emularlo.
Estimaciones tempranas
Para la simulación cerebral de bajo nivel, se necesitaría un grupo muy potente de computadoras o GPU, dada la enorme cantidad de sinapsis dentro del cerebro humano . Cada una de las 10 11 (cien mil millones) de neuronas tiene en promedio 7.000 conexiones sinápticas (sinapsis) con otras neuronas. El cerebro de un niño de tres años tiene alrededor de 10 15 sinapsis (1 cuatrillón). Este número disminuye con la edad y se estabiliza en la edad adulta. Las estimaciones varían para un adulto, oscilando entre 10 14 y 5 × 10 14 sinapsis (100 a 500 billones). [93] Una estimación del poder de procesamiento del cerebro, basada en un modelo de conmutación simple para la actividad neuronal, es de alrededor de 10 14 (100 billones) de actualizaciones sinápticas por segundo ( SUPS ). [94]
En 1997, Kurzweil examinó varias estimaciones del hardware necesario para igualar el cerebro humano y adoptó una cifra de 10 16 cálculos por segundo (cps). [e] (A modo de comparación, si un "cálculo" equivaliera a una " operación de punto flotante " -una medida utilizada para calificar las supercomputadoras actuales- entonces 10 16 "cálculos" equivaldrían a 10 petaFLOPS , logrados en 2011 , mientras que 10 18 se logró en 2022. ) Utilizó esta cifra para predecir que el hardware necesario estaría disponible en algún momento entre 2015 y 2025, si continuaba el crecimiento exponencial de la potencia informática en el momento de escribir este artículo.
La investigación actual
El Human Brain Project , una iniciativa financiada por la UE que estará activa desde 2013 hasta 2023, ha desarrollado un atlas del cerebro humano especialmente detallado y accesible al público. [97] En 2023, investigadores de la Universidad de Duke realizaron una exploración de alta resolución del cerebro de un ratón. [98] Se espera que en abril de 2024 aparezca una supercomputadora con una capacidad informática similar a la del cerebro humano. Llamada "DeepSouth", podría realizar 228 billones de operaciones sinápticas por segundo. [99]
Críticas a los enfoques basados en simulación
El modelo de neurona artificial asumido por Kurzweil y utilizado en muchas implementaciones actuales de redes neuronales artificiales es simple en comparación con las neuronas biológicas . Una simulación cerebral probablemente tendría que capturar el comportamiento celular detallado de las neuronas biológicas , que actualmente sólo se comprende a grandes rasgos. La sobrecarga introducida por el modelado completo de los detalles biológicos, químicos y físicos del comportamiento neuronal (especialmente a escala molecular) requeriría poderes computacionales varios órdenes de magnitud mayores que los estimados por Kurzweil. Además, las estimaciones no tienen en cuenta las células gliales , que se sabe que desempeñan un papel en los procesos cognitivos. [100]
Una crítica fundamental al enfoque del cerebro simulado se deriva de la teoría de la cognición corporeizada , que afirma que la encarnación humana es un aspecto esencial de la inteligencia humana y es necesaria para fundamentar el significado. [101] [98] Si esta teoría es correcta, cualquier modelo cerebral completamente funcional deberá abarcar algo más que las neuronas (por ejemplo, un cuerpo robótico). Goertzel [79] propone la encarnación virtual (como en metaversos como Second Life ) como opción, pero se desconoce si esto sería suficiente.
Perspectiva filosófica
"IA fuerte" como se define en la filosofía
En 1980, el filósofo John Searle acuñó el término "IA fuerte" como parte de su argumento sobre la habitación china . [102] Quería distinguir entre dos hipótesis diferentes sobre la inteligencia artificial: [f]
Fuerte hipótesis de la IA : un sistema de inteligencia artificial puede tener "mente" y "conciencia".
Hipótesis de la IA débil : un sistema de inteligencia artificial (solo) puede actuar como si pensara y tuviera mente y conciencia.
Al primero lo llamó "fuerte" porque hace una declaración más fuerte : supone que le ha sucedido algo especial a la máquina que va más allá de las capacidades que podemos probar. El comportamiento de una máquina de "IA débil" sería exactamente idéntico al de una máquina de "IA fuerte", pero esta última también tendría una experiencia consciente subjetiva. Este uso también es común en libros de texto y investigaciones académicas sobre IA. [103]
A diferencia de Searle y la IA convencional, algunos futuristas como Ray Kurzweil utilizan el término "IA fuerte" para referirse a "inteligencia general artificial a nivel humano". [78] Esto no es lo mismo que la fuerte IA de Searle , a menos que se asuma que la conciencia es necesaria para la AGI a nivel humano. Los filósofos académicos como Searle no creen que ese sea el caso, y para la mayoría de los investigadores de inteligencia artificial la cuestión está fuera de alcance. [104]
La IA convencional está más interesada en cómo se comporta un programa . [105] Según Russell y Norvig , "mientras el programa funcione, no les importa si lo llamas real o simulación". [104] Si el programa puede comportarse como si tuviera una mente, entonces no hay necesidad de saber si realmente tiene mente; de hecho, no habría manera de saberlo. Para la investigación de la IA, la "hipótesis de la IA débil" de Searle equivale a la afirmación "la inteligencia general artificial es posible". Por lo tanto, según Russell y Norvig, "la mayoría de los investigadores de IA dan por sentada la hipótesis de la IA débil y no les importa la hipótesis de la IA fuerte". [104] Por lo tanto, para la investigación académica de IA, "IA fuerte" y "AGI" son dos cosas diferentes.
Conciencia : Tener experiencia subjetiva . Thomas Nagel explica que estar consciente "se siente como" algo. Si no somos conscientes, entonces no sentimos nada. Nagel utiliza el ejemplo de un murciélago: podemos preguntar sensatamente "¿qué se siente al ser un murciélago?" Sin embargo, es poco probable que nos preguntemos "¿qué se siente al ser una tostadora?" Nagel concluye que un murciélago parece estar consciente (es decir, tiene conciencia), pero una tostadora no. [106]
Autoconciencia : Tener conciencia de uno mismo como un individuo separado, especialmente para ser consciente de los propios pensamientos. Esto se opone a ser simplemente el "tema del pensamiento": un sistema operativo o un depurador puede ser "consciente de sí mismo" (es decir, representarse a sí mismo de la misma manera que representa todo lo demás), pero esto no es lo que la gente lo que normalmente quieren decir cuando utilizan el término "autoconciencia". [gramo]
sensibilidad : La capacidad de "sentir" percepciones o emociones subjetivamente, a diferencia de la capacidad de razonar sobre las percepciones o, en lo que respecta a las emociones, de ser consciente de que la situación requiere urgencia, bondad o agresión. Por ejemplo, podemos construir una máquina que sepa qué objetos en su campo de visión son rojos, pero esta máquina no necesariamente sabrá cómo se ve el rojo .
Estos rasgos tienen una dimensión moral, porque una máquina con esta forma de "IA fuerte" puede tener derechos, análogos a los derechos de los animales no humanos . Se ha realizado un trabajo preliminar para integrar una IA fuerte con los marcos legales y sociales existentes, centrándose en la posición legal y los derechos de la IA "fuerte". [108]
Queda por demostrar si la " conciencia artificial " es necesaria para la AGI. Sin embargo, muchos investigadores de AGI consideran vital la investigación que investiga las posibilidades de implementar la conciencia. [109]
Bill Joy , entre otros, sostiene que una máquina con estas características puede ser una amenaza para la vida o la dignidad humana. [110]
Desafíos de la investigación
Históricamente, el progreso en inteligencia artificial ha pasado por períodos de rápido progreso separados por períodos en los que el progreso parecía detenerse. [68] Poner fin a cada pausa fueron avances fundamentales en hardware, software o ambos para crear espacio para un mayor progreso. [68] [111] [112] Por ejemplo, el hardware informático disponible en el siglo XX no era suficiente para implementar el aprendizaje profundo, que requiere una gran cantidad de CPU habilitadas para GPU . [113]
Otro desafío es la falta de claridad a la hora de definir qué implica la inteligencia . ¿Requiere conciencia? ¿Debe mostrar la capacidad de fijar objetivos y también de perseguirlos? ¿Es puramente una cuestión de escala tal que si el tamaño de los modelos aumenta lo suficiente, surgirá la inteligencia? ¿Se requieren facilidades como planificación, razonamiento y comprensión causal? ¿La inteligencia requiere replicar explícitamente el cerebro y sus facultades específicas? ¿Requiere emociones? [114]
Beneficios
AGI podría tener una amplia variedad de aplicaciones. Si se orienta hacia tales objetivos, la AGI podría ayudar a mitigar diversos problemas en el mundo, como el hambre, la pobreza y los problemas de salud. [115]
AGI podría mejorar la productividad y la eficiencia en la mayoría de los puestos de trabajo. Por ejemplo, en el ámbito de la salud pública, la AGI podría acelerar la investigación médica, en particular contra el cáncer. [116] Podría cuidar a las personas mayores, [117] y democratizar el acceso a diagnósticos médicos rápidos y de alta calidad. Podría ofrecer una educación divertida, barata y personalizada. [117] Para prácticamente cualquier trabajo que beneficie a la sociedad si se hace bien, probablemente tarde o temprano sería preferible dejárselo a un AGI. La necesidad de trabajar para subsistir podría quedar obsoleta si la riqueza producida se redistribuye adecuadamente . [117] [118] Esto también plantea la cuestión del lugar de los humanos en una sociedad radicalmente automatizada.
La AGI también podría ayudar a tomar decisiones racionales y a anticipar y prevenir desastres. También podría ayudar a aprovechar los beneficios de tecnologías potencialmente catastróficas como la nanotecnología o la ingeniería climática , evitando al mismo tiempo los riesgos asociados. [119] Si el objetivo principal de una AGI es prevenir catástrofes existenciales como la extinción humana (lo que podría ser difícil si la Hipótesis del Mundo Vulnerable resulta ser cierta), [120] podría tomar medidas para reducir drásticamente los riesgos [119] mientras minimizando el impacto de estas medidas en nuestra calidad de vida.
Riesgos
Riesgos existenciales
AGI puede representar múltiples tipos de riesgo existencial , que son riesgos que amenazan con "la extinción prematura de la vida inteligente originada en la Tierra o la destrucción permanente y drástica de su potencial para un desarrollo futuro deseable". [121] El riesgo de extinción humana a causa de la AGI ha sido tema de muchos debates, pero también existe la posibilidad de que el desarrollo de la AGI conduzca a un futuro permanentemente defectuoso. En particular, podría utilizarse para difundir y preservar el conjunto de valores de quien lo desarrolla. Si la humanidad todavía tiene puntos ciegos morales similares a la esclavitud en el pasado, AGI podría atrincherarlos irreversiblemente, impidiendo el progreso moral . [122] Además, la AGI podría facilitar la vigilancia y el adoctrinamiento masivos, que podrían utilizarse para crear un régimen totalitario mundial represivo estable. [123] [124] También existe un riesgo para las propias máquinas. Si en el futuro se crean en masa máquinas sensibles o dignas de consideración moral, emprender un camino civilizatorio que descuide indefinidamente su bienestar e intereses podría ser una catástrofe existencial. [125] [126] Considerando cuánto la AGI podría mejorar el futuro de la humanidad y ayudar a reducir otros riesgos existenciales, Toby Ord llama a estos riesgos existenciales "un argumento para proceder con la debida precaución", no para "abandonar la IA". [123]
Riesgo de pérdida de control y extinción humana
La tesis de que la IA plantea un riesgo existencial para los humanos, y que este riesgo necesita más atención, es controvertida, pero ha sido respaldada en 2023 por muchas figuras públicas, investigadores de IA y directores ejecutivos de empresas de IA como Elon Musk , Bill Gates , Geoffrey Hinton , Yoshua Bengio , Demis Hassabis y Sam Altman . [127] [128]
En 2014, Stephen Hawking criticó la indiferencia generalizada:
Entonces, ante posibles futuros de beneficios y riesgos incalculables, los expertos seguramente están haciendo todo lo posible para garantizar el mejor resultado, ¿verdad? Equivocado. Si una civilización alienígena superior nos enviara un mensaje diciendo: "Llegaremos en unas pocas décadas", ¿le responderíamos simplemente: "Está bien, llámanos cuando llegues aquí; dejaremos las luces encendidas?" Probablemente no, pero esto es más o menos lo que está sucediendo con la IA. [129]
En ocasiones se ha comparado el destino potencial de la humanidad con el destino de los gorilas amenazados por las actividades humanas. La comparación afirma que una mayor inteligencia permitió a la humanidad dominar a los gorilas, que ahora son vulnerables en formas que no podrían haber previsto. Como resultado, el gorila se ha convertido en una especie en peligro de extinción, no por malicia, sino simplemente como un daño colateral de las actividades humanas. [130]
El escéptico Yann LeCun considera que los AGI no tendrán ningún deseo de dominar a la humanidad y que debemos tener cuidado de no antropomorfizarlos e interpretar sus intenciones como lo haríamos con los humanos. Dijo que la gente no será "lo suficientemente inteligente como para diseñar máquinas superinteligentes, pero sí ridículamente estúpidas hasta el punto de asignarles objetivos estúpidos y sin salvaguardias". [131] Por otro lado, el concepto de convergencia instrumental sugiere que casi cualesquiera que sean sus objetivos, los agentes inteligentes tendrán razones para tratar de sobrevivir y adquirir más poder como pasos intermedios para lograr estos objetivos. Y que para ello no es necesario tener emociones. [132]
Muchos académicos preocupados por el riesgo existencial abogan por más investigaciones para resolver el " problema de control " para responder a la pregunta: ¿qué tipos de salvaguardas, algoritmos o arquitecturas pueden implementar los programadores para maximizar la probabilidad de que su IA que mejora recursivamente continúe comportándose? de manera amistosa , en lugar de destructiva, una vez que llegue a la superinteligencia? [133] [134] Resolver el problema de control se complica por la carrera armamentista de la IA (que podría llevar a una carrera hacia el fondo de las precauciones de seguridad para lanzar productos antes que los competidores), [135] y el uso de la IA en sistemas de armas. . [136]
La tesis de que la IA puede suponer un riesgo existencial también tiene detractores. Los escépticos suelen decir que la AGI es poco probable en el corto plazo, o que las preocupaciones sobre la AGI distraen de otras cuestiones relacionadas con la IA actual. [137] El ex zar del fraude de Google, Shuman Ghosemajumder, considera que para muchas personas fuera de la industria tecnológica, los chatbots y LLM existentes ya se perciben como si fueran AGI, lo que genera más malentendidos y miedo. [138]
Los escépticos a veces acusan de que la tesis es criptorreligiosa, con una creencia irracional en la posibilidad de que la superinteligencia reemplace una creencia irracional en un Dios omnipotente. [139] Algunos investigadores creen que las campañas de comunicación sobre el riesgo existencial de la IA por parte de ciertos grupos de IA (como OpenAI, Anthropic, DeepMind y Conjecture) pueden ser un intento de captura regulatoria e inflar el interés en sus productos. [140] [141]
En 2023, los directores ejecutivos de Google DeepMind, OpenAI y Anthropic, junto con otros líderes e investigadores de la industria, emitieron una declaración conjunta en la que afirmaban que "Mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala social, como las pandemias y guerra nuclear." [128]
Paro masivo
Los investigadores de OpenAI estimaron que "el 80% de la fuerza laboral estadounidense podría ver afectada al menos el 10% de sus tareas laborales por la introducción de los LLM, mientras que alrededor del 19% de los trabajadores podrían ver afectada al menos el 50% de sus tareas". [142] [143] Consideran que los trabajadores de oficina son los más expuestos, por ejemplo, los matemáticos, los contables o los diseñadores web. [143] AGI podría tener una mayor autonomía, capacidad para tomar decisiones, interactuar con otras herramientas informáticas, pero también controlar cuerpos robotizados.
Según Stephen Hawking, el resultado de la automatización en la calidad de vida dependerá de cómo se redistribuya la riqueza: [118]
Todo el mundo puede disfrutar de una vida de ocio lujoso si se comparte la riqueza producida por las máquinas, o la mayoría de la gente puede terminar miserablemente pobre si los propietarios de las máquinas ejercen presión exitosamente contra la redistribución de la riqueza. Hasta ahora, la tendencia parece apuntar hacia la segunda opción, ya que la tecnología impulsa una desigualdad cada vez mayor.
Elon Musk considera que la automatización de la sociedad requerirá que los gobiernos adopten una renta básica universal . [144]
^ ab Consulte a continuación el origen del término "IA fuerte" y consulte la definición académica de " IA fuerte " e IA débil en el artículo Sala china .
^ El fundador de AI, John McCarthy, escribe: "aún no podemos caracterizar en general qué tipo de procedimientos computacionales queremos llamar inteligentes". [17] (Para una discusión de algunas definiciones de inteligencia utilizadas por los investigadores de inteligencia artificial , consulte filosofía de la inteligencia artificial ).
^ El informe Lighthill criticó específicamente los "objetivos grandiosos" de la IA y dirigió el desmantelamiento de la investigación de la IA en Inglaterra. [41] En los EE.UU., DARPA se decidió a financiar sólo "investigación directa orientada a una misión, en lugar de investigación básica no dirigida". [42] [43]
^ Como escribe el fundador de AI, John McCarthy , "sería un gran alivio para el resto de los trabajadores de AI si los inventores de nuevos formalismos generales expresaran sus esperanzas de una forma más cautelosa de lo que a veces ha sido el caso". [47]
^ En "Mind Children" [95] se utiliza 10 15 cps. Más recientemente, en 1997, [96] Moravec defendió 10 8 MIPS, lo que correspondería aproximadamente a 10 14 cps. Moravec habla en términos de MIPS, no de "cps", que es un término no estándar introducido por Kurzweil.
^ Como se define en un libro de texto estándar de IA: "Los filósofos denominan la hipótesis de que las máquinas podrían actuar de manera inteligente (o, quizás mejor, actuar como si fueran inteligentes), y la afirmación de que las máquinas que lo hacen lo que realmente piensan (en lugar de simular el pensamiento) se denomina hipótesis de la 'IA fuerte'". [94]
^ Cielo, Will Douglas (16 de noviembre de 2023). "Google DeepMind quiere definir lo que se considera inteligencia artificial general". Revisión de tecnología del MIT . Consultado el 1 de marzo de 2024 .
^ Krishna, Sri (9 de febrero de 2023). "¿Qué es la inteligencia artificial restringida (ANI)?". VentureBeat . Consultado el 1 de marzo de 2024 .
^ "Carta de OpenAI". openai.com . Consultado el 6 de abril de 2023 .
^ Baum, Seth, Una encuesta sobre proyectos de inteligencia general artificial para la ética, el riesgo y las políticas (PDF) , documento de trabajo 20 del Global Catastrophic Risk Institute, archivado (PDF) del original el 14 de noviembre de 2021 , recuperado 13 de enero 2022
^ abc "Cronologías de la IA: ¿Qué esperan los expertos en inteligencia artificial para el futuro?". Nuestro mundo en datos . Consultado el 6 de abril de 2023 .
^ "Los investigadores de Microsoft afirman que GPT-4 está mostrando" chispas "de AGI". Futurismo . Consultado el 13 de diciembre de 2023 .
^ Morozov, Evgeny (30 de junio de 2023). "La verdadera amenaza de la inteligencia artificial". Los New York Times . Archivado desde el original el 30 de junio de 2023 . Consultado el 30 de junio de 2023 .
^ "¿Impresionado por la inteligencia artificial? Los expertos dicen que AGI será el próximo paso y que tiene riesgos 'existenciales'". ABC Noticias . 23 de marzo de 2023 . Consultado el 6 de abril de 2023 .
^ "Inteligencia general artificial: ¿estamos cerca? ¿Tiene sentido intentarlo?". Revisión de tecnología del MIT . Consultado el 6 de abril de 2023 .
^ Kurzweil 2005, pág. 260.
^ ab Kurzweil, Ray (5 de agosto de 2005a), "Larga vida a la IA", Forbes , archivado desde el original el 14 de agosto de 2005: Kurzweil describe la IA fuerte como "inteligencia de máquina con toda la gama de inteligencia humana".
^ "La era de la inteligencia artificial: George John en TEDxLondonBusinessSchool 2013". Archivado desde el original el 26 de febrero de 2014 . Consultado el 22 de febrero de 2014 .
^ Newell y Simon 1976, este es el término que utilizan para la inteligencia "a nivel humano" en la hipótesis del sistema de símbolos físicos .
^ "La Universidad Abierta sobre IA fuerte y débil". Archivado desde el original el 25 de septiembre de 2009 . Consultado el 8 de octubre de 2007 .
^ "¿Qué es la superinteligencia artificial (ASI)? | Definición de TechTarget". IA empresarial . Consultado el 8 de octubre de 2023 .
^ "La inteligencia artificial está transformando nuestro mundo; depende de todos nosotros asegurarnos de que vaya bien". Nuestro mundo en datos . Consultado el 8 de octubre de 2023 .
^ McCarthy, John (2007a). "Preguntas básicas". Universidad Stanford . Archivado desde el original el 26 de octubre de 2007 . Consultado el 6 de diciembre de 2007 .
^ ab Esta lista de rasgos inteligentes se basa en los temas tratados en los principales libros de texto de IA, incluidos: Russell & Norvig 2003, Luger & Stubblefield 2004, Poole, Mackworth & Goebel 1998 y Nilsson 1998.
^ Johnson 1987
^ de Charms, R. (1968). Causalidad personal. Nueva York: Academic Press.
^ ab Pfeifer, R. y Bongard JC, Cómo el cuerpo da forma a nuestra forma de pensar: una nueva visión de la inteligencia (The MIT Press, 2007). ISBN 0-262-16239-3
^ Blanco, RW (1959). "Reconsideración de la motivación: el concepto de competencia". Revisión psicológica . 66 (5): 297–333. doi :10.1037/h0040934. PMID 13844397. S2CID 37385966.
^ Muehlhauser, Luke (11 de agosto de 2013). "¿Qué es AGI?". Instituto de Investigación de Inteligencia Artificial. Archivado desde el original el 25 de abril de 2014 . Consultado el 1 de mayo de 2014 .
^ "¿Qué es la inteligencia general artificial (AGI)? | 4 pruebas para garantizar la inteligencia general artificial". Blog hablador . 13 de julio de 2019. Archivado desde el original el 17 de julio de 2019 . Consultado el 17 de julio de 2019 .
^ "Eugene Goostman es un niño de verdad; la prueba de Turing lo dice". El guardián . 9 de junio de 2014. ISSN 0261-3077 . Consultado el 3 de marzo de 2024 .
^ Varanasi, Lakshmi (21 de marzo de 2023). "Los modelos de IA como ChatGPT y GPT-4 están superando en todo, desde el examen de la barra hasta Biología AP. Aquí hay una lista de exámenes difíciles que han aprobado ambas versiones de IA". Business Insider . Consultado el 30 de mayo de 2023 .
^ Naysmith, Caleb (7 de febrero de 2023). "Seis puestos de trabajo que la inteligencia artificial ya está reemplazando y cómo los inversores pueden aprovecharlos" . Consultado el 30 de mayo de 2023 .
^ Turk, Victoria (28 de enero de 2015). "El plan para sustituir la prueba de Turing por unas 'Olimpiadas de Turing'". Vicio . Consultado el 3 de marzo de 2024 .
^ Gopani, Avi (25 de mayo de 2022). "La prueba de Turing no es fiable. El esquema de Winograd está obsoleto. El café es la respuesta". Revista Analytics India . Consultado el 3 de marzo de 2024 .
^ Bhaimiya, Sawdah (20 de junio de 2023). "El cofundador de DeepMind sugirió probar la capacidad de un chatbot de IA para convertir 100.000 dólares en 1 millón de dólares para medir la inteligencia humana". Business Insider . Consultado el 3 de marzo de 2024 .
^ Suleyman, Mustafa (14 de julio de 2023). "Mustafa Suleyman: Mi nueva prueba de Turing vería si la IA puede ganar 1 millón de dólares". Revisión de tecnología del MIT . Consultado el 3 de marzo de 2024 .
^ Shapiro, Stuart C. (1992). «Inteligencia artificial» (PDF) . En Stuart C. Shapiro (ed.). Enciclopedia de Inteligencia Artificial (Segunda ed.). Nueva York: John Wiley. págs. 54–57. Archivado (PDF) desde el original el 1 de febrero de 2016.(La Sección 4 trata sobre "Tareas completas con IA".)
^ Yampolskiy, Roman V. (2012). Xin-She Yang (ed.). "La prueba de Turing como característica definitoria de la integridad de la IA" (PDF) . Inteligencia artificial, computación evolutiva y metaheurística (AIECM) : 3–17. Archivado (PDF) desde el original el 22 de mayo de 2013.
^ Luis von Ahn, Manuel Blum, Nicholas Hopper y John Langford. CAPTCHA: Uso de problemas difíciles de IA para seguridad Archivado el 4 de marzo de 2016 en Wayback Machine . En Actas de Eurocrypt , vol. 2656 (2003), págs. 294–311.
^ Bergmair, Richard (7 de enero de 2006). "Esteganografía del lenguaje natural y una primitiva de seguridad" completa con IA ". CiteSeer . CiteSeerX 10.1.1.105.129 .
^ Crevier 1993, págs. 48–50
^ Kaplan, Andreas (2022). "Inteligencia artificial, negocios y civilización: nuestro destino hecho en máquinas". Archivado desde el original el 6 de mayo de 2022 . Consultado el 12 de marzo de 2022 .
^ Simón 1965, pag. 96 citado en Crevier 1993, p. 109
^ "Científico en el set: una entrevista con Marvin Minsky". Archivado desde el original el 16 de julio de 2012 . Consultado el 5 de abril de 2008 .
^ Marvin Minsky a Darrach (1970), citado en Crevier (1993, p. 109).
^ Colina ligera 1973; Howe 1994
^ ab NRC 1999, "El cambio a la investigación aplicada aumenta la inversión".
^ Crevier 1993, págs. 115-117; Russell y Norvig 2003, págs. 21-22.
^ Crevier 1993, pag. 211, Russell y Norvig 2003, pág. 24 y véase también Feigenbaum y McCorduck 1983.
^ Crevier 1993, págs. 161–162, 197–203, 240; Russell y Norvig 2003, pág. 25.
^ Crevier 1993, págs. 209-212
^ McCarthy, John (2000). "Responder a Lighthill". Universidad Stanford. Archivado desde el original el 30 de septiembre de 2008 . Consultado el 29 de septiembre de 2007 .
^ Markoff, John (14 de octubre de 2005). "Detrás de la inteligencia artificial, un escuadrón de personas reales brillantes". Los New York Times . Archivado desde el original el 2 de febrero de 2023 . Consultado el 18 de febrero de 2017 . En su punto más bajo, algunos científicos informáticos e ingenieros de software evitaron el término inteligencia artificial por miedo a ser vistos como soñadores de ojos desorbitados.
^ Russell y Norvig 2003, págs. 25-26
^ "Tendencias en el ciclo de exageración de las tecnologías emergentes". Informes Gartner. Archivado desde el original el 22 de mayo de 2019 . Consultado el 7 de mayo de 2019 .
^ ab Moravec 1988, pág. 20
^ Harnad, S. (1990). "El problema de la puesta a tierra del símbolo". Física D. 42 (1–3): 335–346. arXiv : cs/9906002 . Código bibliográfico : 1990PhyD...42..335H. doi :10.1016/0167-2789(90)90087-6. S2CID 3204300.
^ Gubrud 1997
^ ab Hutter, Marcus (2005). Inteligencia artificial universal: decisiones secuenciales basadas en probabilidad algorítmica. Textos de Informática Teórica y Serie EATCS. Saltador. doi :10.1007/b138233. ISBN978-3-540-26877-2. S2CID 33352850. Archivado desde el original el 19 de julio de 2022 . Consultado el 19 de julio de 2022 .
^ Legg, Shane (2008). Superinteligencia de la máquina (PDF) (Tesis). Universidad de Lugano. Archivado (PDF) desde el original el 15 de junio de 2022 . Consultado el 19 de julio de 2022 .
^ Goertzel, Ben (2014). Inteligencia general artificial. Apuntes de conferencias sobre informática. vol. 8598. Revista de Inteligencia General Artificial. doi :10.1007/978-3-319-09274-4. ISBN978-3-319-09273-7. S2CID 8387410.
^ "¿Quién acuñó el término" AGI "?". goertzel.org . Archivado desde el original el 28 de diciembre de 2018 . Consultado el 28 de diciembre de 2018 ., vía Life 3.0 : 'El término "AGI" fue popularizado por... Shane Legg, Mark Gubrud y Ben Goertzel'
^ Wang y Goertzel 2007
^ "Primera escuela internacional de verano en inteligencia artificial general, escuela de verano principal: 22 de junio - 3 de julio de 2009, OpenCog Lab: 6 al 9 de julio de 2009". Archivado desde el original el 28 de septiembre de 2020 . Consultado el 11 de mayo de 2020 .
^ "Избираеми дисциплини 2009/2010 - пролетен триместър" [Cursos optativos 2009/2010 - trimestre de primavera]. Факултет по математика и информатика [Facultad de Matemáticas e Informática] (en búlgaro). Archivado desde el original el 26 de julio de 2020 . Consultado el 11 de mayo de 2020 .
^ "Избираеми дисциплини 2010/2011 - зимен триместър" [Cursos optativos 2010/2011 - trimestre de invierno]. Факултет по математика и информатика [Facultad de Matemáticas e Informática] (en búlgaro). Archivado desde el original el 26 de julio de 2020 . Consultado el 11 de mayo de 2020 .
^ Shevlin, Henry; Vold, Karina; Crosby, Mateo; Halina, Marta (4 de octubre de 2019). "Los límites de la inteligencia artificial: a pesar de los avances en la inteligencia artificial, la inteligencia artificial general sigue siendo un gran desafío". Informes EMBO . 20 (10): e49177. doi :10.15252/embr.201949177. ISSN 1469-221X. PMC 6776890 . PMID 31531926.
^ Bubeck, Sébastien; Chandrasekaran, Varun; Eldan, Ronen; Gehrke, Johannes; Horvitz, Eric; Kamar, Ece; Lee, Pedro; Lee, Yin Tat; Li, Yuanzhi; Lundberg, Scott; Nori, Harsha; Palangi, Hamid; Ribeiro, Marco Tulio; Zhang, Yi (27 de marzo de 2023). "Chispas de inteligencia general artificial: primeros experimentos con GPT-4". arXiv : 2303.12712 [cs.CL].
^ Boucher, Philip (marzo de 2019). "Observaciones finales". Cómo funciona la inteligencia artificial (PDF) (Reporte). Servicio de Investigación del Parlamento Europeo. Archivado (PDF) desde el original el 3 de marzo de 2020 . Consultado el 3 de marzo de 2020 . La IA actual es poderosa y útil, pero aún está lejos de lo que se especula como AGI o ASI.
^ itu.int: Beyond Mad?: The Race For Artificial General Intelligence Archivado el 9 de noviembre de 2020 en Wayback Machine , "AGI representa un nivel de poder que permanece firmemente en el ámbito de la ficción especulativa hasta la fecha". 2 de febrero de 2018, consultado el 3 de marzo de 2020
^ Allen, Pablo; Greaves, Mark (12 de octubre de 2011). "La singularidad no está cerca". Revisión de tecnología del MIT . Consultado el 17 de septiembre de 2014 .
^ Winfield, Alan. "La inteligencia artificial no se convertirá en un monstruo de Frankenstein". El guardián . Archivado desde el original el 17 de septiembre de 2014 . Consultado el 17 de septiembre de 2014 .
^ abc Relojes en 2003.
^ Fjelland, Ragnar (17 de junio de 2020). "Por qué no se realizará la inteligencia artificial general". Comunicaciones de Humanidades y Ciencias Sociales . 7 (1): 1–9. doi : 10.1057/s41599-020-0494-4 . hdl : 11250/2726984 . ISSN 2662-9992. S2CID 219710554.
^ McCarthy 2007.
^ Khatchadourian, Raffi (23 de noviembre de 2015). "La invención del fin del mundo: ¿La inteligencia artificial nos traerá utopía o destrucción?". El neoyorquino . Archivado desde el original el 28 de enero de 2016 . Consultado el 7 de febrero de 2016 .
^ Müller, VC y Bostrom, N. (2016). Progresos futuros en inteligencia artificial: una encuesta de opinión de expertos. En Cuestiones fundamentales de la inteligencia artificial (págs. 555–572). Springer, Cham.
^ Armstrong, Stuart y Kaj Sotala. 2012. "Cómo predecimos la IA o no". En Beyond AI: Artificial Dreams , editado por Jan Romportl, Pavel Ircing, Eva Zackova, Michal Polak y Radek Schuster, 52–75. Pilsen: Universidad de Bohemia Occidental
^ "Microsoft ahora afirma que GPT-4 muestra 'chispas' de inteligencia general". 24 de marzo de 2023.
^ Shimek, Cary (6 de julio de 2023). "La IA supera a los humanos en la prueba de creatividad". Noticias de neurociencia . Consultado el 20 de octubre de 2023 .
^ Guzik, Erik E.; Byrge, cristiano; Gilde, Christian (1 de diciembre de 2023). "La originalidad de las máquinas: la IA pasa la prueba de Torrance". Revista de Creatividad . 33 (3): 100065. doi : 10.1016/j.yjoc.2023.100065 . ISSN 2713-3745. S2CID 261087185.
^ Goertzel y Pennachin 2006.
^ a B C (Kurzweil 2005, pag. 260)
^ abcGoertzel 2007.
^ Gracia, Katja (2016). "Error en Armstrong y Sotala 2012". Impactos de la IA (blog). Archivado desde el original el 4 de diciembre de 2020 . Consultado el 24 de agosto de 2020 .
^ ab Butz, Martin V. (1 de marzo de 2021). "Hacia una IA fuerte". KI – Künstliche Intelligenz . 35 (1): 91-101. doi : 10.1007/s13218-021-00705-x . ISSN 1610-1987. S2CID 256065190.
^ Liu, Feng; Shi, Yong; Liu, Ying (2017). "Coeficiente intelectual y grado de inteligencia de la inteligencia artificial". Anales de ciencia de datos . 4 (2): 179–191. arXiv : 1709.10242 . doi :10.1007/s40745-017-0109-0. S2CID 37900130.
^ Brien, Jörn (5 de octubre de 2017). "Google-KI doppelt so schlau wie Siri" [La IA de Google es dos veces más inteligente que Siri, pero un niño de seis años supera a ambos] (en alemán). Archivado desde el original el 3 de enero de 2019 . Consultado el 2 de enero de 2019 .
^ Grossman, Gary (3 de septiembre de 2020). "Estamos entrando en la zona de penumbra de la IA entre la IA general y la estrecha". VentureBeat . Archivado desde el original el 4 de septiembre de 2020 . Consultado el 5 de septiembre de 2020 . Ciertamente, también hay quienes afirman que ya estamos viendo un ejemplo temprano de un sistema AGI en la red neuronal de procesamiento del lenguaje natural (NLP) GPT-3 recientemente anunciada. ... Entonces, ¿es GPT-3 el primer ejemplo de un sistema AGI? Esto es discutible, pero el consenso es que no es AGI. ... Al menos, GPT-3 nos dice que existe un término medio entre la IA estrecha y la general.
^ Quach, Katyanna. "Un desarrollador creó un chatbot de IA utilizando GPT-3 que ayudó a un hombre a hablar nuevamente con su difunta prometida. OpenAI lo cerró". El registro. Archivado desde el original el 16 de octubre de 2021 . Consultado el 16 de octubre de 2021 .
^ Wiggers, Kyle (13 de mayo de 2022), "La nueva IA de DeepMind puede realizar más de 600 tareas, desde jugar hasta controlar robots", TechCrunch , archivado desde el original el 16 de junio de 2022 , recuperado 12 de junio de 2022
^ Bubeck, Sébastien; Chandrasekaran, Varun; Eldan, Ronen; Gehrke, Johannes; Horvitz, Eric; Kamar, Ece; Lee, Pedro; Lee, Yin Tat; Li, Yuanzhi; Lundberg, Scott; Nori, Harsha; Palangi, Hamid; Ribeiro, Marco Tulio; Zhang, Yi (22 de marzo de 2023). "Chispas de inteligencia general artificial: primeros experimentos con GPT-4". arXiv : 2303.12712 [cs.CL].
^ Metz, Cade (1 de mayo de 2023). "'El padrino de la IA' abandona Google y advierte sobre el peligro que se avecina ". Los New York Times . ISSN 0362-4331 . Consultado el 7 de junio de 2023 .
^ Nellis, Stephen (2 de marzo de 2024). "El director ejecutivo de Nvidia dice que la IA podría superar las pruebas en humanos en cinco años". Reuters .
^ Nosta, John (5 de enero de 2024). "El camino acelerado hacia la inteligencia general artificial". Psicología Hoy . Consultado el 30 de marzo de 2024 .
^ Chupetón, Alex. "Emulación de todo el cerebro: un paso de gigante para la neurociencia". Cerveza tecnológica . Consultado el 8 de noviembre de 2023 .
^ Sandberg y Boström 2008.
^ Drachman 2005.
^ ab Russell y Norvig 2003.
^ Moravec 1988, pag. 61.
^ Moravec 1998.
^ Holmgaard Mersh, Amalie (15 de septiembre de 2023). "Un proyecto de investigación europeo de una década mapea el cerebro humano". euroactiv .
^ ab Thornton, Angela (26 de junio de 2023). "Cómo podría ser posible cargar nuestras mentes en una computadora". La conversación . Consultado el 8 de noviembre de 2023 .
^ Vicinanza, Domenico (18 de diciembre de 2023). "Una nueva supercomputadora tiene como objetivo imitar fielmente el cerebro humano; podría ayudar a descubrir los secretos de la mente y hacer avanzar la IA". La conversación . Consultado el 29 de marzo de 2024 .
^ Swaminathan, Nikhil (enero-febrero de 2011). "Glia: las otras células cerebrales". Descubrir . Archivado desde el original el 8 de febrero de 2014 . Consultado el 24 de enero de 2014 .
^ de Vega, Glenberg & Graesser 2008. Una amplia gama de puntos de vista en la investigación actual, todos los cuales requieren cierta base
^ Searle 1980
^ Por ejemplo:
Russell y Norvig 2003,
Diccionario de Psicología de Oxford University Press Archivado el 3 de diciembre de 2007 en Wayback Machine (citado en "Encyclopedia.com"),
Enciclopedia de ciencia cognitiva del MIT Archivada el 19 de julio de 2008 en Wayback Machine (citada en "AITopics"),
¿Las computadoras biológicas permitirán que las máquinas con inteligencia artificial se conviertan en personas? Archivado el 13 de mayo de 2008 en Wayback Machine Anthony Tongen.
^ Sotala, Kaj; Yampolskiy, Roman V. (19 de diciembre de 2014). "Respuestas al riesgo catastrófico de AGI: una encuesta". Escritura física . 90 (1): 018001. doi : 10.1088/0031-8949/90/1/018001 . ISSN 0031-8949.
^ Yudkowsky 2006.
^ Alegría, Bill (abril de 2000). "Por qué el futuro no nos necesita". Cableado .
^ James, Alex P. (2022). "El por qué, el qué y el cómo del desarrollo de chips de inteligencia general artificial". Transacciones IEEE sobre sistemas cognitivos y de desarrollo . 14 (2): 333–347. arXiv : 2012.06338 . doi : 10.1109/TCDS.2021.3069871. ISSN 2379-8920. S2CID 228376556. Archivado desde el original el 28 de agosto de 2022 . Consultado el 28 de agosto de 2022 .
^ Pei, Jing; Deng, Lei; Canción, Sen; Zhao, Mingguo; Zhang, Youhui; Wu, Shuang; Wang, Guanrui; Zou, Zhe; Wu, Zhenzhi; Él, Wei; Chen, Feng; Deng, Ning; Wu, Si; Wang, Yu; Wu, Yujie (2019). "Hacia la inteligencia artificial general con arquitectura de chip híbrido Tianjic". Naturaleza . 572 (7767): 106–111. Código Bib :2019Natur.572..106P. doi :10.1038/s41586-019-1424-8. ISSN 1476-4687. PMID 31367028. S2CID 199056116. Archivado desde el original el 29 de agosto de 2022 . Consultado el 29 de agosto de 2022 .
^ Pandey, Mohit; Fernández, Michael; Gentil, Francesco; Isayev, Olexandr; Tropsha, Alejandro; Stern, Abraham C.; Cherkasov, Artem (marzo de 2022). "El papel transformador de la computación GPU y el aprendizaje profundo en el descubrimiento de fármacos". Inteligencia de la máquina de la naturaleza . 4 (3): 211–221. doi : 10.1038/s42256-022-00463-x . ISSN 2522-5839. S2CID 252081559.
^ Deane, George (2022). "Máquinas que sienten y piensan: el papel de los sentimientos afectivos y la acción mental en la inteligencia general (artificial)". Vida artificial . 28 (3): 289–309. doi :10.1162/artl_a_00368. ISSN 1064-5462. PMID 35881678. S2CID 251069071.
^ "Inteligencia general artificial: ¿el costo supera los beneficios?". 23 de agosto de 2021 . Consultado el 7 de junio de 2023 .
^ "Cómo podemos beneficiarnos del avance de la inteligencia general artificial (AGI) - Unite.AI". www.unite.ai . Consultado el 7 de junio de 2023 .
^ abc Talty, Jules; Julián, Esteban. "¿Cómo será nuestra sociedad cuando la inteligencia artificial esté en todas partes?". Revista Smithsonian . Consultado el 7 de junio de 2023 .
^ ab Stevenson, Matt (8 de octubre de 2015). "¡Las respuestas a la AMA de Stephen Hawking están aquí!". Cableado . ISSN 1059-1028 . Consultado el 8 de junio de 2023 .
^ ab Bostrom, Nick (2017). "§ Orden de llegada preferente". Superinteligencia: caminos, peligros, estrategias (Reimpreso con correcciones ed. 2017). Oxford, Reino Unido; Nueva York, Nueva York, Estados Unidos: Oxford University Press. ISBN978-0-19-967811-2.
^ Piper, Kelsey (19 de noviembre de 2018). "Cómo el progreso tecnológico hace que sea más probable que nunca que los humanos nos destruyamos a nosotros mismos". Vox . Consultado el 8 de junio de 2023 .
^ Doherty, Ben (17 de mayo de 2018). "El cambio climático es un 'riesgo de seguridad existencial' para Australia, dice la investigación del Senado". El guardián . ISSN 0261-3077 . Consultado el 16 de julio de 2023 .
^ MacAskill, William (2022). Lo que le debemos al futuro . Nueva York, NY: Libros básicos. ISBN978-1-5416-1862-6.
^ ab Ord, Toby (2020). "Capítulo 5: Riesgos futuros, inteligencia artificial no alineada". El precipicio: riesgo existencial y el futuro de la humanidad . Publicación de Bloomsbury. ISBN978-1-5266-0021-9.
^ Al-Sibai, Noor (13 de febrero de 2022). "El científico jefe de OpenAI dice que la IA avanzada puede ya ser consciente". Futurismo . Consultado el 24 de diciembre de 2023 .
^ Samuelsson, Paul Conrad (2019). "Conciencia artificial: nuestro mayor desafío ético". Filosofía ahora . Consultado el 23 de diciembre de 2023 .
^ Kateman, Brian (24 de julio de 2023). "La IA debería tener miedo de los humanos". TIEMPO . Consultado el 23 de diciembre de 2023 .
^ Roose, Kevin (30 de mayo de 2023). "La IA plantea 'riesgo de extinción', advierten los líderes de la industria". Los New York Times . ISSN 0362-4331 . Consultado el 24 de diciembre de 2023 .
^ ab "Declaración sobre el riesgo de la IA". Centro para la seguridad de la IA . 30 de mayo de 2023 . Consultado el 8 de junio de 2023 .
^ "Stephen Hawking: 'La trascendencia analiza las implicaciones de la inteligencia artificial, pero ¿nos estamos tomando la IA lo suficientemente en serio?'". The Independent (Reino Unido) . Archivado desde el original el 25 de septiembre de 2015 . Consultado el 3 de diciembre de 2014 .
^ Herger, Mario. "El problema del gorila: Enterprise Garage" . Consultado el 7 de junio de 2023 .
^ "El fascinante debate en Facebook entre Yann LeCun, Stuart Russel y Yoshua Bengio sobre los riesgos de una IA fuerte". El fascinante debate en Facebook entre Yann LeCun, Stuart Russel y Yoshua Bengio sobre los riesgos de una IA fuerte (en francés) . Consultado el 8 de junio de 2023 .
^ "¿La inteligencia artificial condenará a la raza humana en los próximos 100 años?". Huffpost . 22 de agosto de 2014 . Consultado el 8 de junio de 2023 .
^ Sotala, Kaj; Yampolskiy, Roman V. (19 de diciembre de 2014). "Respuestas al riesgo catastrófico de AGI: una encuesta". Escritura física . 90 (1): 018001. doi : 10.1088/0031-8949/90/1/018001 . ISSN 0031-8949.
^ Chow, Andrew R.; Perrigo, Billy (16 de febrero de 2023). "La carrera armamentista de la IA ha comenzado. Empiece a preocuparse". TIEMPO . Consultado el 24 de diciembre de 2023 .
^ Tetlow, Gemma (12 de enero de 2017). "La carrera armamentista de la IA corre el riesgo de salirse de control, advierte un informe". www.ft.com . Consultado el 24 de diciembre de 2023 .
^ Milmo, Dan; Stacey, Kiran (25 de septiembre de 2023). "Los expertos no están de acuerdo sobre la amenaza que representa, pero no se puede ignorar la inteligencia artificial". El guardián . ISSN 0261-3077 . Consultado el 24 de diciembre de 2023 .
^ "Humanidad, seguridad e inteligencia artificial, ¡Dios mío! (con Ian Bremmer y Shuman Ghosemajumder)". CAFÉ . 20 de julio de 2023 . Consultado el 15 de septiembre de 2023 .
^ Hamblin, James (9 de mayo de 2014). "¿Pero qué significaría para mí el fin de la humanidad?". El Atlántico . Archivado desde el original el 4 de junio de 2014 . Consultado el 12 de diciembre de 2015 .
^ Titcomb, James (30 de octubre de 2023). "Las grandes tecnologías están avivando los temores sobre la IA, advierten los científicos". El Telégrafo . Consultado el 7 de diciembre de 2023 .
^ "El fundador de Google Brain dice que las grandes tecnologías mienten sobre el peligro de extinción de la IA". Revisión financiera australiana . 30 de octubre de 2023 . Consultado el 7 de diciembre de 2023 .
^ "Los GPT son GPT: una mirada temprana al potencial de impacto de los grandes modelos lingüísticos en el mercado laboral". openai.com . Consultado el 7 de junio de 2023 .
^ ab "El 80% de los trabajadores estarán expuestos a la IA. Estos trabajos serán los más afectados". euronoticias . 23 de marzo de 2023 . Consultado el 8 de junio de 2023 .
^ Sheffey, Ayelet. "Elon Musk dice que necesitamos una renta básica universal porque 'en el futuro, el trabajo físico será una opción'". Business Insider . Consultado el 8 de junio de 2023 .
Fuentes
Informe científico de la UNESCO: la carrera contra el tiempo para un desarrollo más inteligente. París: UNESCO. 11 de junio de 2021. ISBN 978-92-3-100450-6. Archivado desde el original el 18 de junio de 2022 . Consultado el 22 de septiembre de 2021 .
Azevedo FA, Carvalho LR, Grinberg LT, Farfel J, et al. (Abril de 2009), "Números iguales de células neuronales y no neuronales hacen del cerebro humano un cerebro de primate ampliado isométricamente", The Journal of Comparative Neurology , 513 (5): 532–541, doi :10.1002/cne.21974, PMID 19226510, S2CID 5200449, archivado desde el original el 18 de febrero de 2021 , recuperado 4 de septiembre 2013
Berglas, Anthony (2008), La inteligencia artificial matará a nuestros nietos, archivado desde el original el 23 de julio de 2014 , recuperado 31 de agosto 2012
Chalmers, David (1996), La mente consciente , Oxford University Press.
Gelernter, David (2010), La lógica de los sueños, Internet y el pensamiento artificial, archivado desde el original el 26 de julio de 2010 , recuperado 25 de julio 2010
Goertzel, Ben; Pennachin, Casio, eds. (2006), Inteligencia artificial general (PDF) , Springer, ISBN 978-3-540-23733-4, archivado desde el original (PDF) el 20 de marzo de 2013.
Goertzel, Ben (diciembre de 2007), "Inteligencia general artificial a nivel humano y la posibilidad de una singularidad tecnológica: una reacción a La singularidad está cerca de Ray Kurzweil y la crítica de McDermott a Kurzweil", Inteligencia artificial , 171 (18, número especial de revisión ): 1161–1173, doi : 10.1016/j.artint.2007.10.011 , archivado desde el original el 7 de enero de 2016 , consultado el 1 de abril de 2009.
Gubrud, Mark (noviembre de 1997), "Nanotechnology and International Security", Fifth Foresight Conference on Molecular Nanotechnology , archivado desde el original el 29 de mayo de 2011 , recuperado 7 de mayo de 2011
Halal, William E. "Serie de artículos TechCast: La automatización del pensamiento" (PDF) . Archivado desde el original (PDF) el 6 de junio de 2013.
Holte, RC; Choueiry, BY (2003), "Abstracción y reformulación en inteligencia artificial", Philosophical Transactions of the Royal Society B , 358 (1435): 1197–1204, doi :10.1098/rstb.2003.1317, PMC 1693218 , PMID 12903653.
Howe, J. (noviembre de 1994), Inteligencia artificial en la Universidad de Edimburgo: una perspectiva, archivado desde el original el 17 de agosto de 2007 , recuperado 30 de agosto 2007
Johnson, Mark (1987), El cuerpo en la mente , Chicago, ISBN 978-0-226-40317-5
Lighthill, Profesor Sir James (1973), "Artificial Intelligence: A General Survey", Inteligencia artificial: un simposio de artículos , Consejo de Investigación Científica
Luger, George; Stubblefield, William (2004), Inteligencia artificial: estructuras y estrategias para la resolución de problemas complejos (5ª ed.), The Benjamin/Cummings Publishing Company, Inc., p. 720, ISBN 978-0-8053-4780-7
McCarthy, John (octubre de 2007), "De aquí a la IA a nivel humano", Inteligencia artificial , 171 (18): 1174–1182, doi : 10.1016/j.artint.2007.10.009.
Moravec, Hans (1976), The Role of Raw Power in Intelligence, archivado desde el original el 3 de marzo de 2016 , recuperado 29 de septiembre 2007
Moravec, Hans (1988), Mind Children , Harvard University Press
Moravec, Hans (1998), "¿Cuándo coincidirá el hardware de la computadora con el cerebro humano?", Journal of Evolution and Technology , 1 , archivado desde el original el 15 de junio de 2006 , recuperado 23 de junio de 2006
Nagel (1974), "¿Cómo es ser un murciélago?" (PDF) , Philosophical Review , 83 (4): 435–50, doi :10.2307/2183914, JSTOR 2183914, archivado (PDF) desde el original el 16 de octubre 2011 , consultado el 7 de noviembre de 2009..
Newell, Allen ; Simon, HA (1963), "GPS: un programa que simula el pensamiento humano", en Feigenbaum, EA; Feldman, J. (eds.), Computadoras y pensamiento , Nueva York: McGraw-Hill
Newell, Allen ; Simón, HA (1976). "La informática como investigación empírica: símbolos y búsqueda". Comunicaciones de la ACM . 19 (3): 113–126. doi : 10.1145/360018.360022 .
NRC (1999), "Developments in Artificial Intelligence", Funding a Revolution: Government Support for Computing Research , National Academy Press, archivado desde el original el 12 de enero de 2008 , recuperado 29 de septiembre 2007
Omohundro, Steve (2008), The Nature of Self-Improving Artificial Intelligence , presentado y distribuido en la Singularity Summit de 2007, San Francisco, California.
Poole, David; Mackworth, Alan; Goebel, Randy (1998), Computational Intelligence: A Logical Approach, Nueva York: Oxford University Press, archivado desde el original el 25 de julio de 2009 , consultado el 6 de diciembre de 2007.
Sandberg, Anders; Boström, Nick (2008), Whole Brain Emulation: A Roadmap (PDF) , Technical Report #2008-3, Future of Humanity Institute, Oxford University, archivado (PDF) desde el original el 25 de marzo de 2020 , recuperado 5 de abril de 2009
Searle, John (1980), "Minds, Brains and Programs" (PDF) , Behavioral and Brain Sciences , 3 (3): 417–457, doi :10.1017/S0140525X00005756, S2CID 55303721, archivado (PDF) desde el original el 17 Marzo de 2019 , consultado el 3 de septiembre de 2020.
Simon, HA (1965), La forma de la automatización para los hombres y la gestión , Nueva York: Harper & Row
Sutherland, JG (1990), "Modelo holográfico de memoria, aprendizaje y expresión", Revista internacional de sistemas neuronales , 1–3 : 256–267.
Turing, Alan (octubre de 1950), "Computing Machinery and Intelligence", Mind , LIX (236): 433–460, doi :10.1093/mind/LIX.236.433, ISSN 0026-4423
de Vega, Manuel; Glenberg, Arturo; Graesser, Arthur, eds. (2008), Símbolos y encarnación: debates sobre significado y cognición , Oxford University Press, ISBN 978-0-19-921727-4.
Wang, Pei; Goertzel, Ben (2007). "Introducción: Aspectos de la Inteligencia General Artificial". Avances en inteligencia artificial general: conceptos, arquitecturas y algoritmos: actas del taller AGI 2006 . Prensa IOS. págs. 1–16. ISBN 978-1-58603-758-1. Archivado desde el original el 18 de febrero de 2021 . Consultado el 13 de diciembre de 2020 .
Williams, RW; Herrup, K. (1988), "El control del número de neuronas", Annual Review of Neuroscience , 11 : 423–453, doi :10.1146/annurev.ne.11.030188.002231, PMID 3284447.
Yudkowsky, Eliezer (2006), "Inteligencia general artificial" (PDF) , Revisión anual de psicología , 49 , Springer: 585–612, doi :10.1146/annurev.psych.49.1.585, ISBN 978-3-540-23733-4, PMID 9496632, archivado desde el original (PDF) el 11 de abril de 2009.
Yudkowsky, Eliezer (2008), "La inteligencia artificial como factor positivo y negativo en el riesgo global", Riesgos catastróficos globales , Bibcode :2008gcr..book..303Y, doi :10.1093/oso/9780198570509.003.0021, ISBN 9780198570509.
Zucker, Jean-Daniel (julio de 2003), "Una teoría fundamentada de la abstracción en inteligencia artificial", Philosophical Transactions of the Royal Society B , 358 (1435): 1293–1309, doi :10.1098/rstb.2003.1308, PMC 1693211 , PMID 12903672.
Otras lecturas
Cukier, Kenneth , "¿Listo para los robots? Cómo pensar en el futuro de la IA", Foreign Affairs , vol. 98, núm. 4 (julio/agosto de 2019), págs. 192–98. George Dyson , historiador de la informática, escribe (en lo que podría llamarse "Ley de Dyson") que "Cualquier sistema lo suficientemente simple como para ser comprensible no será lo suficientemente complicado como para comportarse inteligentemente, mientras que cualquier sistema lo suficientemente complicado como para comportarse inteligentemente será demasiado complicado para entender." (p. 197.) El científico informático Alex Pentland escribe: " Los algoritmos actuales de aprendizaje automático de IA son, en esencia, absolutamente estúpidos. Funcionan, pero funcionan por fuerza bruta". (pág. 198.)
Gleick, James , "El destino del libre albedrío" (revisión de Kevin J. Mitchell, Agentes libres: cómo la evolución nos dio el libre albedrío , Princeton University Press, 2023, 333 págs.), The New York Review of Books , vol. LXXI, núm. 1 (18 de enero de 2024), págs. 27–28, 30. " La agencia es lo que nos distingue de las máquinas. Para las criaturas biológicas, la razón y el propósito provienen de actuar en el mundo y experimentar las consecuencias. Inteligencias artificiales : incorpóreas, ajenas a la sangre. , sudor y lágrimas, no tengo motivo para eso". (pág. 30.)
Hughes-Castleberry, Kenna, "Un misterio de asesinato: el rompecabezas literario Cain's Jawbone , que ha dejado perplejos a los humanos durante décadas, revela las limitaciones de los algoritmos de procesamiento del lenguaje natural", Scientific American , vol. 329, núm. 4 (noviembre de 2023), págs. 81–82. "Este concurso de misterio y asesinato ha revelado que, aunque los modelos de PNL ( procesamiento del lenguaje natural ) son capaces de realizar hazañas increíbles, sus capacidades están muy limitadas por la cantidad de contexto que reciben. Esto [...] podría causar [dificultades] a los investigadores que esperan usarlos para hacer cosas como analizar lenguas antiguas . En algunos casos, hay pocos registros históricos sobre civilizaciones desaparecidas hace mucho tiempo que sirvan como datos de entrenamiento para tal propósito". (pág. 82.)
Immerwahr, Daniel , "Your Lying Eyes: La gente ahora usa IA para generar videos falsos que no se pueden distinguir de los reales. ¿Cuánto importa?", The New Yorker , 20 de noviembre de 2023, págs. "Si por ' deepfakes ' nos referimos a vídeos realistas producidos con inteligencia artificial que realmente engañan a las personas, entonces apenas existen. Las falsificaciones no son profundas, y las profundas no son falsas. [...] Los vídeos generados por IA no son , en general, operan en nuestros medios como evidencia falsificada. Su papel se parece más al de los dibujos animados , especialmente los obscenos." (pág. 59.)
Marcus, Gary , "Confianza artificial: incluso los sistemas más nuevos y más ruidosos de inteligencia artificial general se ven obstaculizados por los mismos viejos problemas", Scientific American , vol. 327, núm. 4 (octubre de 2022), págs. 42–45.
Press, Eyal , "Frente a sus caras: ¿La tecnología de reconocimiento facial lleva a la policía a ignorar pruebas contradictorias?", The New Yorker , 20 de noviembre de 2023, págs.
Roivainen, Eka, "CI de la IA: ChatGPT superó una prueba [de inteligencia estándar] pero demostró que la inteligencia no se puede medir únicamente mediante el coeficiente intelectual ", Scientific American , vol. 329, núm. 1 (julio/agosto de 2023), pág. 7. "A pesar de su alto coeficiente intelectual, ChatGPT falla en tareas que requieren un razonamiento humano real o una comprensión del mundo físico y social... ChatGPT parecía incapaz de razonar lógicamente y trató de confiar en su vasta base de datos de... hechos derivados de textos en línea."