La inteligencia artificial general ( IAG ) es un tipo de inteligencia artificial (IA) que iguala o supera las capacidades cognitivas humanas en una amplia gama de tareas cognitivas. Esto contrasta con la IA estrecha , que se limita a tareas específicas. [1] [2] La IA general se considera una de las definiciones de IA fuerte . [3]
La creación de IA general es un objetivo primordial de la investigación en IA y de empresas como OpenAI [4] y Meta . [5] Una encuesta de 2020 identificó 72 proyectos de investigación y desarrollo de IA general activos en 37 países. [6]
El tiempo que se tardará en alcanzar la IAG sigue siendo un tema de debate entre investigadores y expertos. A partir de 2024, algunos sostienen que podría ser posible en años o décadas; otros sostienen que podría llevar un siglo o más. [7] [8] Una minoría cree que tal vez nunca se logre, [7] y otra minoría piensa que ya existe. [9] El destacado investigador de IA Geoffrey Hinton ha expresado su preocupación por el rápido progreso hacia la IAG, sugiriendo que podría lograrse antes de lo que muchos esperan. [10]
Existe controversia sobre si la IAG representa un riesgo existencial . [14] [15] [16] Muchos expertos en IA han declarado que mitigar el riesgo de extinción humana que plantea la IAG debería ser una prioridad global. [17] [18] Otros consideran que el desarrollo de la IAG es demasiado remoto para presentar tal riesgo. [19] [20]
Terminología
La IA general también se conoce como IA fuerte, [21] [22] IA completa, [23] IA de nivel humano, [24] o acción inteligente general. [25] Sin embargo, algunas fuentes académicas reservan el término "IA fuerte" para programas informáticos que experimentan sensibilidad o conciencia . [a] Por el contrario, la IA débil (o IA estrecha) es capaz de resolver un problema específico pero carece de capacidades cognitivas generales. [26] [22] Algunas fuentes académicas utilizan "IA débil" para referirse de forma más amplia a cualquier programa que no experimente conciencia ni tenga una mente en el mismo sentido que los humanos. [a]
Los conceptos relacionados incluyen la superinteligencia artificial y la IA transformadora. Una superinteligencia artificial (ASI) es un tipo hipotético de IA que supera la inteligencia humana, [27] mientras que la noción de IA transformadora se relaciona con la IA que tiene un gran impacto en la sociedad, por ejemplo, similar a la revolución agrícola o industrial. [28]
En 2023, los investigadores de Google DeepMind propusieron un marco para clasificar la IAG en niveles . Definen cinco niveles de IAG: emergente, competente, experta, virtuosa y sobrehumana. Por ejemplo, una IAG competente se define como una IA que supera al 50 % de los adultos hábiles en una amplia gama de tareas no físicas, y una IAG sobrehumana se define de manera similar, pero con un umbral del 100 %. Consideran que los grandes modelos de lenguaje como ChatGPT o LLaMA 2 son ejemplos de IAG emergente. [29]
Se consideran deseables otras capacidades en los sistemas inteligentes, ya que pueden afectar la inteligencia o ayudar a su expresión. Entre ellas se incluyen: [34]
la capacidad de sentir (por ejemplo , ver , oír, etc.), y
la capacidad de actuar (por ejemplo, mover y manipular objetos , cambiar de ubicación para explorar, etc.)
Esto incluye la capacidad de detectar y responder a los peligros . [35]
Pruebas para AGI a nivel humano
Se han considerado varias pruebas destinadas a confirmar la IAG a nivel humano, entre ellas: [36] [37]
Propuesta por Alan Turing en su artículo de 1950 "Computing Machinery and Intelligence", esta prueba implica que un juez humano mantenga conversaciones en lenguaje natural con un humano y una máquina diseñada para generar respuestas similares a las humanas. La máquina pasa la prueba si puede convencer al juez de que es un humano una fracción significativa del tiempo. Turing propuso esto como una medida práctica de la inteligencia de la máquina, centrándose en la capacidad de producir respuestas similares a las humanas en lugar de en el funcionamiento interno de la máquina. [39]
Turing describió la prueba de la siguiente manera:
La idea de la prueba es que la máquina tiene que intentar hacerse pasar por un hombre respondiendo a las preguntas que se le formulan, y sólo pasará la prueba si su simulación es razonablemente convincente. Una parte considerable del jurado, que no debería ser experto en máquinas, debe dejarse engañar por la simulación. [40]
En 2014, un chatbot llamado Eugene Goostman , diseñado para imitar a un niño ucraniano de 13 años, supuestamente pasó un evento de la Prueba de Turing al convencer al 33% de los jueces de que era humano. Sin embargo, esta afirmación fue recibida con un escepticismo significativo por parte de la comunidad de investigación de IA, que cuestionó la implementación de la prueba y su relevancia para la IAG. [41] [42]
La prueba de robot para estudiantes universitarios ( Goertzel )
Una máquina se inscribe en una universidad, cursa y aprueba las mismas clases que los humanos y obtiene un título. Los estudiantes de máster en derecho ahora pueden aprobar exámenes de nivel universitario sin siquiera asistir a las clases. [43]
Una máquina realiza un trabajo económicamente importante al menos tan bien como los humanos que realizan el mismo trabajo. Las IA están reemplazando a los humanos en muchos roles tan variados como la comida rápida y el marketing. [44]
También conocida como prueba de muebles en paquete plano. Una IA observa las piezas y las instrucciones de un producto en paquete plano de Ikea y luego controla un robot para ensamblar los muebles correctamente. [45]
Se necesita una máquina para entrar en un hogar americano medio y descubrir cómo hacer café: encontrar la cafetera, encontrar el café, añadir agua, encontrar una taza y preparar el café pulsando los botones adecuados. [46] Esto todavía no se ha completado.
A un modelo de IA se le dan 100.000 dólares y tiene que obtener 1 millón de dólares. [47] [48]
Problemas completos de IA
Un problema se denomina informalmente "AI-completo" o "AI-difícil" si se cree que para resolverlo se necesitaría implementar AGI, porque la solución está más allá de las capacidades de un algoritmo específico para ese propósito. [49]
Existen muchos problemas que se ha conjeturado que requieren inteligencia general para resolverse, además de la inteligencia humana. Algunos ejemplos incluyen la visión artificial , la comprensión del lenguaje natural y el manejo de circunstancias inesperadas al resolver cualquier problema del mundo real. [50] Incluso una tarea específica como la traducción requiere que una máquina lea y escriba en ambos idiomas, siga el argumento del autor (razón), comprenda el contexto (conocimiento) y reproduzca fielmente la intención original del autor ( inteligencia social ). Todos estos problemas deben resolverse simultáneamente para alcanzar el rendimiento de la máquina a nivel humano.
La investigación moderna sobre IA comenzó a mediados de la década de 1950. [52] La primera generación de investigadores de IA estaba convencida de que la inteligencia artificial general era posible y que existiría en tan solo unas décadas. [53] El pionero de la IA Herbert A. Simon escribió en 1965: "las máquinas serán capaces, dentro de veinte años, de hacer cualquier trabajo que un hombre pueda hacer". [54]
Sus predicciones sirvieron de inspiración para el personaje HAL 9000 de Stanley Kubrick y Arthur C. Clarke , que encarnaba lo que los investigadores de IA creían que podrían crear en el año 2001. El pionero de la IA Marvin Minsky fue consultor [55] en el proyecto de hacer que HAL 9000 fuera lo más realista posible según las predicciones de consenso de la época. En 1967 dijo: "Dentro de una generación... el problema de crear 'inteligencia artificial' estará sustancialmente resuelto". [56]
Sin embargo, a principios de la década de 1970, se hizo evidente que los investigadores habían subestimado enormemente la dificultad del proyecto. Las agencias de financiación se volvieron escépticas con respecto a la IAG y pusieron a los investigadores bajo una presión cada vez mayor para producir una "IA aplicada" útil. [c] A principios de la década de 1980, el Proyecto de Computadoras de Quinta Generación de Japón revivió el interés en la IAG, estableciendo un cronograma de diez años que incluía objetivos de IAG como "mantener una conversación informal". [60] En respuesta a esto y al éxito de los sistemas expertos , tanto la industria como el gobierno inyectaron dinero en el campo. [58] [61] Sin embargo, la confianza en la IA colapsó espectacularmente a fines de la década de 1980, y los objetivos del Proyecto de Computadoras de Quinta Generación nunca se cumplieron. [62] Por segunda vez en 20 años, los investigadores de IA que predijeron el logro inminente de la IAG se habían equivocado. En la década de 1990, los investigadores de IA tenían reputación de hacer promesas vanas. Se mostraron reacios a hacer predicciones en absoluto [d] y evitaron mencionar la inteligencia artificial de "nivel humano" por miedo a ser etiquetados como "soñadores de ojos desorbitados". [64]
Investigación limitada sobre IA
En la década de 1990 y principios del siglo XXI, la IA convencional alcanzó el éxito comercial y la respetabilidad académica al centrarse en subproblemas específicos en los que la IA puede producir resultados verificables y aplicaciones comerciales, como el reconocimiento de voz y los algoritmos de recomendación . [65] Estos sistemas de "IA aplicada" ahora se utilizan ampliamente en toda la industria tecnológica, y la investigación en este sentido está fuertemente financiada tanto en el ámbito académico como en la industria. A partir de 2018 [update], el desarrollo en este campo se consideró una tendencia emergente, y se esperaba que se alcanzara una etapa madura en más de 10 años. [66]
A principios de siglo, muchos investigadores de IA de renombre [67] esperaban que se pudiera desarrollar una IA fuerte combinando programas que resolvieran varios subproblemas. Hans Moravec escribió en 1988:
Estoy seguro de que esta ruta ascendente hacia la inteligencia artificial algún día se encontrará con la ruta descendente tradicional, lista para proporcionar la competencia en el mundo real y el conocimiento de sentido común que han resultado tan frustrantemente elusivos en los programas de razonamiento. Las máquinas completamente inteligentes surgirán cuando se logre el metafórico impulso que una ambos esfuerzos. [67]
Sin embargo, incluso en su momento, esto fue objeto de controversia. Por ejemplo, Stevan Harnad, de la Universidad de Princeton, concluyó su artículo de 1990 sobre la hipótesis de la conexión a tierra de los símbolos afirmando:
A menudo se ha expresado la expectativa de que los enfoques "de arriba hacia abajo" (simbólicos) para modelar la cognición se encontrarán de alguna manera con los enfoques "de abajo hacia arriba" (sensoriales) en algún punto intermedio. Si las consideraciones de base de este artículo son válidas, entonces esta expectativa es irremediablemente modular y realmente sólo hay una ruta viable desde los sentidos hasta los símbolos: desde abajo hacia arriba. Un nivel simbólico flotante como el nivel de software de una computadora nunca se alcanzará por esta ruta (o viceversa) – ni tampoco está claro por qué deberíamos siquiera intentar alcanzar ese nivel, ya que parece que llegar allí sólo equivaldría a desarraigar nuestros símbolos de sus significados intrínsecos (reduciéndonos así simplemente al equivalente funcional de una computadora programable). [68]
Investigación moderna sobre inteligencia artificial general
El término "inteligencia artificial general" fue utilizado ya en 1997 por Mark Gubrud [69] en un debate sobre las implicaciones de la producción y las operaciones militares totalmente automatizadas. Marcus Hutter propuso un formalismo matemático de la IAG en 2000. El agente de IAG propuesto, denominado AIXI , maximiza "la capacidad de satisfacer objetivos en una amplia gama de entornos". [70] Este tipo de IAG, que se caracteriza por la capacidad de maximizar una definición matemática de inteligencia en lugar de exhibir un comportamiento similar al humano, [71] también se denominó inteligencia artificial universal. [72]
El término AGI fue reintroducido y popularizado por Shane Legg y Ben Goertzel alrededor de 2002. [73] La actividad de investigación de AGI en 2006 fue descrita por Pei Wang y Ben Goertzel [74] como "producir publicaciones y resultados preliminares". La primera escuela de verano sobre AGI fue organizada en Xiamen, China en 2009 [75] por el Laboratorio de Cerebro Artificial de la Universidad de Xiamen y OpenCog. El primer curso universitario fue impartido en 2010 [76] y 2011 [77] en la Universidad de Plovdiv, Bulgaria, por Todor Arnaudov. El MIT presentó un curso sobre AGI en 2018, organizado por Lex Fridman y con la participación de varios profesores invitados.
A partir de 2023 [update], un pequeño número de científicos informáticos están activos en la investigación de AGI y muchos contribuyen a una serie de conferencias de AGI . Sin embargo, cada vez más investigadores están interesados en el aprendizaje abierto, [78] [79] que es la idea de permitir que la IA aprenda e innove continuamente como lo hacen los humanos.
Factibilidad
En 2023, el desarrollo y el logro potencial de la Inteligencia Artificial General (IAG) sigue siendo un tema de intenso debate dentro de la comunidad de IA. Si bien el consenso tradicional sostenía que la IAG era un objetivo lejano, los avances recientes han llevado a algunos investigadores y figuras de la industria a afirmar que es posible que ya existan formas tempranas de IAG. [80] El pionero de la IA Herbert A. Simon especuló en 1965 que "las máquinas serán capaces, dentro de veinte años, de hacer cualquier trabajo que un hombre pueda hacer". Esta predicción no se hizo realidad. El cofundador de Microsoft, Paul Allen, creía que esa inteligencia es poco probable en el siglo XXI porque requeriría "avances imprevisibles y fundamentalmente impredecibles" y una "comprensión científicamente profunda de la cognición". [81] Escribiendo en The Guardian , el roboticista Alan Winfield afirmó que la brecha entre la informática moderna y la inteligencia artificial a nivel humano es tan amplia como la brecha entre los vuelos espaciales actuales y los vuelos espaciales prácticos más rápidos que la luz. [82]
Otro desafío es la falta de claridad a la hora de definir qué implica la inteligencia . ¿Requiere conciencia? ¿Debe mostrar la capacidad de fijar objetivos y perseguirlos? ¿Es puramente una cuestión de escala, de modo que si el tamaño de los modelos aumenta lo suficiente, surgirá la inteligencia? ¿Se requieren capacidades como la planificación, el razonamiento y la comprensión causal? ¿La inteligencia requiere replicar explícitamente el cerebro y sus facultades específicas? ¿Requiere emociones? [83]
La mayoría de los investigadores de IA creen que se puede lograr una IA fuerte en el futuro, pero algunos pensadores, como Hubert Dreyfus y Roger Penrose , niegan la posibilidad de lograr una IA fuerte. [84] [85] John McCarthy está entre los que creen que se logrará una IA de nivel humano, pero que el nivel actual de progreso es tal que no se puede predecir una fecha con precisión. [86] Las opiniones de los expertos en IA sobre la viabilidad de la IAG crecen y disminuyen. Cuatro encuestas realizadas en 2012 y 2013 sugirieron que la estimación mediana entre los expertos sobre cuándo estarían 50% seguros de que llegaría la IAG era 2040 a 2050, dependiendo de la encuesta, con una media de 2081. De los expertos, el 16,5% respondió "nunca" cuando se les hizo la misma pregunta pero con un 90% de confianza. [87] [88] Se pueden encontrar más consideraciones sobre el progreso actual de la IAG arriba Pruebas para confirmar la IAG de nivel humano.
Un informe de Stuart Armstrong y Kaj Sotala, del Machine Intelligence Research Institute, concluyó que "en un período de 60 años existe una marcada tendencia a predecir la llegada de la IA de nivel humano entre 15 y 25 años después de que se hizo la predicción". Analizaron 95 predicciones realizadas entre 1950 y 2012 sobre cuándo surgiría la IA de nivel humano. [89]
En 2023, los investigadores de Microsoft publicaron una evaluación detallada de GPT-4 . Llegaron a la siguiente conclusión: "Dada la amplitud y profundidad de las capacidades de GPT-4, creemos que podría considerarse razonablemente como una versión temprana (aunque aún incompleta) de un sistema de inteligencia artificial general (AGI)". [90] Otro estudio de 2023 informó que GPT-4 supera al 99% de los humanos en las pruebas Torrance de pensamiento creativo . [91] [92]
Blaise Agüera y Arcas y Peter Norvig escribieron en 2023 que ya se ha alcanzado un nivel significativo de inteligencia general con los modelos de frontera . Escribieron que la reticencia a esta visión proviene de cuatro razones principales: un "escepticismo saludable sobre las métricas para la IAG", un "compromiso ideológico con teorías o técnicas de IA alternativas", una "devoción al excepcionalismo humano (o biológico)" o una "preocupación por las implicaciones económicas de la IAG". [93]
El año 2023 también marcó el surgimiento de grandes modelos multimodales (grandes modelos de lenguaje capaces de procesar o generar múltiples modalidades como texto, audio e imágenes). [94]
En 2024, OpenAI lanzó o1-preview , el primero de una serie de modelos que "pasan más tiempo pensando antes de responder". Según Mira Murati , esta capacidad de pensar antes de responder representa un nuevo paradigma adicional. Mejora los resultados del modelo al gastar más potencia de cálculo al generar la respuesta, mientras que el paradigma de escalado del modelo mejora los resultados al aumentar el tamaño del modelo, los datos de entrenamiento y la potencia de cálculo del entrenamiento. [95] [96]
Escalas de tiempo
El progreso en inteligencia artificial ha pasado históricamente por períodos de rápido progreso separados por períodos en los que el progreso pareció detenerse. [84] Cada pausa se puso fin a avances fundamentales en hardware, software o ambos para crear espacio para un mayor progreso. [84] [99] [100] Por ejemplo, el hardware informático disponible en el siglo XX no era suficiente para implementar el aprendizaje profundo, que requiere una gran cantidad de CPU habilitadas para GPU . [101]
En la introducción a su libro de 2006, [102] Goertzel dice que las estimaciones del tiempo necesario antes de que se construya una IAG verdaderamente flexible varían de 10 años a más de un siglo. A partir de 2007 [update], el consenso en la comunidad de investigación de IAG parecía ser que la línea de tiempo discutida por Ray Kurzweil en 2005 en The Singularity is Near [103] (es decir, entre 2015 y 2045) era plausible. [104] Los investigadores de IA convencionales han dado una amplia gama de opiniones sobre si el progreso será tan rápido. Un metaanálisis de 2012 de 95 de esas opiniones encontró un sesgo hacia la predicción de que el inicio de la IAG ocurriría dentro de 16 a 26 años para las predicciones modernas e históricas por igual. Ese documento ha sido criticado por cómo categorizaba las opiniones como expertas o no expertas. [105]
En 2012, Alex Krizhevsky , Ilya Sutskever y Geoffrey Hinton desarrollaron una red neuronal llamada AlexNet , que ganó la competencia ImageNet con una tasa de error de prueba entre las 5 mejores del 15,3 %, significativamente mejor que la tasa del segundo mejor participante del 26,3 % (el enfoque tradicional utilizó una suma ponderada de puntajes de diferentes clasificadores predefinidos). [106] AlexNet fue considerado como el pionero inicial de la ola actual de aprendizaje profundo . [106]
En 2017, los investigadores Feng Liu, Yong Shi y Ying Liu realizaron pruebas de inteligencia con IA débiles disponibles públicamente y de libre acceso, como Google AI, Siri de Apple y otras. Como máximo, estas IA alcanzaron un valor de CI de aproximadamente 47, que corresponde aproximadamente a un niño de seis años en primer grado. Un adulto llega a tener un valor de CI de aproximadamente 100 en promedio. Se llevaron a cabo pruebas similares en 2014, con un puntaje de CI que alcanzó un valor máximo de 27. [107] [108]
En 2020, OpenAI desarrolló GPT-3 , un modelo de lenguaje capaz de realizar muchas tareas diversas sin entrenamiento específico. Según Gary Grossman en un artículo de VentureBeat , si bien existe consenso en que GPT-3 no es un ejemplo de IAG, algunos lo consideran demasiado avanzado para clasificarlo como un sistema de IA limitado. [109]
Ese mismo año, Jason Rohrer utilizó su cuenta GPT-3 para desarrollar un chatbot y proporcionó una plataforma de desarrollo de chatbots llamada "Project December". OpenAI solicitó cambios en el chatbot para cumplir con sus pautas de seguridad; Rohrer desconectó Project December de la API GPT-3. [110]
En 2022, DeepMind desarrolló Gato , un sistema de "propósito general" capaz de realizar más de 600 tareas diferentes. [111]
En 2023, Microsoft Research publicó un estudio sobre una versión preliminar del GPT-4 de OpenAI , en el que afirmaba que exhibía una inteligencia más general que los modelos de IA anteriores y demostraba un desempeño a nivel humano en tareas que abarcaban múltiples dominios, como matemáticas, codificación y derecho. Esta investigación provocó un debate sobre si el GPT-4 podía considerarse una versión temprana e incompleta de la inteligencia artificial general, lo que enfatizó la necesidad de una mayor exploración y evaluación de dichos sistemas. [112]
En 2023, el investigador de IA Geoffrey Hinton afirmó que: [113]
La idea de que estas cosas podrían volverse más inteligentes que las personas... algunas personas lo creían, [...]. Pero la mayoría pensaba que estaba muy lejos. Y yo pensaba que estaba muy lejos. Pensaba que faltaban 30 o 50 años o incluso más. Obviamente, ya no lo creo.
En mayo de 2023, Demis Hassabis dijo de manera similar que "el progreso en los últimos años ha sido bastante increíble", y que no ve ninguna razón por la cual se desaceleraría, esperando que la IAG esté disponible dentro de una década o incluso unos pocos años. [114] En marzo de 2024, el CEO de Nvidia , Jensen Huang , manifestó su expectativa de que dentro de cinco años, la IA sería capaz de pasar cualquier prueba al menos tan bien como los humanos. [115] En junio de 2024, el investigador de IA Leopold Aschenbrenner, un ex empleado de OpenAI , estimó que la IAG para 2027 sería "sorprendentemente plausible". [116]
Emulación de cerebro completo
Si bien el desarrollo de modelos de transformadores como en ChatGPT se considera el camino más prometedor hacia la IAG, [117] [118] la emulación de cerebro completo puede servir como un enfoque alternativo. Con la simulación de cerebro completo, se construye un modelo cerebral escaneando y mapeando un cerebro biológico en detalle, y luego copiándolo y simulándolo en un sistema informático u otro dispositivo computacional. El modelo de simulación debe ser lo suficientemente fiel al original, de modo que se comporte prácticamente de la misma manera que el cerebro original. [119] La emulación de cerebro completo es un tipo de simulación cerebral que se analiza en la neurociencia computacional y la neuroinformática , y con fines de investigación médica. Se ha discutido en la investigación de inteligencia artificial [104] como un enfoque para una IA fuerte. Las tecnologías de neuroimagen que podrían brindar la comprensión detallada necesaria están mejorando rápidamente, y el futurista Ray Kurzweil en el libro The Singularity Is Near [103] predice que un mapa de calidad suficiente estará disponible en una escala de tiempo similar a la potencia computacional requerida para emularlo.
Estimaciones preliminares
Para la simulación cerebral de bajo nivel, se requeriría un grupo muy potente de computadoras o GPU, dada la enorme cantidad de sinapsis dentro del cerebro humano . Cada una de las 10 11 (cien mil millones) neuronas tiene en promedio 7.000 conexiones sinápticas (sinapsis) con otras neuronas. El cerebro de un niño de tres años tiene alrededor de 10 15 sinapsis (1 cuatrillón). Este número disminuye con la edad, estabilizándose en la edad adulta. Las estimaciones varían para un adulto, desde 10 14 a 5×10 14 sinapsis (100 a 500 billones). [121] Una estimación de la capacidad de procesamiento del cerebro, basada en un modelo de conmutación simple para la actividad neuronal, es de alrededor de 10 14 (100 billones) actualizaciones sinápticas por segundo ( SUPS ). [122]
En 1997, Kurzweil examinó varias estimaciones del hardware necesario para igualar al cerebro humano y adoptó una cifra de 10 16 cálculos por segundo (cps). [e] (A modo de comparación, si un "cómputo" fuera equivalente a una " operación de punto flotante " -una medida utilizada para calificar las supercomputadoras actuales- entonces 10 16 "cómputos" serían equivalentes a 10 petaFLOPS , logrados en 2011 , mientras que 10 18 se lograron en 2022 ). Utilizó esta cifra para predecir que el hardware necesario estaría disponible en algún momento entre 2015 y 2025, si continuaba el crecimiento exponencial de la potencia informática en el momento de escribir este artículo.
Investigación actual
El Proyecto Cerebro Humano , una iniciativa financiada por la UE activa desde 2013 hasta 2023, ha desarrollado un atlas particularmente detallado y de acceso público del cerebro humano. [125] En 2023, investigadores de la Universidad de Duke realizaron un escaneo de alta resolución del cerebro de un ratón. [126] Se espera que en abril de 2024 se construya una supercomputadora con una capacidad de computación similar a la del cerebro humano. Llamada "DeepSouth", podría realizar 228 billones de operaciones sinápticas por segundo. [127]
Críticas a los enfoques basados en simulación
El modelo de neurona artificial asumido por Kurzweil y utilizado en muchas implementaciones actuales de redes neuronales artificiales es simple en comparación con las neuronas biológicas . Una simulación cerebral probablemente tendría que capturar el comportamiento celular detallado de las neuronas biológicas , que actualmente se entienden solo en líneas generales. La sobrecarga introducida por el modelado completo de los detalles biológicos, químicos y físicos del comportamiento neuronal (especialmente a escala molecular) requeriría poderes computacionales varios órdenes de magnitud mayores que la estimación de Kurzweil. Además, las estimaciones no tienen en cuenta las células gliales , que se sabe que desempeñan un papel en los procesos cognitivos. [128]
En 1980, el filósofo John Searle acuñó el término "IA fuerte" como parte de su argumento de la habitación china . [130] Propuso una distinción entre dos hipótesis sobre la inteligencia artificial: [f]
Hipótesis fuerte de la IA : Un sistema de inteligencia artificial puede tener “una mente” y “conciencia”.
Hipótesis de IA débil : Un sistema de inteligencia artificial puede (sólo) actuar como si pensara y tuviera mente y conciencia.
La primera la llamó “fuerte” porque hace una afirmación más contundente : supone que le ha sucedido algo especial a la máquina que va más allá de las capacidades que podemos poner a prueba. El comportamiento de una máquina con “IA débil” sería exactamente idéntico al de una máquina con “IA fuerte”, pero esta última también tendría una experiencia consciente subjetiva. Este uso también es común en la investigación académica sobre IA y en los libros de texto. [131]
A diferencia de Searle y la IA convencional, algunos futuristas como Ray Kurzweil utilizan el término "IA fuerte" para referirse a una "inteligencia artificial general de nivel humano". [103] Esto no es lo mismo que la IA fuerte de Searle , a menos que se suponga que la conciencia es necesaria para la IAG de nivel humano. Los filósofos académicos como Searle no creen que ese sea el caso, y para la mayoría de los investigadores de inteligencia artificial la cuestión está fuera de su alcance. [132]
La IA convencional está más interesada en cómo se comporta un programa . [133] Según Russell y Norvig , "mientras el programa funcione, no les importa si lo llamas real o una simulación". [132] Si el programa puede comportarse como si tuviera una mente, entonces no hay necesidad de saber si realmente tiene mente; de hecho, no habría forma de saberlo. Para la investigación de IA, la "hipótesis de IA débil" de Searle es equivalente a la afirmación "la inteligencia artificial general es posible". Por lo tanto, según Russell y Norvig, "la mayoría de los investigadores de IA dan por sentada la hipótesis de IA débil y no les importa la hipótesis de IA fuerte". [132] Por lo tanto, para la investigación académica de IA, "IA fuerte" e "IGL" son dos cosas diferentes.
Conciencia
La relación entre la inteligencia artificial general (AGI) y la conciencia es un tema de continuo debate filosófico, particularmente entre las perspectivas del materialismo y el idealismo .
Los materialistas, especialmente los defensores de la teoría de la identidad mente-cerebro , sostienen que la conciencia es idéntica a los procesos cerebrales. Según esta visión, la conciencia surge de actividades neurobiológicas complejas y, si un sistema artificial replica la organización funcional del cerebro humano, se volvería inherentemente consciente. [134] [135] [136]
Por lo tanto, si un sistema artificial alcanza un nivel de complejidad y organización similar al cerebro humano, exhibiría conciencia como una propiedad emergente. [140] [141]
Por el contrario, los idealistas sostienen que la conciencia es fundamental y no puede explicarse completamente sólo mediante procesos físicos. Sugieren que incluso si una IA pudiera imitar la inteligencia humana, podría no poseer verdadera conciencia a menos que comparta la esencia no física que constituye la experiencia consciente. Según el idealismo, la inteligencia no implica automáticamente conciencia. [142] [143]
La conciencia puede tener varios significados y algunos aspectos juegan un papel importante en la ciencia ficción y la ética de la inteligencia artificial:
Sensibilidad (o "conciencia fenoménica"): La capacidad de "sentir" percepciones o emociones subjetivamente, en oposición a la capacidad de razonar sobre las percepciones. Algunos filósofos, como David Chalmers , utilizan el término "conciencia" para referirse exclusivamente a la conciencia fenoménica, que es aproximadamente equivalente a la sensibilidad. [144] Determinar por qué y cómo surge la experiencia subjetiva se conoce como el problema difícil de la conciencia . [145] Thomas Nagel explicó en 1974 que "se siente como" algo ser consciente. Si no somos conscientes, entonces no se siente como nada. Nagel usa el ejemplo de un murciélago: podemos preguntar sensatamente " ¿qué se siente al ser un murciélago? " Sin embargo, es poco probable que preguntemos "¿qué se siente al ser una tostadora?" Nagel concluye que un murciélago parece ser consciente (es decir, tiene conciencia) pero una tostadora no. [146] En 2022, un ingeniero de Google afirmó que el chatbot de inteligencia artificial de la empresa, LaMDA , había alcanzado la sensibilidad, aunque esta afirmación fue ampliamente cuestionada por otros expertos. [147]
Autoconciencia : Tener conciencia de uno mismo como individuo separado, especialmente ser consciente de los propios pensamientos. Esto se opone a ser simplemente el "sujeto del pensamiento de uno" (un sistema operativo o depurador es capaz de ser "consciente de sí mismo" (es decir, representarse a sí mismo de la misma manera que representa todo lo demás), pero esto no es lo que la gente suele querer decir cuando utiliza el término "autoconciencia". [g]
Estos rasgos tienen una dimensión moral. La sensibilidad de la IA daría lugar a preocupaciones sobre el bienestar y la protección legal, de manera similar a lo que ocurre con los animales. [148] Otros aspectos de la conciencia relacionados con las capacidades cognitivas también son relevantes para el concepto de derechos de la IA. [149] Descubrir cómo integrar la IA avanzada con los marcos legales y sociales existentes es una cuestión emergente. [150]
Beneficios
La IAG podría tener una amplia variedad de aplicaciones. Si se orientara hacia esos objetivos, podría ayudar a mitigar diversos problemas del mundo, como el hambre, la pobreza y los problemas de salud. [151]
La IAG podría mejorar la productividad y la eficiencia en la mayoría de los empleos. Por ejemplo, en la salud pública, la IAG podría acelerar la investigación médica, en particular contra el cáncer. [152] Podría ocuparse de los ancianos, [153] y democratizar el acceso a diagnósticos médicos rápidos y de alta calidad. Podría ofrecer una educación divertida, barata y personalizada. [153] Para prácticamente cualquier trabajo que beneficie a la sociedad si se hace bien, probablemente tarde o temprano sería preferible dejárselo a una IAG. La necesidad de trabajar para subsistir podría volverse obsoleta si la riqueza producida se redistribuye adecuadamente . [153] [154] Esto también plantea la cuestión del lugar de los humanos en una sociedad radicalmente automatizada.
La IAG también podría ayudar a tomar decisiones racionales y a anticipar y prevenir desastres. También podría ayudar a aprovechar los beneficios de tecnologías potencialmente catastróficas como la nanotecnología o la ingeniería climática , evitando al mismo tiempo los riesgos asociados. [155] Si el objetivo principal de una IAG es prevenir catástrofes existenciales como la extinción humana (lo que podría ser difícil si la Hipótesis del Mundo Vulnerable resulta ser cierta), [156] podría tomar medidas para reducir drásticamente los riesgos [155] al tiempo que minimiza el impacto de estas medidas en nuestra calidad de vida.
Riesgos
Riesgos existenciales
La IAG puede representar múltiples tipos de riesgo existencial , que son riesgos que amenazan con "la extinción prematura de la vida inteligente originada en la Tierra o la destrucción permanente y drástica de su potencial para un desarrollo futuro deseable". [157] El riesgo de extinción humana por la IAG ha sido tema de muchos debates, pero también existe la posibilidad de que el desarrollo de la IAG conduzca a un futuro permanentemente defectuoso. En particular, podría usarse para difundir y preservar el conjunto de valores de quien la desarrolle. Si la humanidad todavía tiene puntos ciegos morales similares a la esclavitud en el pasado, la IAG podría arraigarlos irreversiblemente, impidiendo el progreso moral . [158] Además, la IAG podría facilitar la vigilancia masiva y el adoctrinamiento, que podrían usarse para crear un régimen totalitario mundial represivo estable. [159] [160] También existe un riesgo para las propias máquinas. Si en el futuro se crean en masa máquinas que sean sensibles o dignas de consideración moral, emprender un camino civilizatorio que descuide indefinidamente su bienestar e intereses podría ser una catástrofe existencial. [161] [162] Teniendo en cuenta cuánto podría la IAG mejorar el futuro de la humanidad y ayudar a reducir otros riesgos existenciales, Toby Ord llama a estos riesgos existenciales "un argumento para proceder con la debida cautela", no para "abandonar la IA". [159]
Riesgo de pérdida de control y extinción humana
La tesis de que la IA supone un riesgo existencial para los humanos, y que este riesgo necesita más atención, es controvertida, pero ha sido respaldada en 2023 por muchas figuras públicas, investigadores de IA y directores ejecutivos de empresas de IA como Elon Musk , Bill Gates , Geoffrey Hinton , Yoshua Bengio , Demis Hassabis y Sam Altman . [163] [164]
En 2014, Stephen Hawking criticó la indiferencia generalizada:
Así pues, ante posibles futuros con beneficios y riesgos incalculables, los expertos seguramente están haciendo todo lo posible para garantizar el mejor resultado, ¿no es así? No. Si una civilización extraterrestre superior nos enviara un mensaje diciendo: “Llegaremos en unas décadas”, ¿responderíamos simplemente: “Está bien, llámanos cuando llegues; dejaremos las luces encendidas”? Probablemente no, pero esto es más o menos lo que está sucediendo con la IA. [165]
El destino potencial de la humanidad se ha comparado a veces con el destino de los gorilas amenazados por las actividades humanas. La comparación indica que una mayor inteligencia permitió a la humanidad dominar a los gorilas, que ahora son vulnerables de maneras que no podrían haber previsto. Como resultado, el gorila se ha convertido en una especie en peligro de extinción, no por malicia, sino simplemente como un daño colateral de las actividades humanas. [166]
El escéptico Yann LeCun considera que las IA no tendrán ningún deseo de dominar a la humanidad y que deberíamos tener cuidado de no antropomorfizarlas e interpretar sus intenciones como lo haríamos con los humanos. Dijo que las personas no serán "lo suficientemente inteligentes como para diseñar máquinas superinteligentes, pero sí ridículamente estúpidas hasta el punto de darles objetivos estúpidos sin salvaguardas". [167] Por otro lado, el concepto de convergencia instrumental sugiere que, casi cualesquiera que sean sus objetivos, los agentes inteligentes tendrán razones para tratar de sobrevivir y adquirir más poder como pasos intermedios para lograr estos objetivos. Y que esto no requiere tener emociones. [168]
Muchos académicos preocupados por el riesgo existencial abogan por más investigaciones para resolver el " problema de control " para responder a la pregunta: ¿qué tipos de salvaguardas, algoritmos o arquitecturas pueden implementar los programadores para maximizar la probabilidad de que su IA recursivamente mejorada continúe comportándose de manera amistosa , en lugar de destructiva, después de que alcance la superinteligencia? [169] [170] La solución del problema de control se complica por la carrera armamentista de la IA (que podría conducir a una carrera hacia el abismo de las precauciones de seguridad para lanzar productos antes que los competidores), [171] y el uso de la IA en sistemas de armas. [172]
La tesis de que la IA puede plantear un riesgo existencial también tiene detractores. Los escépticos suelen decir que la IA es poco probable en el corto plazo o que las preocupaciones sobre la IA distraen de otros asuntos relacionados con la IA actual. [173] El ex zar de fraudes de Google, Shuman Ghosemajumder, considera que para muchas personas fuera de la industria tecnológica, los chatbots y los LLM existentes ya son percibidos como si fueran IA, lo que conduce a más malentendidos y temores. [174]
Los escépticos a veces sostienen que la tesis es criptorreligiosa, con una creencia irracional en la posibilidad de que una superinteligencia reemplace a una creencia irracional en un Dios omnipotente. [175] Algunos investigadores creen que las campañas de comunicación sobre el riesgo existencial de la IA por parte de ciertos grupos de IA (como OpenAI, Anthropic, DeepMind y Conjecture) pueden ser un intento de captura regulatoria e inflar el interés en sus productos. [176] [177]
En 2023, los directores ejecutivos de Google DeepMind, OpenAI y Anthropic, junto con otros líderes de la industria e investigadores, emitieron una declaración conjunta en la que afirmaban que "mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala social, como las pandemias y la guerra nuclear". [164]
Paro masivo
Los investigadores de OpenAI estimaron que "el 80% de la fuerza laboral estadounidense podría tener al menos el 10% de sus tareas laborales afectadas por la introducción de LLM, mientras que alrededor del 19% de los trabajadores pueden ver al menos el 50% de sus tareas impactadas". [178] [179] Consideran que los trabajadores de oficina son los más expuestos, por ejemplo, matemáticos, contables o diseñadores web. [179] La AGI podría tener una mejor autonomía, capacidad de tomar decisiones, de interactuar con otras herramientas informáticas, pero también de controlar cuerpos robotizados.
Según Stephen Hawking, el impacto de la automatización en la calidad de vida dependerá de cómo se redistribuya la riqueza: [154]
Todo el mundo puede disfrutar de una vida de ocio lujoso si se comparte la riqueza producida por las máquinas, o la mayoría de la gente puede acabar siendo miserablemente pobre si los propietarios de las máquinas presionan con éxito contra la redistribución de la riqueza. Hasta ahora, la tendencia parece inclinarse hacia la segunda opción, ya que la tecnología impulsa una desigualdad cada vez mayor.
Elon Musk considera que la automatización de la sociedad requerirá que los gobiernos adopten una renta básica universal . [180]
Véase también
Cerebro artificial : software y hardware con capacidades cognitivas similares a las del cerebro animal o humano.
^ ab Consulte más abajo el origen del término "IA fuerte", y vea la definición académica de " IA fuerte " e IA débil en el artículo La sala china .
^ El fundador de la IA, John McCarthy, escribe: "aún no podemos caracterizar en general qué tipos de procedimientos computacionales queremos llamar inteligentes". [30] (Para un análisis de algunas definiciones de inteligencia utilizadas por los investigadores de inteligencia artificial , véase filosofía de la inteligencia artificial ).
^ El informe Lighthill criticó específicamente los "objetivos grandiosos" de la IA y condujo al desmantelamiento de la investigación en IA en Inglaterra. [57] En los EE. UU., DARPA se determinó a financiar solo "investigación directa orientada a la misión, en lugar de investigación básica no dirigida". [58] [59]
^ Como escribe el fundador de IA , John McCarthy , "sería un gran alivio para el resto de los trabajadores de IA si los inventores de nuevos formalismos generales expresaran sus esperanzas de una forma más cautelosa de lo que a veces ha sido el caso". [63]
^ En "Mind Children" [123] se utiliza 10 15 cps. Más recientemente, en 1997, [124] Moravec argumentó que 10 8 MIPS correspondería aproximadamente a 10 14 cps. Moravec habla en términos de MIPS, no de "cps", que es un término no estándar introducido por Kurzweil.
^ Como se define en un libro de texto estándar sobre IA: "La afirmación de que las máquinas podrían actuar de manera inteligente (o, quizás mejor, actuar como si fueran inteligentes) es llamada por los filósofos la hipótesis de la 'IA débil', y la afirmación de que las máquinas que lo hacen realmente están pensando (en lugar de simular el pensamiento) es llamada la hipótesis de la 'IA fuerte'". [122]
^ Krishna, Sri (9 de febrero de 2023). "¿Qué es la inteligencia artificial estrecha (ANI)?". VentureBeat . Consultado el 1 de marzo de 2024. La ANI está diseñada para realizar una única tarea.
^ Ertel, Wolfgang (2018). Introducción a la inteligencia artificial . Springer. pág. 12. ISBN978-3-3195-8487-4Los sistemas de Inteligencia Artificial Estrecha están especializados en un área.
^ Haugeland, John (1989). Inteligencia artificial: la idea misma . MIT Press. ISBN978-0-2625-8095-3La IA fuerte afirma que es posible lograr que las máquinas piensen a un nivel igual al de los humanos.
^ "Carta de OpenAI". OpenAI . Consultado el 6 de abril de 2023 . Nuestra misión es garantizar que la inteligencia artificial general beneficie a toda la humanidad.
^ Heath, Alex (18 de enero de 2024). "El nuevo objetivo de Mark Zuckerberg es crear una inteligencia artificial general". The Verge . Consultado el 13 de junio de 2024. Nuestra visión es construir una IA que sea mejor que la humana en todos los sentidos.
^ Baum, Seth D. (2020). Una encuesta sobre proyectos de inteligencia artificial general para la ética, el riesgo y la política (PDF) (Informe). Global Catastrophic Risk Institute . Consultado el 13 de enero de 2022 . Identificamos 72 proyectos de I+D de inteligencia artificial general.
^ ab "Cronología de la IA: ¿Qué esperan los expertos en inteligencia artificial para el futuro?". Our World in Data . Consultado el 6 de abril de 2023 .
^ Grace, Katja; Salvatier, John; Dafoe, Allan; Zhang, Baobao; Evans, Owain (2018). "¿Cuándo superará la IA el rendimiento humano? Evidencia de expertos en IA". arXiv : 1705.08807 [cs.AI]. Los expertos estiman una probabilidad del 50 % de que la IA supere el rendimiento humano en 2050.
^ Agüera y Arcas, Blaise (10 de octubre de 2023). "La Inteligencia Artificial General ya está aquí". Noema . Creo que ya estamos en presencia de la IAG.
^ "El pionero de la IA Geoffrey Hinton abandona Google y advierte del peligro que se avecina". The New York Times . 1 de mayo de 2023 . Consultado el 2 de mayo de 2023 . Es difícil ver cómo se puede evitar que los malos actores lo utilicen para hacer cosas malas.
^ Bubeck, Sébastien; Chandrasekaran, Varun; Eldan, Ronen; Gehrke, Johannes; Horvitz, Eric (2023). "Chispas de inteligencia artificial general: primeros experimentos con GPT-4". arXiv preprint . arXiv : 2303.12712 . GPT-4 muestra chispas de IAG.
^ Butler, Octavia E. (1993). Parábola del sembrador . Grand Central Publishing. ISBN978-0-4466-7550-5Todo lo que tocas lo cambias. Todo lo que cambias te cambia a ti.
^ Vinge, Vernor (1992). Un fuego en las profundidades . Tor Books. ISBN978-0-8125-1528-2La Singularidad se acerca.
^ Morozov, Evgeny (30 de junio de 2023). "La verdadera amenaza de la inteligencia artificial". The New York Times . La verdadera amenaza no es la IA en sí, sino la forma en que la utilizamos.
^ "¿Impresionado por la inteligencia artificial? Los expertos dicen que la IAG es lo próximo que llegará y que conlleva riesgos 'existenciales'". ABC News . 23 de marzo de 2023 . Consultado el 6 de abril de 2023 . La IAG podría plantear riesgos existenciales para la humanidad.
^ Bostrom, Nick (2014). Superinteligencia: caminos, peligros, estrategias . Oxford University Press. ISBN978-0-1996-7811-2La primera superinteligencia será el último invento que la humanidad necesitará realizar.
^ Roose, Kevin (30 de mayo de 2023). "La IA plantea un 'riesgo de extinción', advierten los líderes de la industria". The New York Times . Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial.
^ "Declaración sobre los riesgos de la IA". Centro para la seguridad de la IA . Consultado el 1 de marzo de 2024. Los expertos en IA advierten sobre el riesgo de extinción de la IA.
^ Mitchell, Melanie (30 de mayo de 2023). "¿Vale la pena tomar en serio los escenarios apocalípticos de la IA?". The New York Times . Estamos lejos de crear máquinas que puedan superarnos en inteligencia en aspectos generales.
^ LeCun, Yann (junio de 2023). "La IA general no representa un riesgo existencial". Medium . No hay motivos para temer que la IA sea una amenaza existencial.
^ Kurzweil 2005, pág. 260.
^ ab Kurzweil, Ray (5 de agosto de 2005), "Long Live AI", Forbes , archivado desde el original el 14 de agosto de 2005:Kurzweil describe la IA fuerte como "inteligencia de máquina con toda la gama de la inteligencia humana".
^ "La era de la inteligencia artificial: George John en TEDxLondonBusinessSchool 2013". Archivado desde el original el 26 de febrero de 2014 . Consultado el 22 de febrero de 2014 .
^ "Cronología de la IA: ¿Qué esperan los expertos en inteligencia artificial para el futuro?". Our World in Data . Consultado el 6 de abril de 2023 .
^ Newell y Simon 1976, Este es el término que utilizan para la inteligencia de "nivel humano" en la hipótesis del sistema de símbolos físicos .
^ "La Universidad Abierta sobre IA fuerte y débil". Archivado desde el original el 25 de septiembre de 2009. Consultado el 8 de octubre de 2007 .
^ "¿Qué es la superinteligencia artificial (ASI)? | Definición de TechTarget". Inteligencia artificial empresarial . Consultado el 8 de octubre de 2023 .
^ "La inteligencia artificial está transformando nuestro mundo: depende de todos nosotros asegurarnos de que todo salga bien". Nuestro mundo en datos . Consultado el 8 de octubre de 2023 .
^ Dickson, Ben (16 de noviembre de 2023). "Esto es lo lejos que estamos de lograr la inteligencia artificial general, según DeepMind". VentureBeat .
^ McCarthy, John (2007a). «Basic Questions». Universidad de Stanford . Archivado desde el original el 26 de octubre de 2007. Consultado el 6 de diciembre de 2007 .
^ Esta lista de rasgos inteligentes se basa en los temas tratados en los principales libros de texto de IA, incluidos: Russell y Norvig 2003, Luger y Stubblefield 2004, Poole, Mackworth y Goebel 1998 y Nilsson 1998.
^ Johnson 1987
^ de Charms, R. (1968). Causalidad personal. Nueva York: Academic Press.
^ Pfeifer, R. y Bongard JC, Cómo el cuerpo moldea nuestra manera de pensar: una nueva visión de la inteligencia (The MIT Press, 2007). ISBN 0-2621-6239-3
^ White, RW (1959). "Reconsideración de la motivación: el concepto de competencia". Psychological Review . 66 (5): 297–333. doi :10.1037/h0040934. PMID 13844397. S2CID 37385966.
^ Muehlhauser, Luke (11 de agosto de 2013). "¿Qué es la inteligencia artificial general?". Instituto de Investigación de Inteligencia Artificial. Archivado desde el original el 25 de abril de 2014. Consultado el 1 de mayo de 2014 .
^ "¿Qué es la Inteligencia Artificial General (AGI)? | 4 pruebas para asegurar la Inteligencia Artificial General". Blog Talky . 13 de julio de 2019. Archivado desde el original el 17 de julio de 2019 . Consultado el 17 de julio de 2019 .
^ Kirk-Giannini, Cameron Domenico; Goldstein, Simon (16 de octubre de 2023). "La IA está más cerca que nunca de pasar la prueba de Turing de 'inteligencia'. ¿Qué sucede cuando lo logra?". The Conversation . Consultado el 22 de septiembre de 2024 .
^ desde Turing 1950.
^ Turing, Alan (1952). B. Jack Copeland (ed.). ¿Se puede decir que las máquinas calculadoras automáticas piensan? . Oxford: Oxford University Press. pp. 487–506. ISBN978-0-1982-5079-1.
^ "Eugene Goostman es un niño de verdad: el test de Turing lo dice". The Guardian . 9 de junio de 2014. ISSN 0261-3077 . Consultado el 3 de marzo de 2024 .
^ "Los científicos discuten si el ordenador 'Eugene Goostman' pasó la prueba de Turing". BBC News . 9 de junio de 2014 . Consultado el 3 de marzo de 2024 .
^ Varanasi, Lakshmi (21 de marzo de 2023). "Los modelos de IA como ChatGPT y GPT-4 están aprobando todo, desde el examen de abogacía hasta la Biología AP. Aquí hay una lista de exámenes difíciles que ambas versiones de IA han aprobado". Business Insider . Consultado el 30 de mayo de 2023 .
^ Naysmith, Caleb (7 de febrero de 2023). "6 empleos que la inteligencia artificial ya está reemplazando y cómo los inversores pueden sacar provecho de ello" . Consultado el 30 de mayo de 2023 .
^ Turk, Victoria (28 de enero de 2015). "El plan para reemplazar el Test de Turing con unas 'Olimpiadas de Turing'". Vice . Consultado el 3 de marzo de 2024 .
^ Gopani, Avi (25 de mayo de 2022). "La prueba de Turing no es confiable. El esquema de Winograd está obsoleto. El café es la respuesta". Revista Analytics India . Consultado el 3 de marzo de 2024 .
^ Bhaimiya, Sawdah (20 de junio de 2023). "El cofundador de DeepMind sugirió probar la capacidad de un chatbot de IA para convertir $100,000 en $1 millón para medir la inteligencia humana". Business Insider . Consultado el 3 de marzo de 2024 .
^ Suleyman, Mustafa (14 de julio de 2023). «Mustafa Suleyman: Mi nueva prueba de Turing comprobaría si la IA puede ganar un millón de dólares». MIT Technology Review . Consultado el 3 de marzo de 2024 .
^ Shapiro, Stuart C. (1992). "Inteligencia artificial" (PDF) . En Stuart C. Shapiro (ed.). Enciclopedia de inteligencia artificial (segunda edición). Nueva York: John Wiley. pp. 54–57. Archivado (PDF) desde el original el 1 de febrero de 2016.(La sección 4 trata sobre "Tareas completadas por IA").
^ Yampolskiy, Roman V. (2012). Xin-She Yang (ed.). "La prueba de Turing como característica definitoria de la completitud de la IA" (PDF) . Inteligencia artificial, computación evolutiva y metaheurísticas (AIECM) : 3–17. Archivado (PDF) desde el original el 22 de mayo de 2013.
^ "Índice de IA: estado de la IA en 13 gráficos". Inteligencia artificial centrada en el ser humano, Universidad de Stanford . 15 de abril de 2024. Consultado el 27 de mayo de 2024 .
^ Crevier 1993, págs. 48-50
^ Kaplan, Andreas (2022). «Inteligencia artificial, negocios y civilización: nuestro destino hecho a máquina». Archivado desde el original el 6 de mayo de 2022. Consultado el 12 de marzo de 2022 .
^ Simon 1965, p. 96 citado en Crevier 1993, p. 109
^ "Científico en el plató: entrevista con Marvin Minsky". Archivado desde el original el 16 de julio de 2012. Consultado el 5 de abril de 2008 .
^ Marvin Minsky a Darrach (1970), citado en Crevier (1993, p. 109).
^ Lighthill 1973; Howe 1994
^ ab NRC 1999, "El cambio hacia la investigación aplicada aumenta la inversión".
^ Crevier 1993, págs. 115-117; Russell y Norvig 2003, págs. 21-22.
^ Crevier 1993, pág. 211, Russell y Norvig 2003, pág. 24 y véase también Feigenbaum y McCorduck 1983
^ Crevier 1993, págs. 161–162, 197–203, 240; Russell y Norvig 2003, pág. 25.
^ Crevier 1993, págs. 209-212
^ McCarthy, John (2000). "Respuesta a Lighthill". Universidad de Stanford. Archivado desde el original el 30 de septiembre de 2008. Consultado el 29 de septiembre de 2007 .
^ Markoff, John (14 de octubre de 2005). «Detrás de la inteligencia artificial, un escuadrón de personas reales brillantes». The New York Times . Archivado desde el original el 2 de febrero de 2023. Consultado el 18 de febrero de 2017. En su punto más bajo, algunos científicos informáticos e ingenieros de software evitaron el término inteligencia artificial por miedo a ser vistos como soñadores descabellados.
^ Russell y Norvig 2003, págs. 25-26
^ "Tendencias en el ciclo de hype tecnológico emergente". Informes de Gartner. Archivado desde el original el 22 de mayo de 2019. Consultado el 7 de mayo de 2019 .
^ desde Moravec 1988, pág. 20
^ Harnad, S. (1990). "El problema de la conexión a tierra de los símbolos". Physica D . 42 (1–3): 335–346. arXiv : cs/9906002 . Código Bibliográfico :1990PhyD...42..335H. doi :10.1016/0167-2789(90)90087-6. S2CID 3204300.
^ Gubrud 1997
^ Hutter, Marcus (2005). Inteligencia artificial universal: decisiones secuenciales basadas en probabilidad algorítmica. Textos de informática teórica, serie EATCS. Springer. doi :10.1007/b138233. ISBN.978-3-5402-6877-2. S2CID 33352850. Archivado desde el original el 19 de julio de 2022 . Consultado el 19 de julio de 2022 .
^ Legg, Shane (2008). Machine Super Intelligence (PDF) (Tesis). Universidad de Lugano. Archivado (PDF) del original el 15 de junio de 2022. Consultado el 19 de julio de 2022 .
^ Goertzel, Ben (2014). Inteligencia general artificial. Apuntes de conferencias sobre informática. vol. 8598. Revista de Inteligencia General Artificial. doi :10.1007/978-3-319-09274-4. ISBN978-3-3190-9273-7. Número de identificación del sujeto 8387410.
^ "¿Quién acuñó el término "AGI"?". goertzel.org . Archivado desde el original el 28 de diciembre de 2018 . Consultado el 28 de diciembre de 2018 ., vía Life 3.0 : 'El término "AGI" fue popularizado por... Shane Legg, Mark Gubrud y Ben Goertzel'
^ Wang y Goertzel 2007
^ «Primera Escuela Internacional de Verano en Inteligencia Artificial General, Escuela de verano principal: 22 de junio – 3 de julio de 2009, OpenCog Lab: 6-9 de julio de 2009». Archivado desde el original el 28 de septiembre de 2020 . Consultado el 11 de mayo de 2020 .
^ "Избираеми дисциплини 2009/2010 - пролетен триместър" [Cursos optativos 2009/2010 - trimestre de primavera]. Факултет по математика и информатика [Facultad de Matemáticas e Informática] (en búlgaro). Archivado desde el original el 26 de julio de 2020 . Consultado el 11 de mayo de 2020 .
^ "Избираеми дисциплини 2010/2011 - зимен триместър" [Cursos optativos 2010/2011 - trimestre de invierno]. Факултет по математика и информатика [Facultad de Matemáticas e Informática] (en búlgaro). Archivado desde el original el 26 de julio de 2020 . Consultado el 11 de mayo de 2020 .
^ Shevlin, Henry; Vold, Karina; Crosby, Matthew; Halina, Marta (4 de octubre de 2019). "Los límites de la inteligencia artificial: a pesar de los avances en inteligencia artificial, la inteligencia artificial general sigue siendo un gran desafío". EMBO Reports . 20 (10): e49177. doi :10.15252/embr.201949177. ISSN 1469-221X. PMC 6776890 . PMID 31531926.
^ Bubeck, Sébastien; Chandrasekaran, Varun; Eldan, Ronen; Gehrke, Johannes; Horvitz, Eric; Kamar, Ece; Lee, Pedro; Lee, Yin Tat; Li, Yuanzhi; Lundberg, Scott; Nori, Harsha; Palangi, Hamid; Ribeiro, Marco Tulio; Zhang, Yi (27 de marzo de 2023). "Chispas de inteligencia general artificial: primeros experimentos con GPT-4". arXiv : 2303.12712 [cs.CL].
^ "Los investigadores de Microsoft afirman que GPT-4 está mostrando "chispas" de inteligencia artificial general". Futurismo . 23 de marzo de 2023 . Consultado el 13 de diciembre de 2023 .
^ Allen, Paul; Greaves, Mark (12 de octubre de 2011). "La singularidad no está cerca". MIT Technology Review . Consultado el 17 de septiembre de 2014 .
^ Winfield, Alan. «La inteligencia artificial no se convertirá en un monstruo de Frankenstein». The Guardian . Archivado desde el original el 17 de septiembre de 2014. Consultado el 17 de septiembre de 2014 .
^ Deane, George (2022). "Máquinas que sienten y piensan: el papel de los sentimientos afectivos y la acción mental en la inteligencia general (artificial)". Vida artificial . 28 (3): 289–309. doi :10.1162/artl_a_00368. ISSN 1064-5462. PMID 35881678. S2CID 251069071.
^abc Relojes en 2003.
^ Fjelland, Ragnar (17 de junio de 2020). «Por qué no se realizará la inteligencia artificial general». Humanities and Social Sciences Communications . 7 (1): 1–9. doi : 10.1057/s41599-020-0494-4 . hdl : 11250/2726984 . ISSN 2662-9992. S2CID 219710554.
^ McCarthy 2007b.
^ Khatchadourian, Raffi (23 de noviembre de 2015). "La invención del fin del mundo: ¿La inteligencia artificial nos traerá utopía o destrucción?". The New Yorker . Archivado desde el original el 28 de enero de 2016. Consultado el 7 de febrero de 2016 .
^ Müller, VC y Bostrom, N. (2016). Progreso futuro en inteligencia artificial: una encuesta de opinión de expertos. En Cuestiones fundamentales de la inteligencia artificial (pp. 555–572). Springer, Cham.
^ Armstrong, Stuart y Kaj Sotala. 2012. “Cómo estamos prediciendo la IA (o no)”. En Beyond AI: Artificial Dreams , editado por Jan Romportl, Pavel Ircing, Eva Zackova, Michal Polak y Radek Schuster, 52–75. Pilsen: Universidad de Bohemia Occidental
^ "Microsoft ahora afirma que GPT-4 muestra 'chispas' de inteligencia general". 24 de marzo de 2023.
^ Shimek, Cary (6 de julio de 2023). "AI Outperforms Humans in Creativity Test" (La IA supera a los humanos en la prueba de creatividad). Neuroscience News (Noticias de neurociencia) . Consultado el 20 de octubre de 2023 .
^ Guzik, Erik E.; Byrge, Christian; Gilde, Christian (1 de diciembre de 2023). "La originalidad de las máquinas: la IA pasa el test de Torrance". Journal of Creativity . 33 (3): 100065. doi : 10.1016/j.yjoc.2023.100065 . ISSN 2713-3745. S2CID 261087185.
^ Arcas, Blaise Agüera y (10 de octubre de 2023). "La inteligencia general artificial ya está aquí". Noéma .
^ Zia, Tehseen (8 de enero de 2024). "Revelación de grandes modelos multimodales: configuración del panorama de los modelos lingüísticos en 2024". Unite.ai . Consultado el 26 de mayo de 2024 .
^ "Presentación de OpenAI o1-preview". OpenAI . 12 de septiembre de 2024.
^ Knight, Will. «OpenAI anuncia un nuevo modelo de IA, cuyo nombre en código es Strawberry, que resuelve problemas difíciles paso a paso». Wired . ISSN 1059-1028 . Consultado el 17 de septiembre de 2024 .
^ "Índice de IA: estado de la IA en 13 gráficos". hai.stanford.edu . 15 de abril de 2024 . Consultado el 7 de junio de 2024 .
^ "Inteligencia artificial de próxima generación: el salto de OpenAI y Meta hacia las máquinas de razonamiento". Unite.ai . 19 de abril de 2024 . Consultado el 7 de junio de 2024 .
^ James, Alex P. (2022). "El por qué, el qué y el cómo del desarrollo de chips de inteligencia artificial general". IEEE Transactions on Cognitive and Developmental Systems . 14 (2): 333–347. arXiv : 2012.06338 . doi :10.1109/TCDS.2021.3069871. ISSN 2379-8920. S2CID 228376556. Archivado desde el original el 28 de agosto de 2022 . Consultado el 28 de agosto de 2022 .
^ Pei, Jing; Deng, Lei; Canción, Sen; Zhao, Mingguo; Zhang, Youhui; Wu, Shuang; Wang, Guanrui; Zou, Zhe; Wu, Zhenzhi; Él, Wei; Chen, Feng; Deng, Ning; Wu, Si; Wang, Yu; Wu, Yujie (2019). "Hacia la inteligencia artificial general con arquitectura de chip híbrido Tianjic". Naturaleza . 572 (7767): 106–111. Código Bib :2019Natur.572..106P. doi :10.1038/s41586-019-1424-8. ISSN 1476-4687. PMID 31367028. S2CID 199056116. Archivado desde el original el 29 de agosto de 2022 . Consultado el 29 de agosto de 2022 .
^ Pandey, Mohit; Fernandez, Michael; Gentile, Francesco; Isayev, Olexandr; Tropsha, Alexander; Stern, Abraham C.; Cherkasov, Artem (marzo de 2022). "El papel transformador de la computación GPU y el aprendizaje profundo en el descubrimiento de fármacos". Nature Machine Intelligence . 4 (3): 211–221. doi : 10.1038/s42256-022-00463-x . ISSN 2522-5839. S2CID 252081559.
^ Goertzel y Pennachin 2006.
^ abc (Kurzweil 2005, pág. 260)
^abc Goertzel 2007.
^ Grace, Katja (2016). «Error en Armstrong y Sotala 2012». AI Impacts (blog). Archivado desde el original el 4 de diciembre de 2020. Consultado el 24 de agosto de 2020 .
^ ab Butz, Martin V. (1 de marzo de 2021). "Hacia una IA fuerte". KI – Künstliche Intelligenz . 35 (1): 91-101. doi : 10.1007/s13218-021-00705-x . ISSN 1610-1987. S2CID 256065190.
^ Liu, Feng; Shi, Yong; Liu, Ying (2017). "Coeficiente intelectual y grado de inteligencia de la inteligencia artificial". Anales de ciencia de datos . 4 (2): 179–191. arXiv : 1709.10242 . doi :10.1007/s40745-017-0109-0. S2CID 37900130.
^ Brien, Jörn (5 de octubre de 2017). «Google-KI doppelt so schlau wie Siri» [La inteligencia artificial de Google es el doble de inteligente que Siri, pero un niño de seis años supera a ambos] (en alemán). Archivado desde el original el 3 de enero de 2019 . Consultado el 2 de enero de 2019 .
^ Grossman, Gary (3 de septiembre de 2020). "Estamos entrando en la zona de penumbra de la IA entre la IA estrecha y la general". VentureBeat . Archivado del original el 4 de septiembre de 2020 . Consultado el 5 de septiembre de 2020 . Ciertamente, también hay quienes afirman que ya estamos viendo un ejemplo temprano de un sistema de IAG en la red neuronal de procesamiento del lenguaje natural (PLN) GPT-3 anunciada recientemente. ... Entonces, ¿es GPT-3 el primer ejemplo de un sistema de IAG? Esto es discutible, pero el consenso es que no es IAG. ... Como mínimo, GPT-3 nos dice que hay un punto intermedio entre la IA estrecha y la general.
^ Quach, Katyanna. "Un desarrollador creó un chatbot de IA usando GPT-3 que ayudó a un hombre a volver a hablar con su difunta prometida. OpenAI lo desactivó". The Register. Archivado desde el original el 16 de octubre de 2021. Consultado el 16 de octubre de 2021 .
^ Wiggers, Kyle (13 de mayo de 2022), "La nueva IA de DeepMind puede realizar más de 600 tareas, desde jugar hasta controlar robots", TechCrunch , archivado del original el 16 de junio de 2022 , consultado el 12 de junio de 2022
^ Bubeck, Sébastien; Chandrasekaran, Varun; Eldan, Ronen; Gehrke, Johannes; Horvitz, Eric; Kamar, Ece; Lee, Pedro; Lee, Yin Tat; Li, Yuanzhi; Lundberg, Scott; Nori, Harsha; Palangi, Hamid; Ribeiro, Marco Tulio; Zhang, Yi (22 de marzo de 2023). "Chispas de inteligencia general artificial: primeros experimentos con GPT-4". arXiv : 2303.12712 [cs.CL].
^ Metz, Cade (1 de mayo de 2023). «'El padrino de la IA' abandona Google y advierte de peligros que se avecinan». The New York Times . ISSN 0362-4331 . Consultado el 7 de junio de 2023 .
^ Bove, Tristan. "La IA podría rivalizar con la inteligencia humana en 'apenas unos años', dice el director ejecutivo del principal laboratorio de investigación de IA de Google". Fortune . Consultado el 4 de septiembre de 2024 .
^ Nellis, Stephen (2 de marzo de 2024). "El CEO de Nvidia dice que la IA podría superar las pruebas en humanos en cinco años". Reuters .
^ Aschenbrenner, Leopold. "CONCIENCIA SITUACIONAL: La década que viene".
^ Sullivan, Mark (18 de octubre de 2023). "Por qué todo el mundo parece estar en desacuerdo sobre cómo definir la inteligencia artificial general". Fast Company .
^ Nosta, John (5 de enero de 2024). «El camino acelerado hacia la inteligencia artificial general». Psychology Today . Consultado el 30 de marzo de 2024 .
^ Hickey, Alex. "Emulación de todo el cerebro: un paso gigante para la neurociencia". Tech Brew . Consultado el 8 de noviembre de 2023 .
^ Sandberg y Boström 2008.
^ Dracman 2005.
^ por Russell y Norvig 2003.
^ Moravec 1988, pág. 61.
^ Moravec 1998.
^ Holmgaard Mersh, Amalie (15 de septiembre de 2023). «Un proyecto de investigación europeo de una década de duración mapea el cerebro humano». euractiv .
^ ab Thornton, Angela (26 de junio de 2023). «Cómo podría ser posible cargar nuestras mentes en una computadora». The Conversation . Consultado el 8 de noviembre de 2023 .
^ Vicinanza, Domenico (18 de diciembre de 2023). «Una nueva supercomputadora pretende imitar de cerca el cerebro humano: podría ayudar a desvelar los secretos de la mente y hacer avanzar la IA». The Conversation . Consultado el 29 de marzo de 2024 .
^ Swaminathan, Nikhil (enero-febrero de 2011). «Glia: las otras células cerebrales». Discover . Archivado desde el original el 8 de febrero de 2014 . Consultado el 24 de enero de 2014 .
^ de Vega, Glenberg y Graesser 2008. Una amplia gama de puntos de vista en la investigación actual, todos los cuales requieren cierta base
^ Searle 1980
^ Por ejemplo:
Russell y Norvig 2003,
Diccionario de Psicología de Oxford University Press Archivado el 3 de diciembre de 2007 en Wayback Machine (citado en "Encyclopedia.com"),
Enciclopedia de Ciencias Cognitivas del MIT Archivado el 19 de julio de 2008 en Wayback Machine (citado en "AITopics"),
¿Permitirán las computadoras biológicas que las máquinas con inteligencia artificial se conviertan en personas? Archivado el 13 de mayo de 2008 en Wayback Machine Anthony Tongen
^ abc Russell y Norvig 2003, pág. 947.
^ aunque vea Inteligencia artificial explicable por curiosidad sobre el campo acerca de por qué un programa se comporta de la manera en que lo hace
^ Smart, JJC (1959). Sensaciones y procesos cerebrales. The Philosophical Review , 68(2), 141–156. doi:10.2307/2182164.
^ Place, UT (1956). ¿Es la conciencia un proceso cerebral? British Journal of Psychology , 47(1), 44–50. doi:10.1111/j.2044-8295.1956.tb00560.x.
^ Churchland, PM (1981). Materialismo eliminativo y actitudes proposicionales. The Journal of Philosophy , 78(2), 67–90. doi:10.2307/2025900.
^ Pavlov, IP (1927). Reflejos condicionados . Oxford University Press.
^ Sechenov, IM (1863). Reflejos del cerebro . Prensa del MIT.
^ Vygotsky, LS (1986). Pensamiento y lenguaje . MIT Press. ISBN 978-0262720106.
^ Dennett, DC (1991). La conciencia explicada . Little, Brown and Company. ISBN 978-0316180665.
^ Reggia, JA (2013). El auge de la conciencia de las máquinas: estudio de la conciencia con modelos computacionales. Neural Networks , 44, 112–131. doi:10.1016/j.neunet.2013.03.011.
^ Chalmers 1996.
^ Searle, JR (1980). Mentes, cerebros y programas. Ciencias del comportamiento y del cerebro , 3(3), 417–424. doi:10.1017/S0140525X00005756.
^ Chalmers, David J. (9 de agosto de 2023). "¿Podría un modelo de lenguaje grande ser consciente?". Boston Review .
^ Seth, Anil. "Conciencia". New Scientist . Consultado el 5 de septiembre de 2024 .
^ Nagel 1974.
^ "El ingeniero de Google que cree que la inteligencia artificial de la empresa ha cobrado vida". The Washington Post . 11 de junio de 2022 . Consultado el 12 de junio de 2023 .
^ Kateman, Brian (24 de julio de 2023). "La IA debería tener miedo de los humanos". TIME . Consultado el 5 de septiembre de 2024 .
^ Nosta, John (18 de diciembre de 2023). «¿Debería la inteligencia artificial tener derechos?». Psychology Today . Consultado el 5 de septiembre de 2024 .
^ Akst, Daniel (10 de abril de 2023). "¿Deberían los robots con inteligencia artificial tener derechos morales o legales?". The Wall Street Journal .
^ "Inteligencia general artificial: ¿el costo supera los beneficios?". 23 de agosto de 2021. Consultado el 7 de junio de 2023 .
^ "Cómo podemos beneficiarnos del avance de la inteligencia artificial general (AGI) – Unite.AI". www.unite.ai . 7 de abril de 2020 . Consultado el 7 de junio de 2023 .
^ abc Talty, Jules; Julien, Stephan. "¿Cómo será nuestra sociedad cuando la inteligencia artificial esté en todas partes?". Revista Smithsonian . Consultado el 7 de junio de 2023 .
^ ab Stevenson, Matt (8 de octubre de 2015). "Las respuestas a la pregunta de Stephen Hawking están aquí". Wired . ISSN 1059-1028 . Consultado el 8 de junio de 2023 .
^ ab Bostrom, Nick (2017). "§ Orden preferente de llegada". Superinteligencia: caminos, peligros, estrategias (Reimpreso con correcciones, edición de 2017). Oxford, Reino Unido; Nueva York, Nueva York, EE. UU.: Oxford University Press. ISBN978-0-1996-7811-2.
^ Piper, Kelsey (19 de noviembre de 2018). «Cómo el progreso tecnológico hace que sea más probable que nunca que los humanos nos destruyamos a nosotros mismos». Vox . Consultado el 8 de junio de 2023 .
^ Doherty, Ben (17 de mayo de 2018). «El cambio climático es un 'riesgo de seguridad existencial' para Australia, según una investigación del Senado». The Guardian . ISSN 0261-3077 . Consultado el 16 de julio de 2023 .
^ MacAskill, William (2022). Lo que le debemos al futuro . Nueva York, NY: Basic Books. ISBN978-1-5416-1862-6.
^ ab Ord, Toby (2020). "Capítulo 5: Riesgos futuros, inteligencia artificial no alineada". El precipicio: riesgo existencial y el futuro de la humanidad . Bloomsbury Publishing. ISBN978-1-5266-0021-9.
^ Al-Sibai, Noor (13 de febrero de 2022). "El científico jefe de OpenAI dice que la IA avanzada ya puede ser consciente". Futurismo . Consultado el 24 de diciembre de 2023 .
^ Samuelsson, Paul Conrad (2019). «Conciencia artificial: nuestro mayor desafío ético». Philosophy Now . Consultado el 23 de diciembre de 2023 .
^ Kateman, Brian (24 de julio de 2023). "La IA debería tener miedo de los humanos". TIME . Consultado el 23 de diciembre de 2023 .
^ Roose, Kevin (30 de mayo de 2023). «La IA plantea un «riesgo de extinción», advierten los líderes de la industria». The New York Times . ISSN 0362-4331 . Consultado el 24 de diciembre de 2023 .
^ ab "Declaración sobre el riesgo de la IA". Centro para la seguridad de la IA . 30 de mayo de 2023. Consultado el 8 de junio de 2023 .
^ "Stephen Hawking: 'Transcendence analiza las implicaciones de la inteligencia artificial, pero ¿estamos tomando la IA lo suficientemente en serio?'". The Independent (Reino Unido) . Archivado desde el original el 25 de septiembre de 2015. Consultado el 3 de diciembre de 2014 .
^ Herger, Mario. «El problema del gorila – Enterprise Garage» . Consultado el 7 de junio de 2023 .
^ "El fascinante debate en Facebook entre Yann LeCun, Stuart Russel y Yoshua Bengio sobre los riesgos de una IA fuerte". El fascinante debate en Facebook entre Yann LeCun, Stuart Russel y Yoshua Bengio sobre los riesgos de una IA fuerte (en francés) . Consultado el 8 de junio de 2023 .
^ "¿La inteligencia artificial acabará con la raza humana en los próximos 100 años?". HuffPost . 22 de agosto de 2014 . Consultado el 8 de junio de 2023 .
^ Sotala, Kaj; Yampolskiy, Roman V. (19 de diciembre de 2014). "Respuestas al riesgo catastrófico de AGI: una encuesta". Escritura física . 90 (1): 018001. doi : 10.1088/0031-8949/90/1/018001 . ISSN 0031-8949.
^ Chow, Andrew R.; Perrigo, Billy (16 de febrero de 2023). "La carrera armamentista de la IA ha comenzado. Empiece a preocuparse". TIME . Consultado el 24 de diciembre de 2023 .
^ Tetlow, Gemma (12 de enero de 2017). «La carrera armamentística de la IA corre el riesgo de salirse de control, advierte un informe» . Financial Times . Archivado desde el original el 11 de abril de 2022. Consultado el 24 de diciembre de 2023 .
^ Milmo, Dan; Stacey, Kiran (25 de septiembre de 2023). «Los expertos no se ponen de acuerdo sobre la amenaza que supone, pero no se puede ignorar la inteligencia artificial». The Guardian . ISSN 0261-3077 . Consultado el 24 de diciembre de 2023 .
^ "Humanidad, seguridad e inteligencia artificial, ¡Dios mío! (con Ian Bremmer y Shuman Ghosemajumder)". CAFE . 20 de julio de 2023 . Consultado el 15 de septiembre de 2023 .
^ Hamblin, James (9 de mayo de 2014). "But What Would the End of Humanity Mean for Me?" [Pero, ¿qué significaría para mí el fin de la humanidad?]. The Atlantic . Archivado desde el original el 4 de junio de 2014. Consultado el 12 de diciembre de 2015 .
^ Titcomb, James (30 de octubre de 2023). "Big Tech está alimentando los temores sobre la IA, advierten los científicos". The Telegraph . Consultado el 7 de diciembre de 2023 .
^ Davidson, John (30 de octubre de 2023). «El fundador de Google Brain dice que las grandes tecnológicas mienten sobre el peligro de extinción de la IA» . Australian Financial Review . Archivado desde el original el 7 de diciembre de 2023 . Consultado el 7 de diciembre de 2023 .
^ Eloundou, Tyna; Manning, Sam; Mishkin, Pamela; Rock, Daniel (17 de marzo de 2023). "Los GPT son GPT: una mirada temprana al potencial de impacto en el mercado laboral de los modelos lingüísticos de gran tamaño". OpenAI . Consultado el 7 de junio de 2023 .
^ ab Hurst, Luke (23 de marzo de 2023). «OpenAI afirma que el 80% de los trabajadores podrían ver sus trabajos afectados por la IA. Estos son los trabajos más afectados». euronews . Consultado el 8 de junio de 2023 .
^ Sheffey, Ayelet (20 de agosto de 2021). «Elon Musk dice que necesitamos una renta básica universal porque 'en el futuro, el trabajo físico será una opción'» . Business Insider . Archivado desde el original el 9 de julio de 2023. Consultado el 8 de junio de 2023 .
Fuentes
Informe de la UNESCO sobre la ciencia: la carrera contra el tiempo hacia un desarrollo más inteligente. París: UNESCO. 11 de junio de 2021. ISBN 978-9-2310-0450-6Archivado del original el 18 de junio de 2022 . Consultado el 22 de septiembre de 2021 .
Chalmers, David (1996), La mente consciente , Oxford University Press.
Clocksin, William (agosto de 2003), "Inteligencia artificial y el futuro", Philosophical Transactions of the Royal Society A , vol. 361, núm. 1809, pp. 1721–1748, Bibcode :2003RSPTA.361.1721C, doi :10.1098/rsta.2003.1232, PMID 12952683, S2CID 31032007
Crevier, Daniel (1993). AI: The Tumultuous Search for Artificial Intelligence [IA: La tumultuosa búsqueda de la inteligencia artificial] . Nueva York, NY: BasicBooks. ISBN 0-465-02997-3.
Darrach, Brad (20 de noviembre de 1970), "Conoce a Shakey, la primera persona electrónica", Life Magazine , págs. 58-68
Drachman, D. (2005), "¿Tenemos cerebro de sobra?", Neurology , 64 (12): 2004–2005, doi :10.1212/01.WNL.0000166914.38327.BB, PMID 15985565, S2CID 38482114
Goertzel, Ben; Pennachin, Casio, eds. (2006), Inteligencia artificial general (PDF) , Springer, ISBN 978-3-5402-3733-4, archivado desde el original (PDF) el 20 de marzo de 2013
Goertzel, Ben (diciembre de 2007), "Inteligencia general artificial a nivel humano y la posibilidad de una singularidad tecnológica: una reacción a The Singularity Is Near de Ray Kurzweil y la crítica de McDermott a Kurzweil", Artificial Intelligence , vol. 171, núm. 18, número especial de revisión, pp. 1161–1173, doi : 10.1016/j.artint.2007.10.011 , archivado desde el original el 7 de enero de 2016 , consultado el 1 de abril de 2009
Gubrud, Mark (noviembre de 1997), "Nanotecnología y seguridad internacional", Quinta Conferencia de Prospectiva sobre Nanotecnología Molecular , archivado desde el original el 29 de mayo de 2011 , consultado el 7 de mayo de 2011
Howe, J. (noviembre de 1994), Inteligencia artificial en la Universidad de Edimburgo: una perspectiva, archivado desde el original el 17 de agosto de 2007 , consultado el 30 de agosto de 2007
Johnson, Mark (1987), El cuerpo en la mente , Chicago, ISBN 978-0-2264-0317-5
Lighthill, Profesor Sir James (1973), "Inteligencia artificial: una visión general", Inteligencia artificial: un simposio de artículos , Science Research Council
Luger, George; Stubblefield, William (2004), Inteligencia artificial: estructuras y estrategias para la resolución de problemas complejos (5.ª ed.), The Benjamin/Cummings Publishing Company, Inc., pág. 720, ISBN 978-0-8053-4780-7
McCarthy, John (2007b). ¿Qué es la inteligencia artificial? Universidad de Stanford. El esfuerzo máximo es crear programas informáticos que puedan resolver problemas y alcanzar objetivos en el mundo y también en los humanos.
Moravec, Hans (1988), La mente de los niños , Harvard University Press
Moravec, Hans (1998), "¿Cuándo podrá el hardware de las computadoras igualar al cerebro humano?", Journal of Evolution and Technology , vol. 1, archivado desde el original el 15 de junio de 2006 , consultado el 23 de junio de 2006
Nagel (1974), "What Is it Like to Be a Bat" (PDF) , Philosophical Review , 83 (4): 435–50, doi :10.2307/2183914, JSTOR 2183914, archivado (PDF) del original el 16 de octubre de 2011 , consultado el 7 de noviembre de 2009
Newell, Allen ; Simon, HA (1976). "La ciencia informática como investigación empírica: símbolos y búsqueda". Comunicaciones de la ACM . 19 (3): 113–126. doi : 10.1145/360018.360022 .
NRC (1999), "Desarrollos en inteligencia artificial", Financiando una revolución: apoyo gubernamental a la investigación informática , National Academy Press, archivado desde el original el 12 de enero de 2008 , consultado el 29 de septiembre de 2007
Poole, David; Mackworth, Alan; Goebel, Randy (1998), Computational Intelligence: A Logical Approach, Nueva York: Oxford University Press, archivado desde el original el 25 de julio de 2009 , consultado el 6 de diciembre de 2007
Sandberg, Anders; Boström, Nick (2008), Whole Brain Emulation: A Roadmap (PDF) , Informe técnico n.º 2008-3, Future of Humanity Institute, Universidad de Oxford, archivado (PDF) del original el 25 de marzo de 2020 , consultado el 5 de abril de 2009
Searle, John (1980), "Minds, Brains and Programs" (PDF) , Behavioral and Brain Sciences , 3 (3): 417–457, doi :10.1017/S0140525X00005756, S2CID 55303721, archivado (PDF) del original el 17 de marzo de 2019 , consultado el 3 de septiembre de 2020
Simon, HA (1965), La forma de la automatización para los hombres y la gestión , Nueva York: Harper & Row
Turing, Alan (octubre de 1950), "Maquinaria informática e inteligencia", Mind , LIX (236): 433–460, doi :10.1093/mind/LIX.236.433, ISSN 0026-4423
de Vega, Manuel; Glenberg, Arthur; Graesser, Arthur, eds. (2008), Símbolos y encarnación: debates sobre significado y cognición , Oxford University Press, ISBN 978-0-1992-1727-4
Wang, Pei; Goertzel, Ben (2007). "Introducción: aspectos de la inteligencia artificial general". Avances en inteligencia artificial general: conceptos, arquitecturas y algoritmos: actas del taller AGI 2006. IOS Press. págs. 1–16. ISBN 978-1-5860-3758-1Archivado del original el 18 de febrero de 2021. Consultado el 13 de diciembre de 2020 – vía ResearchGate.
Azevedo FA, Carvalho LR, Grinberg LT, Farfel J, et al. (abril de 2009), "Un número igual de células neuronales y no neuronales hacen del cerebro humano un cerebro de primate a escala isométrica", The Journal of Comparative Neurology , 513 (5): 532–541, doi :10.1002/cne.21974, PMID 19226510, S2CID 5200449 , archivado desde el original el 18 de febrero de 2021 , consultado el 4 de septiembre de 2013 – vía ResearchGate
Berglas, Anthony (enero de 2012) [2008], La inteligencia artificial matará a nuestros nietos (Singularity), archivado desde el original el 23 de julio de 2014 , consultado el 31 de agosto de 2012
Cukier, Kenneth , "Ready for Robots? How to Think about the Future of AI", Foreign Affairs , vol. 98, no. 4 (julio/agosto de 2019), pp. 192-98. George Dyson , historiador de la informática, escribe (en lo que podría llamarse la "Ley de Dyson") que "Cualquier sistema lo suficientemente simple como para ser comprensible no será lo suficientemente complicado como para comportarse de manera inteligente, mientras que cualquier sistema lo suficientemente complicado como para comportarse de manera inteligente será demasiado complicado para entenderlo". (p. 197.) El científico informático Alex Pentland escribe: " Los algoritmos actuales de aprendizaje automático de IA son, en esencia, completamente estúpidos. Funcionan, pero funcionan por fuerza bruta". (p. 198.)
Gelernter, David, Lógica de los sueños, Internet y el pensamiento artificial, Edge, archivado desde el original el 26 de julio de 2010 , consultado el 25 de julio de 2010
Gleick, James , "El destino del libre albedrío" (reseña de Kevin J. Mitchell, Free Agents: How Evolution Gave Us Free Will , Princeton University Press, 2023, 333 pp.), The New York Review of Books , vol. LXXI, no. 1 (18 de enero de 2024), pp. 27-28, 30. " La agencia es lo que nos distingue de las máquinas. Para las criaturas biológicas, la razón y el propósito provienen de actuar en el mundo y experimentar las consecuencias. Las inteligencias artificiales –incorpóreas, ajenas a la sangre, el sudor y las lágrimas– no tienen necesidad de eso". (p. 30.)
Halal, William E. "Serie de artículos de TechCast: La automatización del pensamiento" (PDF) . Archivado desde el original (PDF) el 6 de junio de 2013.
Holte, RC; Choueiry, BY (2003), "Abstracción y reformulación en inteligencia artificial", Philosophical Transactions of the Royal Society B , vol. 358, núm. 1435, págs. 1197–1204, doi :10.1098/rstb.2003.1317, PMC 1693218 , PMID 12903653
Hughes-Castleberry, Kenna, "A Murder Mystery Puzzle: The literary puzzle Cain's Jawbone , which has stumped human humans for decenios, revealed the limitations of natural-language-processing algorithms", Scientific American , vol. 329, no. 4 (noviembre de 2023), pp. 81–82. "Esta competición de misterio de asesinato ha revelado que, aunque los modelos de PNL ( procesamiento del lenguaje natural ) son capaces de hazañas increíbles, sus capacidades están muy limitadas por la cantidad de contexto que reciben. Esto [...] podría causar [dificultades] para los investigadores que esperan usarlos para hacer cosas como analizar lenguas antiguas . En algunos casos, hay pocos registros históricos sobre civilizaciones desaparecidas hace mucho tiempo que sirvan como datos de entrenamiento para tal propósito". (p. 82.)
Immerwahr, Daniel , "Your Lying Eyes: People now use AI to generate fake videos indistinguishable from real ones. How much does it matter?", The New Yorker , 20 de noviembre de 2023, pp. 54-59. "Si por ' deepfakes ' nos referimos a videos realistas producidos usando inteligencia artificial que realmente engañan a la gente, entonces apenas existen. Las falsificaciones no son profundas, y las profundidades no son falsas. [...] Los videos generados por IA no están, en general, operando en nuestros medios como evidencia falsificada. Su papel se asemeja más al de las caricaturas , especialmente las obscenas". (p. 59.)
Leffer, Lauren, "Los riesgos de confiar en la IA: debemos evitar humanizar los modelos de aprendizaje automático utilizados en la investigación científica", Scientific American , vol. 330, núm. 6 (junio de 2024), págs. 80-81.
Lepore, Jill , "El Chit-Chatbot: ¿Hablar con una máquina es una conversación?", The New Yorker , 7 de octubre de 2024, págs. 12-16.
Marcus, Gary , "Confianza artificial: incluso los sistemas de inteligencia artificial general más nuevos y populares se ven obstaculizados por los mismos viejos problemas", Scientific American , vol. 327, núm. 4 (octubre de 2022), págs. 42–45.
McCarthy, John (octubre de 2007), "De aquí a la IA a nivel humano", Inteligencia artificial , 171 (18): 1174–1182, doi : 10.1016/j.artint.2007.10.009
Moravec, Hans (1976), El papel de la potencia bruta en la inteligencia, archivado desde el original el 3 de marzo de 2016 , consultado el 29 de septiembre de 2007
Newell, Allen ; Simon, HA (1963), "GPS: un programa que simula el pensamiento humano", en Feigenbaum, EA; Feldman, J. (eds.), Computers and Thought , Nueva York: McGraw-Hill
Omohundro, Steve (2008), La naturaleza de la inteligencia artificial automejorable , presentado y distribuido en la Singularity Summit de 2007, San Francisco, California
Press, Eyal , "Frente a sus caras: ¿La tecnología de reconocimiento facial lleva a la policía a ignorar evidencia contradictoria?", The New Yorker , 20 de noviembre de 2023, págs. 20-26.
Roivainen, Eka, "AI's IQ: ChatGPT superó con éxito una prueba [de inteligencia estándar] pero demostró que la inteligencia no se puede medir solo por el CI ", Scientific American , vol. 329, no. 1 (julio/agosto de 2023), p. 7. "A pesar de su alto CI, ChatGPT falla en tareas que requieren un razonamiento humano real o una comprensión del mundo físico y social.... ChatGPT parecía incapaz de razonar de manera lógica y trató de confiar en su vasta base de datos de... hechos derivados de textos en línea".
Scharre, Paul, "Killer Apps: The Real Dangers of an AI Arms Race", Foreign Affairs , vol. 98, no. 3 (mayo/junio de 2019), pp. 135–44. "Las tecnologías de IA actuales son poderosas pero poco confiables. Los sistemas basados en reglas no pueden lidiar con circunstancias que sus programadores no anticiparon. Los sistemas de aprendizaje están limitados por los datos con los que fueron entrenados. Los fallos de la IA ya han provocado tragedias. Las funciones avanzadas de piloto automático en los automóviles, aunque funcionan bien en algunas circunstancias, han hecho que los automóviles se estrellen sin previo aviso contra camiones, barreras de concreto y automóviles estacionados. En la situación incorrecta, los sistemas de IA pasan de ser superinteligentes a ser supertontos en un instante. Cuando un enemigo intenta manipular y hackear un sistema de IA, los riesgos son aún mayores". (p. 140.)
Sutherland, JG (1990), "Modelo holográfico de la memoria, el aprendizaje y la expresión", International Journal of Neural Systems , vol. 1–3, págs. 256–267
Vincent, James, "Horny Robot Baby Voice: James Vincent on AI chatbots", London Review of Books , vol. 46, núm. 19 (10 de octubre de 2024), pp. 29-32. "Los programas [de chatbots de IA] son posibles gracias a las nuevas tecnologías, pero dependen de la eterna tendencia humana a antropomorfizarse ". (p. 29.)
Williams, RW; Herrup, K. (1988), "El control del número de neuronas", Annual Review of Neuroscience , 11 : 423–453, doi :10.1146/annurev.ne.11.030188.002231, PMID 3284447
Yudkowsky, Eliezer (2006), "Inteligencia general artificial" (PDF) , Revista anual de psicología , 49 , Springer: 585–612, doi :10.1146/annurev.psych.49.1.585, ISBN 978-3-5402-3733-4, PMID 9496632, archivado desde el original (PDF) el 11 de abril de 2009
Yudkowsky, Eliezer (2008), "La inteligencia artificial como factor positivo y negativo en el riesgo global", Global Catastrophic Risks , Bibcode :2008gcr..book..303Y, doi :10.1093/oso/9780198570509.003.0021, ISBN 978-0-1985-7050-9
Zucker, Jean-Daniel (julio de 2003), "Una teoría fundamentada de la abstracción en la inteligencia artificial", Philosophical Transactions of the Royal Society B , vol. 358, núm. 1435, págs. 1293–1309, doi :10.1098/rstb.2003.1308, PMC 1693211 , PMID 12903672