stringtranslate.com

Inteligencia artificial general

La inteligencia artificial general ( IAG ) es un tipo de inteligencia artificial (IA) que iguala o supera las capacidades cognitivas humanas en una amplia gama de tareas cognitivas. Esto contrasta con la IA estrecha , que se limita a tareas específicas. [1] La superinteligencia artificial (IAS), por otro lado, se refiere a la IAG que supera en gran medida las capacidades cognitivas humanas. La IAG se considera una de las definiciones de IA fuerte .

La creación de IA general es un objetivo primordial de la investigación en IA y de empresas como OpenAI [2] y Meta . [3] Una encuesta de 2020 identificó 72 proyectos de investigación y desarrollo de IA general activos en 37 países. [4]

El tiempo que se tardará en alcanzar la inteligencia artificial general sigue siendo un tema de debate entre investigadores y expertos. A partir de 2023, algunos sostienen que podría ser posible en años o décadas; otros sostienen que podría llevar un siglo o más; y una minoría cree que tal vez nunca se logre. [5] El destacado investigador de IA Geoffrey Hinton ha expresado su preocupación por el rápido progreso hacia la inteligencia artificial general, sugiriendo que podría lograrse antes de lo que muchos esperan. [6]

Existe un debate sobre la definición exacta de AGI y sobre si los modelos de lenguaje grande (LLM) modernos como GPT-4 son formas tempranas de AGI. [7] La ​​AGI es un tema común en la ciencia ficción y los estudios de futuro . [8] [9]

Existe controversia sobre si la IAG representa un riesgo existencial . [10] [11] [12] Muchos expertos en IA han declarado que mitigar el riesgo de extinción humana que plantea la IAG debería ser una prioridad global. [13] [14] Otros consideran que el desarrollo de la IAG es demasiado remoto para presentar tal riesgo. [15] [16]

Terminología

La IA general también se conoce como IA fuerte, [17] [18] IA completa, [19] IA a nivel humano, [20] o acción inteligente general. [21] Sin embargo, algunas fuentes académicas reservan el término "IA fuerte" para programas informáticos que experimentan sensibilidad o conciencia . [a] Por el contrario, la IA débil (o IA estrecha) es capaz de resolver un problema específico pero carece de capacidades cognitivas generales. [22] [18] Algunas fuentes académicas utilizan "IA débil" para referirse de forma más amplia a cualquier programa que no experimente conciencia ni tenga una mente en el mismo sentido que los humanos. [a]

Los conceptos relacionados incluyen la superinteligencia artificial y la IA transformadora. Una superinteligencia artificial (ASI) es un tipo hipotético de IAG que es mucho más inteligente que los humanos en general, [23] mientras que la noción de IA transformadora se relaciona con la IA que tiene un gran impacto en la sociedad, por ejemplo, similar a la revolución agrícola o industrial. [24]

En 2023, los investigadores de Google DeepMind propusieron un marco para clasificar la IAG en niveles . Definen cinco niveles de IAG: emergente, competente, experta, virtuosa y sobrehumana. Por ejemplo, una IAG competente se define como una IA que supera al 50 % de los adultos hábiles en una amplia gama de tareas no físicas, y una IAG sobrehumana (es decir, una superinteligencia artificial) se define de manera similar, pero con un umbral del 100 %. Consideran que los grandes modelos de lenguaje como ChatGPT o LLaMA 2 son ejemplos de IAG emergente. [25]

Características

Se han propuesto varias definiciones populares de inteligencia . Una de las propuestas más destacadas es la prueba de Turing . Sin embargo, existen otras definiciones bien conocidas y algunos investigadores no están de acuerdo con los enfoques más populares. [b]

Rasgos de inteligencia

Sin embargo, los investigadores generalmente sostienen que se requiere inteligencia para hacer todo lo siguiente: [27]

Muchos enfoques interdisciplinarios (por ejemplo, la ciencia cognitiva , la inteligencia computacional y la toma de decisiones ) consideran rasgos adicionales como la imaginación (la capacidad de formar nuevas imágenes y conceptos mentales) [28] y la autonomía . [29]

Existen sistemas informáticos que exhiben muchas de estas capacidades (por ejemplo, véase creatividad computacional , razonamiento automatizado , sistema de apoyo a la toma de decisiones , robot , computación evolutiva , agente inteligente ). Existe un debate sobre si los sistemas de IA modernos las poseen en un grado adecuado.

Rasgos físicos

Se consideran deseables otras capacidades en los sistemas inteligentes, ya que pueden afectar la inteligencia o ayudar a su expresión. Entre ellas se incluyen: [30]

Esto incluye la capacidad de detectar y responder a los peligros . [31]

Pruebas para AGI a nivel humano

Se han considerado varias pruebas destinadas a confirmar la IAG a nivel humano, entre ellas: [32] [33]

La prueba de Turing ( Turing )
La prueba de Turing puede proporcionar cierta evidencia de inteligencia, pero penaliza el comportamiento inteligente no humano y puede incentivar la estupidez artificial . [34]
Propuesta por Alan Turing en su artículo de 1950 "Computing Machinery and Intelligence", esta prueba implica que un juez humano mantenga conversaciones en lenguaje natural con un humano y una máquina diseñada para generar respuestas similares a las humanas. La máquina pasa la prueba si puede convencer al juez de que es un humano una fracción significativa del tiempo. Turing propuso esto como una medida práctica de la inteligencia de la máquina, centrándose en la capacidad de producir respuestas similares a las humanas en lugar de en el funcionamiento interno de la máquina. [35]
Turing describió la prueba de la siguiente manera:

La idea de la prueba es que la máquina tiene que intentar hacerse pasar por un hombre respondiendo a las preguntas que se le formulan, y sólo pasará la prueba si su simulación es razonablemente convincente. Una parte considerable del jurado, que no debería ser experto en máquinas, debe dejarse engañar por la simulación. [36]

En 2014, un chatbot llamado Eugene Goostman , diseñado para imitar a un niño ucraniano de 13 años, supuestamente pasó un evento de la Prueba de Turing al convencer al 33% de los jueces de que era humano. Sin embargo, esta afirmación fue recibida con un escepticismo significativo por parte de la comunidad de investigación de IA, que cuestionó la implementación de la prueba y su relevancia para la IAG. [37] [38]
La prueba de robot para estudiantes universitarios ( Goertzel )
Una máquina se inscribe en una universidad, cursa y aprueba las mismas clases que los humanos y obtiene un título. Los estudiantes de máster en derecho ahora pueden aprobar exámenes de nivel universitario sin siquiera asistir a las clases. [39]
La prueba del empleo ( Nilsson )
Una máquina realiza un trabajo económicamente importante al menos tan bien como los humanos que realizan el mismo trabajo. Las IA están reemplazando a los humanos en muchos roles tan variados como la comida rápida y el marketing. [40]
La prueba de Ikea ( Marcus )
También conocida como prueba de muebles en paquete plano. Una IA observa las piezas y las instrucciones de un producto en paquete plano de Ikea y luego controla un robot para ensamblar los muebles correctamente. [41]
La prueba del café ( Wozniak )
Se necesita una máquina para entrar en un hogar americano medio y descubrir cómo hacer café: encontrar la cafetera, encontrar el café, añadir agua, encontrar una taza y preparar el café pulsando los botones adecuados. [42] Esto todavía no se ha completado.
La prueba de Turing moderna ( Suleyman )
A un modelo de IA se le dan 100.000 dólares y tiene que obtener 1 millón de dólares. [43] [44]

Problemas completos de IA

Un problema se denomina informalmente "AI-completo" o "AI-difícil" si se cree que para resolverlo se necesitaría implementar AGI, porque la solución está más allá de las capacidades de un algoritmo específico para ese propósito. [45]

Existen muchos problemas que se ha conjeturado que requieren inteligencia general para resolverse, además de la inteligencia humana. Algunos ejemplos incluyen la visión artificial , la comprensión del lenguaje natural y el manejo de circunstancias inesperadas al resolver cualquier problema del mundo real. [46] Incluso una tarea específica como la traducción requiere que una máquina lea y escriba en ambos idiomas, siga el argumento del autor (razón), comprenda el contexto (conocimiento) y reproduzca fielmente la intención original del autor ( inteligencia social ). Todos estos problemas deben resolverse simultáneamente para alcanzar el rendimiento de la máquina a nivel humano.

Sin embargo, muchas de estas tareas ahora pueden ser realizadas por modelos de lenguaje modernos de gran tamaño. Según el índice de IA 2024 de la Universidad de Stanford , la IA ha alcanzado un desempeño a nivel humano en muchos puntos de referencia para la comprensión lectora y el razonamiento visual. [47]

Historia

IA clásica

La investigación moderna sobre IA comenzó a mediados de la década de 1950. [48] La primera generación de investigadores de IA estaba convencida de que la inteligencia artificial general era posible y que existiría en tan solo unas décadas. [49] El pionero de la IA Herbert A. Simon escribió en 1965: "las máquinas serán capaces, dentro de veinte años, de hacer cualquier trabajo que un hombre pueda hacer". [50]

Sus predicciones sirvieron de inspiración para el personaje HAL 9000 de Stanley Kubrick y Arthur C. Clarke , que encarnaba lo que los investigadores de IA creían que podrían crear en el año 2001. El pionero de la IA Marvin Minsky fue consultor [51] en el proyecto de hacer que HAL 9000 fuera lo más realista posible según las predicciones de consenso de la época. En 1967 dijo: "Dentro de una generación... el problema de crear 'inteligencia artificial' estará sustancialmente resuelto". [52]

Varios proyectos clásicos de IA , como el proyecto Cyc de Doug Lenat (que comenzó en 1984) y el proyecto Soar de Allen Newell , estaban dirigidos a la IAG.

Sin embargo, a principios de la década de 1970, se hizo evidente que los investigadores habían subestimado enormemente la dificultad del proyecto. Las agencias de financiación se volvieron escépticas con respecto a la IAG y pusieron a los investigadores bajo una presión cada vez mayor para producir una "IA aplicada" útil. [c] A principios de la década de 1980, el Proyecto de Computadoras de Quinta Generación de Japón revivió el interés en la IAG, estableciendo un cronograma de diez años que incluía objetivos de IAG como "mantener una conversación informal". [56] En respuesta a esto y al éxito de los sistemas expertos , tanto la industria como el gobierno inyectaron dinero en el campo. [54] [57] Sin embargo, la confianza en la IA colapsó espectacularmente a fines de la década de 1980, y los objetivos del Proyecto de Computadoras de Quinta Generación nunca se cumplieron. [58] Por segunda vez en 20 años, los investigadores de IA que predijeron el logro inminente de la IAG se habían equivocado. En la década de 1990, los investigadores de IA tenían reputación de hacer promesas vanas. Se mostraron reacios a hacer predicciones en absoluto [d] y evitaron mencionar la inteligencia artificial de "nivel humano" por miedo a ser etiquetados como "soñadores de ojos desorbitados". [60]

Investigación limitada sobre IA

En la década de 1990 y principios del siglo XXI, la IA convencional alcanzó el éxito comercial y la respetabilidad académica al centrarse en subproblemas específicos en los que la IA puede producir resultados verificables y aplicaciones comerciales, como el reconocimiento de voz y los algoritmos de recomendación . [61] Estos sistemas de "IA aplicada" ahora se utilizan ampliamente en toda la industria tecnológica, y la investigación en este sentido está fuertemente financiada tanto en el ámbito académico como en la industria. A partir de 2018 , el desarrollo en este campo se consideró una tendencia emergente, y se esperaba que se alcanzara una etapa madura en más de 10 años. [62]

A principios de siglo, muchos investigadores de IA de renombre [63] esperaban que se pudiera desarrollar una IA fuerte combinando programas que resolvieran varios subproblemas. Hans Moravec escribió en 1988:

Estoy seguro de que esta ruta ascendente hacia la inteligencia artificial algún día se encontrará con la ruta descendente tradicional, lista para proporcionar la competencia en el mundo real y el conocimiento de sentido común que han resultado tan frustrantemente elusivos en los programas de razonamiento. Las máquinas completamente inteligentes surgirán cuando se logre el metafórico impulso que una ambos esfuerzos. [63]

Sin embargo, incluso en su momento, esto fue objeto de controversia. Por ejemplo, Stevan Harnad, de la Universidad de Princeton, concluyó su artículo de 1990 sobre la hipótesis de la conexión a tierra de los símbolos afirmando:

A menudo se ha expresado la expectativa de que los enfoques “de arriba hacia abajo” (simbólicos) para modelar la cognición se encontrarán de alguna manera con los enfoques “de abajo hacia arriba” (sensoriales) en algún punto intermedio. Si las consideraciones de base de este artículo son válidas, entonces esta expectativa es irremediablemente modular y realmente solo hay una ruta viable desde los sentidos hasta los símbolos: desde abajo hacia arriba. Un nivel simbólico flotante como el nivel de software de una computadora nunca se alcanzará por esta ruta (o viceversa) – ni tampoco está claro por qué deberíamos siquiera intentar alcanzar ese nivel, ya que parece que llegar allí solo equivaldría a desarraigar nuestros símbolos de sus significados intrínsecos (reduciéndonos así simplemente al equivalente funcional de una computadora programable). [64]

Investigación moderna sobre inteligencia artificial general

El término "inteligencia artificial general" fue utilizado ya en 1997 por Mark Gubrud [65] en un debate sobre las implicaciones de la producción y las operaciones militares totalmente automatizadas. Marcus Hutter propuso un formalismo matemático de la IAG en 2000. El agente de IAG propuesto, denominado AIXI , maximiza "la capacidad de satisfacer objetivos en una amplia gama de entornos". [66] Este tipo de IAG, que se caracteriza por la capacidad de maximizar una definición matemática de inteligencia en lugar de exhibir un comportamiento similar al humano, [67] también se denominó inteligencia artificial universal. [68]

El término AGI fue reintroducido y popularizado por Shane Legg y Ben Goertzel alrededor de 2002. [69] La actividad de investigación de AGI en 2006 fue descrita por Pei Wang y Ben Goertzel [70] como "producir publicaciones y resultados preliminares". La primera escuela de verano sobre AGI fue organizada en Xiamen, China en 2009 [71] por el Laboratorio de Cerebro Artificial de la Universidad de Xiamen y OpenCog. El primer curso universitario fue impartido en 2010 [72] y 2011 [73] en la Universidad de Plovdiv, Bulgaria, por Todor Arnaudov. El MIT presentó un curso sobre AGI en 2018, organizado por Lex Fridman y con la participación de varios profesores invitados.

A partir de 2023 , un pequeño número de científicos informáticos están activos en la investigación de AGI y muchos contribuyen a una serie de conferencias de AGI . Sin embargo, cada vez más investigadores están interesados ​​en el aprendizaje abierto, [74] [75] que es la idea de permitir que la IA aprenda e innove continuamente como lo hacen los humanos.

Factibilidad

En 2023, el desarrollo y el logro potencial de la Inteligencia Artificial General (IAG) sigue siendo un tema de intenso debate dentro de la comunidad de IA. Si bien el consenso tradicional sostenía que la IAG era un objetivo lejano, los avances recientes han llevado a algunos investigadores y figuras de la industria a afirmar que es posible que ya existan formas tempranas de IAG. [76] El pionero de la IA Herbert A. Simon especuló en 1965 que "las máquinas serán capaces, dentro de veinte años, de hacer cualquier trabajo que un hombre pueda hacer". Esta predicción no se hizo realidad. El cofundador de Microsoft, Paul Allen, creía que esa inteligencia es poco probable en el siglo XXI porque requeriría "avances imprevisibles y fundamentalmente impredecibles" y una "comprensión científicamente profunda de la cognición". [77] Escribiendo en The Guardian , el roboticista Alan Winfield afirmó que la brecha entre la informática moderna y la inteligencia artificial a nivel humano es tan amplia como la brecha entre los vuelos espaciales actuales y los vuelos espaciales prácticos más rápidos que la luz. [78]

Otro desafío es la falta de claridad a la hora de definir qué implica la inteligencia . ¿Requiere conciencia? ¿Debe mostrar la capacidad de fijar objetivos y perseguirlos? ¿Es puramente una cuestión de escala, de modo que si el tamaño de los modelos aumenta lo suficiente, surgirá la inteligencia? ¿Se requieren capacidades como la planificación, el razonamiento y la comprensión causal? ¿La inteligencia requiere replicar explícitamente el cerebro y sus facultades específicas? ¿Requiere emociones? [79]

La mayoría de los investigadores de IA creen que se puede lograr una IA fuerte en el futuro, pero algunos pensadores, como Hubert Dreyfus y Roger Penrose , niegan la posibilidad de lograr una IA fuerte. [80] [81] John McCarthy está entre los que creen que se logrará una IA de nivel humano, pero que el nivel actual de progreso es tal que no se puede predecir una fecha con precisión. [82] Las opiniones de los expertos en IA sobre la viabilidad de la IAG crecen y disminuyen. Cuatro encuestas realizadas en 2012 y 2013 sugirieron que la estimación mediana entre los expertos sobre cuándo estarían 50% seguros de que llegaría la IAG era 2040 a 2050, dependiendo de la encuesta, con una media de 2081. De los expertos, el 16,5% respondió "nunca" cuando se les hizo la misma pregunta pero con un 90% de confianza. [83] [84] Se pueden encontrar más consideraciones sobre el progreso actual de la IAG arriba Pruebas para confirmar la IAG de nivel humano.

Un informe de Stuart Armstrong y Kaj Sotala, del Machine Intelligence Research Institute, concluyó que "en un período de 60 años existe una marcada tendencia a predecir la llegada de la IA de nivel humano entre 15 y 25 años después de que se hizo la predicción". Analizaron 95 predicciones realizadas entre 1950 y 2012 sobre cuándo se produciría la IA de nivel humano. [85]

En 2023, los investigadores de Microsoft publicaron una evaluación detallada de GPT-4 . Llegaron a la siguiente conclusión: "Dada la amplitud y profundidad de las capacidades de GPT-4, creemos que podría considerarse razonablemente como una versión temprana (aunque aún incompleta) de un sistema de inteligencia artificial general (AGI)". [86] Otro estudio de 2023 informó que GPT-4 supera al 99% de los humanos en las pruebas Torrance de pensamiento creativo . [87] [88]

Blaise Agüera y Arcas y Peter Norvig escribieron en 2023 que ya se ha alcanzado un nivel significativo de inteligencia general con los modelos de frontera . Escribieron que la reticencia a esta visión proviene de cuatro razones principales: un "escepticismo saludable sobre las métricas para la IAG", un "compromiso ideológico con teorías o técnicas de IA alternativas", una "devoción al excepcionalismo humano (o biológico)" o una "preocupación por las implicaciones económicas de la IAG". [89]

El año 2023 también marcó el surgimiento de grandes modelos multimodales (grandes modelos de lenguaje capaces de procesar o generar múltiples modalidades como texto, audio e imágenes). [90]

En 2024, OpenAI lanzó o1-preview , el primero de una serie de modelos que "pasan más tiempo pensando antes de responder". Según Mira Murati , esta capacidad de pensar antes de responder representa un nuevo paradigma adicional. Mejora los resultados del modelo al gastar más potencia de cálculo al generar la respuesta, mientras que el paradigma de escalado del modelo mejora los resultados al aumentar el tamaño del modelo, los datos de entrenamiento y la potencia de cálculo del entrenamiento. [91] [92]

Escalas de tiempo

La IA ha superado a los humanos en una variedad de parámetros de comprensión del lenguaje y comprensión visual. [93] A partir de 2023, los modelos básicos aún carecen de capacidades avanzadas de razonamiento y planificación, pero se espera un progreso rápido. [94]

El progreso en inteligencia artificial ha pasado históricamente por períodos de rápido progreso separados por períodos en los que el progreso pareció detenerse. [80] Cada pausa se puso fin a avances fundamentales en hardware, software o ambos para crear espacio para un mayor progreso. [80] [95] [96] Por ejemplo, el hardware informático disponible en el siglo XX no era suficiente para implementar el aprendizaje profundo, que requiere una gran cantidad de CPU habilitadas para GPU . [97]

En la introducción a su libro de 2006, [98] Goertzel dice que las estimaciones del tiempo necesario antes de que se construya una IAG verdaderamente flexible varían de 10 años a más de un siglo. A partir de 2007 , el consenso en la comunidad de investigación de IAG parecía ser que la línea de tiempo discutida por Ray Kurzweil en 2005 en The Singularity is Near [99] (es decir, entre 2015 y 2045) era plausible. [100] Los investigadores de IA convencionales han dado una amplia gama de opiniones sobre si el progreso será tan rápido. Un metaanálisis de 2012 de 95 de esas opiniones encontró un sesgo hacia la predicción de que el inicio de la IAG ocurriría dentro de 16 a 26 años para las predicciones modernas e históricas por igual. Ese documento ha sido criticado por cómo categorizaba las opiniones como expertas o no expertas. [101]

En 2012, Alex Krizhevsky , Ilya Sutskever y Geoffrey Hinton desarrollaron una red neuronal llamada AlexNet , que ganó la competencia ImageNet con una tasa de error de prueba entre las 5 mejores del 15,3 %, significativamente mejor que la tasa del segundo mejor participante del 26,3 % (el enfoque tradicional utilizó una suma ponderada de puntajes de diferentes clasificadores predefinidos). [102] AlexNet fue considerado como el pionero inicial de la ola actual de aprendizaje profundo . [102]

En 2017, los investigadores Feng Liu, Yong Shi y Ying Liu realizaron pruebas de inteligencia con IA débiles disponibles públicamente y de libre acceso, como Google AI, Siri de Apple y otras. Como máximo, estas IA alcanzaron un valor de CI de aproximadamente 47, que corresponde aproximadamente a un niño de seis años en primer grado. Un adulto llega a tener un valor de CI de aproximadamente 100 en promedio. Se llevaron a cabo pruebas similares en 2014, con un puntaje de CI que alcanzó un valor máximo de 27. [103] [104]

En 2020, OpenAI desarrolló GPT-3 , un modelo de lenguaje capaz de realizar muchas tareas diversas sin entrenamiento específico. Según Gary Grossman en un artículo de VentureBeat , si bien existe consenso en que GPT-3 no es un ejemplo de IAG, algunos lo consideran demasiado avanzado para clasificarlo como un sistema de IA limitado. [105]

Ese mismo año, Jason Rohrer utilizó su cuenta GPT-3 para desarrollar un chatbot y proporcionó una plataforma de desarrollo de chatbots llamada "Project December". OpenAI solicitó cambios en el chatbot para cumplir con sus pautas de seguridad; Rohrer desconectó Project December de la API GPT-3. [106]

En 2022, DeepMind desarrolló Gato , un sistema de "propósito general" capaz de realizar más de 600 tareas diferentes. [107]

En 2023, Microsoft Research publicó un estudio sobre una versión preliminar del GPT-4 de OpenAI , en el que afirmaba que exhibía una inteligencia más general que los modelos de IA anteriores y demostraba un desempeño a nivel humano en tareas que abarcaban múltiples dominios, como matemáticas, codificación y derecho. Esta investigación provocó un debate sobre si el GPT-4 podía considerarse una versión temprana e incompleta de la inteligencia artificial general, lo que enfatizó la necesidad de una mayor exploración y evaluación de dichos sistemas. [108]

En 2023, el investigador de IA Geoffrey Hinton afirmó que: [109]

La idea de que estas cosas podrían volverse más inteligentes que las personas... algunas personas lo creían, [...]. Pero la mayoría pensaba que estaba muy lejos. Y yo pensaba que estaba muy lejos. Pensaba que faltaban 30 o 50 años o incluso más. Obviamente, ya no lo creo.

En mayo de 2023, Demis Hassabis dijo de manera similar que "el progreso en los últimos años ha sido bastante increíble", y que no ve ninguna razón por la cual se desaceleraría, esperando que la IA general esté disponible dentro de una década o incluso unos pocos años. [110] En marzo de 2024, el CEO de Nvidia , Jensen Huang , manifestó su expectativa de que dentro de cinco años, la IA sería capaz de pasar cualquier prueba al menos tan bien como los humanos. [111] En junio de 2024, el investigador de IA Leopold Aschenbrenner, un ex empleado de OpenAI , estimó que la IA general para 2027 sería "sorprendentemente plausible". [112]

Emulación de cerebro completo

Si bien el desarrollo de modelos de transformadores como en ChatGPT se considera el camino más prometedor hacia la IAG, [113] [114] la emulación de cerebro completo puede servir como un enfoque alternativo. Con la simulación de cerebro completo, se construye un modelo cerebral escaneando y mapeando un cerebro biológico en detalle, y luego copiándolo y simulándolo en un sistema informático u otro dispositivo computacional. El modelo de simulación debe ser lo suficientemente fiel al original, de modo que se comporte prácticamente de la misma manera que el cerebro original. [115] La emulación de cerebro completo es un tipo de simulación cerebral que se analiza en la neurociencia computacional y la neuroinformática , y con fines de investigación médica. Se ha discutido en la investigación de inteligencia artificial [100] como un enfoque para una IA fuerte. Las tecnologías de neuroimagen que podrían brindar la comprensión detallada necesaria están mejorando rápidamente, y el futurista Ray Kurzweil en el libro The Singularity Is Near [99] predice que un mapa de calidad suficiente estará disponible en una escala de tiempo similar a la potencia computacional requerida para emularlo.

Estimaciones preliminares

Estimaciones de cuánta potencia de procesamiento se necesita para emular un cerebro humano en varios niveles (de Ray Kurzweil, Anders Sandberg y Nick Bostrom ), junto con la supercomputadora más rápida del TOP500 mapeada por año. Nótese la escala logarítmica y la línea de tendencia exponencial, que supone que la capacidad computacional se duplica cada 1,1 años. Kurzweil cree que la carga de la mente será posible en la simulación neuronal, mientras que el informe de Sandberg y Bostrom es menos seguro acerca de dónde surge la conciencia . [116]

Para la simulación cerebral de bajo nivel, se requeriría un grupo muy potente de computadoras o GPU, dada la enorme cantidad de sinapsis dentro del cerebro humano . Cada una de las 10 11 (cien mil millones) neuronas tiene en promedio 7.000 conexiones sinápticas (sinapsis) con otras neuronas. El cerebro de un niño de tres años tiene alrededor de 10 15 sinapsis (1 cuatrillón). Este número disminuye con la edad, estabilizándose en la edad adulta. Las estimaciones varían para un adulto, desde 10 14 a 5×10 14 sinapsis (100 a 500 billones). [117] Una estimación de la capacidad de procesamiento del cerebro, basada en un modelo de conmutación simple para la actividad neuronal, es de alrededor de 10 14 (100 billones) actualizaciones sinápticas por segundo ( SUPS ). [118]

En 1997, Kurzweil examinó varias estimaciones del hardware necesario para igualar al cerebro humano y adoptó una cifra de 10 16 cálculos por segundo (cps). [e] (A modo de comparación, si un "cómputo" fuera equivalente a una " operación de punto flotante " -una medida utilizada para calificar las supercomputadoras actuales- entonces 10 16 "cómputos" serían equivalentes a 10 petaFLOPS , logrados en 2011 , mientras que 10 18 se lograron en 2022 ). Utilizó esta cifra para predecir que el hardware necesario estaría disponible en algún momento entre 2015 y 2025, si continuaba el crecimiento exponencial de la potencia informática en el momento de escribir este artículo.

Investigación actual

El Proyecto Cerebro Humano , una iniciativa financiada por la UE activa desde 2013 hasta 2023, ha desarrollado un atlas particularmente detallado y de acceso público del cerebro humano. [121] En 2023, investigadores de la Universidad de Duke realizaron un escaneo de alta resolución del cerebro de un ratón. [122] Se espera que en abril de 2024 se construya una supercomputadora con una capacidad de computación similar a la del cerebro humano. Llamada "DeepSouth", podría realizar 228 billones de operaciones sinápticas por segundo. [123]

Críticas a los enfoques basados ​​en simulación

El modelo de neurona artificial asumido por Kurzweil y utilizado en muchas implementaciones actuales de redes neuronales artificiales es simple en comparación con las neuronas biológicas . Una simulación cerebral probablemente tendría que capturar el comportamiento celular detallado de las neuronas biológicas , que actualmente se entienden solo en líneas generales. La sobrecarga introducida por el modelado completo de los detalles biológicos, químicos y físicos del comportamiento neuronal (especialmente a escala molecular) requeriría poderes computacionales varios órdenes de magnitud mayores que la estimación de Kurzweil. Además, las estimaciones no tienen en cuenta las células gliales , que se sabe que desempeñan un papel en los procesos cognitivos. [124]

Una crítica fundamental del enfoque del cerebro simulado se deriva de la teoría de la cognición encarnada que afirma que la encarnación humana es un aspecto esencial de la inteligencia humana y es necesaria para fundamentar el significado. [125] [122] Si esta teoría es correcta, cualquier modelo de cerebro completamente funcional necesitará abarcar más que solo las neuronas (por ejemplo, un cuerpo robótico). Goertzel [100] propone la encarnación virtual (como en metaversos como Second Life ) como una opción, pero se desconoce si esto sería suficiente.

Perspectiva filosófica

"IA fuerte" tal como se define en la filosofía

En 1980, el filósofo John Searle acuñó el término "IA fuerte" como parte de su argumento de la habitación china . [126] Propuso una distinción entre dos hipótesis sobre la inteligencia artificial: [f]

La primera la llamó “fuerte” porque hace una afirmación más contundente : supone que le ha sucedido algo especial a la máquina que va más allá de las capacidades que podemos poner a prueba. El comportamiento de una máquina con “IA débil” sería exactamente idéntico al de una máquina con “IA fuerte”, pero esta última también tendría una experiencia consciente subjetiva. Este uso también es común en la investigación académica sobre IA y en los libros de texto. [127]

A diferencia de Searle y la IA convencional, algunos futuristas como Ray Kurzweil utilizan el término "IA fuerte" para referirse a una "inteligencia artificial general de nivel humano". [99] Esto no es lo mismo que la IA fuerte de Searle , a menos que se suponga que la conciencia es necesaria para la IAG de nivel humano. Los filósofos académicos como Searle no creen que ese sea el caso, y para la mayoría de los investigadores de inteligencia artificial la cuestión está fuera de su alcance. [128]

La IA convencional está más interesada en cómo se comporta un programa . [129] Según Russell y Norvig , "mientras el programa funcione, no les importa si lo llamas real o una simulación". [128] Si el programa puede comportarse como si tuviera una mente, entonces no hay necesidad de saber si realmente tiene mente; de ​​hecho, no habría forma de saberlo. Para la investigación de IA, la "hipótesis de IA débil" de Searle es equivalente a la afirmación "la inteligencia artificial general es posible". Por lo tanto, según Russell y Norvig, "la mayoría de los investigadores de IA dan por sentada la hipótesis de IA débil y no les importa la hipótesis de IA fuerte". [128] Por lo tanto, para la investigación académica de IA, "IA fuerte" e "IGL" son dos cosas diferentes.

Conciencia

La conciencia puede tener varios significados y algunos aspectos juegan un papel importante en la ciencia ficción y la ética de la inteligencia artificial :

Estos rasgos tienen una dimensión moral. La sensibilidad de la IA daría lugar a preocupaciones sobre el bienestar y la protección legal, de manera similar a lo que ocurre con los animales. [134] Otros aspectos de la conciencia relacionados con las capacidades cognitivas también son relevantes para el concepto de derechos de la IA. [135] Descubrir cómo integrar la IA avanzada con los marcos legales y sociales existentes es una cuestión emergente. [136]

Beneficios

La IAG podría tener una amplia variedad de aplicaciones. Si se orientara hacia esos objetivos, podría ayudar a mitigar diversos problemas del mundo, como el hambre, la pobreza y los problemas de salud. [137]

La IAG podría mejorar la productividad y la eficiencia en la mayoría de los empleos. Por ejemplo, en la salud pública, la IAG podría acelerar la investigación médica, en particular contra el cáncer. [138] Podría ocuparse de los ancianos, [139] y democratizar el acceso a diagnósticos médicos rápidos y de alta calidad. Podría ofrecer una educación divertida, barata y personalizada. [139] La necesidad de trabajar para subsistir podría volverse obsoleta si la riqueza producida se redistribuye adecuadamente . [139] [140] Esto también plantea la cuestión del lugar de los humanos en una sociedad radicalmente automatizada.

La IAG también podría ayudar a tomar decisiones racionales y a anticipar y prevenir desastres. También podría ayudar a aprovechar los beneficios de tecnologías potencialmente catastróficas como la nanotecnología o la ingeniería climática , evitando al mismo tiempo los riesgos asociados. [141] Si el objetivo principal de una IAG es prevenir catástrofes existenciales como la extinción humana (lo que podría ser difícil si la Hipótesis del Mundo Vulnerable resulta ser cierta), [142] podría tomar medidas para reducir drásticamente los riesgos [141] al tiempo que minimiza el impacto de estas medidas en nuestra calidad de vida.

Riesgos

Riesgos existenciales

La IAG puede representar múltiples tipos de riesgo existencial , que son riesgos que amenazan con "la extinción prematura de la vida inteligente originada en la Tierra o la destrucción permanente y drástica de su potencial para un desarrollo futuro deseable". [143] El riesgo de extinción humana por la IAG ha sido tema de muchos debates, pero también existe la posibilidad de que el desarrollo de la IAG conduzca a un futuro permanentemente defectuoso. En particular, podría usarse para difundir y preservar el conjunto de valores de quien la desarrolle. Si la humanidad todavía tiene puntos ciegos morales similares a la esclavitud en el pasado, la IAG podría arraigarlos irreversiblemente, impidiendo el progreso moral . [144] Además, la IAG podría facilitar la vigilancia masiva y el adoctrinamiento, que podrían usarse para crear un régimen totalitario mundial represivo estable. [145] [146] También existe un riesgo para las propias máquinas. Si en el futuro se crean en masa máquinas que sean sensibles o dignas de consideración moral, emprender un camino civilizatorio que descuide indefinidamente su bienestar e intereses podría ser una catástrofe existencial. [147] [148] Teniendo en cuenta cuánto podría la IAG mejorar el futuro de la humanidad y ayudar a reducir otros riesgos existenciales, Toby Ord llama a estos riesgos existenciales "un argumento para proceder con la debida cautela", no para "abandonar la IA". [145]

Riesgo de pérdida de control y extinción humana

La tesis de que la IA supone un riesgo existencial para los humanos, y que este riesgo necesita más atención, es controvertida, pero ha sido respaldada en 2023 por muchas figuras públicas, investigadores de IA y directores ejecutivos de empresas de IA como Elon Musk , Bill Gates , Geoffrey Hinton , Yoshua Bengio , Demis Hassabis y Sam Altman . [149] [150]

En 2014, Stephen Hawking criticó la indiferencia generalizada:

Así pues, ante posibles futuros con beneficios y riesgos incalculables, los expertos seguramente están haciendo todo lo posible para garantizar el mejor resultado, ¿no es así? No. Si una civilización extraterrestre superior nos enviara un mensaje diciendo: “Llegaremos en unas décadas”, ¿responderíamos simplemente: “Está bien, llámanos cuando llegues; dejaremos las luces encendidas”? Probablemente no, pero esto es más o menos lo que está sucediendo con la IA. [151]

El destino potencial de la humanidad se ha comparado a veces con el destino de los gorilas amenazados por las actividades humanas. La comparación indica que una mayor inteligencia permitió a la humanidad dominar a los gorilas, que ahora son vulnerables de maneras que no podrían haber previsto. Como resultado, el gorila se ha convertido en una especie en peligro de extinción, no por malicia, sino simplemente como un daño colateral de las actividades humanas. [152]

El escéptico Yann LeCun considera que las IA no tendrán ningún deseo de dominar a la humanidad y que deberíamos tener cuidado de no antropomorfizarlas e interpretar sus intenciones como lo haríamos con los humanos. Dijo que las personas no serán "lo suficientemente inteligentes como para diseñar máquinas superinteligentes, pero sí ridículamente estúpidas hasta el punto de darles objetivos estúpidos sin salvaguardas". [153] Por otro lado, el concepto de convergencia instrumental sugiere que, casi cualesquiera que sean sus objetivos, los agentes inteligentes tendrán razones para tratar de sobrevivir y adquirir más poder como pasos intermedios para lograr estos objetivos. Y que esto no requiere tener emociones. [154]

Muchos académicos preocupados por el riesgo existencial abogan por más investigaciones para resolver el " problema de control " para responder a la pregunta: ¿qué tipos de salvaguardas, algoritmos o arquitecturas pueden implementar los programadores para maximizar la probabilidad de que su IA recursivamente mejorada continúe comportándose de manera amistosa , en lugar de destructiva, después de alcanzar la superinteligencia? [155] [156] La solución del problema de control se complica por la carrera armamentista de la IA (que podría llevar a una carrera hacia el abismo de las precauciones de seguridad para lanzar productos antes que los competidores), [157] y el uso de la IA en sistemas de armas. [158]

La tesis de que la IA puede plantear un riesgo existencial también tiene detractores. Los escépticos suelen decir que la IA es poco probable en el corto plazo o que las preocupaciones sobre la IA distraen de otros asuntos relacionados con la IA actual. [159] El ex zar de fraudes de Google, Shuman Ghosemajumder, considera que para muchas personas fuera de la industria tecnológica, los chatbots y los LLM existentes ya son percibidos como si fueran IA, lo que conduce a más malentendidos y temores. [160]

Los escépticos a veces sostienen que la tesis es criptorreligiosa, con una creencia irracional en la posibilidad de que una superinteligencia reemplace a una creencia irracional en un Dios omnipotente. [161] Algunos investigadores creen que las campañas de comunicación sobre el riesgo existencial de la IA por parte de ciertos grupos de IA (como OpenAI, Anthropic, DeepMind y Conjecture) pueden ser un intento de captura regulatoria e inflar el interés en sus productos. [162] [163]

En 2023, los directores ejecutivos de Google DeepMind, OpenAI y Anthropic, junto con otros líderes de la industria e investigadores, emitieron una declaración conjunta en la que afirmaban que "mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala social, como las pandemias y la guerra nuclear". [150]

Paro masivo

Los investigadores de OpenAI estimaron que "el 80% de la fuerza laboral estadounidense podría tener al menos el 10% de sus tareas laborales afectadas por la introducción de LLM, mientras que alrededor del 19% de los trabajadores pueden ver al menos el 50% de sus tareas impactadas". [164] [165] Consideran que los trabajadores de oficina son los más expuestos, por ejemplo, matemáticos, contables o diseñadores web. [165] La AGI podría tener una mejor autonomía, capacidad de tomar decisiones, de interactuar con otras herramientas informáticas, pero también de controlar cuerpos robotizados.

Según Stephen Hawking, el impacto de la automatización en la calidad de vida dependerá de cómo se redistribuya la riqueza: [140]

Todo el mundo puede disfrutar de una vida de ocio lujoso si se comparte la riqueza producida por las máquinas, o la mayoría de la gente puede acabar siendo miserablemente pobre si los propietarios de las máquinas presionan con éxito contra la redistribución de la riqueza. Hasta ahora, la tendencia parece inclinarse hacia la segunda opción, ya que la tecnología impulsa una desigualdad cada vez mayor.

Elon Musk considera que la automatización de la sociedad requerirá que los gobiernos adopten una renta básica universal . [166]

Véase también

Notas

  1. ^ ab Consulte más abajo el origen del término "IA fuerte", y vea la definición académica de " IA fuerte " e IA débil en el artículo La sala china .
  2. ^ El fundador de la IA, John McCarthy, escribe: "aún no podemos caracterizar en general qué tipos de procedimientos computacionales queremos llamar inteligentes". [26] (Para un análisis de algunas definiciones de inteligencia utilizadas por los investigadores de inteligencia artificial , véase filosofía de la inteligencia artificial ).
  3. ^ El informe Lighthill criticó específicamente los "objetivos grandiosos" de la IA y condujo al desmantelamiento de la investigación en IA en Inglaterra. [53] En los EE. UU., DARPA se determinó a financiar solo "investigación directa orientada a la misión, en lugar de investigación básica no dirigida". [54] [55]
  4. ^ Como escribe el fundador de IA , John McCarthy , "sería un gran alivio para el resto de los trabajadores de IA si los inventores de nuevos formalismos generales expresaran sus esperanzas de una forma más cautelosa de lo que a veces ha sido el caso". [59]
  5. ^ En "Mind Children" [119] se utiliza 10 15 cps. Más recientemente, en 1997, [120] Moravec argumentó que 10 8 MIPS correspondería aproximadamente a 10 14 cps. Moravec habla en términos de MIPS, no de "cps", que es un término no estándar introducido por Kurzweil.
  6. ^ Como se define en un libro de texto estándar sobre IA: "La afirmación de que las máquinas podrían actuar de manera inteligente (o, quizás mejor, actuar como si fueran inteligentes) es llamada por los filósofos la hipótesis de la 'IA débil', y la afirmación de que las máquinas que lo hacen realmente están pensando (en lugar de simular el pensamiento) es llamada la hipótesis de la 'IA fuerte'". [118]
  7. ^ Alan Turing planteó este punto en 1950. [35]

Referencias

  1. ^ Krishna, Sri (9 de febrero de 2023). "¿Qué es la inteligencia artificial estrecha (ANI)?". VentureBeat . Consultado el 1 de marzo de 2024. La ANI está diseñada para realizar una única tarea.
  2. ^ "Carta de OpenAI". OpenAI . Consultado el 6 de abril de 2023 . Nuestra misión es garantizar que la inteligencia artificial general beneficie a toda la humanidad.
  3. ^ Heath, Alex (18 de enero de 2024). "El nuevo objetivo de Mark Zuckerberg es crear una inteligencia artificial general". The Verge . Consultado el 13 de junio de 2024. Nuestra visión es construir una IA que sea mejor que la humana en todos los sentidos.
  4. ^ Baum, Seth D. (2020). Una encuesta sobre proyectos de inteligencia artificial general para la ética, el riesgo y la política (PDF) (Informe). Global Catastrophic Risk Institute . Consultado el 13 de enero de 2022 . Identificamos 72 proyectos de I+D de inteligencia artificial general.
  5. ^ "Cronología de la IA: ¿Qué esperan los expertos en inteligencia artificial para el futuro?". Our World in Data . Consultado el 6 de abril de 2023 .
  6. ^ "El pionero de la IA Geoffrey Hinton abandona Google y advierte del peligro que se avecina". The New York Times . 1 de mayo de 2023 . Consultado el 2 de mayo de 2023 . Es difícil ver cómo se puede evitar que los malos actores lo utilicen para hacer cosas malas.
  7. ^ Bubeck, Sébastien; Chandrasekaran, Varun; Eldan, Ronen; Gehrke, Johannes; Horvitz, Eric (2023). "Chispas de inteligencia artificial general: primeros experimentos con GPT-4". arXiv preprint . arXiv : 2303.12712 . GPT-4 muestra chispas de IAG.
  8. ^ Butler, Octavia E. (1993). Parábola del sembrador . Grand Central Publishing. ISBN 978-0-4466-7550-5Todo lo que tocas lo cambias. Todo lo que cambias te cambia a ti.
  9. ^ Vinge, Vernor (1992). Un fuego en las profundidades . Tor Books. ISBN 978-0-8125-1528-2La Singularidad se acerca.
  10. ^ Morozov, Evgeny (30 de junio de 2023). "La verdadera amenaza de la inteligencia artificial". The New York Times . La verdadera amenaza no es la IA en sí, sino la forma en que la utilizamos.
  11. ^ "¿Impresionado por la inteligencia artificial? Los expertos dicen que la IAG es lo próximo que llegará y que conlleva riesgos 'existenciales'". ABC News . 23 de marzo de 2023 . Consultado el 6 de abril de 2023 . La IAG podría plantear riesgos existenciales para la humanidad.
  12. ^ Bostrom, Nick (2014). Superinteligencia: caminos, peligros, estrategias . Oxford University Press. ISBN 978-0-1996-7811-2La primera superinteligencia será el último invento que la humanidad necesitará realizar.
  13. ^ Roose, Kevin (30 de mayo de 2023). "La IA plantea un 'riesgo de extinción', advierten los líderes de la industria". The New York Times . Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial.
  14. ^ "Declaración sobre los riesgos de la IA". Centro para la seguridad de la IA . Consultado el 1 de marzo de 2024. Los expertos en IA advierten sobre el riesgo de extinción de la IA.
  15. ^ Mitchell, Melanie (30 de mayo de 2023). "¿Vale la pena tomar en serio los escenarios apocalípticos de la IA?". The New York Times . Estamos lejos de crear máquinas que puedan superarnos en inteligencia en aspectos generales.
  16. ^ LeCun, Yann (junio de 2023). "La IA general no representa un riesgo existencial". Medium . No hay motivos para temer que la IA suponga una amenaza existencial.
  17. ^ Kurzweil 2005, pág. 260.
  18. ^ ab Kurzweil, Ray (5 de agosto de 2005), "Long Live AI", Forbes , archivado desde el original el 14 de agosto de 2005:Kurzweil describe la IA fuerte como "inteligencia de máquina con toda la gama de la inteligencia humana".
  19. ^ "La era de la inteligencia artificial: George John en TEDxLondonBusinessSchool 2013". Archivado desde el original el 26 de febrero de 2014 . Consultado el 22 de febrero de 2014 .
  20. ^ "Cronología de la IA: ¿Qué esperan los expertos en inteligencia artificial para el futuro?". Our World in Data . Consultado el 6 de abril de 2023 .
  21. ^ Newell y Simon 1976, Este es el término que utilizan para la inteligencia de "nivel humano" en la hipótesis del sistema de símbolos físicos .
  22. ^ "La Universidad Abierta sobre IA fuerte y débil". Archivado desde el original el 25 de septiembre de 2009. Consultado el 8 de octubre de 2007 .
  23. ^ "¿Qué es la superinteligencia artificial (ASI)? | Definición de TechTarget". Inteligencia artificial empresarial . Consultado el 8 de octubre de 2023 .
  24. ^ "La inteligencia artificial está transformando nuestro mundo: depende de todos nosotros asegurarnos de que todo salga bien". Nuestro mundo en datos . Consultado el 8 de octubre de 2023 .
  25. ^ Dickson, Ben (16 de noviembre de 2023). "Esto es lo lejos que estamos de lograr la inteligencia artificial general, según DeepMind". VentureBeat .
  26. ^ McCarthy, John (2007a). «Basic Questions». Universidad de Stanford . Archivado desde el original el 26 de octubre de 2007. Consultado el 6 de diciembre de 2007 .
  27. ^ Esta lista de rasgos inteligentes se basa en los temas tratados en los principales libros de texto de IA, incluidos: Russell y Norvig 2003, Luger y Stubblefield 2004, Poole, Mackworth y Goebel 1998 y Nilsson 1998.
  28. ^ Johnson 1987
  29. ^ de Charms, R. (1968). Causalidad personal. Nueva York: Academic Press.
  30. ^ Pfeifer, R. y Bongard JC, Cómo el cuerpo moldea nuestra manera de pensar: una nueva visión de la inteligencia (The MIT Press, 2007). ISBN 0-2621-6239-3 
  31. ^ White, RW (1959). "Reconsideración de la motivación: el concepto de competencia". Psychological Review . 66 (5): 297–333. doi :10.1037/h0040934. PMID  13844397. S2CID  37385966.
  32. ^ Muehlhauser, Luke (11 de agosto de 2013). "¿Qué es la inteligencia artificial general?". Instituto de Investigación de Inteligencia Artificial. Archivado desde el original el 25 de abril de 2014. Consultado el 1 de mayo de 2014 .
  33. ^ "¿Qué es la Inteligencia Artificial General (AGI)? | 4 pruebas para asegurar la Inteligencia Artificial General". Blog Talky . 13 de julio de 2019. Archivado desde el original el 17 de julio de 2019 . Consultado el 17 de julio de 2019 .
  34. ^ Kirk-Giannini, Cameron Domenico; Goldstein, Simon (16 de octubre de 2023). "La IA está más cerca que nunca de pasar la prueba de Turing de 'inteligencia'. ¿Qué sucede cuando lo logra?". The Conversation . Consultado el 22 de septiembre de 2024 .
  35. ^ desde Turing 1950.
  36. ^ Turing, Alan (1952). B. Jack Copeland (ed.). ¿Se puede decir que las máquinas calculadoras automáticas piensan? . Oxford: Oxford University Press. pp. 487–506. ISBN 978-0-1982-5079-1.
  37. ^ "Eugene Goostman es un niño de verdad: el test de Turing lo dice". The Guardian . 9 de junio de 2014. ISSN  0261-3077 . Consultado el 3 de marzo de 2024 .
  38. ^ "Los científicos discuten si el ordenador 'Eugene Goostman' pasó la prueba de Turing". BBC News . 9 de junio de 2014 . Consultado el 3 de marzo de 2024 .
  39. ^ Varanasi, Lakshmi (21 de marzo de 2023). "Los modelos de IA como ChatGPT y GPT-4 están aprobando todo, desde el examen de abogacía hasta la Biología AP. Aquí hay una lista de exámenes difíciles que ambas versiones de IA han aprobado". Business Insider . Consultado el 30 de mayo de 2023 .
  40. ^ Naysmith, Caleb (7 de febrero de 2023). "6 empleos que la inteligencia artificial ya está reemplazando y cómo los inversores pueden sacar provecho de ello" . Consultado el 30 de mayo de 2023 .
  41. ^ Turk, Victoria (28 de enero de 2015). "El plan para reemplazar el Test de Turing con unas 'Olimpiadas de Turing'". Vice . Consultado el 3 de marzo de 2024 .
  42. ^ Gopani, Avi (25 de mayo de 2022). "La prueba de Turing no es confiable. El esquema de Winograd está obsoleto. El café es la respuesta". Revista Analytics India . Consultado el 3 de marzo de 2024 .
  43. ^ Bhaimiya, Sawdah (20 de junio de 2023). "El cofundador de DeepMind sugirió probar la capacidad de un chatbot de IA para convertir $100,000 en $1 millón para medir la inteligencia humana". Business Insider . Consultado el 3 de marzo de 2024 .
  44. ^ Suleyman, Mustafa (14 de julio de 2023). «Mustafa Suleyman: Mi nueva prueba de Turing comprobaría si la IA puede ganar un millón de dólares». MIT Technology Review . Consultado el 3 de marzo de 2024 .
  45. ^ Shapiro, Stuart C. (1992). "Inteligencia artificial" (PDF) . En Stuart C. Shapiro (ed.). Enciclopedia de inteligencia artificial (segunda edición). Nueva York: John Wiley. pp. 54–57. Archivado (PDF) desde el original el 1 de febrero de 2016.(La sección 4 trata sobre "Tareas completadas por IA").
  46. ^ Yampolskiy, Roman V. (2012). Xin-She Yang (ed.). "La prueba de Turing como característica definitoria de la completitud de la IA" (PDF) . Inteligencia artificial, computación evolutiva y metaheurísticas (AIECM) : 3–17. Archivado (PDF) desde el original el 22 de mayo de 2013.
  47. ^ "Índice de IA: estado de la IA en 13 gráficos". Inteligencia artificial centrada en el ser humano, Universidad de Stanford . 15 de abril de 2024. Consultado el 27 de mayo de 2024 .
  48. ^ Crevier 1993, págs. 48-50
  49. ^ Kaplan, Andreas (2022). «Inteligencia artificial, negocios y civilización: nuestro destino hecho a máquina». Archivado desde el original el 6 de mayo de 2022. Consultado el 12 de marzo de 2022 .
  50. ^ Simon 1965, p. 96 citado en Crevier 1993, p. 109
  51. ^ "Científico en el plató: entrevista con Marvin Minsky". Archivado desde el original el 16 de julio de 2012. Consultado el 5 de abril de 2008 .
  52. ^ Marvin Minsky a Darrach (1970), citado en Crevier (1993, p. 109).
  53. ^ Lighthill 1973; Howe 1994
  54. ^ ab NRC 1999, "El cambio hacia la investigación aplicada aumenta la inversión".
  55. ^ Crevier 1993, págs. 115-117; Russell y Norvig 2003, págs. 21-22.
  56. ^ Crevier 1993, pág. 211, Russell y Norvig 2003, pág. 24 y véase también Feigenbaum y McCorduck 1983
  57. ^ Crevier 1993, págs. 161–162, 197–203, 240; Russell y Norvig 2003, pág. 25.
  58. ^ Crevier 1993, págs. 209-212
  59. ^ McCarthy, John (2000). "Respuesta a Lighthill". Universidad de Stanford. Archivado desde el original el 30 de septiembre de 2008. Consultado el 29 de septiembre de 2007 .
  60. ^ Markoff, John (14 de octubre de 2005). «Detrás de la inteligencia artificial, un escuadrón de personas reales brillantes». The New York Times . Archivado desde el original el 2 de febrero de 2023. Consultado el 18 de febrero de 2017. En su punto más bajo, algunos científicos informáticos e ingenieros de software evitaron el término inteligencia artificial por miedo a ser vistos como soñadores descabellados.
  61. ^ Russell y Norvig 2003, págs. 25-26
  62. ^ "Tendencias en el ciclo de hype tecnológico emergente". Informes de Gartner. Archivado desde el original el 22 de mayo de 2019. Consultado el 7 de mayo de 2019 .
  63. ^ desde Moravec 1988, pág. 20
  64. ^ Harnad, S. (1990). "El problema de la conexión a tierra de los símbolos". Physica D . 42 (1–3): 335–346. arXiv : cs/9906002 . Código Bibliográfico :1990PhyD...42..335H. doi :10.1016/0167-2789(90)90087-6. S2CID  3204300.
  65. ^ Gubrud 1997
  66. ^ Hutter, Marcus (2005). Inteligencia artificial universal: decisiones secuenciales basadas en probabilidad algorítmica. Textos de informática teórica, serie EATCS. ​​Springer. doi :10.1007/b138233. ISBN. 978-3-5402-6877-2. S2CID  33352850. Archivado desde el original el 19 de julio de 2022 . Consultado el 19 de julio de 2022 .
  67. ^ Legg, Shane (2008). Machine Super Intelligence (PDF) (Tesis). Universidad de Lugano. Archivado (PDF) del original el 15 de junio de 2022. Consultado el 19 de julio de 2022 .
  68. ^ Goertzel, Ben (2014). Inteligencia general artificial. Apuntes de conferencias sobre informática. vol. 8598. Revista de Inteligencia General Artificial. doi :10.1007/978-3-319-09274-4. ISBN 978-3-3190-9273-7. Número de identificación del sujeto  8387410.
  69. ^ "¿Quién acuñó el término "AGI"?". goertzel.org . Archivado desde el original el 28 de diciembre de 2018 . Consultado el 28 de diciembre de 2018 ., vía Life 3.0 : 'El término "AGI" fue popularizado por... Shane Legg, Mark Gubrud y Ben Goertzel'
  70. ^ Wang y Goertzel 2007
  71. ^ «Primera Escuela Internacional de Verano en Inteligencia Artificial General, Escuela de verano principal: 22 de junio – 3 de julio de 2009, OpenCog Lab: 6-9 de julio de 2009». Archivado desde el original el 28 de septiembre de 2020 . Consultado el 11 de mayo de 2020 .
  72. ^ "Избираеми дисциплини 2009/2010 - пролетен триместър" [Cursos optativos 2009/2010 - trimestre de primavera]. Факултет по математика и информатика [Facultad de Matemáticas e Informática] (en búlgaro). Archivado desde el original el 26 de julio de 2020 . Consultado el 11 de mayo de 2020 .
  73. ^ "Избираеми дисциплини 2010/2011 - зимен триместър" [Cursos optativos 2010/2011 - trimestre de invierno]. Факултет по математика и информатика [Facultad de Matemáticas e Informática] (en búlgaro). Archivado desde el original el 26 de julio de 2020 . Consultado el 11 de mayo de 2020 .
  74. ^ Shevlin, Henry; Vold, Karina; Crosby, Matthew; Halina, Marta (4 de octubre de 2019). "Los límites de la inteligencia artificial: a pesar de los avances en inteligencia artificial, la inteligencia artificial general sigue siendo un gran desafío". EMBO Reports . 20 (10): e49177. doi :10.15252/embr.201949177. ISSN  1469-221X. PMC 6776890 . PMID  31531926. 
  75. ^ Bubeck, Sébastien; Chandrasekaran, Varun; Eldan, Ronen; Gehrke, Johannes; Horvitz, Eric; Kamar, Ece; Lee, Pedro; Lee, Yin Tat; Li, Yuanzhi; Lundberg, Scott; Nori, Harsha; Palangi, Hamid; Ribeiro, Marco Tulio; Zhang, Yi (27 de marzo de 2023). "Chispas de inteligencia general artificial: primeros experimentos con GPT-4". arXiv : 2303.12712 [cs.CL].
  76. ^ "Los investigadores de Microsoft afirman que GPT-4 está mostrando "chispas" de inteligencia artificial general". Futurismo . 23 de marzo de 2023 . Consultado el 13 de diciembre de 2023 .
  77. ^ Allen, Paul; Greaves, Mark (12 de octubre de 2011). "La singularidad no está cerca". MIT Technology Review . Consultado el 17 de septiembre de 2014 .
  78. ^ Winfield, Alan. «La inteligencia artificial no se convertirá en un monstruo de Frankenstein». The Guardian . Archivado desde el original el 17 de septiembre de 2014. Consultado el 17 de septiembre de 2014 .
  79. ^ Deane, George (2022). "Máquinas que sienten y piensan: el papel de los sentimientos afectivos y la acción mental en la inteligencia general (artificial)". Vida artificial . 28 (3): 289–309. doi :10.1162/artl_a_00368. ISSN  1064-5462. PMID  35881678. S2CID  251069071.
  80. ^abc Relojes en 2003.
  81. ^ Fjelland, Ragnar (17 de junio de 2020). «Por qué no se realizará la inteligencia artificial general». Humanities and Social Sciences Communications . 7 (1): 1–9. doi : 10.1057/s41599-020-0494-4 . hdl : 11250/2726984 . ISSN  2662-9992. S2CID  219710554.
  82. ^ McCarthy 2007b.
  83. ^ Khatchadourian, Raffi (23 de noviembre de 2015). "La invención del fin del mundo: ¿La inteligencia artificial nos traerá utopía o destrucción?". The New Yorker . Archivado desde el original el 28 de enero de 2016. Consultado el 7 de febrero de 2016 .
  84. ^ Müller, VC y Bostrom, N. (2016). Progresos futuros en inteligencia artificial: una encuesta de opinión de expertos. En Cuestiones fundamentales de la inteligencia artificial (pp. 555–572). Springer, Cham.
  85. ^ Armstrong, Stuart y Kaj Sotala. 2012. "Cómo predecimos la IA o no". En Beyond AI: Artificial Dreams , editado por Jan Romportl, Pavel Ircing, Eva Žáčková, Michal Polák y Radek Schuster, 52–75. Pilsen: Universidad de Bohemia Occidental
  86. ^ "Microsoft ahora afirma que GPT-4 muestra 'chispas' de inteligencia general". 24 de marzo de 2023.
  87. ^ Shimek, Cary (6 de julio de 2023). "AI Outperforms Humans in Creativity Test" (La IA supera a los humanos en la prueba de creatividad). Neuroscience News (Noticias de neurociencia) . Consultado el 20 de octubre de 2023 .
  88. ^ Guzik, Erik E.; Byrge, Christian; Gilde, Christian (1 de diciembre de 2023). "La originalidad de las máquinas: la IA pasa el test de Torrance". Journal of Creativity . 33 (3): 100065. doi : 10.1016/j.yjoc.2023.100065 . ISSN  2713-3745. S2CID  261087185.
  89. ^ Arcas, Blaise Agüera y (10 de octubre de 2023). "La inteligencia general artificial ya está aquí". Noéma .
  90. ^ Zia, Tehseen (8 de enero de 2024). "Revelación de grandes modelos multimodales: configuración del panorama de los modelos lingüísticos en 2024". Unite.ai . Consultado el 26 de mayo de 2024 .
  91. ^ "Presentación de OpenAI o1-preview". OpenAI . 12 de septiembre de 2024.
  92. ^ Knight, Will. «OpenAI anuncia un nuevo modelo de IA, cuyo nombre en código es Strawberry, que resuelve problemas difíciles paso a paso». Wired . ISSN  1059-1028 . Consultado el 17 de septiembre de 2024 .
  93. ^ "Índice de IA: estado de la IA en 13 gráficos". hai.stanford.edu . 15 de abril de 2024 . Consultado el 7 de junio de 2024 .
  94. ^ "Inteligencia artificial de próxima generación: el salto de OpenAI y Meta hacia las máquinas de razonamiento". Unite.ai . 19 de abril de 2024 . Consultado el 7 de junio de 2024 .
  95. ^ James, Alex P. (2022). "El por qué, el qué y el cómo del desarrollo de chips de inteligencia artificial general". IEEE Transactions on Cognitive and Developmental Systems . 14 (2): 333–347. arXiv : 2012.06338 . doi :10.1109/TCDS.2021.3069871. ISSN  2379-8920. S2CID  228376556. Archivado desde el original el 28 de agosto de 2022 . Consultado el 28 de agosto de 2022 .
  96. ^ Pei, Jing; Deng, Lei; Canción, Sen; Zhao, Mingguo; Zhang, Youhui; Wu, Shuang; Wang, Guanrui; Zou, Zhe; Wu, Zhenzhi; Él, Wei; Chen, Feng; Deng, Ning; Wu, Si; Wang, Yu; Wu, Yujie (2019). "Hacia la inteligencia artificial general con arquitectura de chip híbrido Tianjic". Naturaleza . 572 (7767): 106–111. Código Bib :2019Natur.572..106P. doi :10.1038/s41586-019-1424-8. ISSN  1476-4687. PMID  31367028. S2CID  199056116. Archivado desde el original el 29 de agosto de 2022 . Consultado el 29 de agosto de 2022 .
  97. ^ Pandey, Mohit; Fernandez, Michael; Gentile, Francesco; Isayev, Olexandr; Tropsha, Alexander; Stern, Abraham C.; Cherkasov, Artem (marzo de 2022). "El papel transformador de la computación GPU y el aprendizaje profundo en el descubrimiento de fármacos". Nature Machine Intelligence . 4 (3): 211–221. doi : 10.1038/s42256-022-00463-x . ISSN  2522-5839. S2CID  252081559.
  98. ^ Goertzel y Pennachin 2006.
  99. ^ abc (Kurzweil 2005, pág. 260)
  100. ^abc Goertzel 2007.
  101. ^ Grace, Katja (2016). «Error en Armstrong y Sotala 2012». AI Impacts (blog). Archivado desde el original el 4 de diciembre de 2020. Consultado el 24 de agosto de 2020 .
  102. ^ ab Butz, Martin V. (1 de marzo de 2021). "Hacia una IA fuerte". KI – Künstliche Intelligenz . 35 (1): 91-101. doi : 10.1007/s13218-021-00705-x . ISSN  1610-1987. S2CID  256065190.
  103. ^ Liu, Feng; Shi, Yong; Liu, Ying (2017). "Coeficiente intelectual y grado de inteligencia de la inteligencia artificial". Anales de ciencia de datos . 4 (2): 179–191. arXiv : 1709.10242 . doi :10.1007/s40745-017-0109-0. S2CID  37900130.
  104. ^ Brien, Jörn (5 de octubre de 2017). «Google-KI doppelt so schlau wie Siri» [La inteligencia artificial de Google es el doble de inteligente que Siri, pero un niño de seis años supera a ambos] (en alemán). Archivado desde el original el 3 de enero de 2019 . Consultado el 2 de enero de 2019 .
  105. ^ Grossman, Gary (3 de septiembre de 2020). "Estamos entrando en la zona de penumbra de la IA entre la IA estrecha y la general". VentureBeat . Archivado del original el 4 de septiembre de 2020 . Consultado el 5 de septiembre de 2020 . Ciertamente, también hay quienes afirman que ya estamos viendo un ejemplo temprano de un sistema de IAG en la red neuronal de procesamiento del lenguaje natural (PLN) GPT-3 anunciada recientemente. ... Entonces, ¿es GPT-3 el primer ejemplo de un sistema de IAG? Esto es discutible, pero el consenso es que no es IAG. ... Como mínimo, GPT-3 nos dice que hay un punto intermedio entre la IA estrecha y la general.
  106. ^ Quach, Katyanna. "Un desarrollador creó un chatbot de IA usando GPT-3 que ayudó a un hombre a volver a hablar con su difunta prometida. OpenAI lo desactivó". The Register. Archivado desde el original el 16 de octubre de 2021. Consultado el 16 de octubre de 2021 .
  107. ^ Wiggers, Kyle (13 de mayo de 2022), "La nueva IA de DeepMind puede realizar más de 600 tareas, desde jugar hasta controlar robots", TechCrunch , archivado del original el 16 de junio de 2022 , consultado el 12 de junio de 2022
  108. ^ Bubeck, Sébastien; Chandrasekaran, Varun; Eldan, Ronen; Gehrke, Johannes; Horvitz, Eric; Kamar, Ece; Lee, Pedro; Lee, Yin Tat; Li, Yuanzhi; Lundberg, Scott; Nori, Harsha; Palangi, Hamid; Ribeiro, Marco Tulio; Zhang, Yi (22 de marzo de 2023). "Chispas de inteligencia general artificial: primeros experimentos con GPT-4". arXiv : 2303.12712 [cs.CL].
  109. ^ Metz, Cade (1 de mayo de 2023). «'El padrino de la IA' abandona Google y advierte de peligros que se avecinan». The New York Times . ISSN  0362-4331 . Consultado el 7 de junio de 2023 .
  110. ^ Bove, Tristan. "La IA podría rivalizar con la inteligencia humana en 'apenas unos años', dice el director ejecutivo del principal laboratorio de investigación de IA de Google". Fortune . Consultado el 4 de septiembre de 2024 .
  111. ^ Nellis, Stephen (2 de marzo de 2024). "El CEO de Nvidia dice que la IA podría superar las pruebas en humanos en cinco años". Reuters .
  112. ^ Aschenbrenner, Leopold. "CONCIENCIA SITUACIONAL: La década que viene".
  113. ^ Sullivan, Mark (18 de octubre de 2023). "Por qué todo el mundo parece estar en desacuerdo sobre cómo definir la inteligencia artificial general". Fast Company .
  114. ^ Nosta, John (5 de enero de 2024). «El camino acelerado hacia la inteligencia artificial general». Psychology Today . Consultado el 30 de marzo de 2024 .
  115. ^ Hickey, Alex. "Emulación de todo el cerebro: un paso gigante para la neurociencia". Tech Brew . Consultado el 8 de noviembre de 2023 .
  116. ^ Sandberg y Boström 2008.
  117. ^ Dracman 2005.
  118. ^ por Russell y Norvig 2003.
  119. ^ Moravec 1988, pág. 61.
  120. ^ Moravec 1998.
  121. ^ Holmgaard Mersh, Amalie (15 de septiembre de 2023). «Un proyecto de investigación europeo de una década de duración mapea el cerebro humano». euractiv .
  122. ^ ab Thornton, Angela (26 de junio de 2023). «Cómo podría ser posible cargar nuestras mentes en una computadora». The Conversation . Consultado el 8 de noviembre de 2023 .
  123. ^ Vicinanza, Domenico (18 de diciembre de 2023). «Una nueva supercomputadora pretende imitar de cerca el cerebro humano: podría ayudar a desvelar los secretos de la mente y hacer avanzar la IA». The Conversation . Consultado el 29 de marzo de 2024 .
  124. ^ Swaminathan, Nikhil (enero-febrero de 2011). «Glia: las otras células cerebrales». Discover . Archivado desde el original el 8 de febrero de 2014 . Consultado el 24 de enero de 2014 .
  125. ^ de Vega, Glenberg y Graesser 2008. Una amplia gama de puntos de vista en la investigación actual, todos los cuales requieren cierta base
  126. ^ Searle 1980
  127. ^ Por ejemplo:
    • Russell y Norvig 2003,
    • Diccionario de Psicología de Oxford University Press Archivado el 3 de diciembre de 2007 en Wayback Machine (citado en "Encyclopedia.com"),
    • Enciclopedia de Ciencias Cognitivas del MIT Archivado el 19 de julio de 2008 en Wayback Machine (citado en "AITopics"),
    • ¿Permitirán las computadoras biológicas que las máquinas con inteligencia artificial se conviertan en personas? Archivado el 13 de mayo de 2008 en Wayback Machine Anthony Tongen
  128. ^ abc Russell y Norvig 2003, pág. 947.
  129. ^ aunque vea Inteligencia artificial explicable por curiosidad sobre el campo acerca de por qué un programa se comporta de la manera en que lo hace
  130. ^ Chalmers, David J. (9 de agosto de 2023). "¿Podría un modelo de lenguaje grande ser consciente?". Boston Review .
  131. ^ Seth, Anil. "Conciencia". New Scientist . Consultado el 5 de septiembre de 2024 .
  132. ^ Nagel 1974.
  133. ^ "El ingeniero de Google que cree que la inteligencia artificial de la empresa ha cobrado vida". The Washington Post . 11 de junio de 2022 . Consultado el 12 de junio de 2023 .
  134. ^ Kateman, Brian (24 de julio de 2023). "La IA debería tener miedo de los humanos". TIME . Consultado el 5 de septiembre de 2024 .
  135. ^ Nosta, John (18 de diciembre de 2023). «¿Debería la inteligencia artificial tener derechos?». Psychology Today . Consultado el 5 de septiembre de 2024 .
  136. ^ Akst, Daniel (10 de abril de 2023). "¿Deberían los robots con inteligencia artificial tener derechos morales o legales?". The Wall Street Journal .
  137. ^ "Inteligencia general artificial: ¿el costo supera los beneficios?". 23 de agosto de 2021. Consultado el 7 de junio de 2023 .
  138. ^ "Cómo podemos beneficiarnos del avance de la inteligencia artificial general (AGI) - Unite.AI". www.unite.ai . 7 de abril de 2020 . Consultado el 7 de junio de 2023 .
  139. ^ abc Talty, Jules; Julien, Stephan. "¿Cómo será nuestra sociedad cuando la inteligencia artificial esté en todas partes?". Revista Smithsonian . Consultado el 7 de junio de 2023 .
  140. ^ ab Stevenson, Matt (8 de octubre de 2015). "Las respuestas a la pregunta de Stephen Hawking están aquí". Wired . ISSN  1059-1028 . Consultado el 8 de junio de 2023 .
  141. ^ ab Bostrom, Nick (2017). "§ Orden preferente de llegada". Superinteligencia: caminos, peligros, estrategias (Reimpreso con correcciones, edición de 2017). Oxford, Reino Unido; Nueva York, Nueva York, EE. UU.: Oxford University Press. ISBN 978-0-1996-7811-2.
  142. ^ Piper, Kelsey (19 de noviembre de 2018). «Cómo el progreso tecnológico hace que sea más probable que nunca que los humanos nos destruyamos a nosotros mismos». Vox . Consultado el 8 de junio de 2023 .
  143. ^ Doherty, Ben (17 de mayo de 2018). «El cambio climático es un 'riesgo de seguridad existencial' para Australia, según una investigación del Senado». The Guardian . ISSN  0261-3077 . Consultado el 16 de julio de 2023 .
  144. ^ MacAskill, William (2022). Lo que le debemos al futuro . Nueva York, NY: Basic Books. ISBN 978-1-5416-1862-6.
  145. ^ ab Ord, Toby (2020). "Capítulo 5: Riesgos futuros, inteligencia artificial no alineada". El precipicio: riesgo existencial y el futuro de la humanidad . Bloomsbury Publishing. ISBN 978-1-5266-0021-9.
  146. ^ Al-Sibai, Noor (13 de febrero de 2022). "El científico jefe de OpenAI dice que la IA avanzada ya puede ser consciente". Futurismo . Consultado el 24 de diciembre de 2023 .
  147. ^ Samuelsson, Paul Conrad (2019). «Conciencia artificial: nuestro mayor desafío ético». Philosophy Now . Consultado el 23 de diciembre de 2023 .
  148. ^ Kateman, Brian (24 de julio de 2023). "La IA debería tener miedo de los humanos". TIME . Consultado el 23 de diciembre de 2023 .
  149. ^ Roose, Kevin (30 de mayo de 2023). «La IA plantea un «riesgo de extinción», advierten los líderes de la industria». The New York Times . ISSN  0362-4331 . Consultado el 24 de diciembre de 2023 .
  150. ^ ab "Declaración sobre el riesgo de la IA". Centro para la seguridad de la IA . 30 de mayo de 2023. Consultado el 8 de junio de 2023 .
  151. ^ "Stephen Hawking: 'Transcendence analiza las implicaciones de la inteligencia artificial, pero ¿estamos tomando la IA lo suficientemente en serio?'". The Independent (Reino Unido) . Archivado desde el original el 25 de septiembre de 2015. Consultado el 3 de diciembre de 2014 .
  152. ^ Herger, Mario. «El problema del gorila – Enterprise Garage» . Consultado el 7 de junio de 2023 .
  153. ^ "El fascinante debate en Facebook entre Yann LeCun, Stuart Russel y Yoshua Bengio sobre los riesgos de una IA fuerte". El fascinante debate en Facebook entre Yann LeCun, Stuart Russel y Yoshua Bengio sobre los riesgos de una IA fuerte (en francés) . Consultado el 8 de junio de 2023 .
  154. ^ "¿La inteligencia artificial acabará con la raza humana en los próximos 100 años?". HuffPost . 22 de agosto de 2014 . Consultado el 8 de junio de 2023 .
  155. ^ Sotala, Kaj; Yampolskiy, Roman V. (19 de diciembre de 2014). "Respuestas al riesgo catastrófico de AGI: una encuesta". Escritura física . 90 (1): 018001. doi : 10.1088/0031-8949/90/1/018001 . ISSN  0031-8949.
  156. ^ Bostrom, Nick (2014). Superinteligencia: caminos, peligros, estrategias (Primera edición). Oxford University Press. ISBN 978-0-1996-7811-2.
  157. ^ Chow, Andrew R.; Perrigo, Billy (16 de febrero de 2023). "La carrera armamentista de la IA ha comenzado. Empiece a preocuparse". TIME . Consultado el 24 de diciembre de 2023 .
  158. ^ Tetlow, Gemma (12 de enero de 2017). «La carrera armamentística de la IA corre el riesgo de salirse de control, advierte un informe» . Financial Times . Archivado desde el original el 11 de abril de 2022. Consultado el 24 de diciembre de 2023 .
  159. ^ Milmo, Dan; Stacey, Kiran (25 de septiembre de 2023). «Los expertos no se ponen de acuerdo sobre la amenaza que supone, pero no se puede ignorar la inteligencia artificial». The Guardian . ISSN  0261-3077 . Consultado el 24 de diciembre de 2023 .
  160. ^ "Humanidad, seguridad e inteligencia artificial, ¡Dios mío! (con Ian Bremmer y Shuman Ghosemajumder)". CAFE . 20 de julio de 2023 . Consultado el 15 de septiembre de 2023 .
  161. ^ Hamblin, James (9 de mayo de 2014). "But What Would the End of Humanity Mean for Me?" [Pero, ¿qué significaría para mí el fin de la humanidad?]. The Atlantic . Archivado desde el original el 4 de junio de 2014. Consultado el 12 de diciembre de 2015 .
  162. ^ Titcomb, James (30 de octubre de 2023). "Big Tech está alimentando los temores sobre la IA, advierten los científicos". The Telegraph . Consultado el 7 de diciembre de 2023 .
  163. ^ Davidson, John (30 de octubre de 2023). «El fundador de Google Brain dice que las grandes tecnológicas mienten sobre el peligro de extinción de la IA» . Australian Financial Review . Archivado desde el original el 7 de diciembre de 2023 . Consultado el 7 de diciembre de 2023 .
  164. ^ Eloundou, Tyna; Manning, Sam; Mishkin, Pamela; Rock, Daniel (17 de marzo de 2023). "Los GPT son GPT: una mirada temprana al potencial de impacto en el mercado laboral de los modelos lingüísticos de gran tamaño". OpenAI . Consultado el 7 de junio de 2023 .
  165. ^ ab Hurst, Luke (23 de marzo de 2023). «OpenAI afirma que el 80% de los trabajadores podrían ver sus trabajos afectados por la IA. Estos son los trabajos más afectados». euronews . Consultado el 8 de junio de 2023 .
  166. ^ Sheffey, Ayelet (20 de agosto de 2021). «Elon Musk dice que necesitamos una renta básica universal porque 'en el futuro, el trabajo físico será una opción'» . Business Insider . Archivado desde el original el 9 de julio de 2023. Consultado el 8 de junio de 2023 .

Fuentes

Lectura adicional

Enlaces externos