stringtranslate.com

Historia de la inteligencia artificial

La historia de la inteligencia artificial ( IA ) comenzó en la antigüedad , con mitos, historias y rumores de seres artificiales dotados de inteligencia o conciencia por maestros artesanos. El estudio de la lógica y el razonamiento formal desde la antigüedad hasta la actualidad condujo directamente a la invención de la computadora digital programable en la década de 1940, una máquina basada en la esencia abstracta del razonamiento matemático. Este dispositivo y las ideas que lo sustentaban inspiraron a un puñado de científicos a comenzar a discutir seriamente la posibilidad de construir un cerebro electrónico .

El campo de la investigación en IA se fundó en un taller celebrado en el campus del Dartmouth College durante el verano de 1956. [1] Los asistentes al taller se convirtieron en los líderes de la investigación en IA durante décadas. Muchos de ellos predijeron que dentro de una generación existirían máquinas tan inteligentes como los humanos. El gobierno de Estados Unidos proporcionó millones de dólares para hacer realidad esta visión. [2]

Finalmente, se hizo evidente que los investigadores habían subestimado enormemente la dificultad del proyecto. [3] En 1974, las críticas de James Lighthill y la presión del Congreso de los Estados Unidos llevaron a los gobiernos de los Estados Unidos y el Reino Unido a dejar de financiar la investigación no dirigida en inteligencia artificial. Siete años después, una iniciativa visionaria del gobierno japonés y el éxito de los sistemas expertos revitalizaron la inversión en IA y, a finales de los años 80, la industria había crecido hasta alcanzar los miles de millones de dólares. Sin embargo, el entusiasmo de los inversores disminuyó en la década de 1990 y el campo fue criticado en la prensa y evitado por la industria (un período conocido como el " invierno de la IA "). No obstante, la investigación y la financiación siguieron creciendo bajo otros nombres.

A principios de la década de 2000, el aprendizaje automático se aplicó a una amplia gama de problemas en el ámbito académico y en la industria. El éxito se debió a la disponibilidad de hardware informático potente, la recopilación de inmensos conjuntos de datos y la aplicación de métodos matemáticos sólidos. En 2012, el aprendizaje profundo demostró ser una tecnología revolucionaria que eclipsó a todos los demás métodos. La arquitectura de transformadores debutó en 2017 y se utilizó para producir impresionantes aplicaciones de IA generativa . Inv[AI boom|IA surgió]] en la década de 2020.

Precursores

Precursores míticos, ficticios y especulativos

Mito y leyenda

En la mitología griega, Talos era un gigante de bronce que actuaba como guardián de la isla de Creta. Lanzaba rocas a los barcos de los invasores y completaba tres circuitos alrededor del perímetro de la isla diariamente. [4] Según la Bibliotheke de Pseudo-Apolodoro , Hefesto forjó a Talos con la ayuda de un cíclope y le presentó el autómata como regalo a Minos . [5] En las Argonáuticas , Jasón y los argonautas derrotaron a Talos quitando un tapón cerca de su pie, lo que provocó que el icor vital fluyera de su cuerpo y lo dejara sin vida. [6]

Pigmalión fue un legendario rey y escultor de la mitología griega, representado de forma célebre en Las metamorfosis de Ovidio . En el décimo libro del poema narrativo de Ovidio, Pigmalión siente asco por las mujeres cuando presencia la forma en que las Propoétides se prostituyen. A pesar de ello, hace ofrendas en el templo de Venus pidiendo a la diosa que le traiga una mujer igual a una estatua que él talló. [7]

Leyendas medievales de seres artificiales

Representación de un homúnculo del Fausto de Goethe

En De la naturaleza de las cosas , el alquimista suizo Paracelso describe un procedimiento que, según él, permite fabricar un "hombre artificial". Al colocar el "esperma de un hombre" en estiércol de caballo y alimentarlo con el "Arcano de la sangre del hombre" después de 40 días, el brebaje se convertirá en un niño vivo. [8]

El primer relato escrito sobre la fabricación de golems se encuentra en los escritos de Eleazar ben Judah de Worms a principios del siglo XIII. [9] Durante la Edad Media, se creía que la animación de un golem podía lograrse mediante la inserción de un trozo de papel con cualquiera de los nombres de Dios en él, en la boca de la figura de arcilla. [10] A diferencia de los autómatas legendarios como Brazen Heads , [11] un golem no podía hablar. [12]

Takwin , la creación artificial de vida, fue un tema frecuente en los manuscritos alquímicos ismaelitas , especialmente en aquellos atribuidos a Jabir ibn Hayyan . Los alquimistas islámicos intentaron crear una amplia gama de formas de vida a través de su trabajo, desde plantas hasta animales. [13]

En Fausto, segunda parte de la tragedia de Johann Wolfgang von Goethe , un homúnculo fabricado mediante alquimia , destinado a vivir para siempre en el frasco en el que fue creado, intenta nacer con un cuerpo humano completo. Sin embargo, al iniciarse esta transformación, el frasco se rompe y el homúnculo muere. [14]

Ficción moderna

En el siglo XIX, las ideas sobre hombres artificiales y máquinas pensantes se convirtieron en un tema popular en la ficción. Obras notables como Frankenstein de Mary Shelley y RUR (Rossum's Universal Robots) de Karel Čapek [15] exploraron el concepto de vida artificial. Ensayos especulativos, como " Darwin entre las máquinas " de Samuel Butler [16] y " El jugador de ajedrez de Maelzel " de Edgar Allan Poe [17] reflejaron el creciente interés de la sociedad en las máquinas con inteligencia artificial. La IA sigue siendo un tema común en la ciencia ficción actual. [18]

Autómatas

Autómatas programables de Al-Jazari (1206 CE)

Autómatas humanoides realistas fueron construidos por artesanos de muchas civilizaciones, incluido Yan Shi , [19] Héroe de Alejandría , [20] Al-Jazari , [21] Haroun al-Rashid , [22] Jacques de Vaucanson , [23] [24] Leonardo Torres y Quevedo , [25] Pierre Jaquet-Droz y Wolfgang von Kempelen . [26] [27]

Los autómatas más antiguos conocidos fueron las estatuas sagradas del antiguo Egipto y Grecia . [28] [29] Los fieles creían que los artesanos habían imbuido a estas figuras de mentes muy reales, capaces de sabiduría y emoción: Hermes Trimegisto escribió que "al descubrir la verdadera naturaleza de los dioses, el hombre ha sido capaz de reproducirla". [30] El erudito inglés Alexander Neckham afirmó que el antiguo poeta romano Virgilio había construido un palacio con estatuas de autómatas. [31]

Durante el período moderno temprano, se decía que estos autómatas legendarios poseían la capacidad mágica de responder a las preguntas que se les hacían. Se decía que el alquimista medieval tardío y protoprotestante Roger Bacon había fabricado una cabeza de bronce , habiendo desarrollado una leyenda de haber sido un mago. [32] [33] Estas leyendas eran similares al mito nórdico de la Cabeza de Mímir . Según la leyenda, Mímir era conocido por su intelecto y sabiduría, y fue decapitado en la Guerra Æsir-Vanir . Se dice que Odín "embalsamó" la cabeza con hierbas y pronunció encantamientos sobre ella de modo que la cabeza de Mímir siguió siendo capaz de hablar sabiduría a Odín. Odín luego mantuvo la cabeza cerca de él para pedirle consejo. [34]

Razonamiento formal

La inteligencia artificial se basa en la suposición de que el proceso del pensamiento humano puede mecanizarse. El estudio del razonamiento mecánico (o "formal") tiene una larga historia. Los filósofos chinos , indios y griegos desarrollaron métodos estructurados de deducción formal hacia el primer milenio a. C. Sus ideas fueron desarrolladas a lo largo de los siglos por filósofos como Aristóteles (que realizó un análisis formal del silogismo ), [35] Euclides (cuyos Elementos fueron un modelo de razonamiento formal), al-Khwārizmī (que desarrolló el álgebra y dio su nombre a la palabra algoritmo ) y filósofos escolásticos europeos como Guillermo de Ockham y Duns Scoto . [36]

El filósofo español Ramon Llull (1232-1315) desarrolló varias máquinas lógicas dedicadas a la producción de conocimiento por medios lógicos; [37] [38] Llull describió sus máquinas como entidades mecánicas que podían combinar verdades básicas e innegables mediante operaciones lógicas simples, producidas por la máquina mediante significados mecánicos, de tal manera que se produjera todo el conocimiento posible. [39] El trabajo de Llull tuvo una gran influencia en Gottfried Leibniz , quien reelaboró ​​sus ideas. [40]

Gottfried Leibniz , quien especuló que la razón humana podría reducirse al cálculo mecánico.

En el siglo XVII, Leibniz , Thomas Hobbes y René Descartes exploraron la posibilidad de que todo pensamiento racional pudiera hacerse tan sistemático como el álgebra o la geometría. [41] Hobbes escribió en Leviatán : "Porque la razón ... no es nada más que cálculo , es decir, sumar y restar". [42] Leibniz imaginó un lenguaje universal de razonamiento, la characteria universalis , que reduciría la argumentación al cálculo de modo que "no habría más necesidad de disputa entre dos filósofos que entre dos contables. Porque bastaría con tomar sus lápices en la mano, bajarlos a sus pizarras, y decirse el uno al otro (con un amigo como testigo, si así lo deseaban): Calculemos ". [43] Estos filósofos habían comenzado a articular la hipótesis del sistema de símbolos físicos que se convertiría en la fe rectora de la investigación de la IA.

El estudio de la lógica matemática proporcionó el avance esencial que hizo que la inteligencia artificial pareciera plausible. Las bases habían sido establecidas por obras como Las leyes del pensamiento de Boole y Begriffsschrift de Frege . [44] Basándose en el sistema de Frege , Russell y Whitehead presentaron un tratamiento formal de los fundamentos de las matemáticas en su obra maestra, los Principia Mathematica en 1913. Inspirado por el éxito de Russell , David Hilbert desafió a los matemáticos de los años 1920 y 1930 a responder a esta pregunta fundamental: "¿se puede formalizar todo el razonamiento matemático?" [36] Su pregunta fue respondida por la prueba de incompletitud de Gödel , [45] la máquina de Turing [45] y el cálculo Lambda de Church . [a]

Fotografía del ejército de EE. UU. del ENIAC en la Escuela Moore de Ingeniería Eléctrica [47]

Su respuesta fue sorprendente en dos sentidos. En primer lugar, demostraron que, de hecho, había límites a lo que la lógica matemática podía lograr. Pero en segundo lugar (y más importante para la IA), su trabajo sugería que, dentro de esos límites, cualquier forma de razonamiento matemático podía mecanizarse. La tesis de Church-Turing implicaba que un dispositivo mecánico, que mezclara símbolos tan simples como 0 y 1 , podía imitar cualquier proceso concebible de deducción matemática. [45] La idea clave fue la máquina de Turing , una construcción teórica simple que capturaba la esencia de la manipulación abstracta de símbolos. [48] Esta invención inspiraría a un puñado de científicos a comenzar a discutir la posibilidad de máquinas pensantes.

Ciencias de la Computación

Las máquinas calculadoras fueron diseñadas o construidas en la antigüedad y a lo largo de la historia por muchas personas, entre ellas Gottfried Leibniz , [38] [49] Joseph Marie Jacquard , [50] Charles Babbage , [50] [51] Percy Ludgate , [52] Leonardo Torres Quevedo , [53] Vannevar Bush , [54] y otros. Ada Lovelace especuló que la máquina de Babbage era "una máquina pensante o ... de razonamiento", pero advirtió que "es deseable protegerse contra la posibilidad de que surjan ideas exageradas en cuanto a los poderes" de la máquina. [55] [56]

Las primeras computadoras modernas fueron las máquinas masivas de la Segunda Guerra Mundial (como la Z3 de Konrad Zuse , la Heath Robinson y Colossus de Alan Turing , la ABC de Atanasoff y Berry y la ENIAC de la Universidad de Pensilvania ). [57] La ​​ENIAC se basó en los fundamentos teóricos establecidos por Alan Turing y desarrollados por John von Neumann , [58] y resultó ser la más influyente. [57]

Nacimiento de la inteligencia artificial (1941-56)

El IBM 702 : un ordenador utilizado por la primera generación de investigadores en IA.

Las primeras investigaciones sobre máquinas pensantes se inspiraron en una confluencia de ideas que se hicieron predominantes a finales de los años 30, 40 y principios de los 50. Investigaciones recientes en neurología habían demostrado que el cerebro era una red eléctrica de neuronas que se activaban en pulsos de todo o nada. La cibernética de Norbert Wiener describía el control y la estabilidad en las redes eléctricas. La teoría de la información de Claude Shannon describía señales digitales (es decir, señales de todo o nada). La teoría de la computación de Alan Turing mostraba que cualquier forma de computación podía describirse digitalmente. La estrecha relación entre estas ideas sugería que podría ser posible construir un "cerebro electrónico".

En las décadas de 1940 y 1950, un puñado de científicos de diversos campos (matemáticas, psicología, ingeniería, economía y ciencias políticas) exploraron varias direcciones de investigación que serían vitales para la investigación posterior en IA. [59] Alan Turing fue una de las primeras personas en investigar seriamente la posibilidad teórica de la "inteligencia de las máquinas". [60] El campo de la " investigación en inteligencia artificial " se fundó como disciplina académica en 1956. [61]

Prueba de Turing [62]

Prueba de Turing

En 1950 Turing publicó un artículo histórico " Computing Machinery and Intelligence ", en el que especuló sobre la posibilidad de crear máquinas que piensen. [63] [b] En el artículo, señaló que el "pensamiento" es difícil de definir e ideó su famoso Test de Turing : si una máquina pudiera mantener una conversación (a través de un teleimpresor ) que fuera indistinguible de una conversación con un ser humano, entonces era razonable decir que la máquina estaba "pensando". [64] Esta versión simplificada del problema le permitió a Turing argumentar convincentemente que una "máquina pensante" era al menos plausible y el artículo respondió a todas las objeciones más comunes a la proposición. [65] El Test de Turing fue la primera propuesta seria en la filosofía de la inteligencia artificial .

Redes neuronales artificiales

Walter Pitts y Warren McCulloch analizaron redes de neuronas artificiales idealizadas y mostraron cómo podrían realizar funciones lógicas simples en 1943. Fueron los primeros en describir lo que los investigadores posteriores llamarían una red neuronal . [66] El artículo estuvo influenciado por el artículo de Turing ' On Computable Numbers ' de 1936 que usaba 'neuronas' booleanas de dos estados similares, pero fue el primero en aplicarlo a la función neuronal. [60] Uno de los estudiantes inspirados por Pitts y McCulloch fue Marvin Minsky , quien era un estudiante de posgrado de 24 años en ese momento. En 1951, Minsky y Dean Edmonds construyeron la primera máquina de red neuronal, el SNARC . [67] Minsky más tarde se convertiría en uno de los líderes e innovadores más importantes en IA.

Robots cibernéticos

Los robots experimentales, como las tortugas de W. Grey Walter y la Bestia de Johns Hopkins , se construyeron en la década de 1950. Estas máquinas no utilizaban computadoras, electrónica digital ni razonamiento simbólico; estaban controladas completamente por circuitos analógicos. [68]

IA del juego

En 1951, utilizando la máquina Ferranti Mark 1 de la Universidad de Manchester , Christopher Strachey escribió un programa de damas [69] y Dietrich Prinz escribió uno para ajedrez. [70] El programa de damas de Arthur Samuel , tema de su artículo de 1959 "Algunos estudios sobre aprendizaje automático utilizando el juego de damas", finalmente logró la habilidad suficiente para desafiar a un aficionado respetable. [71] El programa de Samuel fue uno de los primeros usos de lo que más tarde se llamaría aprendizaje automático . [72] La IA de juegos continuaría siendo utilizada como una medida de progreso en IA a lo largo de su historia.

El razonamiento simbólico y el teórico de la lógica

Herbert Simon (izquierda) en una partida de ajedrez contra Allen Newell , alrededor de  1958

Cuando a mediados de los años cincuenta se hizo posible el acceso a las computadoras digitales , algunos científicos reconocieron instintivamente que una máquina que pudiera manipular números también podía manipular símbolos y que la manipulación de símbolos bien podría ser la esencia del pensamiento humano. Se trataba de un nuevo enfoque para crear máquinas pensantes. [73] [74]

En 1955, Allen Newell y el futuro premio Nobel Herbert A. Simon crearon el " Teórico de la lógica ", con la ayuda de JC Shaw . El programa acabaría demostrando 38 de los primeros 52 teoremas de los Principia Mathematica de Russell y Whitehead , y encontraría pruebas nuevas y más elegantes para algunos de ellos. [75] Simon dijo que habían "resuelto el venerable problema mente/cuerpo , explicando cómo un sistema compuesto de materia puede tener las propiedades de la mente". [76] [c] El paradigma de razonamiento simbólico que introdujeron dominaría la investigación y la financiación de la IA hasta mediados de los años 90, además de inspirar la revolución cognitiva .

Taller de Dartmouth

El taller de Dartmouth de 1956 fue un evento fundamental que marcó el inicio formal de la IA como disciplina académica. [61] Fue organizado por Marvin Minsky y John McCarthy , con el apoyo de dos científicos de alto nivel, Claude Shannon y Nathan Rochester de IBM . La propuesta para la conferencia declaró que tenían la intención de probar la afirmación de que "cada aspecto del aprendizaje o cualquier otra característica de la inteligencia puede describirse con tanta precisión que se puede hacer que una máquina lo simule". [77] [d] El término "Inteligencia Artificial" fue introducido por John McCarthy en el taller. [e] Los participantes incluyeron a Ray Solomonoff , Oliver Selfridge , Trenchard More , Arthur Samuel , Allen Newell y Herbert A. Simon , todos los cuales crearían programas importantes durante las primeras décadas de la investigación de la IA. [83] [f] En el taller, Newell y Simon presentaron el "Teórico de la lógica". [84] El taller fue el momento en el que la IA obtuvo su nombre, su misión, su primer gran éxito y sus actores clave, y es ampliamente considerado como el nacimiento de la IA. [g]

Revolución cognitiva

En el otoño de 1956, Newell y Simon también presentaron el Logic Theorist en una reunión del Grupo de Interés Especial en Teoría de la Información en el Instituto Tecnológico de Massachusetts (MIT). En la misma reunión, Noam Chomsky discutió su gramática generativa y George Miller describió su artículo de referencia " El número mágico siete, más o menos dos ". Miller escribió: "Salí del simposio con una convicción, más intuitiva que racional, de que la psicología experimental, la lingüística teórica y la simulación por computadora de los procesos cognitivos eran todas piezas de un todo más grande". [86] [57]

Esta reunión fue el comienzo de la " revolución cognitiva ", un cambio de paradigma interdisciplinario en psicología, filosofía, informática y neurociencia. Inspiró la creación de los subcampos de la inteligencia artificial simbólica , la lingüística generativa , la ciencia cognitiva , la psicología cognitiva , la neurociencia cognitiva y las escuelas filosóficas del computacionalismo y el funcionalismo . Todos estos campos utilizaban herramientas relacionadas para modelar la mente y los resultados descubiertos en un campo eran relevantes para los demás.

El enfoque cognitivo permitió a los investigadores considerar "objetos mentales" como pensamientos, planes, objetivos, hechos o recuerdos, a menudo analizados mediante símbolos de alto nivel en redes funcionales. Estos objetos habían sido prohibidos por ser "inobservables" por paradigmas anteriores como el conductismo . [h] Los objetos mentales simbólicos se convertirían en el principal foco de investigación y financiación de la IA durante las siguientes décadas.

Primeros éxitos (1956-1974)

Los programas desarrollados en los años posteriores al Taller de Dartmouth fueron, para la mayoría de la gente, sencillamente "asombrosos": [i] las computadoras resolvían problemas de álgebra, demostraban teoremas de geometría y aprendían a hablar inglés. Pocos en ese momento habrían creído que semejante comportamiento "inteligente" por parte de las máquinas fuera posible. [90] [91] [89] Los investigadores expresaron un intenso optimismo en privado y en la prensa, prediciendo que se construiría una máquina completamente inteligente en menos de 20 años. [92] Agencias gubernamentales como la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA, entonces conocida como "ARPA") invirtieron dinero en el campo. [93] Se establecieron laboratorios de Inteligencia Artificial en varias universidades británicas y estadounidenses a finales de los años 1950 y principios de los 1960. [60]

Aproches

A finales de los años 50 y en los años 60 hubo muchos programas exitosos y nuevas direcciones. Entre los más influyentes se encuentran los siguientes:

Muchos de los primeros programas de IA utilizaban el mismo algoritmo básico . Para alcanzar un objetivo (como ganar un juego o demostrar un teorema), avanzaban paso a paso hacia él (haciendo un movimiento o una deducción) como si estuvieran buscando en un laberinto, retrocediendo cada vez que llegaban a un callejón sin salida. [94] La principal dificultad era que, para muchos problemas, el número de caminos posibles a través del "laberinto" era astronómico (una situación conocida como " explosión combinatoria "). Los investigadores reducirían el espacio de búsqueda utilizando heurísticas que eliminarían los caminos que tenían pocas probabilidades de conducir a una solución. [95]

Newell y Simon intentaron capturar una versión general de este algoritmo en un programa llamado " General Problem Solver ". [96] [97] Otros programas de "búsqueda" fueron capaces de realizar tareas impresionantes como resolver problemas de geometría y álgebra, como el Geometry Theorem Prover de Herbert Gelernter (1958) [98] y Symbolic Automatic Integrator (SAINT), escrito por el estudiante de Minsky, James Slagle, en 1961. [99] [100] Otros programas buscaban a través de objetivos y subobjetivos para planificar acciones, como el sistema STRIPS desarrollado en Stanford para controlar el comportamiento del robot Shakey . [101]

Lenguaje natural

Un ejemplo de una red semántica

Un objetivo importante de la investigación en IA es permitir que las computadoras se comuniquen en lenguajes naturales como el inglés. Un éxito temprano fue el programa STUDENT de Daniel Bobrow , que podía resolver problemas de álgebra de secundaria. [102]

Una red semántica representa conceptos (por ejemplo, "casa", "puerta") como nodos y relaciones entre conceptos como vínculos entre los nodos (por ejemplo, "tiene un"). El primer programa de IA que utilizó una red semántica fue escrito por Ross Quillian [103] y la versión más exitosa (y controvertida) fue la teoría de dependencia conceptual de Roger Schank . [104]

El ELIZA de Joseph Weizenbaum podía mantener conversaciones tan realistas que a veces los usuarios se engañaban y creían que se estaban comunicando con un ser humano y no con un programa informático (véase el efecto ELIZA ). Pero, de hecho, ELIZA simplemente daba una respuesta predefinida o repetía lo que se le decía, reformulando su respuesta con algunas reglas gramaticales. ELIZA fue el primer chatbot . [105] [106]

Micromundos

A finales de los años 60, Marvin Minsky y Seymour Papert , del Laboratorio de IA del MIT, propusieron que la investigación en IA debería centrarse en situaciones artificialmente simples conocidas como micromundos. [j] Señalaron que en ciencias exitosas como la física, los principios básicos a menudo se entendían mejor utilizando modelos simplificados como planos sin fricción o cuerpos perfectamente rígidos. Gran parte de la investigación se centró en un " mundo de bloques ", que consiste en bloques de colores de varias formas y tamaños dispuestos sobre una superficie plana. [107]

Este paradigma condujo al trabajo innovador en visión artificial por parte de Gerald Sussman , Adolfo Guzmán, David Waltz (quien inventó la " propagación de restricciones "), y especialmente Patrick Winston . Al mismo tiempo, Minsky y Papert construyeron un brazo robótico que podía apilar bloques, dando vida al mundo de los bloques. El SHRDLU de Terry Winograd podía comunicarse en oraciones en inglés común sobre el micromundo, planificar operaciones y ejecutarlas. [107]

Perceptrones y redes neuronales tempranas

En la década de 1960, la financiación se dirigió principalmente a laboratorios que investigaban IA simbólica , aunque varias personas todavía realizaban investigaciones en redes neuronales.

El perceptrón Mark 1.

El perceptrón , una red neuronal de una sola capa, fue introducido en 1958 por Frank Rosenblatt [108] (quien había sido compañero de escuela de Marvin Minsky en la Bronx High School of Science ). [109] Como la mayoría de los investigadores de IA, era optimista sobre su poder y predijo que un perceptrón "con el tiempo podría aprender, tomar decisiones y traducir idiomas". [110] Rosenblatt fue financiado principalmente por la Oficina de Investigación Naval . [111]

Bernard Widrow y su estudiante Ted Hoff construyeron ADALINE (1960) y MADALINE (1962), que tenían hasta 1000 pesos ajustables. [112] [113] Un grupo en el Instituto de Investigación de Stanford dirigido por Charles A. Rosen y Alfred E. (Ted) Brain construyó dos máquinas de redes neuronales llamadas MINOS I (1960) y II (1963), principalmente financiadas por el Cuerpo de Señales del Ejército de los EE . UU. MINOS II [114] tenía 6600 pesos ajustables, [115] y estaba controlado con una computadora SDS 910 en una configuración llamada MINOS III (1968), que podía clasificar símbolos en mapas del ejército y reconocer caracteres impresos a mano en hojas de codificación Fortran . [116] [117] La ​​mayor parte de la investigación de redes neuronales durante este período temprano implicó la construcción y el uso de hardware a medida, en lugar de simulación en computadoras digitales. [k]

Sin embargo, en parte debido a la falta de resultados y en parte debido a la competencia de la investigación de IA simbólica , el proyecto MINOS se quedó sin financiación en 1966. Rosenblatt no logró asegurar financiación continua en la década de 1960. [118] En 1969, la investigación se detuvo repentinamente con la publicación del libro de Minsky y Papert de 1969 Perceptrons . [119] Sugirió que existían graves limitaciones a lo que los perceptrones podían hacer y que las predicciones de Rosenblatt habían sido extremadamente exageradas. El efecto del libro fue que prácticamente no se financió ninguna investigación en conexionismo durante 10 años. [120] La competencia por la financiación gubernamental terminó con la victoria de los enfoques de IA simbólica sobre las redes neuronales. [117] [118]

Minsky (que había trabajado en SNARC ) se convirtió en un firme opositor a la IA conexionista pura. Widrow (que había trabajado en ADALINE ) se volcó al procesamiento adaptativo de señales. El grupo SRI (que trabajó en MINOS) se volcó a la IA simbólica y la robótica. [117] [118]

El principal problema era la incapacidad de entrenar redes multicapa (ya se habían utilizado versiones de retropropagación en otros campos, pero estos investigadores no las conocían). [121] [120] La comunidad de IA se percató de la retropropagación en los años 80, [122] y, en el siglo XXI, las redes neuronales tendrían un enorme éxito, cumpliendo todas las predicciones optimistas de Rosenblatt. Sin embargo, Rosenblatt no vivió para verlo, ya que murió en un accidente de barco en 1971. [123]

Optimismo

La primera generación de investigadores de IA hizo estas predicciones sobre su trabajo:

Financiación

En junio de 1963, el MIT recibió una subvención de 2,2 millones de dólares de la recién creada Agencia de Proyectos de Investigación Avanzada (ARPA, más tarde conocida como DARPA ). El dinero se utilizó para financiar el proyecto MAC , que absorbió al "Grupo de IA" fundado por Minsky y McCarthy cinco años antes. DARPA continuó proporcionando 3 millones de dólares cada año hasta los años 70. [130] DARPA hizo subvenciones similares al programa de Newell y Simon en la Universidad Carnegie Mellon y al Laboratorio de IA de la Universidad de Stanford , fundado por John McCarthy en 1963. [131] Otro laboratorio de IA importante fue establecido en la Universidad de Edimburgo por Donald Michie en 1965. [132] Estas cuatro instituciones seguirían siendo los principales centros de investigación y financiación de IA en el ámbito académico durante muchos años. [133] [m]

El dinero se entregó con pocas condiciones: JCR Licklider , entonces director de ARPA, creía que su organización debía "financiar a personas, no a proyectos" y permitía a los investigadores seguir cualquier dirección que pudiera interesarles. [135] Esto creó una atmósfera de libertad de acción en el MIT que dio origen a la cultura hacker , [136] pero este enfoque de "no intervención" no duró.

Primer invierno de IA (1974-1980)

En la década de 1970, la IA fue objeto de críticas y reveses financieros. Los investigadores de IA no habían logrado apreciar la dificultad de los problemas a los que se enfrentaban. Su tremendo optimismo había generado expectativas públicas imposibles de alcanzar, y cuando los resultados prometidos no se materializaron, la financiación destinada a la IA se redujo drásticamente. [137] La ​​falta de éxito indicó que las técnicas que utilizaban los investigadores de IA en ese momento eran insuficientes para lograr sus objetivos. [138] [139]

Sin embargo, estos reveses no afectaron el crecimiento y el progreso del campo. Los recortes de financiación solo afectaron a un puñado de laboratorios importantes [140] y las críticas fueron en gran medida ignoradas. [141] El interés público general en el campo continuó creciendo, [140] el número de investigadores aumentó drásticamente, [140] y se exploraron nuevas ideas en programación lógica , razonamiento de sentido común y muchas otras áreas. El historiador Thomas Haigh argumentó en 2023 que no había invierno, [140] y el investigador de IA Nils Nilsson describió este período como el momento más "emocionante" para trabajar en IA. [142]

Problemas

A principios de los años setenta, las capacidades de los programas de IA eran limitadas. Incluso los más impresionantes sólo podían manejar versiones triviales de los problemas que se suponía que debían resolver; [n] todos los programas eran, en cierto sentido, "juguetes". [144] Los investigadores de IA habían comenzado a encontrarse con varios límites que sólo se superarían décadas después, y otros que todavía obstaculizan el campo en la década de 2020:

Disminución de la financiación

Las agencias que financiaban la investigación en IA, como el gobierno británico , DARPA y el Consejo Nacional de Investigación (NRC), se sintieron frustradas por la falta de progreso y finalmente cortaron casi toda la financiación para la investigación en IA no dirigida. El patrón comenzó en 1966 cuando el informe del Comité Asesor de Procesamiento Automático del Lenguaje (ALPAC) criticó los esfuerzos de traducción automática. Después de gastar $ 20 millones, el NRC terminó todo apoyo. [154] En 1973, el informe Lighthill sobre el estado de la investigación en IA en el Reino Unido criticó el fracaso de la IA para lograr sus "grandiosos objetivos" y condujo al desmantelamiento de la investigación en IA en ese país. [155] (El informe mencionó específicamente el problema de la explosión combinatoria como una razón para las fallas de la IA). [139] [143] [s] DARPA estaba profundamente decepcionada con los investigadores que trabajaban en el programa de Investigación de Comprensión del Habla en CMU y canceló una subvención anual de $ 3 millones. [157] [t]

Hans Moravec atribuyó la crisis a las predicciones poco realistas de sus colegas. "Muchos investigadores se vieron atrapados en una red de exageraciones cada vez mayores". [158] [u] Sin embargo, había otro problema: desde la aprobación de la Enmienda Mansfield en 1969, la DARPA había estado bajo una presión cada vez mayor para financiar "investigación directa orientada a una misión, en lugar de investigación básica no dirigida". La financiación para la exploración creativa y libre que se había llevado a cabo en los años 60 no provendría de la DARPA, que en su lugar dirigió el dinero a proyectos específicos con objetivos claros, como tanques autónomos y sistemas de gestión de batalla . [159] [v]

Los principales laboratorios (MIT, Stanford, CMU y Edimburgo) habían estado recibiendo un generoso apoyo de sus gobiernos y, cuando se les retiró, estos fueron los únicos lugares que se vieron seriamente afectados por los recortes presupuestarios. Los miles de investigadores fuera de estas instituciones y los muchos miles más que se estaban incorporando al campo no se vieron afectados. [140]

Críticas filosóficas y éticas

Varios filósofos tenían fuertes objeciones a las afirmaciones hechas por los investigadores de IA. Uno de los primeros fue John Lucas , quien argumentó que el teorema de incompletitud de Gödel mostraba que un sistema formal (como un programa de computadora) nunca podría ver la verdad de ciertas afirmaciones, mientras que un ser humano sí podría. [161] Hubert Dreyfus ridiculizó las promesas incumplidas de la década de 1960 y criticó las suposiciones de la IA, argumentando que el razonamiento humano en realidad involucraba muy poco "procesamiento de símbolos" y una gran cantidad de " saber cómo " instintivo , inconsciente y corporizado . [w] [163] El argumento de la habitación china de John Searle , presentado en 1980, intentó demostrar que no se podía decir que un programa "entendiera" los símbolos que usa (una cualidad llamada " intencionalidad "). Si los símbolos no tienen significado para la máquina, argumentó Searle, entonces la máquina no puede describirse como "pensante". [164]

Los investigadores de IA no se tomaron en serio estas críticas. Problemas como la intratabilidad y el conocimiento de sentido común parecían mucho más inmediatos y serios. No estaba claro qué diferencia hacían el " saber cómo " o la " intencionalidad " en un programa informático real. Minsky , del MIT, dijo de Dreyfus y Searle que "ellos no entienden y deberían ser ignorados". [165] Dreyfus, que también enseñaba en el MIT , fue tratado con frialdad: más tarde dijo que los investigadores de IA "no se atrevieron a ser vistos almorzando conmigo". [166] Joseph Weizenbaum , el autor de ELIZA , también fue un crítico abierto de las posiciones de Dreyfus, pero "dejó en claro deliberadamente que [el trato que sus colegas de IA dieron a Dreyfus] no era la forma de tratar a un ser humano", [x] y fue poco profesional e infantil. [168]

Weizenbaum empezó a tener serias dudas éticas sobre la IA cuando Kenneth Colby escribió un "programa informático que puede llevar a cabo un diálogo psicoterapéutico " basado en ELIZA. [169] [170] [y] Weizenbaum se sintió perturbado por el hecho de que Colby viera un programa sin mente como una herramienta terapéutica seria. Comenzó una disputa, y la situación no mejoró cuando Colby no le dio crédito a Weizenbaum por su contribución al programa. En 1976, Weizenbaum publicó Computer Power and Human Reason , en el que sostenía que el mal uso de la inteligencia artificial tiene el potencial de devaluar la vida humana. [172]

Lógica en Stanford, CMU y Edimburgo

La lógica fue introducida en la investigación de IA ya en 1958, por John McCarthy en su propuesta Advice Taker . [173] [98] En 1963, J. Alan Robinson había descubierto un método simple para implementar la deducción en computadoras, el algoritmo de resolución y unificación . [98] Sin embargo, las implementaciones sencillas, como las que intentaron McCarthy y sus estudiantes a fines de la década de 1960, eran especialmente intratables: los programas requerían cantidades astronómicas de pasos para demostrar teoremas simples. [173] [174] Un enfoque más fructífero para la lógica fue desarrollado en la década de 1970 por Robert Kowalski en la Universidad de Edimburgo , y pronto esto condujo a la colaboración con los investigadores franceses Alain Colmerauer y Philippe Roussel  [fr] quienes crearon el exitoso lenguaje de programación lógica Prolog . [175] Prolog usa un subconjunto de lógica ( cláusulas Horn , estrechamente relacionadas con " reglas " y " reglas de producción ") que permiten un cálculo manejable. Las reglas seguirían siendo influyentes, proporcionando una base para los sistemas expertos de Edward Feigenbaum y el trabajo continuo de Allen Newell y Herbert A. Simon que conduciría a Soar y sus teorías unificadas de la cognición . [176]

Los críticos del enfoque lógico señalaron, como lo había hecho Dreyfus , que los seres humanos rara vez utilizaban la lógica cuando resolvían problemas. Los experimentos de psicólogos como Peter Wason , Eleanor Rosch , Amos Tversky , Daniel Kahneman y otros proporcionaron pruebas de ello. [z] McCarthy respondió que lo que hacen las personas es irrelevante. Argumentó que lo que realmente se necesita son máquinas que puedan resolver problemas, no máquinas que piensen como las personas. [aa]

El enfoque “antilógico” del MIT

Entre los críticos del enfoque de McCarthy se encontraban sus colegas del MIT en todo el país . Marvin Minsky , Seymour Papert y Roger Schank estaban tratando de resolver problemas como "comprensión de historias" y "reconocimiento de objetos" que requerían que una máquina pensara como una persona. Para usar conceptos ordinarios como "silla" o "restaurante", tenían que hacer las mismas suposiciones ilógicas que la gente normalmente hace. Desafortunadamente, conceptos imprecisos como estos son difíciles de representar en lógica. El MIT eligió en cambio centrarse en escribir programas que resolvieran una tarea dada sin usar definiciones abstractas de alto nivel o teorías generales de la cognición, y medir el rendimiento mediante pruebas iterativas, en lugar de argumentos de primeros principios. Schank describió sus enfoques "antilógicos" como desaliñados , en oposición al paradigma ordenado utilizado por McCarthy , Kowalski , Feigenbaum , Newell y Simon . [177] [ab]

En 1975, en un artículo seminal, Minsky señaló que muchos de sus colegas investigadores estaban usando el mismo tipo de herramienta: un marco que captura todas nuestras suposiciones de sentido común sobre algo. Por ejemplo, si usamos el concepto de un pájaro, hay una constelación de hechos que vienen inmediatamente a la mente: podríamos suponer que vuela, come gusanos, etc. (ninguno de los cuales es cierto para todos los pájaros). Minsky asoció estas suposiciones con la categoría general y podrían ser heredadas por los marcos para subcategorías e individuos, o anuladas según fuera necesario. Llamó a estas estructuras marcos . Schank usó una versión de marcos que llamó " scripts " para responder con éxito preguntas sobre cuentos cortos en inglés. [178] Los marcos eventualmente serían ampliamente utilizados en ingeniería de software bajo el nombre de programación orientada a objetos .

Los lógicos aceptaron el desafío. Pat Hayes afirmó que "la mayoría de los 'marcos' son simplemente una nueva sintaxis para partes de la lógica de primer orden", pero señaló que "hay uno o dos detalles aparentemente menores que, sin embargo, dan muchos problemas, especialmente los valores predeterminados". [179]

Ray Reiter admitió que "las lógicas convencionales, como la lógica de primer orden, carecen del poder expresivo para representar adecuadamente el conocimiento requerido para razonar por defecto". [180] Propuso ampliar la lógica de primer orden con un supuesto de mundo cerrado de que una conclusión se cumple (por defecto) si no se puede demostrar su contrario. Mostró cómo tal supuesto corresponde al supuesto de sentido común hecho en el razonamiento con marcos. También mostró que tiene su "equivalente procedimental" como negación como fracaso en Prolog . El supuesto de mundo cerrado, tal como lo formuló Reiter, "no es una noción de primer orden. (Es una meta-noción.)" [180] Sin embargo, Keith Clark mostró que la negación como fracaso finito puede entenderse como razonamiento implícito con definiciones en lógica de primer orden que incluyen un supuesto de nombre único de que diferentes términos denotan diferentes individuos. [181]

A finales de la década de 1970 y durante toda la década de 1980, se desarrollaron diversas lógicas y extensiones de la lógica de primer orden, tanto para la negación como para el error en la programación lógica como para el razonamiento por defecto en general. En conjunto, estas lógicas se conocen como lógicas no monótonas .

Auge (1980-1987)

En la década de 1980, las corporaciones de todo el mundo adoptaron una forma de programa de IA llamado " sistemas expertos " y el conocimiento se convirtió en el foco de la investigación convencional sobre IA. Los gobiernos proporcionaron financiación sustancial, como el proyecto informático de quinta generación de Japón y la Iniciativa de Computación Estratégica de Estados Unidos . "En general, la industria de la IA experimentó un auge desde unos pocos millones de dólares en 1980 a miles de millones de dólares en 1988". [122]

Los sistemas expertos se utilizan ampliamente

Un sistema experto es un programa que responde preguntas o resuelve problemas sobre un dominio específico de conocimiento, utilizando reglas lógicas que se derivan del conocimiento de los expertos. [182] Los primeros ejemplos fueron desarrollados por Edward Feigenbaum y sus estudiantes. Dendral , iniciado en 1965, identificó compuestos a partir de lecturas de espectrómetro. [183] ​​[120] MYCIN , desarrollado en 1972, diagnosticó enfermedades infecciosas de la sangre. [122] Demostraron la viabilidad del enfoque.

Los sistemas expertos se restringieron a un pequeño dominio de conocimiento específico (evitando así el problema del conocimiento de sentido común ) [120] y su diseño simple hizo que fuera relativamente fácil construir programas y luego modificarlos una vez que estaban en funcionamiento. En general, los programas demostraron ser útiles : algo que la IA no había podido lograr hasta ese momento. [184]

En 1980, se completó en CMU un sistema experto llamado R1 para Digital Equipment Corporation . Fue un éxito enorme: le estaba ahorrando a la compañía 40 millones de dólares anuales en 1986. [185] Corporaciones de todo el mundo comenzaron a desarrollar e implementar sistemas expertos y en 1985 estaban gastando más de mil millones de dólares en IA, la mayor parte en departamentos de IA internos. [186] Surgió una industria para apoyarlos, incluidas empresas de hardware como Symbolics y Lisp Machines y empresas de software como IntelliCorp y Aion . [187]

Aumenta la financiación gubernamental

En 1981, el Ministerio de Comercio Internacional e Industria de Japón destinó 850 millones de dólares al proyecto de la quinta generación de ordenadores . Sus objetivos eran escribir programas y construir máquinas que pudieran mantener conversaciones, traducir idiomas, interpretar imágenes y razonar como seres humanos. [188] Para gran disgusto de los scruffies , inicialmente eligieron Prolog como el lenguaje informático principal para el proyecto. [189]

Otros países respondieron con nuevos programas propios. El Reino Unido inició el proyecto Alvey , de 350 millones de libras esterlinas. [190] Un consorcio de empresas estadounidenses formó la Microelectronics and Computer Technology Corporation (o "MCC") para financiar proyectos a gran escala en IA y tecnología de la información. [191] [190] La DARPA también respondió, fundando la Strategic Computing Initiative y triplicando su inversión en IA entre 1984 y 1988. [192] [193]

Revolución del conocimiento

El poder de los sistemas expertos provenía del conocimiento experto que contenían. Formaban parte de una nueva dirección en la investigación de la IA que había ido ganando terreno a lo largo de los años 70. "Los investigadores de la IA empezaban a sospechar (de mala gana, porque violaba el canon científico de la parsimonia ) que la inteligencia bien podría basarse en la capacidad de utilizar grandes cantidades de conocimiento diverso de diferentes maneras", [194] escribe Pamela McCorduck . "La gran lección de los años 70 fue que el comportamiento inteligente dependía en gran medida de manejar el conocimiento, a veces un conocimiento bastante detallado, de un dominio en el que se encontraba una tarea determinada". [195] Los sistemas basados ​​en el conocimiento y la ingeniería del conocimiento se convirtieron en un foco importante de la investigación de la IA en los años 80. [196] Se esperaba que las grandes bases de datos resolverían el problema del conocimiento de sentido común y proporcionarían el apoyo que requería el razonamiento de sentido común .

En la década de 1980, algunos investigadores intentaron atacar directamente el problema del conocimiento del sentido común , creando una enorme base de datos que contuviera todos los hechos mundanos que conoce la persona promedio. Douglas Lenat , que inició una base de datos llamada Cyc , sostuvo que no hay atajos: la única manera de que las máquinas conozcan el significado de los conceptos humanos es enseñándoles, un concepto a la vez, a mano. [197]

Nuevas direcciones en la década de 1980

Aunque la representación simbólica del conocimiento y el razonamiento lógico produjeron aplicaciones útiles en los años 80 y recibieron cantidades masivas de financiación, todavía no eran capaces de resolver problemas de percepción , robótica , aprendizaje y sentido común . Un pequeño número de científicos e ingenieros comenzaron a dudar de que el enfoque simbólico fuera suficiente para estas tareas y desarrollaron otros enfoques, como el " conexionismo ", la robótica , la computación "blanda" y el aprendizaje por refuerzo . Nils Nilsson llamó a estos enfoques "subsimbólicos".

El resurgimiento de las redes neuronales: el "conexionismo"

Una red de Hopfield con cuatro nodos

En 1982, el físico John Hopfield fue capaz de demostrar que una forma de red neuronal (ahora llamada " red de Hopfield ") podía aprender y procesar información, y converger demostrablemente después de un tiempo suficiente bajo cualquier condición fija. Fue un gran avance, ya que anteriormente se pensaba que las redes no lineales, en general, evolucionarían de manera caótica. [198] Casi al mismo tiempo, Geoffrey Hinton y David Rumelhart popularizaron un método para entrenar redes neuronales llamado " retropropagación ". [ac] Estos dos desarrollos ayudaron a revivir la exploración de redes neuronales artificiales . [122] [199]

Las redes neuronales, junto con otros modelos similares, recibieron una amplia atención después de la publicación en 1986 de Procesamiento distribuido paralelo , una colección de artículos en dos volúmenes editados por Rumelhart y el psicólogo James McClelland . El nuevo campo fue bautizado como " conexionismo " y hubo un considerable debate entre los defensores de la IA simbólica, los "conexionistas". [122] Hinton llamó a los símbolos el " éter luminoso de la IA", es decir, un modelo de inteligencia inviable y engañoso. [122]

En 1990, Yann LeCun, de Bell Labs, utilizó redes neuronales convolucionales para reconocer dígitos escritos a mano. El sistema se utilizó ampliamente en los años 90 para leer códigos postales y cheques personales. Esta fue la primera aplicación realmente útil de las redes neuronales. [200] [201]

Robótica y razón encarnada

Rodney Brooks , Hans Moravec y otros argumentaron que, para demostrar inteligencia real, una máquina necesita tener un cuerpo : necesita percibir, moverse, sobrevivir y lidiar con el mundo. [202] Las habilidades sensoriomotoras son esenciales para habilidades de nivel superior, como el razonamiento de sentido común . No se pueden implementar de manera eficiente utilizando el razonamiento simbólico abstracto, por lo que la IA debería resolver los problemas de percepción, movilidad, manipulación y supervivencia sin utilizar la representación simbólica en absoluto. Estos investigadores de robótica abogaron por construir inteligencia "de abajo hacia arriba". [ad]

Un precursor de esta idea fue David Marr , que había llegado al MIT a finales de los años 1970 tras una trayectoria exitosa en neurociencia teórica para dirigir el grupo que estudiaba la visión . Rechazó todos los enfoques simbólicos ( tanto la lógica de McCarthy como los marcos de Minsky ), argumentando que la IA necesitaba comprender la maquinaria física de la visión desde abajo hacia arriba antes de que se llevara a cabo cualquier procesamiento simbólico. (El trabajo de Marr se vería interrumpido por la leucemia en 1980.) [204]

En su artículo de 1990 "Los elefantes no juegan al ajedrez", [205] el investigador en robótica Brooks apuntó directamente a la hipótesis del sistema de símbolos físicos , argumentando que los símbolos no siempre son necesarios ya que "el mundo es su propio mejor modelo. Siempre está exactamente actualizado. Siempre tiene todos los detalles que hay que conocer. El truco es percibirlo apropiadamente y con la suficiente frecuencia". [206]

En las décadas de 1980 y 1990, muchos científicos cognitivos también rechazaron el modelo de procesamiento de símbolos de la mente y argumentaron que el cuerpo era esencial para el razonamiento, una teoría llamada la " tesis de la mente encarnada ". [207]

Computación blanda y razonamiento probabilístico

La computación blanda utiliza métodos que funcionan con información incompleta e imprecisa. No intentan dar respuestas lógicas y precisas, sino que dan resultados que sólo son "probablemente" correctos. Esto les permitió resolver problemas que los métodos simbólicos precisos no podían resolver. Los artículos de prensa a menudo afirmaban que estas herramientas podían "pensar como un ser humano". [208] [209]

El influyente libro de Judea Pearl de 1988 [210] introdujo la probabilidad y la teoría de la decisión en la IA. [211] La lógica difusa , desarrollada por Lofti Zadeh en los años 60, comenzó a usarse más ampliamente en la IA y la robótica. La computación evolutiva y las redes neuronales artificiales también manejan información imprecisa y se clasifican como "blandas". En los años 90 y principios de los 2000 se desarrollaron y pusieron en uso muchas otras herramientas de computación blanda, incluidas las redes bayesianas , [211] los modelos ocultos de Markov , [211] la teoría de la información y el modelado estocástico . Estas herramientas a su vez dependían de técnicas matemáticas avanzadas como la optimización clásica . Durante un tiempo en los años 1990 y principios de los 2000, estas herramientas blandas fueron estudiadas por un subcampo de la IA llamado " inteligencia computacional ". [212]

Aprendizaje por refuerzo

El aprendizaje por refuerzo [213] otorga a un agente una recompensa cada vez que realiza bien una acción deseada, y puede otorgar recompensas negativas (o “castigos”) cuando realiza una mala acción. Fue descrito en la primera mitad del siglo XX por psicólogos que utilizaban modelos animales, como Thorndike [ 214] [215] Pavlov [216] y Skinner [217] . En la década de 1950, Alan Turing [215] [218] y Arthur Samuels [215] previeron el papel del aprendizaje por refuerzo en la IA.

Richard Sutton y Andrew Barto dirigieron un programa de investigación exitoso e influyente a partir de 1972. Su colaboración revolucionó el estudio del aprendizaje de refuerzo y la toma de decisiones a lo largo de cuatro décadas. [219] [220] En 1988, Sutton describió el aprendizaje automático en términos de teoría de decisiones (es decir, el proceso de decisión de Markov ). Esto proporcionó al tema una base teórica sólida y acceso a un gran cuerpo de resultados teóricos desarrollados en el campo de la investigación de operaciones . [220]

También en 1988, Sutton y Barto desarrollaron el algoritmo de aprendizaje de “ diferencia temporal ”, donde el agente es recompensado solo cuando sus predicciones sobre el futuro muestran una mejora. Superó significativamente a los algoritmos anteriores. [221] El aprendizaje TD fue utilizado por Gerald Tesauro en 1992 en el programa TD-Gammon , que jugaba al backgammon tan bien como los mejores jugadores humanos. El programa aprendió el juego jugando contra sí mismo sin conocimiento previo. [222] En un caso interesante de convergencia interdisciplinaria, los neurólogos descubrieron en 1997 que el sistema de recompensa de dopamina en los cerebros también utiliza una versión del algoritmo de aprendizaje TD. [223] [ 224] [225] El aprendizaje TD se volvería muy influyente en el siglo XXI, utilizado tanto en AlphaGo como en AlphaZero . [226]

Busto: segundo invierno de IA

La fascinación de la comunidad empresarial por la IA aumentó y disminuyó en la década de 1980 siguiendo el patrón clásico de una burbuja económica . A medida que decenas de empresas fracasaban, la percepción en el mundo empresarial era que la tecnología no era viable. [227] El daño a la reputación de la IA duraría hasta el siglo XXI. Dentro del campo había poco acuerdo sobre las razones por las que la IA no logró cumplir el sueño de una inteligencia de nivel humano que había capturado la imaginación del mundo en la década de 1960. En conjunto, todos estos factores ayudaron a fragmentar la IA en subcampos competitivos centrados en problemas o enfoques particulares, a veces incluso bajo nuevos nombres que disfrazaban el pedigrí empañado de la "inteligencia artificial". [228]

Durante los siguientes 20 años, la IA proporcionó constantemente soluciones prácticas para problemas aislados específicos. A fines de la década de 1990, se estaba utilizando en toda la industria tecnológica, aunque un poco entre bastidores. El éxito se debió al aumento de la potencia informática , a la colaboración con otros campos (como la optimización matemática y la estadística ) y al uso de los más altos estándares de responsabilidad científica. En 2000, la IA había logrado algunos de sus objetivos más antiguos. El campo era a la vez más cauteloso y más exitoso que nunca.

Invierno de IA

El término " invierno de la IA " fue acuñado por investigadores que habían sobrevivido a los recortes de financiación de 1974 cuando comenzaron a preocuparse de que el entusiasmo por los sistemas expertos se había salido de control y que seguramente seguiría la decepción. [ae] Sus temores estaban bien fundados: a finales de los años 1980 y principios de los años 1990, la IA sufrió una serie de reveses financieros. [122]

El primer indicio de un cambio de clima fue el repentino colapso del mercado de hardware especializado en IA en 1987. Las computadoras de escritorio de Apple e IBM habían ido ganando velocidad y potencia de forma constante y en 1987 se volvieron más potentes que las máquinas Lisp más caras fabricadas por Symbolics y otros. Ya no había una buena razón para comprarlas. Una industria entera que valía 500 millones de dólares fue destruida de la noche a la mañana. [230]

Con el tiempo, los primeros sistemas expertos que tuvieron éxito, como XCON , resultaron demasiado costosos de mantener. Eran difíciles de actualizar, no podían aprender y eran " frágiles " (es decir, podían cometer errores grotescos cuando se les daban entradas inusuales). Los sistemas expertos demostraron ser útiles, pero solo en unos pocos contextos especiales. [231]

A fines de los años 1980, la Strategic Computing Initiative recortó la financiación a la IA "de manera profunda y brutal". La nueva dirección de la DARPA había decidido que la IA no era "la próxima ola" y destinó los fondos a proyectos que parecían tener más probabilidades de producir resultados inmediatos. [232]

En 1991, la impresionante lista de objetivos que se había trazado en 1981 para el Proyecto de Quinta Generación de Japón no se había cumplido. De hecho, algunos de ellos, como el de "mantener una conversación informal", no se lograrían hasta 40 años después. Como en el caso de otros proyectos de IA, las expectativas habían sido mucho mayores de lo que realmente era posible. [233] [af]

A finales de 1993, más de 300 empresas de IA habían cerrado, quebrado o habían sido adquiridas, lo que puso fin de manera efectiva a la primera ola comercial de IA. [235] En 1994, HP Newquist afirmó en The Brain Makers que "el futuro inmediato de la inteligencia artificial (en su forma comercial) parece depender en parte del éxito continuo de las redes neuronales". [235]

La IA tras bastidores

En la década de 1990, los algoritmos desarrollados originalmente por investigadores de IA comenzaron a aparecer como partes de sistemas más grandes. La IA había resuelto muchos problemas muy difíciles [ag] y sus soluciones demostraron ser útiles en toda la industria tecnológica, [236] [237] como la minería de datos , la robótica industrial , la logística, el reconocimiento de voz , [238] el software bancario, [239] el diagnóstico médico [239] y el motor de búsqueda de Google . [240] [241]

El campo de la IA recibió poco o ningún reconocimiento por estos éxitos en la década de 1990 y principios de la década de 2000. Muchas de las mayores innovaciones de la IA han quedado reducidas a la condición de un elemento más en el conjunto de herramientas de la ciencia informática. [242] Nick Bostrom explica: "Mucha IA de vanguardia se ha filtrado en aplicaciones generales, a menudo sin llamarse IA porque una vez que algo se vuelve lo suficientemente útil y lo suficientemente común ya no se etiqueta como IA". [239]

En la década de 1990, muchos investigadores en IA llamaron deliberadamente a su trabajo con otros nombres, como informática , sistemas basados ​​en el conocimiento , "sistemas cognitivos" o inteligencia computacional . En parte, esto puede haber sido porque consideraban que su campo era fundamentalmente diferente de la IA, pero también los nuevos nombres ayudan a obtener financiación. [238] [243] [244] Al menos en el mundo comercial, las promesas fallidas del invierno de la IA siguieron acosando a la investigación en IA hasta la década de 2000, como informó el New York Times en 2005: "Los científicos informáticos y los ingenieros de software evitaron el término inteligencia artificial por miedo a ser vistos como soñadores descabellados". [245]

Rigor matemático, mayor colaboración y un enfoque estrecho

Los investigadores de IA comenzaron a desarrollar y utilizar herramientas matemáticas sofisticadas más que nunca en el pasado. [246] [247] La ​​mayoría de las nuevas direcciones en IA dependían en gran medida de modelos matemáticos, incluidas las redes neuronales artificiales , el razonamiento probabilístico , la computación blanda y el aprendizaje de refuerzo . En los años 90 y 2000, muchas otras herramientas altamente matemáticas se adaptaron para la IA. Estas herramientas se aplicaron al aprendizaje automático, la percepción y la movilidad.

Se generalizó la idea de que muchos de los problemas que la IA debía resolver ya estaban siendo abordados por investigadores de campos como la estadística , las matemáticas , la ingeniería eléctrica , la economía o la investigación de operaciones . El lenguaje matemático compartido permitió un mayor nivel de colaboración con campos más establecidos y exitosos y el logro de resultados que eran medibles y demostrables; la IA se había convertido en una disciplina "científica" más rigurosa.

Otra razón clave para el éxito en los años 90 fue que los investigadores de IA se centraron en problemas específicos con soluciones verificables (un enfoque que luego se ridiculizó como IA estrecha ). Esto proporcionó herramientas útiles en el presente, en lugar de especular sobre el futuro.

Agentes inteligentes

Un nuevo paradigma llamado " agentes inteligentes " fue ampliamente aceptado durante la década de 1990. [248] [249] [ah] Aunque investigadores anteriores habían propuesto enfoques modulares de "dividir y vencer" para la IA, [ai] el agente inteligente no alcanzó su forma moderna hasta que Judea Pearl , Allen Newell , Leslie P. Kaelbling y otros trajeron conceptos de la teoría de la decisión y la economía al estudio de la IA. [250] Cuando la definición del economista de un agente racional se casó con la definición de la ciencia informática de un objeto o módulo , el paradigma del agente inteligente estuvo completo.

Un agente inteligente es un sistema que percibe su entorno y toma acciones que maximizan sus posibilidades de éxito. Según esta definición, los programas simples que resuelven problemas específicos son "agentes inteligentes", al igual que los seres humanos y las organizaciones de seres humanos, como las empresas . El paradigma del agente inteligente define la investigación de IA como "el estudio de agentes inteligentes". [aj] Esta es una generalización de algunas definiciones anteriores de IA: va más allá del estudio de la inteligencia humana; estudia todo tipo de inteligencia.

El paradigma dio a los investigadores licencia para estudiar problemas aislados y estar en desacuerdo sobre los métodos, pero aún conservaban la esperanza de que su trabajo pudiera combinarse en una arquitectura de agentes que fuera capaz de inteligencia general. [251]

Hitos y ley de Moore

El 11 de mayo de 1997, Deep Blue se convirtió en el primer sistema informático de ajedrez en vencer al actual campeón mundial de ajedrez, Garry Kasparov . [252] En 2005, un robot de Stanford ganó el DARPA Grand Challenge conduciendo de forma autónoma durante 211 kilómetros a lo largo de un sendero desértico no ensayado. Dos años más tarde, un equipo de la CMU ganó el DARPA Urban Challenge al navegar de forma autónoma 88 kilómetros en un entorno urbano mientras respondía a los peligros del tráfico y respetaba las leyes de tránsito. [253]

Estos éxitos no se debieron a ningún nuevo paradigma revolucionario, sino principalmente a la tediosa aplicación de habilidades de ingeniería y al tremendo aumento de la velocidad y capacidad de las computadoras en los años 90. [ak] De hecho, la computadora de Deep Blue era 10 millones de veces más rápida que la Ferranti Mark 1 a la que Christopher Strachey enseñó a jugar al ajedrez en 1951. [al] Este dramático aumento se mide por la ley de Moore , que predice que la velocidad y la capacidad de memoria de las computadoras se duplica cada dos años. El problema fundamental de la "potencia bruta de la computadora" se estaba superando lentamente.

Big data, aprendizaje profundo, inteligencia artificial general (2005-2017)

En las primeras décadas del siglo XXI, el acceso a grandes cantidades de datos (conocidos como " big data "), computadoras más baratas y rápidas y técnicas avanzadas de aprendizaje automático se aplicaron con éxito a muchos problemas en toda la economía. Un punto de inflexión fue el éxito del aprendizaje profundo alrededor de 2012, que mejoró el rendimiento del aprendizaje automático en muchas tareas, incluido el procesamiento de imágenes y videos, el análisis de texto y el reconocimiento de voz. [255] La inversión en IA aumentó junto con sus capacidades y, en 2016, el mercado de productos, hardware y software relacionados con la IA alcanzó más de $ 8 mil millones, y el New York Times informó que el interés en la IA había alcanzado un "frenesí". [256]

En 2002, Ben Goertzel y otros se mostraron preocupados por el hecho de que la IA había abandonado en gran medida su objetivo original de producir máquinas versátiles y totalmente inteligentes, y abogaron por una investigación más directa sobre la inteligencia artificial general . A mediados de la década de 2010, se habían fundado varias empresas e instituciones para dedicarse a la IAG, como OpenAI y DeepMind de Google . Durante el mismo período, nuevos conocimientos sobre la superinteligencia suscitaron la preocupación de que la IA fuera una amenaza existencial . Los riesgos y las consecuencias no deseadas de la tecnología de la IA se convirtieron en un área de investigación académica seria después de 2016.

Big data y grandes máquinas

El éxito del aprendizaje automático en la década de 2000 dependía de la disponibilidad de grandes cantidades de datos de entrenamiento y de computadoras más rápidas. [257] Russell y Norvig escribieron que la "mejora en el rendimiento obtenida al aumentar el tamaño del conjunto de datos en dos o tres órdenes de magnitud supera cualquier mejora que se pueda lograr modificando el algoritmo". [200] Geoffrey Hinton recordó que en los años 90, el problema era que "nuestros conjuntos de datos etiquetados eran miles de veces demasiado pequeños. [Y] nuestras computadoras eran millones de veces demasiado lentas". [258] Esto ya no era así en 2010.

Los datos más útiles en la década de 2000 vinieron de conjuntos de datos etiquetados y curados creados específicamente para el aprendizaje automático y la IA. En 2007, un grupo de UMass Amherst lanzó Labeled Faces in the Wild, un conjunto anotado de imágenes de rostros que se usó ampliamente para entrenar y probar sistemas de reconocimiento facial durante las siguientes décadas. [259] Fei-Fei Li desarrolló ImageNet , una base de datos de tres millones de imágenes subtituladas por voluntarios que utilizan Amazon Mechanical Turk . Lanzado en 2009, fue un cuerpo útil de datos de entrenamiento y un punto de referencia para probar la próxima generación de sistemas de procesamiento de imágenes. [260] [200] Google lanzó word2vec en 2013 como un recurso de código abierto. Usó grandes cantidades de texto de datos raspados de Internet e incrustación de palabras para crear vectores numéricos para representar cada palabra. Los usuarios se sorprendieron de lo bien que podía capturar los significados de las palabras; por ejemplo, la suma de vectores ordinaria daría equivalencias como China + Río = Yangtze, Londres + Inglaterra-Francia = París. [261] Esta base de datos en particular sería esencial para el desarrollo de grandes modelos de lenguaje a fines de la década de 2010.

El crecimiento explosivo de Internet dio a los programas de aprendizaje automático acceso a miles de millones de páginas de texto e imágenes que podían ser extraídas . Y, para problemas específicos, grandes bases de datos privadas contenían los datos relevantes. El McKinsey Global Institute informó que "en 2009, casi todos los sectores de la economía estadounidense tenían al menos un promedio de 200 terabytes de datos almacenados". [262] Esta recopilación de información se conocía en la década de 2000 como big data .

En febrero de 2011, en un partido de exhibición del concurso de preguntas Jeopardy!, el sistema de respuesta a preguntas de IBM , Watson , derrotó a los dos mejores campeones de Jeopardy!, Brad Rutter y Ken Jennings , por un margen significativo. [263] La experiencia de Watson habría sido imposible sin la información disponible en Internet. [200]

Aprendizaje profundo

En 2012, AlexNet , un modelo de aprendizaje profundo , [am] desarrollado por Alex Krizhevsky , ganó el ImageNet Large Scale Visual Recognition Challenge , con significativamente menos errores que el ganador del segundo lugar. [265] [200] Krizhevsky trabajó con Geoffrey Hinton en la Universidad de Toronto . [an] Este fue un punto de inflexión en el aprendizaje automático: durante los siguientes años, se abandonaron docenas de otros enfoques para el reconocimiento de imágenes en favor del aprendizaje profundo . [257]

El aprendizaje profundo utiliza un perceptrón multicapa . Aunque esta arquitectura se conoce desde los años 60, para que funcione requiere un hardware potente y grandes cantidades de datos de entrenamiento. [266] Antes de que estuvieran disponibles, mejorar el rendimiento de los sistemas de procesamiento de imágenes requería características ad hoc diseñadas a mano que eran difíciles de implementar. [266] El aprendizaje profundo era más simple y más general. [ao]

En los años siguientes, el aprendizaje profundo se aplicó a docenas de problemas (como el reconocimiento de voz, la traducción automática, el diagnóstico médico y los juegos). En todos los casos, mostró enormes mejoras en el rendimiento. [257] Como resultado, la inversión y el interés en la IA aumentaron enormemente. [257]

El problema de la alineación

En los años 2000 se puso de moda volver a hablar del futuro de la IA y varios libros populares consideraron la posibilidad de máquinas superinteligentes y lo que podrían significar para la sociedad humana. Algunos de estos eran optimistas (como The Singularity is Near de Ray Kurzweil ), pero otros advertían que una IA lo suficientemente poderosa era una amenaza existencial para la humanidad, como Nick Bostrom y Eliezer Yudkowsky . [267] El tema fue ampliamente cubierto en la prensa y muchos intelectuales y políticos destacados comentaron sobre el tema.

Los programas de IA del siglo XXI se definen por sus objetivos , es decir, las medidas específicas que están diseñados para optimizar. El influyente libro de Nick Bostrom de 2005, Superintelligence, argumentaba que, si uno no es cuidadoso al definir estos objetivos, la máquina puede causar daño a la humanidad en el proceso de alcanzar un objetivo. Stuart J. Russell utilizó el ejemplo de un robot inteligente que mata a su dueño para evitar que lo desconecten, argumentando que "no puedes ir a buscar el café si estás muerto". [268] (Este problema se conoce con el término técnico " convergencia instrumental "). La solución es alinear la función objetivo de la máquina con los objetivos de su dueño y de la humanidad en general. Por lo tanto, el problema de mitigar los riesgos y las consecuencias no deseadas de la IA se conoció como "el problema de alineación de valores" o alineación de la IA . [269]

Al mismo tiempo, los sistemas de aprendizaje automático habían comenzado a tener consecuencias inquietantes no deseadas. Cathy O'Neil explicó cómo los algoritmos estadísticos habían estado entre las causas de la crisis económica de 2008 , [270] Julia Angwin de ProPublica argumentó que el sistema COMPAS utilizado por el sistema de justicia penal exhibió sesgo racial en algunas medidas, [271] [ap] otros mostraron que muchos sistemas de aprendizaje automático exhibieron alguna forma de sesgo racial , [273] y hubo muchos otros ejemplos de resultados peligrosos que habían resultado de los sistemas de aprendizaje automático. [aq]

En 2016, la elección de Donald Trump y la controversia sobre el sistema COMPAS pusieron de relieve varios problemas de la infraestructura tecnológica actual, entre ellos la desinformación, los algoritmos de las redes sociales diseñados para maximizar la participación, el uso indebido de los datos personales y la fiabilidad de los modelos predictivos. [274] Las cuestiones de equidad y consecuencias no deseadas se hicieron mucho más populares en las conferencias sobre IA, las publicaciones aumentaron enormemente, se consiguió financiación y muchos investigadores reorientaron sus carreras hacia estas cuestiones. El problema de la alineación de valores se convirtió en un campo serio de estudio académico. [275] [ar]

Investigación sobre inteligencia artificial general

A principios de la década de 2000, varios investigadores comenzaron a preocuparse por el hecho de que la IA convencional estaba demasiado centrada en el "rendimiento medible en aplicaciones específicas" [277] (conocida como " IA estrecha ") y había abandonado el objetivo original de la IA de crear máquinas versátiles y completamente inteligentes. Uno de los primeros críticos fue Nils Nilsson en 1995, y opiniones similares fueron publicadas por los veteranos estadistas de la IA John McCarthy, Marvin Minsky y Patrick Winston en 2007-2009. Minsky organizó un simposio sobre "IA a nivel humano" en 2004. [277] Ben Goertzel adoptó el término " inteligencia artificial general " para el nuevo subcampo, fundando una revista y celebrando conferencias a partir de 2008. [278] El nuevo campo creció rápidamente, impulsado por el éxito continuo de las redes neuronales artificiales y la esperanza de que fuera la clave de la IAG.

En la década de 2010 se fundaron varias empresas, laboratorios y fundaciones en competencia para desarrollar la IA general. DeepMind fue fundada en 2010 por tres científicos ingleses, Demis Hassabis , Shane Legg y Mustafa Suleyman , con financiación de Peter Thiel y más tarde de Elon Musk . Los fundadores y financistas estaban profundamente preocupados por la seguridad de la IA y el riesgo existencial de la misma . Los fundadores de DeepMind tenían una conexión personal con Yudkowsky y Musk estaba entre los que estaban dando la voz de alarma activamente. [279] Hassabis estaba preocupado por los peligros de la IA general y optimista sobre su poder; esperaba que pudieran "resolver la IA, y luego resolver todo lo demás". [280]

En 2012, Baidu contactó a Geoffrey Hinton (que había liderado la investigación de redes neuronales desde los años 80) y quería contratarlo a él y a todos sus estudiantes por una enorme suma. Hinton decidió realizar una subasta y, en una conferencia sobre inteligencia artificial en Lake Tahoe, se vendieron a Google por un precio de 44 millones de dólares. Hassabis tomó nota y vendió DeepMind a Google en 2014, con la condición de que no aceptara contratos militares y que fuera supervisada por un comité de ética. [279]

Larry Page de Google, a diferencia de Musk y Hassabis, era optimista sobre el futuro de la IA. Musk y Paige se enzarzaron en una discusión sobre el riesgo de la IAG en la fiesta de cumpleaños de Musk en 2015. Habían sido amigos durante décadas, pero dejaron de hablarse poco después. Musk asistió a la única reunión del comité de ética de DeepMind, donde quedó claro que Google no estaba interesado en mitigar el daño de la IAG. Frustrado por su falta de influencia, fundó OpenAI en 2015, contratando a Sam Altman para dirigirla y a los mejores científicos. OpenAI comenzó como una organización sin fines de lucro, "libre de los incentivos económicos que impulsaban a Google y otras corporaciones". [279] Musk se frustró nuevamente y dejó la empresa en 2018. OpenAI recurrió a Microsoft para obtener apoyo financiero continuo y Altman y OpenAI formaron una versión con fines de lucro de la empresa con más de mil millones de dólares en financiación. [279]

En 2021, Dario Amodei y otros 14 científicos abandonaron OpenAI por temor a que la empresa priorizara las ganancias por encima de la seguridad. Formaron Anthropic , que pronto recibió una financiación de 6.000 millones de dólares de Microsoft y Google. [279]

En 2023, el New York Times escribió: “En el centro de esta competencia hay una paradoja que pone a prueba el cerebro. Las personas que dicen estar más preocupadas por la IA son las más decididas a crearla y disfrutar de sus beneficios. Han justificado su ambición con su firme convicción de que solo ellos pueden evitar que la IA ponga en peligro la Tierra”. [279]

Modelos de lenguaje de gran tamaño, auge de la IA (2020-actualidad)

El auge de la IA comenzó con el desarrollo inicial de arquitecturas y algoritmos clave como la arquitectura de transformadores en 2017, lo que llevó al escalamiento y desarrollo de grandes modelos de lenguaje que exhiben rasgos similares a los humanos de conocimiento, atención y creatividad. La nueva era de la IA comenzó alrededor de 2020-2023, con el lanzamiento público de grandes modelos de lenguaje (LLM) escalados como ChatGPT . [281]

Arquitectura de transformadores y modelos de lenguaje de gran tamaño

En 2017, los investigadores de Google propusieron la arquitectura de transformadores , que explota un mecanismo de atención y se ha vuelto ampliamente utilizada en grandes modelos de lenguaje. [282]

Las empresas de AGI desarrollaron grandes modelos de lenguaje basados ​​en el transformador: OpenAI lanzó GPT-3 en 2020 y DeepMind lanzó Gato en 2022. Estos son modelos básicos : se entrenan en grandes cantidades de datos sin etiquetar y se pueden adaptar a una amplia gama de tareas posteriores. [ cita requerida ]

Estos modelos pueden analizar una gran cantidad de temas y mostrar conocimientos generales. Naturalmente, surge la pregunta: ¿son estos modelos un ejemplo de inteligencia artificial general ? Bill Gates se mostró escéptico ante la nueva tecnología y el revuelo que rodeaba a la IAG. Sin embargo, Altman le presentó una demostración en vivo de ChatGPT4 pasando una prueba de biología avanzada. Gates quedó convencido. [279] En 2023, Microsoft Research probó el modelo con una gran variedad de tareas y concluyó que "podría considerarse razonablemente como una versión temprana (aunque aún incompleta) de un sistema de inteligencia artificial general (IAG)". [283]

IA neurosimbólica

DeepMind describe su enfoque como " neurosimbólico " porque utiliza el aprendizaje profundo en combinación con técnicas simbólicas. Por ejemplo, AlphaZero utiliza el aprendizaje profundo para evaluar la solidez de una posición y sugerir políticas (cursos de acción), pero utiliza la búsqueda de árboles de Monte Carlo para anticipar nuevas posiciones. [ cita requerida ]

Auge de la IA

La inversión en IA creció exponencialmente después de 2020. [ cita requerida ]

A mediados de 2024, varias entidades financieras comenzaron a cuestionar la capacidad de las empresas de IA para generar un retorno de la inversión . Algunos observadores [¿ quiénes? ] especularon que la IA estaba experimentando otra burbuja . [ cita requerida ]

Véase también

Notas

  1. ^ El cálculo Lambda fue especialmente importante para la IA, ya que fue una inspiración para Lisp (el lenguaje de programación más importante utilizado en la IA del siglo XX). [46]
  2. ^ Alan Turing ya pensaba en la inteligencia artificial al menos desde 1941, cuando hizo circular un artículo sobre inteligencia artificial que podría ser el primer artículo en el campo de la IA, aunque ahora se ha perdido. Su artículo de 1950 fue seguido por tres emisiones de radio sobre IA a cargo de Turing, las dos conferencias «Maquinaria inteligente, una teoría herética» y «¿Pueden pensar los ordenadores digitales?» y la mesa redonda «¿Puede decirse que las máquinas de cálculo automático piensan?» [60]
  3. ^ Esta fue una declaración temprana de la posición filosófica que John Searle más tarde llamaría la " hipótesis de la IA fuerte ": que las máquinas pueden contener mentes al igual que los cuerpos humanos.
  4. ^ Daniel Crevier escribió que "[la propuesta] más tarde se conocería como la 'hipótesis de los sistemas de símbolos físicos'". [78] La hipótesis del sistema de símbolos físicos fue articulada y nombrada por Newell y Simon en su artículo sobre GPS . [79] Incluye una definición más específica de una "máquina" como un agente que manipula símbolos.
  5. ^ "No juro y no lo había visto antes", dijo McCarthy a Pamela McCorduck en 1979. [80] Sin embargo, McCarthy también declaró inequívocamente "se me ocurrió el término" en una entrevista de CNET . [81] El término fue elegido por McCarthy para evitar asociaciones con la cibernética y la influencia de Norbert Wiener . "[U]na de las razones para inventar el término "inteligencia artificial" fue escapar de la asociación con la "cibernética". Su concentración en la retroalimentación analógica parecía equivocada, y deseaba evitar tener que aceptar a Norbert (no Robert) Wiener como un gurú o tener que discutir con él". [82]
  6. ^ Pamela McCorduck analiza cómo los ex alumnos de la conferencia de Dartmouth dominaron las primeras dos décadas de investigación en IA, llamándolos la "universidad invisible". [83]
  7. ^ Daniel Crevier escribió que "la conferencia es generalmente reconocida como la fecha de nacimiento oficial de la nueva ciencia". [85]
  8. ^ Hubo algunos psicólogos que evitaron el conductismo y adoptaron un enfoque cognitivo antes de que estuviera de moda, como Frederic Bartlett y Kenneth Craig [87].
  9. ^ Russell y Norvig escribieron que "era asombroso cada vez que una computadora hacía algo remotamente inteligente". [88] El fundador de AI, John McCarthy, llamó a esta era la "Mira, mamá, ¡sin manos!". [89]
  10. ^ Esto evitó el problema del conocimiento de sentido común, que se analiza más adelante.
  11. ^ La diversidad de hardware fue particularmente clara en las diferentes tecnologías utilizadas para implementar los pesos ajustables. Las máquinas perceptrón y el SNARC usaban potenciómetros movidos por motores eléctricos. ADALINE usaba memistores ajustados por galvanoplastia , aunque también usaban simulaciones en una computadora IBM 1620. Las máquinas MINOS usaban núcleos de ferrita con múltiples agujeros en ellos que podían bloquearse individualmente, con el grado de bloqueo representando los pesos. [118]
  12. ^ Minsky cree firmemente que fue citado incorrectamente. [128] [129]
  13. ^ McCorduck también señala que la financiación estuvo en su mayor parte bajo la dirección de ex alumnos del taller de Dartmouth de 1956. [134]
  14. ^ Russell y Norvig escribieron que "en casi todos los casos, estos primeros sistemas fallaron en tareas más difíciles". [143]
  15. ^ Bruce Buchanan escribió: "Los primeros programas estaban necesariamente limitados en su alcance por el tamaño y la velocidad de la memoria" [145]
  16. ^ La historia le daría la razón a Moravec en lo que respecta a aplicaciones como la visión artificial. Moravec estimó que simplemente igualar las capacidades de detección de bordes y movimiento de la retina humana en tiempo real requeriría una computadora de propósito general capaz de procesar 1000 millones de instrucciones por segundo (MIPS). En 1976, la supercomputadora más rápida, la Cray-1 de 8 millones de dólares , solo podía procesar 130 MIPS, y una computadora de escritorio típica tenía 1 MIPS. A partir de 2011, las aplicaciones prácticas de visión artificial requieren de 10 000 a 1 000 000 MIPS. [148]
  17. ^ Como los problemas de marco , ramificación y calificación , así como la dificultad del razonamiento predeterminado y la desambiguación del sentido de las palabras .
  18. ^ Russell y Norvig escriben: "Muchos de los conceptos que nombramos en el lenguaje no logran, tras una inspección más minuciosa, tener las condiciones necesarias y suficientes definidas lógicamente que los primeros investigadores de IA esperaban capturar en forma axiomática". [122]
  19. ^ John McCarthy escribió en respuesta que "el problema de la explosión combinatoria ha sido reconocido en la IA desde el principio" [156].
  20. ^ Este artículo se basa en Crevier 1993, pp. 115-116. Otras opiniones incluyen McCorduck 2004, pp. 306-313 y NRC 1999 en "Success in Speech Recognition".
  21. ^ Moravec explica: "Sus promesas iniciales a DARPA habían sido demasiado optimistas. Por supuesto, lo que entregaron no estuvo a la altura de eso. Pero sintieron que en su siguiente propuesta no podían prometer menos que en la primera, así que prometieron más". [158]
  22. ^ Aunque el tanque autónomo fue un fracaso, el sistema de gestión de batalla (llamado " DART ") demostró ser enormemente exitoso, ahorrando miles de millones en la primera Guerra del Golfo , amortizando la inversión y justificando la política pragmática de DARPA , al menos en lo que a DARPA respectaba. [160]
  23. ^ "Saber cómo" es el término de Dreyfus. Dreyfus hace una distinción entre "saber cómo" y "saber que", una versión moderna de la distinción de Heidegger entre lo que está a la mano y lo que está presente a la mano . [162]
  24. ^ Weizenbaum dijo: "Me convertí en el único miembro de la comunidad de IA que fue visto almorzando con Dreyfus. Y deliberadamente dejé en claro que esa no era la manera de tratar a un ser humano". [167]
  25. ^ Posteriormente, Colby y sus colegas también desarrollaron "simulaciones por computadora de procesos paranoides ( PARRY )" similares a chatterbots para "hacer inteligibles los procesos paranoides en términos explícitos de procesamiento de símbolos". [171]
  26. ^ Wason y Shapiro (1966) demostraron que las personas obtienen malos resultados en problemas completamente abstractos, pero si el problema se replantea para permitir el uso de la inteligencia social intuitiva , el rendimiento mejora drásticamente. (Véase la tarea de selección de Wason ) Kahneman, Slovic y Tversky (1982) han demostrado que las personas son terribles en problemas elementales que implican razonamiento incierto. (Véase la lista de sesgos cognitivos para varios ejemplos). El trabajo de Eleanor Rosch se describe en Lakoff 1987. Kahnmann publicó una teoría más general de la cognición simbólica y otros tipos de pensamiento en su libro Pensar rápido, pensar despacio (2011)
  27. ^ Un ejemplo temprano de la posición de McCarthy fue en la revista Science , donde dijo: "Esto es IA, así que no nos importa si es psicológicamente real" (Kolata 1982), y recientemente reiteró su posición en la conferencia AI@50 donde dijo: "La inteligencia artificial no es, por definición, una simulación de la inteligencia humana" (Maker 2006).
  28. ^ Otro aspecto del conflicto se denominó "la distinción procedimental/declarativa", pero no resultó influyente en la investigación posterior sobre IA.
  29. ^ Se han desarrollado versiones de retropropagación en varios campos, la más directa como el modo inverso de diferenciación automática publicado por Seppo Linnainmaa (1970). Fue aplicado a las redes neuronales en la década de 1970 por Paul Werbos . [121]
  30. ^ Hans Moravec escribió: "Estoy seguro de que esta ruta ascendente hacia la inteligencia artificial algún día alcanzará a la ruta descendente tradicional en más de la mitad del camino, lista para proporcionar la competencia del mundo real y el conocimiento de sentido común que ha sido tan frustrantemente elusivo en los programas de razonamiento. Las máquinas completamente inteligentes surgirán cuando se impulse la metafórica punta dorada que una los dos esfuerzos". [203]
  31. ^ AI Winter se utilizó por primera vez como título de un seminario sobre el tema para la Asociación para el Avance de la Inteligencia Artificial . [229]
  32. ^ McCorduck escribe: "Dos décadas y media después, podemos ver que los japoneses no cumplieron con todos esos ambiciosos objetivos". [234]
  33. ^ Ver Aplicaciones de la inteligencia artificial § Informática
  34. ^ Russell y Norvig escribieron: "La visión del agente completo es ahora ampliamente aceptada" [250]
  35. ^ El modelo de actor de Carl Hewitt anticipó la definición moderna de agentes inteligentes. (Hewitt, Bishop y Steiger 1973) Tanto John Doyle (Doyle 1983) como el clásico popular de Marvin Minsky , La sociedad de la mente (Minsky 1986), utilizaron la palabra "agente". Otras propuestas "modulares" incluyeron la arquitectura de subsunción de Rodney Brook , la programación orientada a objetos y otras.
  36. ^ Así definen la inteligencia artificial los libros de texto más utilizados del siglo XXI, como Russell y Norvig, 2021; Padgham y Winikoff, 2004; Jones, 2007; Poole y Mackworth, 2017. [250]
  37. ^ Ray Kurzweil escribió que la mejora en el ajedrez por computadora "está gobernada únicamente por la expansión de la fuerza bruta del hardware de la computadora". [254]
  38. ^ El tiempo de ciclo de Ferranti Mark 1 era de 1,2 milisegundos, lo que podría decirse que equivale a unos 833  flops . Deep Blue funcionaba a 11,38  gigaflops (y esto ni siquiera tiene en cuenta el hardware especial de Deep Blue para ajedrez). Aproximadamente , estos valores difieren en un factor de 10 7 . [ cita requerida ]
  39. ^ AlexNet tenía 650.000 neuronas y se entrenó utilizando ImageNet , aumentada con imágenes invertidas, recortadas y coloreadas. El modelo también utilizó la técnica de abandono de Geoffrey Hinton y una función de salida lineal rectificada , ambos desarrollos relativamente nuevos en ese momento. [264]
  40. ^ Varios otros laboratorios habían desarrollado sistemas que, como AlexNet, utilizaban chips GPU y funcionaban casi tan bien como AlexNet, [121] pero AlexNet resultó ser el más influyente.
  41. ^ Véase Historia de la IA § Los problemas mencionados anteriormente, donde Hans Moravec predijo que la potencia bruta eventualmente haría que la IA fuera "fácil".
  42. ^ Investigaciones posteriores demostraron que no había forma de que el sistema evitara un sesgo racista medible: corregir una forma de sesgo necesariamente introduciría otra. [272]
  43. ^ Un breve resumen de los temas incluiría privacidad , vigilancia , derechos de autor , desinformación y falsificaciones profundas , burbujas de filtros y partidismo , sesgo algorítmico , resultados engañosos que pasan desapercibidos sin transparencia algorítmica , el derecho a una explicación , uso indebido de armas autónomas y desempleo tecnológico . Véase Inteligencia artificial § Ética
  44. ^ Brian Christian escribió: “El estudio de ProPublica [de COMPAS en 2015] legitimó conceptos como la equidad como temas válidos para la investigación” [276]
  1. ^ Kaplan y Haenlein 2018.
  2. ^ Newquist 1994, págs. 143-156.
  3. ^ Newquist 1994, págs. 144-152.
  4. ^ Rhodios 2007, Libro 4, el episodio de Talos.
  5. ^ Biblioteca 1.9.26
  6. ^ Rodios 2007.
  7. ^ Morford 2007.
  8. ^ Lindo 2003.
  9. ^ Kressel 2015.
  10. ^ Enciclopedia judía, GOLEM.
  11. ^ Newquist 1994, pág. 38.
  12. ^ Talmud, Sanedrín 65b.
  13. ^ O'Connor 1994.
  14. ^ Goethe 1890.
  15. ^ McCorduck 2004, págs. 17-25.
  16. ^ Mayordomo 1863.
  17. ^ Newquist 1994, pág. 65.
  18. ^ Cueva y Dihal 2019.
  19. ^ Needham 1986, pág. 53.
  20. ^ McCorduck 2004, pág. 6.
  21. ^ Nick 2005.
  22. ^ McCorduck 2004, pág. 10.
  23. ^ Newquist 1994, pág. 40.
  24. ^ McCorduck 2004, pág. 16.
  25. ^ McCorduck 2004, págs. 59–62.
  26. ^ McCorduck 2004, pág. 17.
  27. ^ Levitt 2000.
  28. ^ Newquist 1994, pág. 30.
  29. ^ Crevier 1993, pág. 1.
  30. ^ Citado en McCorduck 2004, p. 8.
  31. ^ Cueva, Dihal y Dillon 2020, p. 56.
  32. ^ Mayordomo 1948.
  33. ^ Porterfield 2006, pág. 136.
  34. ^ Holandés 1964.
  35. ^ Russell y Norvig 2021, págs. 6 y 7.
  36. ^ desde Berlinski 2000.
  37. ^ Carreras y Artau 1939.
  38. ^ desde Russell y Norvig 2021, pág. 6.
  39. ^ Bonner 2007.
  40. ^ Bonner 1985, págs. 57–71.
  41. ^ Mecanismo del siglo XVII e IA:
    • McCorduck 2004, págs. 37–46
    • Russell & Norvig 2021, pág. 6
    • Buchanan 2005, pág. 53
  42. ^ Hobbes y la IA:
    • Russell & Norvig 2021, pág. 6
    • McCorduck 2004, pág. 42
    • Hobbes 1651, capítulo 5
  43. ^ Leibniz y AI:
    • McCorduck 2004, pág. 41
    • Russell y Norvig 2021, pág. 6}
    • Berlinski 2000, pág. 12
    • Buchanan 2005, pág. 53
  44. ^ Russell y Norvig 2021, pág. 8.
  45. ^ abc Russell y Norvig 2021, pág. 9.
  46. ^ Crevier 1993, págs. 190 196, 61.
  47. ^ Rosa 1946.
  48. ^ La máquina de Turing :
    • Newquist 1994, pág. 56
    • McCorduck 2004, págs. 63-64
    • Crevier 1993, págs. 22–24
    • Russell y Norvig 2021, pág. 9
    y ver
    • Turing 1936-1937
  49. ^ Costurat 1901.
  50. ^ desde Russell & Norvig 2021, pág. 15.
  51. ^ Newquist 1994, pág. 67.
  52. Randall (1982, págs. 4-5); Byrne (2012); Mulvihill (2012)
  53. ^ Randall (1982, págs. 6, 11-13); Quevedo (1914); Quevedo (1915)
  54. ^ Randall 1982, págs. 13, 16-17.
  55. ^ Citado en Russell & Norvig (2021, p. 15)
  56. ^ Menabrea y Lovelace 1843.
  57. ^ abc Russell y Norvig 2021, pág. 14.
  58. ^ McCorduck 2004, págs. 76–80.
  59. ^ Los predecesores inmediatos de la IA:
    • McCorduck 2004, págs. 51–57, 80–107
    • Crevier 1993, págs. 27–32
    • Russell y Norvig 2021, págs. 9, 11, 15-17, 981-984
    • Moravec 1988, pág. 3
    • Cordeschi 2002, cap. 5
  60. ^ abcd Copeland 2004.
  61. ^ Taller de Dartmouth :
    • McCorduck 2004, págs. 111–136
    • Crevier 1993, págs. 49–51
    • Russell y Norvig 2021, pág. 18
    • Newquist 1994, págs. 91-112
  62. ^ Imagen adaptada de Saygin 2000
  63. ^ Prueba de Turing , Maquinaria informática e inteligencia :
    • McCorduck 2004, págs. 70–72,
    • Crevier 1993, págs. 22-25,
    • Russell y Norvig 2021, págs. 18, 981–984,
    • Haugeland 1985, págs. 6–9,
    • Cordeschi 2002, págs. 170-176.
    Véase también
    • Turing 1950
  64. ^ Newquist 1994, págs. 92-98.
  65. ^ Russell y Norvig 2021, pág. 981.
  66. ^ Pitts y McCullough:
    • McCorduck 2004, págs. 51–57, 88–94
    • Crevier 1993, pág. 30
    • Russell & Norvig 2021, pág. 17
    • Cordeschi 2002, cap. 5
    • Piccinini 2004
    Véase también: McCulloch & Pitts 1943
  67. ^ SNARC :
    • McCorduck 2004, pág. 102
    • Crevier 1993, págs. 34-35
    • Russell & Norvig 2021, pág. 17
  68. ^ Tortugas y la Bestia de Johns Hopkins :
    • McCorduck 2004, pág. 98
    • Crevier 1993, págs. 27-28
    • Moravec 1988, pág. 3
    • Cordeschi 2002, cap. 5
  69. ^ Russell y Norvig 2021, pág. 17.
  70. ^ Copeland 1999.
  71. ^ Schaeffer 1997, Capítulo 6.
  72. ^ Russell y Norvig 2021, pág. 17, p=19.
  73. ^ McCorduck 2004, págs. 137-170.
  74. ^ Crevier 1993, págs. 44–47.
  75. ^ Teórico de la lógica :
    • McCorduck 2004, págs. 123–125
    • Crevier 1993, págs. 44–46
    • Russell y Norvig 2021, pág. 18
  76. ^ Citado en Crevier 1993, p. 46 y Russell & Norvig 2021, p. 18
  77. ^ McCarthy y otros. 1955.
  78. ^ Crevier 1993, pág. 48.
  79. ^ Newell y Simon 1963.
  80. ^ McCorduck 2004, pág. 114.
  81. ^ Habilidades 2006.
  82. ^ McCarthy 1996, pág. 73.
  83. ^ desde McCorduck 2004, págs. 129-130.
  84. ^ McCorduck 2004, págs. 125.
  85. ^ Crevier 1993, págs. 49.
  86. ^ Miller 2003.
  87. ^ Russell y Norvig 2021, págs. 13-14.
  88. ^ Russell y Norvig 2003, pág. 18.
  89. ^ desde Russell y Norvig 2021, pág. 18.
  90. ^ Crevier 1993, págs. 52-107.
  91. ^ Moravec 1988, pág. 9.
  92. ^ McCorduck 2004, pág. 218; Newquist 1994, págs. 91-112; Crevier 1993, págs. 108-109
  93. ^ Crevier 1993, págs. 52-107; Moravec 1988, pág. 9
  94. ^ Búsqueda en el espacio de estados y resolución de problemas:
    • Russell & Norvig 2021, capítulos 3-6
  95. ^ McCorduck 2004, pág. 246.
  96. ^ McCorduck 2004, págs. 245-250.
  97. ^ Russell y Norvig 2021, págs. 19, 106.
  98. ^ abc Russell y Norvig 2021, pág. 19.
  99. ^ Crevier 1993, págs. 51–58, 65–66.
  100. ^ Russell y Norvig 2021, pág. 20.
  101. ^ TIRAS y Shakey :
    • Russell & Norvig 2021, pág. 20
    • McCorduck 2004, págs. 268–271
    • Crevier 1993, págs. 95-96
    • Newquist 1994, págs. 148-156
    • Moravec 1988, págs. 14-15
  102. ^ McCorduck 2004, pág. 286, Crevier 1993, págs. 76-79, Russell y Norvig 2021, pág. 20
  103. ^ Crevier 1993, págs. 79–83.
  104. ^ Crevier 1993, págs. 164-172.
  105. ^ McCorduck 2004, págs. 291–296.
  106. ^ Crevier 1993, págs. 134-139.
  107. ^ ab Bloques mundo :
    • McCorduck 2004, págs. 299–305
    • Crevier 1993, págs. 83–102
    • Russell & Norvig 2021, pág. 20
    • Copeland 2000
  108. ^ Perceptrones en los años 60:
    • Russell & Norvig 2021, pág. 21
    • Crevier 1993, págs. 102–105
    • McCorduck 2004, págs. 104-107
    • Schmidhuber 2022
  109. ^ Crevier 1993, pág. 102.
  110. ^ Citado en Crevier 1993, p. 102
  111. ^ Rosenblatt 1962.
  112. ^ Russell y Norvig 2021, págs. 20-21.
  113. ^ Widrow y Lehr 1990.
  114. ^ Rosen, Nilsson y Adams 1965.
  115. ^ Nilsson 1984.
  116. ^ Hart y otros. 2003.
  117. ^abc Nielson 2005.
  118. ^ abcd Olazarán Rodríguez 1991.
  119. ^ Minsky y Papert 1969.
  120. ^ abcd Russell y Norvig 2021, pág. 22.
  121. ^abc Schmidhuber 2022.
  122. ^ abcdefgh Russell y Norvig 2021, pág. 24.
  123. ^ Crevier 1993, pág. 105.
  124. ^ Simon & Newell 1958, págs. 7-8 citado en Crevier 1993, pág. 108.
  125. ^ Simon 1965, p. 96 citado en Crevier 1993, p. 109
  126. ^ Minsky 1967, p. 2 citado en Crevier 1993, p. 109
  127. ^ Darrach 1970.
  128. ^ McCorduck 2004, págs. 272-274.
  129. ^ Crevier 1993, pág. 96.
  130. ^ Crevier 1993, págs. 64-65.
  131. ^ Crevier 1993, pág. 94.
  132. ^ Howe 1994.
  133. ^ Crevier 1993, pág. 51.
  134. ^ McCorduck 2004, pág. 131.
  135. ^ Crevier 1993, pág. 65.
  136. ^ Crevier 1993, págs. 68-71; Turkle 1984
  137. ^ Crevier 1993, págs. 163–196.
  138. ^ Dreyfus 1972.
  139. ^Abc Lighthill 1973.
  140. ^ abcde Haigh 2023.
  141. ^ Crevier 1993, pág. 143.
  142. ^ Nilsson 2009, pág. 1.
  143. ^ abc Russell y Norvig 2021, pág. 21.
  144. ^ Crevier 1993, pág. 146.
  145. ^ Buchanan 2005, pág. 56.
  146. ^ Crevier 1993, págs. 146-148.
  147. ^ Moravec 1976.
  148. ^ Moravec 2000.
  149. ^ desde McCorduck 2004, pág. 456.
  150. ^ por Brooks 2002.
  151. ^ Moravec 1988, págs. 15-16.
  152. ^ Conocimiento de sentido común:
    • McCorduck 2004, págs. 300 y 421
    • Crevier 1993, págs. 113-114
    • Moravec 1988, pág. 13
    • Lenat y Guha 1989, (Introducción)
  153. ^ Citado en Crevier 1993, págs. 175
  154. ^ ALPAC :
    • McCorduck 2004, págs. 280-281
    • Crevier 1993, pág. 110
    • Russell & Norvig 2021, pág. 21
    • NRC 1999, bajo "Éxito en el reconocimiento de voz".
  155. ^ Informe de Lighthill :
    • Crevier 1993, pág. 117
    • Cómo 1994
    • Colina de luz 1973
  156. ^ McCarthy 1974.
  157. ^ Crevier 1993, págs. 115-116.
  158. ^ desde Crevier 1993, pág. 115.
  159. ^ NRC 1999, bajo "El cambio hacia la investigación aplicada aumenta la inversión".
  160. ^ NRC 1999.
  161. ^ La crítica de Lucas y Penrose a la IA:
    • Crevier 1993, pág. 22
    • Russell & Norvig 2021, pág. 983-984
    • Hofstadter 1999, págs. 471–477
    Argumento original de Lucas:
    • Lucas 1961
  162. ^ Dreyfus y Dreyfus 1986.
  163. ^ La crítica de Dreyfus a la inteligencia artificial :
    • McCorduck 2004, págs. 211–239
    • Crevier 1993, págs. 120–132
    • Russell y Norvig 2021, págs. 981–982
    La versión de Dreyfus:
    • Dreyfus 1965
    • Dreyfus 1972
    • Dreyfus y Dreyfus 1986
  164. ^ La crítica de Searle a la IA:
    • McCorduck 2004, págs. 443–445
    • Crevier 1993, págs. 269–271
    • Russell y Norvig 2021, págs. 985–986
    La versión de Searle:
    • Searle 1980
  165. ^ Citado en Crevier 1993, p. 143
  166. ^ Citado en Crevier 1993, p. 122
  167. ^ Crevier 1993, pág. 123.
  168. ^ Newquist 1994, págs. 276.
  169. ^ Colby, Watt y Gilbert 1966, pág. 148.
  170. ^ Weizenbaum 1976, págs. 5, 6.
  171. ^ Colby 1974, pág. 6.
  172. ^ Crítica de Weizenbaum a la IA:
    • McCorduck 2004, págs. 356–373
    • Crevier 1993, págs. 132–144
    • Russell & Norvig 2021, pág. 1001
    y ver
    • Weizenbaum 1976
  173. ^ desde McCorduck 2004, pág. 51.
  174. ^ Crevier 1993, págs. 190-192.
  175. ^ Crevier 1993, págs. 193-196.
  176. ^ Crevier 1993, págs. 145–149, 258–63.
  177. ^ Pulcros vs. desaliñados :
    • McCorduck 2004, pp. 421–424 (que retoma el estado del debate en 1984).
    • Crevier 1993, págs. 168 (que documenta el uso original del término por parte de Schank).
    • Russell y Norvig 2021, pág. 19-20 (quienes describen el enfoque del MIT como "antilógico")
  178. ^ Marco (inteligencia artificial) :
    • McCorduck 2004, págs. 305–306
    • Crevier 1993, págs. 170–173, 246
    • Russell y Norvig 2021, pág. 23.
    Documento marco de Minsky:
    • Minsky 1974.
  179. ^ Hayes 1981.
  180. ^Por Reiter 1978.
  181. ^ Clark 1977.
  182. ^ Sistemas expertos :
    • Crevier 1993, págs. 148-159
    • Newquist 1994, pág. 271
    • Russell y Norvig 2021, págs. 22-24
  183. ^ McCorduck 2004, págs. 327–335.
  184. ^ Crevier 1993, págs. 158-159.
  185. ^ Crevier 1993, pág. 198.
  186. ^ Newquist 1994, págs. 259.
  187. ^ Sistemas expertos comerciales:
    • McCorduck 2004, págs. 434–435
    • Crevier 1993, págs. 161–162, 197–203
    • {{Harvnb|Russell|Norvig|20
    • Newquist 1994, pág. 275
  188. ^ Computadora de quinta generación :
    • McCorduck 2004, págs. 436–441
    • Newquist 1994, págs. 231–240
    • Crevier 1993, págs. 211
    • Russell y Norvig 2021, pág. 23
    • Feigenbaum y McCorduck 1983
  189. ^ Crevier 1993, págs. 195.
  190. ^ desde Russell y Norvig 2021, pág. 23.
  191. ^ Crevier 1993, págs. 240.
  192. ^ McCorduck 2004, págs. 426–432.
  193. ^ NRC 1999, bajo "El cambio hacia la investigación aplicada aumenta la inversión".
  194. ^ McCorduck 2004, pág. 299.
  195. ^ McCorduck 2004, págs. 421.
  196. ^ Revolución del conocimiento:
    • McCorduck 2004, págs. 266–276, 298–300, 314, 421
    • Newquist 1994, págs. 255–267
    • Russell y Norvig 2021, pág. 23
  197. ^ Ingeniería cíclica y ontológica
    • McCorduck 2004, pág. 489
    • Crevier 1993, págs. 239–243
    • Newquist 1994, págs. 431–455
    • Russell y Norvig 2021, págs. 314-316
    • Lenat y Guha 1989
  198. ^ Sejnowski 2018.
  199. ^ Crevier 1993, págs. 214-215.
  200. ^ abcde Russell y Norvig 2021, pág. 26.
  201. ^ Christian 2020, págs. 21–22.
  202. ^ McCorduck 2004, págs. 454–462.
  203. ^ Moravec 1988, pág. 20.
  204. ^ Crevier 1993, págs. 183-190.
  205. ^ Brooks 1990.
  206. ^ Brooks 1990, pág. 3.
  207. ^ Véase, por ejemplo, Lakoff y Johnson 1999
  208. ^ Pollack 1984.
  209. ^ Pollack 1989.
  210. ^ Perla 1988.
  211. ^ abc Russell y Norvig 2021, pág. 25.
  212. ^ Poole, Mackworth y Goebel 1998.
  213. ^ Russell y Norvig 2021, Sección 23.
  214. ^ Cristiano 2020, pág. 120-124.
  215. ^ abc Russell y Norvig 2021, pág. 819.
  216. ^ Cristiano 2020, pág. 124.
  217. ^ Cristiano 2020, pág. 152-156.
  218. ^ Cristiano 2020, pág. 125.
  219. ^ Cristiano 2020, pág. 127-129.
  220. ^ desde Russell y Norvig 2021, págs. 25, 820.
  221. ^ Cristiano 2020, pág. 140.
  222. ^ Cristiano 2020, pág. 141.
  223. ^ Cristiano 2020, pág. ?.
  224. ^ Russell y Norvig 2021, pág. 820.
  225. ^ Schultz, Dayan y Montague 1997.
  226. ^ Russell y Norvig 2021, pág. 822.
  227. ^ Newquist 1994, págs. 501, 511.
  228. ^ McCorduck 2004, pág. 424.
  229. ^ Crevier 1993, págs. 203.
  230. ^ Crisis de la máquina Lisp :
    • Newquist 1994, págs. 359–379
    • McCorduck 2004, pág. 435
    • Crevier 1993, págs. 209-210
  231. ^ Fallo de los sistemas expertos (y su causa):
    • Russell & Norvig 2021, p. 24 (incapacidad para manejar razonamientos inciertos o para aprender)
    • McCorduck 2004, pág. 435 (cuestiones institucionales)
    • Newquist 1994, págs. 258-283 (implementación limitada después del desarrollo)
    • Crevier 1993, pp. 204-208 (la dificultad del mantenimiento de la verdad, es decir, el aprendizaje y la actualización)
    • Lenat y Guha 1989, Introducción (fragilidad e incapacidad para manejar una calificación extensa ).
  232. ^ McCorduck 2004, págs. 430–431.
  233. ^ Fin de la iniciativa informática de quinta generación :
    • McCorduck 2004, pág. 441
    • Crevier 1993, pág. 212
    • Newquist 1994, págs. 476
  234. ^ McCorduck 2004, pág. 441.
  235. ^ desde Newquist 1994, págs. 440.
  236. ^ NRC 1999, Inteligencia Artificial en los años 90.
  237. ^ Kurzweil 2005, pág. 264.
  238. ^ desde The Economist 2007.
  239. ^abc CNN 2006.
  240. ^ Olsen 2004.
  241. ^ Olsen 2006.
  242. ^ Efecto IA , IA detrás de escena en los años 90 y 2000:
    • McCorduck 2004, pág. 423
    • Kurzweil 2005, pág. 265
    • Hofstadter 1999, pág. 601
    • Newquist 1994, pág. 445
  243. ^ Tascarella 2006.
  244. ^ Newquist 1994, pág. 532.
  245. ^ Markoff 2005.
  246. ^ McCorduck 2004, págs. 486–487.
  247. ^ Russell y Norvig 2021, págs. 24-25.
  248. ^ McCorduck 2004, págs. 471–478.
  249. ^ Russell y Norvig 2021, capítulo 2.
  250. ^ abc Russell y Norvig 2021, pág. 61.
  251. ^ McCorduck 2004, pág. 478.
  252. ^ McCorduck 2004, págs. 480–483.
  253. ^ Russell y Norvig 2021, pág. 28.
  254. ^ Kurzweil 2005, pág. 274.
  255. ^ LeCun, Bengio y Hinton 2015.
  256. ^ Lohr 2016.
  257. ^ abcd Russell y Norvig 2021, pág. 26-27.
  258. ^ Citado en Christian 2020, p. 22
  259. ^ Cristiano 2020, pág. 31.
  260. ^ Cristiano 2020, pág. 22-23.
  261. ^ Cristiano 2020, pág. 6.
  262. ^ McKinsey & Co. 2011.
  263. ^ Markoff 2011.
  264. ^ Cristiano 2020, pág. 23-24.
  265. ^ Cristiano 2020, pág. 24.
  266. ^ desde Russell y Norvig 2021, pág. 27.
  267. ^ Russell y Norvig 2021, págs. 33, 1004.
  268. ^ Russell 2020.
  269. ^ Russell y Norvig 2021, págs. 5, 33, 1002–1003.
  270. ^ O'Neill 2016.
  271. ^ Cristiano 2020, pág. 60-61.
  272. ^ Christian 2020, págs. 67–70.
  273. ^ Christian 2020, págs. 6–7, 25.
  274. ^ Cristiano 2020, pág. 67.
  275. ^ Cristiano 2020, págs. 67, 73, 117.
  276. ^ Cristiano 2020, pág. 73.
  277. ^ desde Russell y Norvig 2021, pág. 32.
  278. ^ Russell y Norvig 2021, pág. 33.
  279. ^ abcdefg Metz y otros, 2023.
  280. ^ Russell y Norvig 2021, pág. 31.
  281. ^ Auge de la IA :
    • Marzo de 2023
    • Clark 2023
    • Puertas 2023
    • Lee 2024
  282. ^ Murgia 2023.
  283. ^ Bubeck y otros 2023.

Referencias

  • Bonner A (2007), El arte y la lógica de Ramón Llull: una guía del usuario , Brill, ISBN 978-9004163256
  • Bonner A (1985). "La influencia de Llull: la historia del lulismo". Doctor Illuminatus. Un lector de Ramon Llull . Princeton University Press.
  • Brooks R (2002), Carne y máquinas , Pantheon Books
  • Bubeck S, Chandrasekaran V, Eldan R, Gehrke J, Horvitz E, Kamar E, Lee P, Lee YT, Li Y, Lundberg S, Nori H, Palangi H, Ribeiro MT, Zhang Y (22 de marzo de 2023). "Chispas de inteligencia general artificial: primeros experimentos con GPT-4". arXiv : 2303.12712 [cs.CL].
  • Carreras y Artau T (1939), Historia de la filosofía española. Filosofía cristiana de los siglos XIII al XV (en español), vol. 1, Madrid: Libros olvidados, ISBN 9781390433708
  • Butler EM (1948). El mito del mago . Londres: Cambridge University Press. ISBN 0-521-22564-7.OCLC 5063114  .
  • Clark S (21 de diciembre de 2023). "La era de la IA: el año histórico de 2023". CMSWire.com . Consultado el 28 de enero de 2024 .
  • Copeland J (1999). "Una breve historia de la informática". AlanTuring.net .
  • Cave S, Dihal K (2019). "Esperanzas y temores de las máquinas inteligentes en la ficción y la realidad". Nature Machine Intelligence . 1 (2): 74–78. doi :10.1038/s42256-019-0020-9. ISSN  2522-5839. S2CID  150700981.
  • Cave S, Dihal K, Dillon S (2020). Narrativas de IA: una historia del pensamiento imaginativo sobre máquinas inteligentes. Oxford University Press. ISBN 978-0-19-884666-6. Recuperado el 2 de mayo de 2023 .
  • Christian B (2020). El problema de la alineación : aprendizaje automático y valores humanos . WW Norton & Company. ISBN 978-0-393-86833-3.OCLC 1233266753  .
  • Clark K (1977). "La negación como fracaso". Lógica y bases de datos . Boston, MA: Springer US. págs. 293–322. doi :10.1007/978-1-4684-3384-5_11. ISBN . 978-1-4684-3386-9.
  • Gates B (21 de diciembre de 2023). «Este año marcó el inicio de una nueva era». www.linkedin.com . Consultado el 28 de enero de 2024 .
  • Goethe JW (1890). Fausto; una tragedia. Traducido, en los metros originales... por Bayard Taylor. Edición autorizada, publicada por acuerdo especial con la Sra. Bayard Taylor. Con una introducción biográfica. London Ward, Lock.
  • Hart PE, Nilsson NJ, Perrault R, Mitchell T, Kulikowski CA, Leake DB (15 de marzo de 2003). "In Memoriam: Charles Rosen, Norman Nielsen y Saul Amarel". AI Magazine . 24 (1): 6. doi :10.1609/aimag.v24i1.1683. ISSN  2371-9621.
  • Hayes P (1981). "La lógica de los marcos". En Kaufmann M (ed.). Lecturas en inteligencia artificial . págs. 451–458.
  • "GOLEM", The Jewish Encyclopedia , consultado el 15 de marzo de 2020
  • Hollander LM (1964). Heimskringla; historia de los reyes de Noruega . Austin: Publicado para la American-Scandinavian Foundation por la University of Texas Press. ISBN 0-292-73061-6.OCLC 638953  .
  • Kressel M (1 de octubre de 2015). «36 días de mitos judíos: día 24, El Golem de Praga 2015». Matthew Kressel . Consultado el 15 de marzo de 2020 .
  • LeCun Y, Bengio Y, Hinton G (2015). "Aprendizaje profundo" (PDF) . Nature . 521 (7553): 436–444. Código Bibliográfico :2015Natur.521..436L. doi :10.1038/nature14539. PMID  26017442. S2CID  3074096.
  • Lee A (23 de enero de 2024). "UT designa 2024 como 'El año de la IA'". UT News . Consultado el 28 de enero de 2024 .
  • Linden SJ (2003). El lector de alquimia: desde Hermes Trimegisto hasta Isaac Newton . Nueva York: Cambridge University Press. pp. Cap. 18. ISBN. 0-521-79234-7.OCLC 51210362  .
  • Lohr S (17 de octubre de 2016), "IBM confía en su apuesta por Watson y está pagando mucho dinero por ello", New York Times
  • Markoff J (16 de febrero de 2011). "En 'Jeopardy!' la victoria de Watson es casi trivial". The New York Times .
  • Marr B (20 de marzo de 2023). "Más allá de la publicidad: lo que realmente necesita saber sobre la IA en 2023". Forbes . Consultado el 27 de enero de 2024 .
  • McCarthy J (1988). "Revisión de la cuestión de la inteligencia artificial ". Anales de la historia de la informática . 10 (3): 224–229., recopilado en McCarthy J (1996). "10. Revisión de la cuestión de la inteligencia artificial ". Defendiendo la investigación en IA: una colección de ensayos y reseñas . CSLI.
  • McCulloch WS, Pitts W (1 de diciembre de 1943). "Un cálculo lógico de las ideas inmanentes en la actividad nerviosa". Boletín de biofísica matemática . 5 (4): 115–133. doi :10.1007/BF02478259. ISSN  1522-9602.
  • "Big data: la próxima frontera para la innovación, la competencia y la productividad". McKinsey.com . 1 de mayo de 2011.
  • Metz C, Weise K, Grant N, Isaac M (3 de diciembre de 2023). "Ego, miedo y dinero: cómo se encendió la mecha de la IA". The New York Times .


  • Miller G (2003). "La revolución cognitiva: una perspectiva histórica" ​​(PDF) . Tendencias en Ciencias Cognitivas . 7 (3): 141–144. doi :10.1016/s1364-6613(03)00029-9. PMID  12639696.
  • Moravec H (18 de mayo de 2000). Robot: de mera máquina a mente trascendente . Oxford University Press. ISBN 9780195136302.
  • Morford M (2007). Mitología clásica . Oxford: Oxford University Press. pág. 184. ISBN 978-0-19-085164-4.OCLC 1102437035  .
  • Murgia M (23 de julio de 2023). «Transformers: los científicos de Google que fueron pioneros en una revolución de la IA». www.ft.com . Consultado el 10 de diciembre de 2023 .
  • O'Neill C (6 de septiembre de 2016). Armas de destrucción matemática: cómo los macrodatos aumentan la desigualdad y amenazan la democracia . Crown. ISBN 978-0553418811.
  • Nielson DL (1 de enero de 2005). "Capítulo 4: La vida y los tiempos de un laboratorio de ISR exitoso: inteligencia artificial y robótica" (PDF) . UNA HERENCIA DE INNOVACIÓN El primer medio siglo de ISR (1.ª ed.). SRI International. ISBN 978-0-9745208-0-3.
  • Nilsson NJ (1984). "El Centro de Inteligencia Artificial del SRI: una breve historia" (PDF) . Centro de Inteligencia Artificial, SRI International. Archivado desde el original (PDF) el 10 de agosto de 2022.
  • Olazaran Rodriguez JM (1991). Una sociología histórica de la investigación en redes neuronales] (PDF) (Tesis). Universidad de Edimburgo. Archivado desde el original (PDF) el 11 de noviembre de 2022.Véase especialmente los capítulos 2 y 3.
  • Piccinini G (1 de agosto de 2004). "La primera teoría computacional de la mente y el cerebro: una mirada atenta al "Cálculo lógico de ideas inmanentes a la actividad nerviosa" de McCulloch y Pitts"". Síntesis . 141 (2): 175–215. doi :10.1023/B:SYNT.0000043018.52445.3e. ISSN  1573-0964. S2CID  10442035.
  • Porterfield A (2006). La experiencia protestante en Estados Unidos. Experiencia religiosa estadounidense. Greenwood Press. pág. 136. ISBN 978-0-313-32801-5. Recuperado el 15 de mayo de 2023 .
  • Reiter R (1978). "Sobre el razonamiento por defecto". American Journal of Computational Linguistics : 29–37.
  • Rodios A (2007). La Argonautika: Edición Ampliada . Prensa de la Universidad de California. pag. 355.ISBN​ 978-0-520-93439-9.OCLC 811491744  .
  • Rose A (abril de 1946). «Lightning Strikes Mathematics». Popular Science : 83–86 . Consultado el 15 de abril de 2012 .
  • Rosen CA , Nilsson NJ , Adams MB (8 de enero de 1965). "Un programa de investigación y desarrollo en aplicaciones de autómatas inteligentes para reconocimiento-fase I. (Propuesta de investigación SRI N.º ESU 65-1)" (PDF) . Stanford Research Institute. Archivado desde el original (PDF) el 16 de marzo de 2006.
  • Rosenblatt F (1962), Principios de neurodinámica: perceptrones y la teoría de los mecanismos cerebrales , vol. 55, Washington DC: Spartan books
  • Russell SJ (2020). Compatibilidad humana: inteligencia artificial y el problema del control. Penguin Random House. ISBN 9780525558637.OCLC 1113410915  .
  • Schaeffer J (1997). Un salto adelante: desafiando la supremacía humana en las damas . Springer. ISBN 978-0-387-76575-4.
  • Schmidhuber J (2022). "Historia comentada de la IA moderna y el aprendizaje profundo".
  • Schultz W , Dayan P , Montague PR (14 de marzo de 1997). "Un sustrato neuronal de predicción y recompensa". Science . 275 (5306): 1593–1599. doi :10.1126/science.275.5306.1593. PMID  9054347.
  • Sejnowski TJ (23 de octubre de 2018). The Deep Learning Revolution (1.ª ed.). Cambridge, Massachusetts Londres, Inglaterra: The MIT Press. pp. 93–94. ISBN 978-0-262-03803-4.
  • «Sanhedrin 65b». www.sefaria.org . Consultado el 15 de marzo de 2020 .
  • Widrow B, Lehr M (septiembre de 1990). "30 años de redes neuronales adaptativas: perceptrón, Madaline y retropropagación". Actas del IEEE . 78 (9): 1415–1442. doi :10.1109/5.58323. S2CID  195704643.


  • Berlinski D (2000), El advenimiento del algoritmo, Harcourt Books, ISBN 978-0-15-601391-8, OCLC  46890682.
  • Brooks RA (1990). "Los elefantes no juegan al ajedrez" (PDF) . Robótica y sistemas autónomos . 6 (1–2): 3–15. doi :10.1016/S0921-8890(05)80025-9.
  • Buchanan BG (invierno de 2005), "Una (muy) breve historia de la inteligencia artificial" (PDF) , AI Magazine , pp. 53–60, archivado desde el original (PDF) el 26 de septiembre de 2007 , consultado el 30 de agosto de 2007.
  • Butler S (13 de junio de 1863), "Darwin Among the Machines", The Press , Christchurch, Nueva Zelanda , consultado el 10 de octubre de 2008.
  • Byrne JG (8 de diciembre de 2012). «The John Gabriel Byrne Computer Science Collection» (PDF) . Archivado desde el original el 16 de abril de 2019. Consultado el 8 de agosto de 2019 .
  • "La IA superará la capacidad del cerebro humano", CNN.com , 26 de julio de 2006 , consultado el 16 de octubre de 2007.
  • Colby KM, Watt JB, Gilbert JP (1966), "Un método informático de psicoterapia: comunicación preliminar", The Journal of Nervous and Mental Disease , vol. 142, núm. 2, págs. 148-152, doi :10.1097/00005053-196602000-00005, PMID  5936301, S2CID  36947398.
  • Colby KM (septiembre de 1974), Diez críticas a Parry (PDF) , Stanford Artificial Intelligence Laboratory, INFORME N.º STAN-CS-74-457 , consultado el 17 de junio de 2018.
  • Couturat L (1901), La lógica de Leibniz
  • Copeland J (2000), Micro-World AI , consultado el 8 de octubre de 2008.
  • Copeland J( (2004). El Turing esencial: las ideas que dieron origen a la era informática . Oxford: Clarendon Press. ISBN 0-19-825079-7..
  • Cordeschi R (2002), El descubrimiento de lo artificial , Dordrecht: Kluwer..
  • Crevier D (1993). AI: The Tumultuous Search for Artificial Intelligence [IA: La tumultuosa búsqueda de la inteligencia artificial] . Nueva York, NY: BasicBooks. ISBN 0-465-02997-3.
  • Darrach B (20 de noviembre de 1970), "Conoce a Shaky, la primera persona electrónica", Life Magazine , págs. 58-68.
  • Doyle J (1983), "¿Qué es la psicología racional? Hacia una filosofía mental moderna", AI Magazine , vol. 4, núm. 3, págs. 50-53.
  • Dreyfus H (1965), Alquimia e inteligencia artificial , RAND Corporation Memo.
  • Dreyfus H (1972), Lo que las computadoras no pueden hacer , Nueva York: MIT Press, ISBN 978-0-06-090613-9, OCLC  5056816.
  • Dreyfus H , Dreyfus S (1986). La mente sobre la máquina: el poder de la intuición y la experiencia humanas en la era de la informática. Oxford, Reino Unido: Blackwell. ISBN 978-0-02-908060-3. Recuperado el 22 de agosto de 2020 .
  • The Economist (7 de junio de 2007), "¿Estás hablando conmigo?", The Economist , consultado el 16 de octubre de 2008.
  • Feigenbaum EA , McCorduck P (1983), La quinta generación: inteligencia artificial y el desafío informático de Japón al mundo , Michael Joseph, ISBN 978-0-7181-2401-4.
  • Haigh T (diciembre de 2023). "No hubo un 'primer invierno de IA'". Comunicaciones de la ACM . 66 (12): 35–39. doi :10.1145/3625833. ISSN  0001-0782..
  • Haugeland J (1985). Inteligencia artificial: la idea misma . Cambridge, Mass.: MIT Press. ISBN 978-0-262-08153-5.
  • Hawkins J , Blakeslee S (2004), On Intelligence , Nueva York, NY: Owl Books, ISBN 978-0-8050-7853-4, OCLC  61273290.
  • Hebb D (1949), La organización del comportamiento , Nueva York: Wiley, ISBN 978-0-8058-4300-2, OCLC  48871099.
  • Hewitt C , Bishop P, Steiger R (1973), Un formalismo de actor modular universal para la inteligencia artificial (PDF) , IJCAI, archivado desde el original (PDF) el 29 de diciembre de 2009
  • Hobbes T (1651), Leviatán.
  • Hofstadter D (1999) [1979], Gödel, Escher, Bach: una eterna trenza dorada , Basic Books, ISBN 978-0-465-02656-2, OCLC  225590743.
  • Howe J (noviembre de 1994), Inteligencia artificial en la Universidad de Edimburgo: una perspectiva , consultado el 30 de agosto de 2007.
  • Kahneman D , Slovic D, Tversky A (1982). "Juicio bajo incertidumbre: heurística y sesgos". Science . 185 (4157). Nueva York: Cambridge University Press: 1124–1131. Bibcode :1974Sci...185.1124T. doi :10.1126/science.185.4157.1124. ISBN 978-0-521-28414-1. Número de identificación personal  17835457. Número de identificación personal  143452957.
  • Kaplan A, Haenlein M (2018), "Siri, Siri en mi mano, ¿quién es la más bella de la tierra? Sobre las interpretaciones, ilustraciones e implicaciones de la inteligencia artificial", Business Horizons , 62 : 15–25, doi :10.1016/j.bushor.2018.08.004, S2CID  158433736.
  • Kolata G (1982), "¿Cómo pueden las computadoras adquirir sentido común?", Science , 217 (4566): 1237–1238, Bibcode :1982Sci...217.1237K, doi :10.1126/science.217.4566.1237, PMID  17837639.
  • Kurzweil R (2005), La singularidad está cerca , Viking Press, ISBN 978-0-14-303788-0, OCLC  71826177.
  • Lakoff G (1987), Mujeres, fuego y cosas peligrosas: lo que las categorías revelan sobre la mente, University of Chicago Press, ISBN 978-0-226-46804-4.
  • Lakoff G, Johnson M (1999). Filosofía en la carne: La mente encarnada y su desafío al pensamiento occidental. Basic Books. ISBN 978-0-465-05674-3.
  • Lenat D , Guha RV (1989), Creación de grandes sistemas basados ​​en el conocimiento , Addison-Wesley, ISBN 978-0-201-51752-1, OCLC  19981533.
  • Levitt GM (2000), El turco, autómata de ajedrez , Jefferson, NC: McFarland, ISBN 978-0-7864-0778-1.
  • Lighthill PS (1973), " Inteligencia artificial: una revisión general ", Inteligencia artificial: un simposio de artículos , Science Research Council
  • Lucas J (1961), "Mentes, máquinas y Gödel", Philosophy , 36 (XXXVI): 112–127, doi : 10.1017/S0031819100057983 , S2CID  55408480
  • Luger G, Stubblefield W (2004). Inteligencia artificial: estructuras y estrategias para la resolución de problemas complejos (5.ª ed.). Benjamin/Cummings. ISBN 978-0-8053-4780-7. Recuperado el 17 de diciembre de 2019 .
  • Maker MH (2006), AI@50: AI Past, Present, Future, Dartmouth College, archivado desde el original el 8 de octubre de 2008 , consultado el 16 de octubre de 2008
  • Markoff J (14 de octubre de 2005), "Detrás de la inteligencia artificial, un escuadrón de personas reales brillantes", The New York Times , consultado el 16 de octubre de 2008
  • McCarthy J , Minsky M, Rochester N , Shannon C (31 de agosto de 1955), A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence, archivado desde el original el 30 de septiembre de 2008 , consultado el 16 de octubre de 2008
  • McCarthy J , Hayes PJ (1969), "Algunos problemas filosóficos desde el punto de vista de la inteligencia artificial", en Meltzer BJ , Mitchie D (eds.), Machine Intelligence 4, Edinburgh University Press, pp. 463–502 , consultado el 16 de octubre de 2008
  • McCarthy J (1974). "Revisión del informe Lighthill".
  • McCorduck P (2004), Máquinas que piensan (2.ª ed.), Natick, MA: AK Peters, Ltd., ISBN 978-1-56881-205-2, OCLC  52197627.
  • McCullough WS , Pitts W (1943), "Un cálculo lógico de las ideas inmanentes en la actividad nerviosa", Boletín de biofísica matemática , 5 (4): 115–127, doi :10.1007/BF02478259
  • Menabrea LF, Lovelace A (1843), "Esbozo de la máquina analítica inventada por Charles Babbage", Scientific Memoirs , 3 , consultado el 29 de agosto de 2008Con notas sobre las Memorias del Traductor
  • Minsky M (1967), Computación: máquinas finitas e infinitas , Englewood Cliffs, NJ: Prentice-Hall
  • Minsky M , Papert S (1969), Perceptrones: una introducción a la geometría computacional, The MIT Press, ISBN 978-0-262-63111-2, OCLC  16924756
  • Minsky M (1974), Un marco para representar el conocimiento, archivado desde el original el 7 de enero de 2021 , consultado el 16 de octubre de 2008
  • Minsky M (1986), La sociedad de la mente , Simon and Schuster, ISBN 978-0-671-65713-0, OCLC  223353010
  • Minsky M (2001), Es 2001. ¿Dónde está HAL?, Dr. Dobb's Technetcast , consultado el 8 de agosto de 2009
  • Moor J, ed. (2003), La prueba de Turing: el elusivo estándar de la inteligencia artificial , Dordrecht: Kluwer Academic Publishers, ISBN 978-1-4020-1205-1
  • Moravec H (1976), The Role of Raw Power in Intelligence, archivado desde el original el 3 de marzo de 2016 , consultado el 16 de octubre de 2008
  • Moravec H (1988), Mente infantil , Harvard University Press, ISBN 978-0-674-57618-6, OCLC  245755104
  • Mulvihill M (17 de octubre de 2012). "1907: ¿Fue irlandés el primer diseño de ordenador portátil?". Ingenious Ireland .
  • Needham J (1986). Ciencia y civilización en China: Volumen 2. Taipei: Caves Books Ltd.
  • Newell A , Simon HA (1963), "GPS: un programa que simula el pensamiento humano", en Feigenbaum E, Feldman J (eds.), Computers and Thought , Nueva York: McGraw-Hill, ISBN 978-0-852-3-334-0 978-0-262-56092-4, OCLC  246968117
  • Newquist HP (1994), Los creadores de cerebros: genio, ego y codicia en la búsqueda de máquinas que piensen , Nueva York: Macmillan/SAMS, ISBN 978-0-9885937-1-8, OCLC  313139906
  • NRC (1999), "Desarrollos en inteligencia artificial", Financiando una revolución: apoyo gubernamental a la investigación informática , National Academy Press, ISBN 978-0-309-06278-7, OCLC  246584055
  • Nick M (2005), Al Jazari: El ingenioso mecánico musulmán del siglo XIII, Al Shindagah , consultado el 16 de octubre de 2008.
  • Nilsson N (30 de octubre de 2009). La búsqueda de la inteligencia artificial . Cambridge University Press. ISBN 978-0-52-112293-1.
  • O'Connor KM (1994), La creación alquímica de la vida (takwin) y otros conceptos del Génesis en el Islam medieval, Universidad de Pensilvania, págs. 1–435 , consultado el 10 de enero de 2007
  • Olsen S (10 de mayo de 2004), Newsmaker: Google's man behind the Curtain, CNET , consultado el 17 de octubre de 2008.
  • Olsen S (18 de agosto de 2006), Spying an intelligent search engine, CNET , consultado el 17 de octubre de 2008.
  • Pearl J (1988), Razonamiento probabilístico en sistemas inteligentes: redes de inferencia plausible , San Mateo, California: Morgan Kaufmann, ISBN 978-1-55860-479-7, OCLC  249625842.
  • Poole D, Mackworth A, Goebel R (1998), Inteligencia computacional: un enfoque lógico, Oxford University Press., ISBN 978-0-19-510270-3.
  • Pollack A (11 de octubre de 1984). "Tecnología; lógica difusa para computadoras". The New York Times .
  • Pollack A (2 de abril de 1989). "Teoría de la computación difusa: ¿cómo imitar la mente?". The New York Times .
  • Quevedo LT (1914), "Revista de la Academia de Ciencias Exacta", Ensayos sobre Automática – Su definición. Extensión teórica de sus aplicaciones , vol. 12, págs. 391–418
  • Quevedo LT (1915), "Revue Génerale des Sciences Pures et Appliquées", Essais sur l'Automatique - Sa définition. Etendue théorique de ses aplicaciones , vol. 2, págs. 601–611
  • Randall B (1982), "Del motor analítico al ordenador electrónico digital: las contribuciones de Ludgate, Torres y Bush", fano.co.uk , consultado el 29 de octubre de 2018
  • Russell SJ , Norvig P (2003), Inteligencia artificial: un enfoque moderno (2.ª ed.), Upper Saddle River, Nueva Jersey: Prentice Hall, ISBN 0-13-790395-2.
  • Russell SJ , Norvig P (2021). Inteligencia artificial: un enfoque moderno (4.ª ed.). Hoboken: Pearson. ISBN 978-0-13-461099-3. Número de serie LCCN  20190474.
  • Samuel AL (julio de 1959), "Algunos estudios sobre aprendizaje automático utilizando el juego de damas", IBM Journal of Research and Development , 3 (3): 210–219, CiteSeerX  10.1.1.368.2254 , doi :10.1147/rd.33.0210, S2CID  2126705, archivado desde el original el 3 de marzo de 2016 , consultado el 20 de agosto de 2007.
  • Saygin AP, Cicekli I, Akman V (2000), "Turing Test: 50 Years Later" (PDF) , Minds and Machines , 10 (4): 463–518, doi :10.1023/A:1011288000451, hdl : 11693/24987 , S2CID  990084, archivado desde el original (PDF) el 9 de abril de 2011 , consultado el 7 de enero de 2004. Reimpreso en Moor (2003, págs. 23–78).
  • Searle J (1980), "Minds, Brains and Programs", Behavioral and Brain Sciences , 3 (3): 417–457, doi :10.1017/S0140525X00005756, archivado desde el original el 10 de diciembre de 2007 , consultado el 13 de mayo de 2009.
  • Simon HA , Newell A (1958), "Resolución heurística de problemas: el próximo avance en la investigación de operaciones", Investigación de operaciones , 6 : 1–10, doi :10.1287/opre.6.1.1.
  • Simon HA (1965), La forma de la automatización para los hombres y la gestión , Nueva York: Harper & Row.
  • Skillings J (2006), Newsmaker: Getting machines to think like us, CNET , consultado el 8 de octubre de 2008.
  • Tascarella P (14 de agosto de 2006), "Las empresas de robótica tienen dificultades para recaudar fondos y el capital de riesgo es tímido", Pittsburgh Business Times , consultado el 15 de marzo de 2016.
  • Turing A (1936–1937), "Sobre números computables, con una aplicación al problema de Entscheidung", Actas de la London Mathematical Society , 2, 42 (42): 230–265, doi :10.1112/plms/s2-42.1.230, S2CID  73712 , consultado el 8 de octubre de 2008.
  • Turing A (octubre de 1950), "Maquinaria informática e inteligencia", Mind , LIX (236): 433–460, doi :10.1093/mind/LIX.236.433, ISSN  0026-4423.
  • Turkle S (1984). El segundo yo: las computadoras y el espíritu humano . Simon and Schuster. ISBN 978-0-671-46848-4.OCLC 895659909  .
  • Wason PC , Shapiro D (1966). "Reasoning" . En Foss, BM (ed.). Nuevos horizontes en psicología . Harmondsworth: Penguin . Consultado el 18 de noviembre de 2019 .
  • Weizenbaum J (1976), Poder de la computadora y razón humana , WH Freeman & Company, ISBN 978-0-14-022535-8, OCLC  10952283.