stringtranslate.com

invierno de IA

En la historia de la inteligencia artificial , un invierno de IA es un período de financiación e interés reducidos en la investigación de la inteligencia artificial . [1] El campo ha experimentado varios ciclos de exageración , seguidos de decepción y críticas, seguidos de recortes de financiación, seguidos de un interés renovado años o incluso décadas después.

El término apareció por primera vez en 1984 como tema de debate público en la reunión anual de la AAAI (entonces llamada "Asociación Estadounidense de Inteligencia Artificial"). [2] Roger Schank y Marvin Minsky , dos destacados investigadores de IA que experimentaron el "invierno" de la década de 1970, advirtieron a la comunidad empresarial que el entusiasmo por la IA se había salido de control en la década de 1980 y que sin duda vendría la decepción. Describieron una reacción en cadena, similar a un " invierno nuclear ", que comenzaría con pesimismo en la comunidad de IA, seguido por pesimismo en la prensa, seguido de un severo recorte en la financiación, seguido por el fin de investigaciones serias. [2] Tres años más tarde, la industria de la IA, valorada en miles de millones de dólares, comenzó a colapsar.

Hubo dos inviernos importantes aproximadamente entre 1974-1980 y 1987-2000, [3] y varios episodios más pequeños, incluidos los siguientes:

El entusiasmo y el optimismo sobre la IA en general han aumentado desde su punto más bajo a principios de los años noventa. A partir de 2012 aproximadamente, el interés en la inteligencia artificial (y especialmente en el subcampo del aprendizaje automático ) por parte de las comunidades corporativa y de investigación condujo a un aumento dramático en la financiación y la inversión, lo que llevó al actual (a partir de 2024 ) auge de la IA .

Primeros episodios

La traducción automática y el informe ALPAC de 1966

La investigación de la PNL tiene sus raíces a principios de la década de 1930 y comienza su existencia con el trabajo sobre la traducción automática (TA). [4] Sin embargo, importantes avances y aplicaciones comenzaron a surgir después de la publicación del influyente memorando de Warren Weaver en 1949. [5] El memorando generó un gran entusiasmo dentro de la comunidad investigadora. En los años siguientes se produjeron acontecimientos notables: IBM se embarcó en el desarrollo de la primera máquina, el MIT nombró a su primer profesor de traducción automática a tiempo completo y se celebraron varias conferencias dedicadas a la TA. La culminación llegó con la demostración pública de la máquina IBM-Georgetown, que atrajo amplia atención en periódicos respetados en 1954. [6]

Al igual que todos los auges de la IA seguidos de inviernos desesperados de la IA, los medios de comunicación tendieron a exagerar la importancia de estos acontecimientos. Los titulares sobre el experimento IBM-Georgetown proclamaban frases como "La máquina bilingüe", "Cerebro de robot traduce el ruso al inglés de King" [7] y "Una creación políglota". [8] Sin embargo, la demostración real implicó la traducción de un conjunto seleccionado de sólo 49 frases rusas al inglés, con el vocabulario de la máquina limitado a sólo 250 palabras. [6] Para poner las cosas en perspectiva, un estudio de 2006 realizado por Paul Nation encontró que los humanos necesitan un vocabulario de alrededor de 8.000 a 9.000 familias de palabras para comprender textos escritos con un 98% de precisión. [9]

Durante la Guerra Fría , el gobierno de Estados Unidos estaba particularmente interesado en la traducción automática e instantánea de documentos e informes científicos rusos. El gobierno apoyó agresivamente los esfuerzos de traducción automática a partir de 1954. Otro factor que impulsó el campo de la traducción mecánica fue el interés mostrado por la Agencia Central de Inteligencia (CIA). Durante ese período, la CIA creía firmemente en la importancia de desarrollar capacidades de traducción automática y apoyó tales iniciativas. También reconocieron que este programa tenía implicaciones que iban más allá de los intereses de la CIA y la comunidad de inteligencia. [6]

Al principio, los investigadores se mostraron optimistas. El nuevo trabajo de Noam Chomsky en gramática estaba simplificando el proceso de traducción y había "muchas predicciones de 'avances' inminentes". [10]

Reunión informativa para el vicepresidente estadounidense Gerald Ford en 1973 sobre el modelo de traducción por computadora basado en gramática de unión

Sin embargo, los investigadores habían subestimado la profunda dificultad de desambiguar el sentido de las palabras . Para traducir una frase, una máquina necesitaba tener alguna idea de qué trataba la frase, de lo contrario cometía errores. Un ejemplo apócrifo [11] es "el espíritu está dispuesto pero la carne es débil". Traducido al ruso, se convirtió en "el vodka es bueno pero la carne está podrida". [12] Investigadores posteriores llamarían a esto el problema del conocimiento de sentido común .

En 1964, el Consejo Nacional de Investigación se preocupó por la falta de progreso y formó el Comité Asesor de Procesamiento Automático del Lenguaje ( ALPAC ) para investigar el problema. Concluyeron, en un famoso informe de 1966, que la traducción automática era más cara, menos precisa y más lenta que la traducción humana. Después de gastar unos 20 millones de dólares, la NRC puso fin a todo apoyo. Se destruyeron carreras y se acabó la investigación. [2] [10]

La traducción automática compartió el mismo camino con el procesamiento del lenguaje natural, desde los enfoques basados ​​en reglas, pasando por los enfoques estadísticos hasta los enfoques de redes neuronales, que en 2023 culminaron en grandes modelos de lenguaje .

El fracaso de las redes neuronales de una sola capa en 1969

Las redes o circuitos simples de unidades conectadas, incluida la red neuronal para lógica de Walter Pitts y Warren McCulloch y el sistema SNARC de Marvin Minsky , no han logrado dar los resultados prometidos y fueron abandonados a finales de los años cincuenta. Tras el éxito de programas como Logic Theorist y General Problem Solver , [13] los algoritmos para manipular símbolos parecían más prometedores en ese momento como medio para lograr el razonamiento lógico considerado en ese momento como la esencia de la inteligencia, ya sea natural o artificial.

El interés por los perceptrones , inventados por Frank Rosenblatt, se mantuvo vivo sólo por la pura fuerza de su personalidad. [14] Predijo con optimismo que el perceptrón "con el tiempo podrá aprender, tomar decisiones y traducir idiomas". [15] La investigación convencional sobre los perceptrones terminó en parte porque el libro Perceptrons de 1969 , de Marvin Minsky y Seymour Papert, enfatizó los límites de lo que podían hacer los perceptrones. [16] Si bien ya se sabía que los perceptrones multicapa no son objeto de crítica, en los años 60 nadie sabía cómo entrenar perceptrones multicapa. Aún faltaban años para la retropropagación . [17]

En la década de 1970 y principios de la de 1980 era difícil encontrar financiación importante para proyectos con enfoques de redes neuronales. [18] A pesar de la falta de financiación, prosiguieron importantes trabajos teóricos. El "invierno" del enfoque de las redes neuronales llegó a su fin a mediados de la década de 1980, cuando el trabajo de John Hopfield , David Rumelhart y otros revivieron el interés a gran escala. [19] Sin embargo, Rosenblatt no vivió para ver esto, ya que murió en un accidente de navegación poco después de la publicación de Perceptrons . [15]

Los reveses de 1974

El informe Lighthill

En 1973, el Parlamento del Reino Unido pidió al profesor Sir James Lighthill que evaluara el estado de la investigación en IA en el Reino Unido. Su informe, ahora llamado Informe Lighthill, critica el fracaso total de la IA a la hora de alcanzar sus "grandes objetivos". Llegó a la conclusión de que nada de lo que se hace en IA no se puede hacer en otras ciencias. Mencionó específicamente el problema de la " explosión combinatoria " o la " intratabilidad ", lo que implicaba que muchos de los algoritmos más exitosos de la IA se detendrían en problemas del mundo real y sólo serían adecuados para resolver versiones de "juguete". [20]

El informe fue impugnado en un debate transmitido en la serie "Controversy" de la BBC en 1973. El debate "El robot de propósito general es un espejismo" de la Royal Institution fue Lighthill versus el equipo de Donald Michie , John McCarthy y Richard Gregory . [21] McCarthy escribió más tarde que "el problema de la explosión combinatoria ha sido reconocido en la IA desde el principio". [22]

El informe provocó el desmantelamiento total de la investigación de la IA en el Reino Unido. [20] La investigación en IA continuó sólo en unas pocas universidades (Edimburgo, Essex y Sussex). La investigación no reviviría a gran escala hasta 1983, cuando Alvey (un proyecto de investigación del gobierno británico) comenzó a financiar la IA nuevamente con un fondo de guerra de £ 350 millones en respuesta al Proyecto Japonés de Quinta Generación (ver más abajo). Alvey tenía una serie de requisitos exclusivos del Reino Unido que no encajaban bien a nivel internacional, especialmente con los socios estadounidenses, y perdió la financiación de la Fase 2.

Los recortes de financiación de DARPA a principios de la década de 1970

Durante la década de 1960, la Agencia de Proyectos de Investigación Avanzada de Defensa (entonces conocida como "ARPA", ahora conocida como "DARPA") proporcionó millones de dólares para la investigación de la IA con pocas condiciones. JCR Licklider , director fundador de la división informática de DARPA, creía en "financiar personas, no proyectos" [23] y él y varios sucesores permitieron a los líderes de AI (como Marvin Minsky , John McCarthy, Herbert A. Simon o Allen Newell ) gastar casi como quisieran.

Esta actitud cambió después de la aprobación de la Enmienda Mansfield en 1969, que requería que DARPA financiara "investigación directa orientada a una misión, en lugar de investigación básica no dirigida". [24] La investigación pura y no dirigida del tipo que se había llevado a cabo en la década de 1960 ya no sería financiada por DARPA. Los investigadores ahora tenían que demostrar que su trabajo pronto produciría alguna tecnología militar útil. Las propuestas de investigación de IA se mantuvieron a un nivel muy alto. La situación no mejoró cuando el informe Lighthill y el propio estudio de DARPA (el American Study Group) sugirieron que era poco probable que la mayoría de las investigaciones sobre IA produjeran algo verdaderamente útil en el futuro previsible. El dinero de DARPA se destinó a proyectos específicos con objetivos identificables, como tanques autónomos y sistemas de gestión de batalla. En 1974, era difícil encontrar financiación para proyectos de IA. [24]

El investigador de inteligencia artificial Hans Moravec atribuyó la crisis a las predicciones poco realistas de sus colegas: "Muchos investigadores se vieron atrapados en una red de exageraciones cada vez mayores. Sus promesas iniciales a DARPA eran demasiado optimistas. Por supuesto, lo que entregaron se quedó muy por debajo de eso. . Pero sintieron que en su siguiente propuesta no podían prometer menos que en la primera, por lo que prometieron más". [25] El resultado, afirma Moravec, es que parte del personal de DARPA había perdido la paciencia con la investigación de la IA. "En DARPA se expresó literalmente que '¡a algunas de estas personas se les iba a dar una lección al reducir sus contratos de dos millones de dólares al año a casi nada!'", le dijo Moravec a Daniel Crevier . [26]

Si bien el proyecto del tanque autónomo fue un fracaso, el sistema de gestión de batalla (la Herramienta de Análisis Dinámico y Replanificación ) demostró ser enormemente exitoso, ahorrando miles de millones en la primera Guerra del Golfo , reembolsando toda la inversión de DARPA en IA [27] y justificando la política pragmática de DARPA. . [28]

La debacle del Sur

Como se describe en: [29]

En 1971, la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) inició un ambicioso experimento de cinco años de duración en la comprensión del habla. Los objetivos del proyecto eran proporcionar reconocimiento de expresiones de un vocabulario limitado casi en tiempo real. Tres organizaciones finalmente demostraron sistemas al concluir el proyecto en 1976. Estas fueron la Universidad Carnegie-Mellon (CMU), que en realidad demostró dos sistemas [HEARSAY-II y HARPY]; Bolt, Beranek y Newman (BBN); y Corporación de Desarrollo de Sistemas con el Instituto de Investigación de Stanford (SDC/SRI)

El sistema que más se acercó a satisfacer los objetivos originales del proyecto fue el sistema CMU HARPY. El rendimiento relativamente alto del sistema HARPY se logró en gran medida mediante la "conexión" de información sobre posibles expresiones en la base de conocimientos del sistema. Aunque HARPY hizo algunas contribuciones interesantes, su dependencia de un amplio conocimiento previo limitó la aplicabilidad del enfoque a otras tareas de comprensión de señales.

DARPA estaba profundamente decepcionado con los investigadores que trabajaban en el programa de Investigación sobre Comprensión del Habla en la Universidad Carnegie Mellon. DARPA había esperado, y sintió que le habían prometido, un sistema que pudiera responder a los comandos de voz de un piloto. El equipo de SUR había desarrollado un sistema que podía reconocer el inglés hablado, pero sólo si las palabras se pronunciaban en un orden determinado . DARPA se sintió engañada y, en 1974, cancelaron un contrato de tres millones de dólares al año. [30]

Muchos años después, varios sistemas comerciales exitosos de reconocimiento de voz utilizarían la tecnología desarrollada por el equipo de Carnegie Mellon (como los modelos ocultos de Markov ) y el mercado de sistemas de reconocimiento de voz alcanzaría los 4 mil millones de dólares en 2001. [31]

Para obtener una descripción de Hearsay-II, consulte Hearsay-II , The Hearsay-II Speech Understanding System: Integrating Knowledge to Resolve Uncertainty y A Retrospective View of the Hearsay-II Architecture que aparecen en Blackboard Systems [32]

Reddy ofrece una revisión del progreso en la comprensión del habla al final del proyecto DARPA en un artículo de 1976 en Proceedings of the IEEE . [33]

Vista contraria

Thomas Haigh [34] sostiene que la actividad en el ámbito de la IA no se desaceleró, incluso cuando se redirigieron los fondos del Departamento de Defensa, principalmente a raíz de la legislación del Congreso destinada a separar las actividades militares y académicas. Ese interés profesional fue creciendo a lo largo de los años 70. Utilizando el recuento de miembros del SIGART de ACM , el Grupo de Interés Especial en Inteligencia Artificial , como indicador del interés en el tema, el autor escribe: "(...) Localicé dos fuentes de datos, ninguna de las cuales respalda la idea de una Uno de ellos es la membresía en SIGART de ACM, el principal lugar para compartir noticias y resúmenes de investigaciones durante la década de 1970. Cuando se publicó el informe Lighthill en 1973, el grupo en rápido crecimiento tenía 1.241 miembros, aproximadamente el doble que en 1969. Los siguientes cinco años se consideran convencionalmente como la parte más oscura del primer invierno de la IA. ¿Se estaba reduciendo la comunidad de IA? ¡No! A mediados de 1978, la membresía de SIGART casi se había triplicado, a 3.500. estaba aumentando proporcionalmente más rápido que la ACM en su conjunto, que había comenzado a estabilizarse (expandiéndose menos del 50% durante todo el período de 1969 a 1978). Uno de cada 11 miembros de la ACM estaba en SIGART".

Los reveses de finales de los 80 y principios de los 90

El colapso del mercado de máquinas LISP

En la década de 1980, corporaciones de todo el mundo adoptaron una forma de programa de IA llamado " sistema experto ". El primer sistema experto comercial fue XCON , desarrollado en Carnegie Mellon para Digital Equipment Corporation , y fue un enorme éxito: se estima que le ahorró a la empresa 40 millones de dólares en sólo seis años de funcionamiento. Corporaciones de todo el mundo comenzaron a desarrollar e implementar sistemas expertos y en 1985 gastaban más de mil millones de dólares en IA, la mayor parte en departamentos internos de IA. Creció una industria para respaldarlos, incluidas compañías de software como Teknowledge e Intellicorp (KEE) , y compañías de hardware como Symbolics y LISP Machines Inc., que construyeron computadoras especializadas, llamadas máquinas LISP , que fueron optimizadas para procesar el lenguaje de programación LISP , el preferido. lenguaje para la investigación de IA en los EE. UU. [35] [36]

En 1987, tres años después de la predicción de Minsky y Schank, el mercado de hardware especializado de IA basado en LISP colapsó. Las estaciones de trabajo de empresas como Sun Microsystems ofrecían una poderosa alternativa a las máquinas LISP y empresas como Lucid ofrecían un entorno LISP para esta nueva clase de estaciones de trabajo. El rendimiento de estas estaciones de trabajo generales se convirtió en un desafío cada vez más difícil para LISP Machines. Empresas como Lucid y Franz LISP ofrecieron versiones cada vez más potentes de LISP que eran portátiles a todos los sistemas UNIX. Por ejemplo, se publicaron pruebas comparativas que mostraban que las estaciones de trabajo mantenían una ventaja de rendimiento sobre las máquinas LISP. [37] Las computadoras de escritorio posteriores construidas por Apple e IBM también ofrecerían una arquitectura más simple y popular para ejecutar aplicaciones LISP. En 1987, algunas de ellas se habían vuelto tan potentes como las máquinas LISP, más caras. Las computadoras de escritorio tenían disponibles motores basados ​​​​en reglas como CLIPS . [38] Estas alternativas dejaron a los consumidores sin motivos para comprar una máquina costosa especializada en ejecutar LISP. En un solo año se reemplazó toda una industria valorada en 500 millones de dólares. [39]

A principios de la década de 1990, la mayoría de las empresas comerciales de LISP habían fracasado, incluidas Symbolics, LISP Machines Inc., Lucid Inc., etc. Otras empresas, como Texas Instruments y Xerox , abandonaron el campo. Un pequeño número de empresas clientes (es decir, empresas que utilizan sistemas escritos en LISP y desarrollados en plataformas de máquinas LISP) continuaron manteniendo los sistemas. En algunos casos, este mantenimiento implicó la asunción de los trabajos de soporte resultantes. [40]

Ralentización en el despliegue de sistemas expertos

A principios de la década de 1990, los primeros sistemas expertos exitosos, como XCON, resultaron demasiado costosos de mantener. Eran difíciles de actualizar, no podían aprender, eran "frágiles" (es decir, podían cometer errores grotescos cuando se les daban entradas inusuales) y caían presa de problemas (como el problema de calificación ) que se habían identificado años antes en Investigación en lógica no monótona . Los sistemas expertos resultaron útiles, pero sólo en unos pocos contextos especiales. [41] [42] Otro problema tenía que ver con la dureza computacional de los esfuerzos de mantenimiento de la verdad para el conocimiento general. KEE utilizó un enfoque basado en suposiciones (ver NASA, TEXSYS) que respaldaba escenarios de múltiples mundos que eran difíciles de entender y aplicar.

Las pocas empresas fantasma de sistemas expertos que quedaban finalmente se vieron obligadas a reducir su tamaño y buscar nuevos mercados y paradigmas de software, como el razonamiento basado en casos o el acceso universal a bases de datos . La maduración de Common Lisp salvó muchos sistemas como ICAD , que encontró aplicación en la ingeniería basada en el conocimiento . Otros sistemas, como KEE de Intellicorp, pasaron de LISP a C++ (variante) en la PC y ayudaron a establecer la tecnología orientada a objetos (incluido el suministro de un importante soporte para el desarrollo de UML (consulte Socios de UML ).

El fin del proyecto Quinta Generación

En 1981, el Ministerio japonés de Comercio Internacional e Industria reservó 850 millones de dólares para el proyecto informático de quinta generación . Sus objetivos eran escribir programas y construir máquinas que pudieran mantener conversaciones, traducir idiomas, interpretar imágenes y razonar como seres humanos. En 1991, la impresionante lista de objetivos trazados en 1981 no se había cumplido. Según HP Newquist en The Brain Makers , "El 1 de junio de 1992, el Proyecto de Quinta Generación terminó no con un rugido exitoso, sino con un gemido". [40] Al igual que con otros proyectos de IA, las expectativas habían sido mucho más altas de lo que era realmente posible. [43] [44]

Recortes de la Iniciativa de Computación Estratégica

En 1983, en respuesta al proyecto de quinta generación, DARPA comenzó nuevamente a financiar la investigación de IA a través de la Iniciativa de Computación Estratégica. Como se propuso originalmente, el proyecto comenzaría con objetivos prácticos y alcanzables, que incluso incluían la inteligencia artificial general como objetivo a largo plazo. El programa estuvo bajo la dirección de la Oficina de Tecnología de Procesamiento de la Información (IPTO) y también estuvo dirigido a supercomputación y microelectrónica . En 1985 había gastado 100 millones de dólares y había 92 proyectos en marcha en 60 instituciones, la mitad en la industria, la otra mitad en universidades y laboratorios gubernamentales. La investigación sobre IA estuvo bien financiada por el SCI. [45]

Jack Schwarz, que ascendió al liderazgo de IPTO en 1987, descartó los sistemas expertos calificándolos de "programación inteligente" y recortó la financiación para la IA de forma "profunda y brutal", "destripando" a SCI. Schwarz consideró que DARPA debería centrar su financiación sólo en aquellas tecnologías que se mostraran más prometedoras; en sus palabras, DARPA debería "surfear", en lugar de "remar como perro", y sentía firmemente que la IA no era "la próxima ola". Los expertos en el programa citaron problemas de comunicación, organización e integración. Unos pocos proyectos sobrevivieron a los recortes de financiación, incluido un asistente de piloto y un vehículo terrestre autónomo (que nunca se entregaron) y el sistema de gestión de batalla DART, que (como se señaló anteriormente) tuvo éxito. [46]

Invierno de IA de los años 1990 y principios de los 2000

Un estudio de informes de principios de la década de 2000 sugiere que la reputación de la IA todavía era mala:

Muchos investigadores en IA a mediados de la década de 2000 llamaron deliberadamente a su trabajo con otros nombres , como informática , aprendizaje automático, análisis, sistemas basados ​​en el conocimiento , gestión de reglas de negocio , sistemas cognitivos , sistemas inteligentes, agentes inteligentes o inteligencia computacional , para indicar que sus El trabajo enfatiza herramientas particulares o está dirigido a un subproblema particular. Aunque esto puede deberse en parte a que consideran que su campo es fundamentalmente diferente de la IA, también es cierto que los nuevos nombres ayudan a conseguir financiación evitando el estigma de las falsas promesas asociadas al nombre de "inteligencia artificial". [49] [50]

A finales de la década de 1990 y principios del siglo XXI, la tecnología de IA se utilizó ampliamente como elementos de sistemas más grandes, [51] [52] pero rara vez se atribuyen estos éxitos a este campo. En 2006, Nick Bostrom explicó que "mucha IA de vanguardia se ha filtrado en aplicaciones generales, a menudo sin llamarse IA porque una vez que algo se vuelve lo suficientemente útil y común ya no se llama IA". [53] Rodney Brooks declaró casi al mismo tiempo que "existe este estúpido mito de que la IA ha fallado, pero la IA está a tu alrededor cada segundo del día". [54]

"Primavera" actual de la IA (principios de la década de 2020-presente)

La IA alcanzó los niveles más altos de interés y financiación de su historia en la década de 2020, según todos los indicadores posibles, incluidos: publicaciones, [55] solicitudes de patentes, [56] inversión total (50 mil millones de dólares en 2022), [57] y ofertas de trabajo ( 800.000 puestos vacantes en EE. UU. en 2022). [58] Los éxitos de la actual "primavera de la IA" o "boom de la IA" son los avances en la traducción de idiomas (en particular, Google Translate ), el reconocimiento de imágenes (impulsado por la base de datos de capacitación ImageNet ) comercializado por Google Image Search y en los juegos. -sistemas de juego como AlphaZero (campeón de ajedrez) y AlphaGo (campeón de go), y Watson ( campeón de Jeopardy ). Un punto de inflexión se produjo en 2012, cuando AlexNet (una red de aprendizaje profundo ) ganó el ImageNet Large Scale Visual Recognition Challenge con la mitad de errores que el ganador del segundo lugar. [59]

El lanzamiento en 2022 del chatbot de IA ChatGPT de OpenAI , que en enero de 2023 cuenta con más de 100 millones de usuarios, [60] ha revitalizado el debate sobre la inteligencia artificial y sus efectos en el mundo. [61] [62] El director ejecutivo de Google, Sundar Pichai, ha declarado que la IA será la tecnología más importante que creen los humanos. [63]

Ver también

Notas

  1. ^ Boletín de expertos en IA: W es para invierno Archivado el 9 de noviembre de 2013 en Wayback Machine.
  2. ^ abc Crevier 1993, pag. 203.
  3. ^ Diferentes fuentes utilizan diferentes fechas para el invierno de la IA. Consideremos: (1) Howe 1994: "El informe de Lighthill [1973] provocó una pérdida masiva de confianza en la IA por parte del establishment académico en el Reino Unido (y en menor medida en los EE.UU.). Persistió durante una década: la llamada '"AI Winter'", (2) Russell & Norvig 2003, p. 24: "En general, la industria de la IA creció desde unos pocos millones de dólares en 1980 a miles de millones de dólares en 1988. Poco después vino un período llamado 'IA'. Invierno'"
  4. ^ "La era de la traducción mecánica y cómo fracasó (Historia de los LLM n.º 1)". Publicación de Turing . 16 de junio de 2023 . Consultado el 11 de septiembre de 2023 .
  5. ^ Warren Weaver (1949). "Traducción". En William N. Locke; A. Donald Booth (eds.). Traducción automática de idiomas: catorce ensayos (PDF) . Cambridge, MA; Nueva York: Technology Press del Instituto de Tecnología de Massachusetts; John Wiley e hijos. págs. 15-23. ISBN 9780262120029.
  6. ^ abc "La historia de AI Winters y lo que nos enseña hoy (Historia de los LLM. Bonificación)". Publicación de Turing . 30 de junio de 2023 . Consultado el 11 de septiembre de 2023 .
  7. ^ Cerebro electrónico traduce noticias rusas de ingeniería y química
  8. ^ Creación políglota aclanthology.org
  9. ^ Nación, I. (2006). "¿Qué cantidad de vocabulario se necesita para leer y escuchar?". La revisión canadiense del lenguaje moderno . 63 (1): 59–82. doi :10.3138/cmlr.63.1.59.
  10. ^ ab John Hutchins 2005 La historia de la traducción automática en pocas palabras. Archivado el 13 de julio de 2019 en Wayback Machine.
  11. ^ Hutchins, John. (1995). "El whisky era invisible", o Mitos persistentes de MT Archivado el 4 de abril de 2020 en Wayback Machine.
  12. ^ Russell y Norvig 2003, pág. 21.
  13. ^ McCorduck 2004, págs. 52-107
  14. ^ Pamela McCorduck cita a un colega diciendo: "Era el sueño de un agente de prensa, un verdadero curandero". (McCorduck 2004, pág. 105)
  15. ^ ab Crevier 1993, págs. 102-5
  16. ^ Minsky y Papert 1969.
  17. ^ Sejnowski, Terrence J. (2018). La revolución del aprendizaje profundo . Cambridge, Massachusetts Londres, Inglaterra: The MIT Press. pag. 47.ISBN 978-0-262-03803-4.
  18. ^ Crevier 1993, págs. 102-105, McCorduck 2004, págs. 104-107, Russell y Norvig 2003, pág. 22
  19. ^ Crevier 1993, págs. 214–6 y Russell y Norvig 2003, pág. 25
  20. ^ ab Crevier 1993, pág. 117, Russell y Norvig 2003, pág. 22, Howe 1994 y véase también Lighthill 1973.
  21. ^ "Debate de Lighthill de la controversia de la BBC 1973". Serie de debates "Controversy" de la BBC . INSTITUTO DE APLICACIONES-INTELLIGENCIA_ARTIFICIAL¯. 1973 . Consultado el 13 de agosto de 2010 .
  22. ^ McCarthy, John (1993). "Revisión del informe Lighthill". Archivado desde el original el 30 de septiembre de 2008 . Consultado el 10 de septiembre de 2008 .
  23. ^ Crevier 1993, pag. sesenta y cinco
  24. ^ ab NRC 1999, bajo "El cambio a la investigación aplicada aumenta la inversión" (sólo las secciones anteriores a 1980 se aplican a la discusión actual).
  25. ^ Crevier 1993, pag. 115
  26. ^ Crevier 1993, pag. 117
  27. ^ Russell y Norvig 2003, pág. 25
  28. ^ NRC 1999
  29. ^ Engelmore, Robert; Morgan, Tony (1988). Sistemas de pizarra . Addison-Wesley. pag. 25.ISBN 0-201-17431-6.
  30. ^ Crevier 1993, págs. 115-116 (en quien se basa este relato). Otros puntos de vista incluyen McCorduck 2004, págs. 306–313 y NRC 1999 en "Éxito en el reconocimiento de voz".
  31. ^ NRC 1999 en "Éxito en el reconocimiento de voz".
  32. ^ Engelmore, Robert; Morgan, Tony (1988). Sistemas de pizarra . Addison-Wesley. págs. 25-121. ISBN 0-201-17431-6.
  33. ^ Reddy, Raj (abril de 1976). "Reconocimiento de voz por máquina: una revisión". Actas del IEEE . 64 (4): 501–531. doi :10.1109/PROC.1976.10158.
  34. ^ "No hubo un 'primer invierno de IA' | Diciembre de 2023 | Comunicaciones de la ACM".
  35. ^ Newquist 1994, págs. 189-201
  36. ^ Crevier 1993, págs. 161–2, 197–203
  37. ^ Brooks, Rodney. "Diseño de un compilador optimizado y redireccionable dinámicamente para LISP común" (PDF) . Lucid, Inc. Archivado desde el original (PDF) el 20 de agosto de 2013.
  38. ^ Evitar otro invierno de IA, James Hendler, IEEE Intelligent Systems (marzo/abril de 2008 (vol. 23, n.º 2) págs. 2–4
  39. ^ Crevier 1993, págs. 209-210
  40. ^ ab The Brain Makers: genio, ego y codicia en la búsqueda de máquinas que piensen . Nueva York: Macmillan/SAMS. 1994.ISBN 978-0-9885937-1-8.
  41. ^ Newquist 1994, pág. 296
  42. ^ Crevier 1993, págs. 204-208
  43. ^ Newquist 1994, págs. 431–434
  44. ^ Crevier 1993, págs. 211-212
  45. ^ McCorduck 2004, págs. 426–429
  46. ^ McCorduck 2004, págs. 430–431
  47. ^ Alex Castro en ¿Me estás hablando? The Economist Technology Quarterly (7 de junio de 2007) Archivado el 13 de junio de 2008 en Wayback Machine.
  48. ^ Las empresas de robótica tienen dificultades para recaudar fondos y el capital de riesgo es tímido. Por Patty Tascarella. Pittsburgh Business Times (11 de agosto de 2006) Archivado el 26 de marzo de 2014 en Wayback Machine.
  49. ^ ab Markoff, John (14 de octubre de 2005). "Detrás de la inteligencia artificial, un escuadrón de personas reales brillantes". Los New York Times . Consultado el 30 de julio de 2007 .
  50. ^ Newquist 1994, pág. 423
  51. ^ NRC 1999 bajo "Inteligencia artificial en los años 90"
  52. ^ Kurzweil 2005, pág. 264.
  53. ^ La IA superará la capacidad del cerebro humano CNN.com (26 de julio de 2006) Archivado el 3 de noviembre de 2006 en Wayback Machine.
  54. ^ Kurzweil 2005, pág. 263.
  55. ^ UNESCO (2021).
  56. ^ "Propiedad intelectual y tecnologías de frontera". OMPI . Archivado desde el original el 2 de abril de 2022 . Consultado el 30 de marzo de 2022 .
  57. ^ DiFeliciantonio (2023).
  58. ^ Goswami (2023).
  59. ^ Cristiano 2020, pag. 24.
  60. ^ Milmo, Dan (2 de febrero de 2023). "ChatGPT llega a los 100 millones de usuarios dos meses después del lanzamiento". El guardián . ISSN  0261-3077 . Consultado el 30 de octubre de 2023 .
  61. ^ "¿Qué es ChatGPT y por qué es importante? Esto es lo que necesita saber". ZDNet .
  62. ^ "El director ejecutivo de OpenAI, Sam Altman, dice que la IA remodelará la sociedad y reconoce los riesgos: 'Estoy un poco asustado por esto'". ABC Noticias .
  63. ^ "La inteligencia artificial podría ser nuestro salvador, según el director ejecutivo de Google". 24 de enero de 2018.

Referencias

Otras lecturas

enlaces externos