En la historia de la inteligencia artificial , un invierno de IA es un período de reducción de la financiación y el interés en la investigación de inteligencia artificial . [1] El campo ha experimentado varios ciclos de exageración , seguidos de decepción y críticas, seguidos de recortes de financiación, seguidos de un renovado interés años o incluso décadas después.
El término apareció por primera vez en 1984 como tema de un debate público en la reunión anual de la AAAI (entonces llamada la "Asociación Americana de Inteligencia Artificial"). [2] Roger Schank y Marvin Minsky —dos investigadores líderes en IA que experimentaron el "invierno" de la década de 1970— advirtieron a la comunidad empresarial que el entusiasmo por la IA se había descontrolado en la década de 1980 y que seguramente vendría la decepción. Describieron una reacción en cadena, similar a un " invierno nuclear ", que comenzaría con pesimismo en la comunidad de IA, seguido por pesimismo en la prensa, seguido por un severo recorte en la financiación, seguido por el fin de la investigación seria. [2] Tres años después, la industria de la IA, valorada en mil millones de dólares, comenzó a colapsar.
Hubo dos inviernos importantes aproximadamente entre 1974 y 1980 y entre 1987 y 2000, [3] y varios episodios menores, entre ellos los siguientes:
El entusiasmo y el optimismo sobre la IA en general ha aumentado desde su punto más bajo a principios de la década de 1990. A partir de 2012, el interés en la inteligencia artificial (y especialmente en el subcampo del aprendizaje automático ) por parte de las comunidades de investigación y corporativas condujo a un aumento dramático en la financiación y la inversión, lo que condujo al auge actual (a partir de 2024 [actualizar]) de la IA .
La investigación sobre el procesamiento del lenguaje natural (PLN) tiene sus raíces a principios de la década de 1930 y comenzó su existencia con el trabajo sobre la traducción automática (TA). [4] Sin embargo, comenzaron a surgir avances y aplicaciones importantes después de la publicación del influyente memorando de Warren Weaver, Machine translation of language: fourteen essays en 1949. [5] El memorando generó gran entusiasmo dentro de la comunidad de investigación. En los años siguientes, se desarrollaron eventos notables: IBM se embarcó en el desarrollo de la primera máquina, el MIT nombró a su primer profesor de tiempo completo en traducción automática y se llevaron a cabo varias conferencias dedicadas a la TA. La culminación llegó con la demostración pública de la máquina IBM-Georgetown, que obtuvo una amplia atención en periódicos respetados en 1954. [6]
Al igual que todos los booms de la IA que han sido seguidos por desesperados inviernos de IA, los medios de comunicación tendieron a exagerar la importancia de estos avances. Los titulares sobre el experimento de IBM-Georgetown proclamaban frases como "La máquina bilingüe", "El cerebro del robot traduce el ruso al inglés del rey" [7] y "Una creación políglota". [8] Sin embargo, la demostración real implicó la traducción de un conjunto seleccionado de sólo 49 frases rusas al inglés, con el vocabulario de la máquina limitado a sólo 250 palabras. [6] Para poner las cosas en perspectiva, un estudio de 2006 realizado por Paul Nation concluyó que los seres humanos necesitan un vocabulario de alrededor de 8.000 a 9.000 familias de palabras para comprender textos escritos con un 98% de precisión. [9]
Durante la Guerra Fría , el gobierno de Estados Unidos estaba particularmente interesado en la traducción automática e instantánea de documentos e informes científicos rusos. El gobierno apoyó agresivamente los esfuerzos de traducción automática a partir de 1954. Otro factor que impulsó el campo de la traducción automática fue el interés mostrado por la Agencia Central de Inteligencia (CIA). Durante ese período, la CIA creía firmemente en la importancia de desarrollar capacidades de traducción automática y apoyó tales iniciativas. También reconocieron que este programa tenía implicaciones que se extendían más allá de los intereses de la CIA y la comunidad de inteligencia. [6]
Al principio, los investigadores eran optimistas. Los nuevos trabajos de Noam Chomsky sobre gramática estaban agilizando el proceso de traducción y había "muchas predicciones de avances inminentes". [10]
Sin embargo, los investigadores habían subestimado la profunda dificultad de desambiguar el sentido de las palabras . Para traducir una oración, una máquina necesitaba tener alguna idea de lo que decía la oración, de lo contrario cometía errores. Un ejemplo apócrifo [11] es "el espíritu está dispuesto pero la carne es débil". Traducido de ida y vuelta con el ruso, se convirtió en "el vodka es bueno pero la carne está podrida". [12] Los investigadores posteriores llamarían a esto el problema del conocimiento del sentido común .
En 1964, el Consejo Nacional de Investigación se preocupó por la falta de progreso y formó el Comité Asesor de Procesamiento Automático del Lenguaje ( ALPAC ) para estudiar el problema. Concluyeron, en un famoso informe de 1966, que la traducción automática era más cara, menos precisa y más lenta que la traducción humana. Después de gastar unos 20 millones de dólares, el NRC puso fin a todo apoyo. Se destruyeron carreras y se terminó la investigación. [2] [10]
La traducción automática compartió el mismo camino con el PNL desde los enfoques basados en reglas, pasando por los enfoques estadísticos hasta los enfoques de redes neuronales, que en 2023 culminaron en grandes modelos de lenguaje .
Las redes simples o circuitos de unidades conectadas, incluyendo la red neuronal para lógica de Walter Pitts y Warren McCulloch y el sistema SNARC de Marvin Minsky , no han logrado entregar los resultados prometidos y fueron abandonadas a fines de la década de 1950. Tras el éxito de programas como Logic Theorist y General Problem Solver , [13] los algoritmos para manipular símbolos parecieron más prometedores en ese momento como medios para lograr el razonamiento lógico visto en ese momento como la esencia de la inteligencia, ya sea natural o artificial.
El interés por los perceptrones , inventados por Frank Rosenblatt, se mantuvo vivo gracias a la fuerza de su personalidad. [14] Predijo con optimismo que el perceptrón "podría llegar a ser capaz de aprender, tomar decisiones y traducir idiomas". [15] La investigación convencional sobre los perceptrones terminó parcialmente porque el libro Perceptrons de 1969 de Marvin Minsky y Seymour Papert enfatizó los límites de lo que los perceptrones podían hacer. [16] Si bien ya se sabía que los perceptrones multicapa no estaban sujetos a críticas, nadie en la década de 1960 sabía cómo entrenar un perceptrón multicapa. La retropropagación aún estaba a años de distancia. [17]
En los años 1970 y principios de los 1980 era difícil encontrar financiación importante para proyectos de redes neuronales. [18] A pesar de la falta de financiación, se siguió trabajando en la teoría de forma importante. El "invierno" de las redes neuronales llegó a su fin a mediados de los 1980, cuando el trabajo de John Hopfield , David Rumelhart y otros reavivó el interés a gran escala. [19] Sin embargo, Rosenblatt no vivió para verlo, ya que murió en un accidente de barco poco después de que se publicara Perceptrons . [15]
En 1973, el Parlamento del Reino Unido pidió al profesor Sir James Lighthill que evaluara el estado de la investigación en IA en el Reino Unido. Su informe, ahora llamado informe Lighthill, criticaba el fracaso absoluto de la IA a la hora de lograr sus "grandiosos objetivos". Concluía que nada de lo que se hacía en IA no se podía hacer en otras ciencias. Mencionó específicamente el problema de la " explosión combinatoria " o " intratabilidad ", lo que implicaba que muchos de los algoritmos de IA más exitosos se paralizarían en los problemas del mundo real y solo serían adecuados para resolver versiones "de juguete". [20]
El informe fue cuestionado en un debate transmitido en la serie "Controversy" de la BBC en 1973. El debate "El robot de propósito general es un espejismo" de la Royal Institution fue Lighthill contra el equipo de Donald Michie , John McCarthy y Richard Gregory . [21] McCarthy escribió más tarde que "el problema de la explosión combinatoria ha sido reconocido en la IA desde el principio". [22]
El informe condujo al desmantelamiento total de la investigación en IA en el Reino Unido. [20] La investigación en IA continuó en sólo unas pocas universidades (Edimburgo, Essex y Sussex). La investigación no se reactivaría a gran escala hasta 1983, cuando Alvey (un proyecto de investigación del gobierno británico) comenzó a financiar la IA de nuevo con un fondo de guerra de 350 millones de libras en respuesta al Proyecto de Quinta Generación japonés (véase más adelante). Alvey tenía una serie de requisitos exclusivos para el Reino Unido que no fueron bien recibidos a nivel internacional, especialmente entre los socios estadounidenses, y perdió la financiación de la Fase 2.
Durante la década de 1960, la Agencia de Proyectos de Investigación Avanzada de Defensa (en aquel entonces conocida como "ARPA", ahora conocida como "DARPA") proporcionó millones de dólares para la investigación de IA con pocas condiciones. JCR Licklider , el director fundador de la división informática de DARPA, creía en "financiar a personas, no a proyectos" [23] y él y varios sucesores permitieron a los líderes de IA (como Marvin Minsky , John McCarthy, Herbert A. Simon o Allen Newell ) gastarlos casi como quisieran.
Esta actitud cambió tras la aprobación de la Enmienda Mansfield en 1969, que exigía a la DARPA que financiara "investigación directa orientada a una misión, en lugar de investigación básica no dirigida". [24] La investigación pura no dirigida del tipo que se había llevado a cabo en los años 1960 ya no sería financiada por la DARPA. Los investigadores ahora tenían que demostrar que su trabajo produciría pronto alguna tecnología militar útil. Las propuestas de investigación sobre IA se sometieron a un estándar muy alto. La situación no mejoró cuando el informe Lighthill y el propio estudio de la DARPA (el American Study Group) sugirieron que era poco probable que la mayoría de las investigaciones sobre IA produjeran algo verdaderamente útil en el futuro previsible. El dinero de la DARPA se destinó a proyectos específicos con objetivos identificables, como tanques autónomos y sistemas de gestión de batalla. En 1974, era difícil encontrar financiación para proyectos de IA. [24]
El investigador de IA Hans Moravec achacó la crisis a las predicciones poco realistas de sus colegas: "Muchos investigadores se vieron atrapados en una red de exageraciones cada vez mayores. Sus promesas iniciales a DARPA habían sido demasiado optimistas. Por supuesto, lo que entregaron no llegó a cumplirse. Pero sintieron que en su siguiente propuesta no podían prometer menos que en la primera, así que prometieron más". [25] El resultado, afirma Moravec, es que algunos miembros del personal de DARPA habían perdido la paciencia con la investigación en IA. "En DARPA se dijo literalmente que '¡algunas de estas personas iban a recibir una lección [al] ver sus contratos de dos millones de dólares al año reducidos a casi nada!'", dijo Moravec a Daniel Crevier . [26]
Aunque el proyecto del tanque autónomo fue un fracaso, el sistema de gestión de batalla (la herramienta de análisis y replanificación dinámica ) demostró ser enormemente exitoso, ahorrando miles de millones en la primera Guerra del Golfo , recuperando toda la inversión de DARPA en IA [27] y justificando la política pragmática de DARPA. [28]
Como se describe en: [29]
En 1971, la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) inició un ambicioso experimento de cinco años de duración sobre comprensión del habla. Los objetivos del proyecto eran proporcionar reconocimiento de enunciados de un vocabulario limitado en tiempo casi real. Tres organizaciones demostraron finalmente sus sistemas al concluir el proyecto en 1976. Se trataba de la Universidad Carnegie-Mellon (CMU), que demostró dos sistemas [HEARSAY-II y HARPY]; Bolt, Beranek y Newman (BBN); y la Corporación de Desarrollo de Sistemas con el Instituto de Investigación de Stanford (SDC/SRI).
El sistema que más se acercó a satisfacer los objetivos originales del proyecto fue el sistema HARPY de la CMU. El rendimiento relativamente alto del sistema HARPY se logró en gran medida mediante la "incorporación" de información sobre posibles enunciados en la base de conocimientos del sistema. Aunque HARPY realizó algunas contribuciones interesantes, su dependencia de un amplio conocimiento previo limitó la aplicabilidad del enfoque a otras tareas de comprensión de señales.
La DARPA estaba profundamente decepcionada con los investigadores que trabajaban en el programa de investigación de comprensión del habla de la Universidad Carnegie Mellon. La DARPA había esperado, y sentía que se le había prometido, un sistema que pudiera responder a los comandos de voz de un piloto. El equipo de SUR había desarrollado un sistema que podía reconocer el inglés hablado, pero sólo si las palabras se pronunciaban en un orden determinado . La DARPA sintió que la habían engañado y, en 1974, canceló un contrato de tres millones de dólares al año. [30]
Muchos años después, varios sistemas comerciales exitosos de reconocimiento de voz utilizarían la tecnología desarrollada por el equipo de Carnegie Mellon (como los modelos ocultos de Markov ) y el mercado de sistemas de reconocimiento de voz alcanzaría los 4 mil millones de dólares en 2001. [31]
Para obtener una descripción de Hearsay-II , consulte Hearsay-II , The Hearsay-II Speech Understanding System: Integrating Knowledge to Resolve Uncertainty y A Retrospective View of the Hearsay-II Architecture que aparecen en Blackboard Systems. [32]
Reddy ofrece una revisión del progreso en la comprensión del habla al final del proyecto DARPA en un artículo de 1976 en Proceedings of the IEEE . [33]
Thomas Haigh sostiene que la actividad en el campo de la IA no se desaceleró, incluso cuando se estaba redireccionando la financiación del Departamento de Defensa, principalmente a raíz de la legislación del Congreso destinada a separar las actividades militares y académicas. [34] De hecho, ese interés profesional fue creciendo a lo largo de los años 70. Utilizando el número de miembros del SIGART de la ACM , el Grupo de Interés Especial sobre Inteligencia Artificial , como indicador del interés en el tema, el autor escribe: [34]
(...) Encontré dos fuentes de datos, ninguna de las cuales apoya la idea de un invierno de IA de base amplia durante la década de 1970. Una es la membresía del SIGART de la ACM, el principal lugar para compartir noticias y resúmenes de investigaciones durante la década de 1970. Cuando se publicó el informe de Lighthill en 1973, el grupo de rápido crecimiento tenía 1.241 miembros, aproximadamente el doble del nivel de 1969. Los siguientes cinco años se consideran convencionalmente como la parte más oscura del primer invierno de IA. ¿Se estaba reduciendo la comunidad de IA? ¡No! A mediados de 1978, la membresía de SIGART casi se había triplicado, hasta 3.500. El grupo no solo estaba creciendo más rápido que nunca, sino que estaba aumentando proporcionalmente más rápido que la ACM en su conjunto, que había comenzado a estabilizarse (expandiéndose menos del 50% durante todo el período de 1969 a 1978). Uno de cada 11 miembros de la ACM estaba en SIGART.
En la década de 1980, las corporaciones de todo el mundo adoptaron una forma de programa de IA llamado " sistema experto ". El primer sistema experto comercial fue XCON , desarrollado en Carnegie Mellon para Digital Equipment Corporation , y fue un enorme éxito: se estimó que le había ahorrado a la empresa 40 millones de dólares en solo seis años de funcionamiento. Las corporaciones de todo el mundo comenzaron a desarrollar e implementar sistemas expertos y en 1985 estaban gastando más de mil millones de dólares en IA, la mayor parte en departamentos de IA internos. Surgió una industria para apoyarlos, incluidas empresas de software como Teknowledge e Intellicorp (KEE) , y empresas de hardware como Symbolics y LISP Machines Inc. que construyeron computadoras especializadas, llamadas máquinas LISP , que fueron optimizadas para procesar el lenguaje de programación LISP , el lenguaje preferido para la investigación de IA en los EE. UU. [35] [36]
En 1987, tres años después de la predicción de Minsky y Schank, el mercado de hardware especializado de IA basado en LISP colapsó. Las estaciones de trabajo de empresas como Sun Microsystems ofrecían una alternativa poderosa a las máquinas LISP y empresas como Lucid ofrecían un entorno LISP para esta nueva clase de estaciones de trabajo. El rendimiento de estas estaciones de trabajo generales se convirtió en un desafío cada vez más difícil para las máquinas LISP. Empresas como Lucid y Franz LISP ofrecían versiones cada vez más poderosas de LISP que eran portables a todos los sistemas UNIX. Por ejemplo, se publicaron pruebas comparativas que mostraban que las estaciones de trabajo mantenían una ventaja de rendimiento sobre las máquinas LISP. [37] Las computadoras de escritorio posteriores construidas por Apple e IBM también ofrecerían una arquitectura más simple y más popular para ejecutar aplicaciones LISP. En 1987, algunas de ellas se habían vuelto tan poderosas como las máquinas LISP más caras. Las computadoras de escritorio tenían motores basados en reglas disponibles como CLIPS . [38] Estas alternativas dejaron a los consumidores sin motivos para comprar una máquina costosa especializada para ejecutar LISP. Una industria entera que valía medio billón de dólares fue reemplazada en un solo año. [39]
A principios de los años 1990, la mayoría de las empresas comerciales de LISP habían fracasado, incluidas Symbolics, LISP Machines Inc., Lucid Inc., etc. Otras empresas, como Texas Instruments y Xerox , abandonaron el campo. Un pequeño número de empresas clientes (es decir, empresas que utilizaban sistemas escritos en LISP y desarrollados en plataformas de máquinas LISP) continuaron manteniendo los sistemas. En algunos casos, este mantenimiento implicaba la asunción del trabajo de soporte resultante. [40]
A principios de los años 1990, los primeros sistemas expertos exitosos, como XCON, resultaron demasiado costosos de mantener. Eran difíciles de actualizar, no podían aprender, eran "frágiles" (es decir, podían cometer errores grotescos cuando se les daban entradas inusuales) y eran víctimas de problemas (como el problema de la calificación ) que se habían identificado años antes en la investigación en lógica no monótona . Los sistemas expertos demostraron ser útiles, pero solo en unos pocos contextos especiales. [41] [42] Otro problema tenía que ver con la dificultad computacional de los esfuerzos de mantenimiento de la verdad para el conocimiento general. KEE utilizó un enfoque basado en suposiciones que respaldaba escenarios de múltiples mundos que era difícil de entender y aplicar.
Las pocas empresas de sistemas expertos que quedaban finalmente se vieron obligadas a reducir su tamaño y a buscar nuevos mercados y paradigmas de software, como el razonamiento basado en casos o el acceso universal a bases de datos . La maduración de Common Lisp salvó muchos sistemas como ICAD , que encontraron aplicación en la ingeniería basada en el conocimiento . Otros sistemas, como KEE de Intellicorp, pasaron de LISP a una variante de C++ en el PC y ayudaron a establecer la tecnología orientada a objetos (incluido el apoyo importante para el desarrollo de UML (consulte UML Partners ).
En 1981, el Ministerio de Comercio Internacional e Industria japonés destinó 850 millones de dólares al proyecto de ordenadores de quinta generación . Sus objetivos eran escribir programas y construir máquinas que pudieran mantener conversaciones, traducir idiomas, interpretar imágenes y razonar como seres humanos. En 1991, la impresionante lista de objetivos redactados en 1981 no se había cumplido. Según HP Newquist en The Brain Makers , "el 1 de junio de 1992, el Proyecto de Quinta Generación no terminó con un rugido exitoso, sino con un gemido". [40] Al igual que con otros proyectos de IA, las expectativas habían sido mucho mayores de lo que realmente era posible. [43] [44]
En 1983, en respuesta al proyecto de quinta generación, la DARPA comenzó a financiar nuevamente la investigación en IA a través de la Iniciativa de Computación Estratégica. Tal como se propuso originalmente, el proyecto comenzaría con objetivos prácticos y alcanzables, que incluso incluían la inteligencia artificial general como objetivo a largo plazo. El programa estaba bajo la dirección de la Oficina de Tecnología de Procesamiento de la Información (IPTO) y también estaba dirigido a la supercomputación y la microelectrónica . En 1985 había gastado 100 millones de dólares y había 92 proyectos en marcha en 60 instituciones, la mitad en la industria, la otra mitad en universidades y laboratorios gubernamentales. La investigación en IA estaba bien financiada por la SCI. [45]
Jack Schwarz, que ascendió a la dirección de IPTO en 1987, desestimó los sistemas expertos como "programación inteligente" y recortó la financiación a la IA "profunda y brutalmente", "destripando" a SCI. Schwarz creía que DARPA debería centrar su financiación sólo en aquellas tecnologías que mostraban más potencial; en sus palabras, DARPA debería "surfear", en lugar de "nadar como un perro", y estaba convencido de que la IA no era "la próxima ola". Los expertos en el programa citaron problemas de comunicación, organización e integración. Unos pocos proyectos sobrevivieron a los recortes de financiación, entre ellos el asistente del piloto y un vehículo terrestre autónomo (que nunca se entregaron) y el sistema de gestión de batalla DART, que (como se señaló anteriormente) tuvo éxito. [46]
Un estudio de informes de principios de la década de 2000 sugiere que la reputación de la IA todavía era mala:
A mediados de la década de 2000, muchos investigadores en IA denominaron deliberadamente su trabajo con otros nombres , como informática , aprendizaje automático, análisis, sistemas basados en el conocimiento , gestión de reglas de negocio , sistemas cognitivos , sistemas inteligentes, agentes inteligentes o inteligencia computacional , para indicar que su trabajo enfatiza herramientas particulares o está dirigido a un subproblema particular. Aunque esto puede deberse en parte a que consideran que su campo es fundamentalmente diferente de la IA, también es cierto que los nuevos nombres ayudan a obtener financiación al evitar el estigma de las falsas promesas asociadas al nombre "inteligencia artificial". [49] [50]
A finales de los años 1990 y principios del siglo XXI, la tecnología de IA se empezó a utilizar ampliamente como elemento de sistemas más grandes, [51] [52] pero rara vez se le atribuyen estos éxitos a este campo. En 2006, Nick Bostrom explicó que "mucha IA de vanguardia se ha filtrado a aplicaciones generales, a menudo sin llamarse IA porque una vez que algo se vuelve lo suficientemente útil y común ya no se lo etiqueta como IA". [53] Rodney Brooks afirmó por la misma época que "existe este estúpido mito de que la IA ha fracasado, pero la IA está a tu alrededor cada segundo del día". [54]
La IA ha alcanzado los niveles más altos de interés y financiación de su historia en los últimos años según todos los parámetros posibles, incluidos: publicaciones, [55] solicitudes de patentes, [56] inversión total (50.000 millones de dólares en 2022), [57] y ofertas de empleo (800.000 ofertas de empleo en EE. UU. en 2022). [58] Los éxitos de la actual "primavera de la IA" o "auge de la IA" son los avances en la traducción de idiomas (en particular, Google Translate ), el reconocimiento de imágenes (impulsado por la base de datos de entrenamiento ImageNet ) comercializada por Google Image Search , y en sistemas de juegos como AlphaZero (campeón de ajedrez) y AlphaGo (campeón de go), y Watson ( campeón de Jeopardy ). Un punto de inflexión se produjo en 2012, cuando AlexNet (una red de aprendizaje profundo ) ganó el ImageNet Large Scale Visual Recognition Challenge con la mitad de errores que el ganador del segundo puesto. [59]
El lanzamiento en 2022 del chatbot de IA ChatGPT de OpenAI , que a enero de 2023 tiene más de 100 millones de usuarios, [60] ha revitalizado el debate sobre la inteligencia artificial y sus efectos en el mundo. [61] [62]
{{cite book}}
: CS1 maint: bot: estado de URL original desconocido ( enlace )