En la historia de la inteligencia artificial , lo pulcro y lo desaliñado son dos enfoques contrastantes en la investigación de la inteligencia artificial (IA). La distinción se hizo en la década de 1970 y fue tema de discusión hasta mediados de la década de 1980. [1] [2] [3]
Los "Neats" utilizan algoritmos basados en paradigmas formales únicos, como la lógica , la optimización matemática o las redes neuronales . Neats verifica que sus programas sean correctos con teoremas y rigor matemático. Investigadores y analistas prolijos tienden a expresar la esperanza de que este paradigma formal único pueda ampliarse y mejorarse para lograr inteligencia y superinteligencia generales .
Los "Scruffies" utilizan diversos algoritmos y métodos para lograr un comportamiento inteligente. Los Scruffies dependen de pruebas incrementales para verificar sus programas y la programación descuidada requiere grandes cantidades de codificación manual o ingeniería del conocimiento . Scruffies ha argumentado que la inteligencia general sólo puede implementarse resolviendo un gran número de problemas esencialmente no relacionados, y que no existe una solución milagrosa que permita a los programas desarrollar inteligencia general de forma autónoma.
John Brockman compara el enfoque ordenado con la física en el sentido de que utiliza modelos matemáticos simples como base. El enfoque desaliñado se parece más a la biología, donde gran parte del trabajo implica estudiar y categorizar diversos fenómenos. [a]
La IA moderna tiene elementos de enfoques tanto desaliñados como ordenados. En la década de 1990, la investigación en IA aplicó el rigor matemático a sus programas, como lo hicieron los pulcros. [5] [6] También expresan la esperanza de que exista un paradigma único (un "algoritmo maestro") que haga que surjan la inteligencia general y la superinteligencia. [7] Pero la IA moderna también se parece a los desaliñados: [8] las aplicaciones modernas de aprendizaje automático requieren una gran cantidad de ajustes manuales y pruebas incrementales; Si bien el algoritmo general es matemáticamente riguroso, lograr los objetivos específicos de una aplicación particular no lo es. Además, a principios de la década de 2000, el campo del desarrollo de software adoptó la programación extrema , que es una versión moderna de la metodología desaliñada: probar cosas y probarlas, sin perder tiempo buscando soluciones más elegantes o generales.
La distinción entre pulcro y desaliñado se originó a mediados de la década de 1970, por Roger Schank . Schank usó los términos para caracterizar la diferencia entre su trabajo sobre el procesamiento del lenguaje natural (que representaba conocimiento de sentido común en forma de grandes redes semánticas amorfas ) del trabajo de John McCarthy , Allen Newell , Herbert A. Simon , Robert Kowalski y otros cuyo trabajo se basó en la lógica y extensiones formales de la lógica. [2] Schank se describió a sí mismo como una IA desaliñada. Hizo esta distinción en lingüística, argumentando fuertemente en contra de la visión del lenguaje de Chomsky. [a]
La distinción también era en parte geográfica y cultural: los atributos "desaliñados" fueron ejemplificados por la investigación de IA en el MIT bajo la dirección de Marvin Minsky en los años 1970. El laboratorio era famoso por ser "libre" y los investigadores a menudo desarrollaban programas de IA pasando largas horas ajustándolos hasta que mostraban el comportamiento requerido. Importantes e influyentes programas "desaliñados" desarrollados en el MIT incluyeron ELIZA de Joseph Weizenbaum , que se comportaba como si hablara inglés, sin ningún conocimiento formal en absoluto, y SHRDLU de Terry Winograd [b] , que podía responder preguntas y llevar a cabo con éxito acciones en un mundo simplificado que consta de bloques y un brazo robótico. [10] [11] SHRDLU, si bien tuvo éxito, no pudo ampliarse hasta convertirse en un sistema de procesamiento de lenguaje natural útil porque carecía de un diseño estructurado. Mantener una versión más grande del programa resultó imposible, es decir, era demasiado descuidado para ampliarlo.
Otros laboratorios de IA (de los cuales los más grandes fueron Stanford , la Universidad Carnegie Mellon y la Universidad de Edimburgo ) se centraron en la lógica y la resolución de problemas formales como base para la IA. Estas instituciones apoyaron el trabajo de John McCarthy, Herbert Simon, Allen Newell, Donald Michie , Robert Kowalski y otros "pulmones".
El contraste entre el enfoque del MIT y el de otros laboratorios también se describió como una "distinción procesal/declarativa". Programas como SHRDLU fueron diseñados como agentes que llevaban a cabo acciones. Ejecutaron "procedimientos". Otros programas fueron diseñados como motores de inferencia que manipulaban declaraciones formales (o "declaraciones") sobre el mundo y traducían estas manipulaciones en acciones.
En su discurso presidencial de 1983 ante la Asociación para el Avance de la Inteligencia Artificial , Nils Nilsson discutió el tema, argumentando que "el campo necesitaba ambos". Escribió que "gran parte del conocimiento que queremos que tengan nuestros programas puede y debe representarse declarativamente en algún tipo de formalismo declarativo similar a la lógica. Las estructuras ad hoc tienen su lugar, pero la mayoría de ellas provienen del dominio mismo". Alex P. Pentland y Martin Fischler de SRI International coincidieron en el papel previsto de la deducción y los formalismos de tipo lógico en futuras investigaciones sobre IA, pero no en la medida que describió Nilsson. [12]
Rodney Brooks aplicó el enfoque desaliñado a la robótica a mediados de la década de 1980. Abogó por la construcción de robots que fueran, como él dijo, rápidos, baratos y fuera de control , el título de un artículo de 1989 en coautoría con Anita Flynn. A diferencia de robots anteriores como Shakey o el carrito de Stanford, no construyeron representaciones del mundo analizando información visual con algoritmos extraídos de técnicas matemáticas de aprendizaje automático , y no planificaron sus acciones utilizando formalizaciones basadas en la lógica, como el ' Lenguaje del planificador . Simplemente reaccionaron a sus sensores de una manera que les ayudó a sobrevivir y moverse. [13]
El proyecto Cyc de Douglas Lenat se inició en 1984 y es uno de los primeros y más ambiciosos proyectos para capturar todo el conocimiento humano en un formato legible por máquina; es "una empresa decididamente desaliñada". [14] La base de datos Cyc contiene millones de datos sobre todas las complejidades del mundo, cada uno de los cuales debe ser ingresado uno por uno por los ingenieros del conocimiento. Cada una de estas entradas es una adición ad hoc a la inteligencia del sistema. Si bien puede haber una solución "inteligente" al problema del conocimiento de sentido común (como algoritmos de aprendizaje automático con procesamiento de lenguaje natural que podrían estudiar el texto disponible en Internet), ningún proyecto de ese tipo ha tenido éxito todavía.
En 1986, Marvin Minsky publicó The Society of Mind , que defendía una visión de la inteligencia y la mente como una comunidad interactiva de módulos o agentes , cada uno de los cuales manejaba diferentes aspectos de la cognición, donde algunos módulos estaban especializados para tareas muy específicas (por ejemplo, detección de bordes en el campo visual). corteza) y otros módulos estaban especializados para gestionar la comunicación y la priorización (por ejemplo, planificación y atención en los lóbulos frontales). Minsky presentó este paradigma como un modelo de inteligencia humana biológica y como un modelo para el trabajo futuro en IA.
Este paradigma es explícitamente "desaliñado" en el sentido de que no espera que haya un algoritmo único que pueda aplicarse a todas las tareas involucradas en el comportamiento inteligente. [15] Minsky escribió:
¿Qué truco mágico nos hace inteligentes? El truco es que no hay truco. El poder de la inteligencia surge de nuestra vasta diversidad, no de un principio único y perfecto. [dieciséis]
En 1991, Minsky todavía publicaba artículos que evaluaban las ventajas relativas de los enfoques pulcros versus desaliñados, por ejemplo, “Lógico versus analógico o simbólico versus conexionista o pulcro versus desaliñado”. [17]
En la década de 1990 se desarrollaron nuevos enfoques estadísticos y matemáticos para la IA, utilizando formalismos altamente desarrollados como la optimización matemática y las redes neuronales . Pamela McCorduck escribió que "mientras escribo, la IA disfruta de una hegemonía ordenada, entre la gente que cree que la inteligencia de las máquinas, al menos, se expresa mejor en términos lógicos, incluso matemáticos". [6] Esta tendencia general hacia métodos más formales en IA fue descrita como "la victoria de los limpios" por Peter Norvig y Stuart Russell en 2003. [18]
Sin embargo, en 2021, Russell y Norvig habían cambiado de opinión. [19] Las redes de aprendizaje profundo y el aprendizaje automático en general requieren un amplio ajuste: deben probarse de forma iterativa hasta que comiencen a mostrar el comportamiento deseado. Esta es una metodología desaliñada.
limpios
desaliñados