En la historia de la inteligencia artificial (IA), el orden y el desorden son dos enfoques opuestos para la investigación en IA. La distinción se hizo en la década de 1970 y fue tema de discusión hasta mediados de la década de 1980. [1] [2] [3]
Los "Neats" utilizan algoritmos basados en un único paradigma formal, como la lógica , la optimización matemática o las redes neuronales . Los Neats verifican que sus programas sean correctos mediante una rigurosa teoría matemática. Los investigadores y analistas de Neats tienden a expresar la esperanza de que este único paradigma formal pueda extenderse y mejorarse para lograr la inteligencia general y la superinteligencia .
Los "Scruffy" utilizan una gran cantidad de algoritmos y métodos diferentes para lograr un comportamiento inteligente y se basan en pruebas incrementales para verificar sus programas. La programación Scruffy requiere grandes cantidades de codificación manual e ingeniería del conocimiento . Los expertos en Scruffy han argumentado que la inteligencia general solo se puede implementar resolviendo una gran cantidad de problemas esencialmente no relacionados y que no existe una solución milagrosa que permita a los programas desarrollar inteligencia general de manera autónoma.
John Brockman compara el enfoque ordenado con la física , en el sentido de que utiliza modelos matemáticos simples como base. El enfoque desaliñado es más biológico , en el sentido de que gran parte del trabajo implica estudiar y categorizar diversos fenómenos. [a]
La IA moderna tiene elementos tanto de los enfoques desaliñados como de los ordenados. Los investigadores de la IA desaliñada de la década de 1990 aplicaron rigor matemático a sus programas, como lo hicieron los expertos en orden. [5] [6] También expresan la esperanza de que exista un paradigma único (un "algoritmo maestro") que haga que surjan la inteligencia general y la superinteligencia. [7] Pero la IA moderna también se parece a los desaliñados: [8] las aplicaciones modernas de aprendizaje automático requieren una gran cantidad de ajustes manuales y pruebas incrementales; mientras que el algoritmo general es matemáticamente riguroso, lograr los objetivos específicos de una aplicación en particular no lo es. Además, a principios de la década de 2000, el campo del desarrollo de software adoptó la programación extrema , que es una versión moderna de la metodología desaliñada: probar cosas y ponerlas a prueba, sin perder tiempo buscando soluciones más elegantes o generales.
La distinción entre pulcro y desaliñado se originó a mediados de la década de 1970, por Roger Schank . Schank utilizó los términos para caracterizar la diferencia entre su trabajo sobre el procesamiento del lenguaje natural (que representaba el conocimiento de sentido común en forma de grandes redes semánticas amorfas ) y el trabajo de John McCarthy , Allen Newell , Herbert A. Simon , Robert Kowalski y otros cuyo trabajo se basaba en la lógica y las extensiones formales de la lógica. [2] Schank se describió a sí mismo como un desaliñado de IA. Hizo esta distinción en lingüística, argumentando firmemente en contra de la visión de Chomsky sobre el lenguaje. [a]
La distinción también era en parte geográfica y cultural: los atributos "desaliñados" fueron ejemplificados por la investigación de IA en el MIT bajo Marvin Minsky en la década de 1970. El laboratorio era famoso por su "libre movimiento" y los investigadores a menudo desarrollaban programas de IA pasando largas horas ajustándolos hasta que mostraban el comportamiento requerido. Los programas "desaliñados" importantes e influyentes desarrollados en el MIT incluyeron ELIZA de Joseph Weizenbaum , que se comportaba como si hablara inglés, sin ningún conocimiento formal en absoluto, y SHRDLU de Terry Winograd [b] , que podía responder con éxito consultas y realizar acciones en un mundo simplificado que consistía en bloques y un brazo robótico. [10] [11] SHRDLU, aunque exitoso, no pudo ampliarse para convertirse en un sistema de procesamiento de lenguaje natural útil, porque carecía de un diseño estructurado. Mantener una versión más grande del programa resultó imposible, es decir, era demasiado desaliñado para ser ampliado.
Otros laboratorios de IA (de los cuales los más grandes fueron Stanford , la Universidad Carnegie Mellon y la Universidad de Edimburgo ) se centraron en la lógica y la resolución formal de problemas como base de la IA. Estas instituciones apoyaron el trabajo de John McCarthy, Herbert Simon, Allen Newell, Donald Michie , Robert Kowalski y otros "geniales".
El contraste entre el enfoque del MIT y el de otros laboratorios también se describió como una "distinción entre procedimiento y declaración". Los programas como SHRDLU fueron diseñados como agentes que llevaban a cabo acciones. Ejecutaban "procedimientos". Otros programas fueron diseñados como motores de inferencia que manipulaban afirmaciones formales (o "declaraciones") sobre el mundo y traducían estas manipulaciones en acciones.
En su discurso presidencial de 1983 ante la Asociación para el Avance de la Inteligencia Artificial , Nils Nilsson analizó el tema, argumentando que "el campo necesitaba ambos". Escribió que "gran parte del conocimiento que queremos que tengan nuestros programas puede y debe representarse declarativamente en algún tipo de formalismo declarativo, similar a la lógica. Las estructuras ad hoc tienen su lugar, pero la mayoría de ellas provienen del propio dominio". Alex P. Pentland y Martin Fischler de SRI International coincidieron en el papel previsto de la deducción y los formalismos similares a la lógica en la investigación futura de la IA, pero no en la medida que describió Nilsson. [12]
El enfoque desaliñado fue aplicado a la robótica por Rodney Brooks a mediados de la década de 1980. Abogó por construir robots que fueran, como él lo expresó, rápidos, baratos y fuera de control , el título de un artículo de 1989 en coautoría con Anita Flynn. A diferencia de los robots anteriores, como Shakey o el carrito de Stanford, no construían representaciones del mundo analizando información visual con algoritmos extraídos de técnicas de aprendizaje automático matemático , y no planificaban sus acciones utilizando formalizaciones basadas en la lógica, como el lenguaje " Planner ". Simplemente reaccionaban a sus sensores de una manera que tendía a ayudarlos a sobrevivir y moverse. [13]
El proyecto Cyc de Douglas Lenat , iniciado en 1984 y uno de los primeros y más ambiciosos proyectos para capturar todo el conocimiento humano en forma legible por máquinas, es "una empresa decididamente descuidada". [14] La base de datos Cyc contiene millones de datos sobre todas las complejidades del mundo, cada uno de los cuales debe ser ingresado de a uno por vez por ingenieros del conocimiento. Cada una de estas entradas es una adición ad hoc a la inteligencia del sistema. Si bien puede haber una solución "ordenada" para el problema del conocimiento de sentido común (como algoritmos de aprendizaje automático con procesamiento de lenguaje natural que podrían estudiar el texto disponible en Internet), ningún proyecto de este tipo ha tenido éxito hasta ahora.
En 1986, Marvin Minsky publicó The Society of Mind , en el que defendía una visión de la inteligencia y la mente como una comunidad interactiva de módulos o agentes que se encargaban de diferentes aspectos de la cognición, donde algunos módulos estaban especializados en tareas muy específicas (por ejemplo, la detección de bordes en la corteza visual) y otros módulos estaban especializados en gestionar la comunicación y la priorización (por ejemplo, la planificación y la atención en los lóbulos frontales). Minsky presentó este paradigma como un modelo de la inteligencia humana biológica y como un modelo para el trabajo futuro en IA.
Este paradigma es explícitamente "desordenado" en el sentido de que no espera que exista un único algoritmo que pueda aplicarse a todas las tareas involucradas en el comportamiento inteligente. [15] Minsky escribió:
¿Qué truco mágico nos hace inteligentes? El truco es que no hay truco. El poder de la inteligencia surge de nuestra enorme diversidad, no de un principio único y perfecto. [16]
En 1991, Minsky todavía publicaba artículos que evaluaban las ventajas relativas de los enfoques ordenado versus desaliñado, por ejemplo, “Lógico versus analógico o simbólico versus conexionista o ordenado versus desaliñado”. [17]
En la década de 1990 se desarrollaron nuevos enfoques estadísticos y matemáticos para la IA, utilizando formalismos altamente desarrollados como la optimización matemática y las redes neuronales . Pamela McCorduck escribió que "mientras escribo, la IA disfruta de una hegemonía de los Neat, personas que creen que la inteligencia de las máquinas, al menos, se expresa mejor en términos lógicos, incluso matemáticos". [6] Esta tendencia general hacia métodos más formales en IA fue descrita como "la victoria de los Neat" por Peter Norvig y Stuart Russell en 2003. [18]
Sin embargo, en 2021, Russell y Norvig habían cambiado de opinión. [19] Las redes de aprendizaje profundo y el aprendizaje automático en general requieren un ajuste fino exhaustivo: deben probarse iterativamente hasta que comiencen a mostrar el comportamiento deseado. Esta es una metodología descuidada.
Galletas limpias
Desaliñados