stringtranslate.com

Limpios y desaliñados

En la historia de la inteligencia artificial , lo pulcro y lo desaliñado son dos enfoques contrastantes para la investigación de la inteligencia artificial (IA). La distinción se hizo en la década de 1970 y fue tema de discusión hasta mediados de la década de 1980. [1] [2] [3]

Los "Neats" utilizan algoritmos basados ​​en paradigmas formales únicos, como la lógica , la optimización matemática o las redes neuronales . Neats verifica que sus programas sean correctos con teoremas y rigor matemático. Investigadores y analistas prolijos tienden a expresar la esperanza de que este paradigma formal único pueda ampliarse y mejorarse para lograr inteligencia y superinteligencia generales .

Los "Scruffies" utilizan diversos algoritmos y métodos para lograr un comportamiento inteligente. Los Scruffies dependen de pruebas incrementales para verificar sus programas y la programación descuidada requiere grandes cantidades de codificación manual o ingeniería del conocimiento . Scruffies ha argumentado que la inteligencia general sólo puede implementarse resolviendo un gran número de problemas esencialmente no relacionados, y que no existe una solución milagrosa que permita a los programas desarrollar inteligencia general de forma autónoma.

John Brockman compara el enfoque ordenado con la física en el sentido de que utiliza modelos matemáticos simples como base. El enfoque desaliñado se parece más a la biología, donde gran parte del trabajo implica estudiar y categorizar diversos fenómenos. [a]

La IA moderna tiene elementos de enfoques tanto desaliñados como limpios. En la década de 1990, la investigación en IA aplicó el rigor matemático a sus programas, como lo hicieron los pulcros. [5] [6] También expresan la esperanza de que exista un paradigma único (un "algoritmo maestro") que haga que surjan la inteligencia general y la superinteligencia. [7] Pero la IA moderna también se parece a los desaliñados: [8] las aplicaciones modernas de aprendizaje automático requieren una gran cantidad de ajustes manuales y pruebas incrementales; Si bien el algoritmo general es matemáticamente riguroso, lograr los objetivos específicos de una aplicación particular no lo es. Además, a principios de la década de 2000, el campo del desarrollo de software adoptó la programación extrema , que es una versión moderna de la metodología desaliñada: probar cosas y probarlas, sin perder tiempo buscando soluciones más elegantes o generales.

Origen en la década de 1970

La distinción entre pulcro y desaliñado se originó a mediados de la década de 1970, por Roger Schank . Schank usó los términos para caracterizar la diferencia entre su trabajo sobre el procesamiento del lenguaje natural (que representaba conocimiento de sentido común en forma de grandes redes semánticas amorfas ) del trabajo de John McCarthy , Allen Newell , Herbert A. Simon , Robert Kowalski y otros cuyo trabajo se basó en la lógica y extensiones formales de la lógica. [2] Schank se describió a sí mismo como una IA desaliñada. Hizo esta distinción en lingüística, argumentando fuertemente en contra de la visión del lenguaje de Chomsky. [a]

La distinción también era en parte geográfica y cultural: los atributos "desaliñados" fueron ejemplificados por la investigación de IA en el MIT bajo la dirección de Marvin Minsky en la década de 1970. El laboratorio era famoso por su "libertad" y los investigadores a menudo desarrollaban programas de IA pasando largas horas ajustándolos hasta que mostraban el comportamiento requerido. Importantes e influyentes programas "desaliñados" desarrollados en el MIT incluyeron ELIZA de Joseph Weizenbaum , que se comportaba como si hablara inglés, sin ningún conocimiento formal en absoluto, y SHRDLU de Terry Winograd [b] , que podía responder consultas y llevar a cabo con éxito acciones en un mundo simplificado que consta de bloques y un brazo robótico. [10] [11] SHRDLU, si bien tuvo éxito, no pudo ampliarse hasta convertirse en un sistema de procesamiento de lenguaje natural útil porque carecía de un diseño estructurado. Mantener una versión más grande del programa resultó imposible, es decir, era demasiado descuidado para ampliarlo.

Otros laboratorios de IA (de los cuales los más grandes fueron Stanford , la Universidad Carnegie Mellon y la Universidad de Edimburgo ) se centraron en la lógica y la resolución de problemas formales como base para la IA. Estas instituciones apoyaron el trabajo de John McCarthy, Herbert Simon, Allen Newell, Donald Michie , Robert Kowalski y otros "pulmones".

El contraste entre el enfoque del MIT y el de otros laboratorios también se describió como una "distinción procesal/declarativa". Programas como SHRDLU fueron diseñados como agentes que llevaban a cabo acciones. Ejecutaron "procedimientos". Otros programas fueron diseñados como motores de inferencia que manipulaban declaraciones formales (o "declaraciones") sobre el mundo y traducían estas manipulaciones en acciones.

En su discurso presidencial de 1983 ante la Asociación para el Avance de la Inteligencia Artificial , Nils Nilsson discutió el tema, argumentando que "el campo necesitaba ambos". Escribió que "gran parte del conocimiento que queremos que tengan nuestros programas puede y debe representarse declarativamente en algún tipo de formalismo declarativo similar a la lógica. Las estructuras ad hoc tienen su lugar, pero la mayoría de ellas provienen del dominio mismo". Alex P. Pentland y Martin Fischler de SRI International coincidieron en el papel previsto de la deducción y los formalismos de tipo lógico en futuras investigaciones sobre IA, pero no en la medida que describió Nilsson. [12]

Proyectos desaliñados en la década de 1980

Rodney Brooks aplicó el enfoque desaliñado a la robótica a mediados de la década de 1980. Abogó por la construcción de robots que fueran, como él dijo, rápidos, baratos y fuera de control , el título de un artículo de 1989 en coautoría con Anita Flynn. A diferencia de robots anteriores como Shakey o el carrito de Stanford, no construyeron representaciones del mundo analizando información visual con algoritmos extraídos de técnicas matemáticas de aprendizaje automático , y no planificaron sus acciones utilizando formalizaciones basadas en la lógica, como el ' Lenguaje del planificador . Simplemente reaccionaron a sus sensores de una manera que les ayudó a sobrevivir y moverse. [13]

El proyecto Cyc de Douglas Lenat se inició en 1984 y es uno de los primeros y más ambiciosos proyectos para capturar todo el conocimiento humano en un formato legible por máquina; es "una empresa decididamente desaliñada". [14] La base de datos Cyc contiene millones de datos sobre todas las complejidades del mundo, cada uno de los cuales debe ser ingresado uno por uno por los ingenieros del conocimiento. Cada una de estas entradas es una adición ad hoc a la inteligencia del sistema. Si bien puede haber una solución "inteligente" al problema del conocimiento de sentido común (como algoritmos de aprendizaje automático con procesamiento de lenguaje natural que podrían estudiar el texto disponible en Internet), ningún proyecto de ese tipo ha tenido éxito todavía.

La sociedad de la mente

En 1986, Marvin Minsky publicó The Society of Mind , que defendía una visión de la inteligencia y la mente como una comunidad interactiva de módulos o agentes , cada uno de los cuales manejaba diferentes aspectos de la cognición, donde algunos módulos estaban especializados para tareas muy específicas (por ejemplo, detección de bordes en el campo visual). corteza) y otros módulos estaban especializados para gestionar la comunicación y la priorización (por ejemplo, planificación y atención en los lóbulos frontales). Minsky presentó este paradigma como un modelo de inteligencia humana biológica y como un modelo para el trabajo futuro en IA.

Este paradigma es explícitamente "desaliñado" en el sentido de que no espera que haya un algoritmo único que pueda aplicarse a todas las tareas involucradas en el comportamiento inteligente. [15] Minsky escribió:

¿Qué truco mágico nos hace inteligentes? El truco es que no hay truco. El poder de la inteligencia surge de nuestra vasta diversidad, no de un principio único y perfecto. [dieciséis]

En 1991, Minsky todavía publicaba artículos que evaluaban las ventajas relativas de los enfoques pulcros versus desaliñados, por ejemplo, “Lógico versus analógico o simbólico versus conexionista o pulcro versus desaliñado”. [17]

La IA moderna es a la vez ordenada y desaliñada

En la década de 1990 se desarrollaron nuevos enfoques estadísticos y matemáticos para la IA, utilizando formalismos altamente desarrollados como la optimización matemática y las redes neuronales . Pamela McCorduck escribió que "mientras escribo, la IA disfruta de una hegemonía ordenada, entre la gente que cree que la inteligencia de las máquinas, al menos, se expresa mejor en términos lógicos, incluso matemáticos". [6] Esta tendencia general hacia métodos más formales en IA fue descrita como "la victoria de los limpios" por Peter Norvig y Stuart Russell en 2003. [18]

Sin embargo, en 2021, Russell y Norvig habían cambiado de opinión. [19] Las redes de aprendizaje profundo y el aprendizaje automático en general requieren un amplio ajuste: deben probarse de forma iterativa hasta que comiencen a mostrar el comportamiento deseado. Esta es una metodología desaliñada.

Ejemplos bien conocidos

limpios

desaliñados

Ver también

Notas

  1. ^ ab John Brockman escribe: "Chomsky siempre ha adoptado la filosofía de la ciencia de los físicos, que es que tienes hipótesis que verificas y que podrías estar equivocado. Esto es absolutamente antitético a la filosofía de la ciencia de la IA, que se parece mucho más a la La forma en que un biólogo mira el mundo. La filosofía de la ciencia del biólogo dice que los seres humanos son lo que son, encuentras lo que encuentras, intentas entenderlo, categorizarlo, nombrarlo y organizarlo. "No funciona del todo bien, hay que arreglarlo. Es más bien una visión de "descubrimiento" del mundo". [4]
  2. ^ Winograd también se convirtió en un crítico de los primeros enfoques de la IA, argumentando que las máquinas inteligentes no podían construirse utilizando símbolos formales exclusivamente, sino que requerían cognición incorporada . [9]

Citas

  1. ^ McCorduck 2004, págs. 421–424, 486–489.
  2. ^ ab Crevier 1993, pág. 168.
  3. ^ Nilsson 1983, págs. 10-11.
  4. ^ Brockman 1996, Capítulo 9: La información son sorpresas.
  5. ^ Russell y Norvig 2021, pag. 24.
  6. ^ ab McCorduck 2004, pág. 487.
  7. ^ Domingos 2015.
  8. ^ Russell y Norvig 2021, pag. 26.
  9. ^ Winogrado y Flores 1986.
  10. ^ Crevier 1993, págs. 84-102.
  11. ^ Russell y Norvig 2021, pag. 20.
  12. ^ Pentland y Fischler 1983, citado en McCorduck 2004, págs. 421–424
  13. ^ McCorduck 2004, págs. 454–459.
  14. ^ McCorduck 2004, pag. 489.
  15. ^ Crevier 1993, pag. 254.
  16. ^ Minsky 1986, pág. 308.
  17. ^ Lehnert 1994.
  18. ^ Russell y Norvig 2003, pág. 25-26.
  19. ^ Russell y Norvig 2021, pag. 23.

Referencias

Otras lecturas