stringtranslate.com

Comprensión del lenguaje natural

La comprensión del lenguaje natural ( NLU ) o interpretación del lenguaje natural ( NLI ) [1] es un subconjunto del procesamiento del lenguaje natural en inteligencia artificial que se ocupa de la comprensión lectora de las máquinas . La NLU se ha considerado un problema difícil para la IA . [2]

Existe un considerable interés comercial en este campo debido a su aplicación al razonamiento automatizado , [3] traducción automática , [4] respuesta a preguntas , [5] recopilación de noticias, categorización de texto , activación por voz , archivo y análisis de contenido a gran escala .

Historia

El programa STUDENT , escrito en 1964 por Daniel Bobrow para su tesis doctoral en el MIT , es uno de los primeros intentos conocidos de NLU por parte de una computadora. [6] [7] [8] [9] [10] Ocho años después de que John McCarthy acuñara el término inteligencia artificial , la tesis de Bobrow (titulada Entrada de lenguaje natural para un sistema de resolución de problemas de computadora ) mostró cómo una computadora podía entender una entrada de lenguaje natural simple para resolver problemas de álgebra.

Un año después, en 1965, Joseph Weizenbaum, del MIT, escribió ELIZA , un programa interactivo que mantenía un diálogo en inglés sobre cualquier tema, siendo el más popular la psicoterapia. ELIZA funcionaba mediante un simple análisis y sustitución de palabras clave en frases predefinidas y Weizenbaum eludió el problema de dar al programa una base de datos de conocimiento del mundo real o un rico léxico . Sin embargo, ELIZA ganó una sorprendente popularidad como proyecto de juguete y puede considerarse un precursor muy temprano de los sistemas comerciales actuales, como los utilizados por Ask.com . [11]

En 1969, Roger Schank en la Universidad de Stanford introdujo la teoría de dependencia conceptual para NLU. [12] Este modelo, parcialmente influenciado por el trabajo de Sydney Lamb , fue ampliamente utilizado por los estudiantes de Schank en la Universidad de Yale , como Robert Wilensky , Wendy Lehnert y Janet Kolodner .

En 1970, William A. Woods introdujo la red de transición aumentada (ATN, por sus siglas en inglés) para representar la entrada en lenguaje natural. [13] En lugar de reglas de estructura de frase, las ATN utilizaban un conjunto equivalente de autómatas de estados finitos que se invocaban de forma recursiva. Las ATN y su formato más general, denominado "ATN generalizadas", siguieron utilizándose durante varios años.

En 1971, Terry Winograd terminó de escribir SHRDLU para su tesis doctoral en el MIT. SHRDLU podía entender oraciones simples en inglés en un mundo restringido de bloques de niños para dirigir un brazo robótico para mover elementos. La demostración exitosa de SHRDLU proporcionó un impulso significativo para la investigación continua en el campo. [14] [15] Winograd continuó siendo una gran influencia en el campo con la publicación de su libro Language as a Cognitive Process . [16] En Stanford, Winograd asesoraría más tarde a Larry Page , quien cofundó Google .

En los años 1970 y 1980, el grupo de procesamiento de lenguaje natural en SRI International continuó la investigación y el desarrollo en el campo. Se llevaron a cabo varios esfuerzos comerciales basados ​​en la investigación, por ejemplo , en 1982 Gary Hendrix formó Symantec Corporation originalmente como una empresa para desarrollar una interfaz de lenguaje natural para consultas de bases de datos en computadoras personales. Sin embargo, con el advenimiento de las interfaces gráficas de usuario controladas por mouse , Symantec cambió de dirección. Varios otros esfuerzos comerciales se iniciaron en la misma época, por ejemplo , Larry R. Harris en Artificial Intelligence Corporation y Roger Schank y sus estudiantes en Cognitive Systems Corp. [17] [18] En 1983, Michael Dyer desarrolló el sistema BORIS en Yale que tenía similitudes con el trabajo de Roger Schank y WG Lehnert. [19]

En el tercer milenio se introdujeron sistemas que utilizaban el aprendizaje automático para la clasificación de textos, como el IBM Watson . Sin embargo, los expertos debaten hasta qué punto estos sistemas demuestran "comprensión": por ejemplo , según John Searle , Watson ni siquiera entendía las preguntas. [20]

John Ball , científico cognitivo e inventor de la teoría de Patom , apoya esta afirmación. El procesamiento del lenguaje natural ha logrado avances en aplicaciones que apoyan la productividad humana en los servicios y el comercio electrónico, pero esto ha sido posible en gran medida gracias a la limitación del alcance de la aplicación. Hay miles de formas de solicitar algo en un lenguaje humano que aún desafía el procesamiento del lenguaje natural convencional. [ cita requerida ] Según Wibe Wagemans, "Mantener una conversación significativa con las máquinas solo es posible cuando hacemos coincidir cada palabra con el significado correcto en función de los significados de las otras palabras de la oración, tal como lo hace un niño de 3 años sin adivinar". [21]

Alcance y contexto

El término genérico "comprensión del lenguaje natural" se puede aplicar a un conjunto diverso de aplicaciones informáticas, que van desde tareas pequeñas y relativamente simples, como comandos breves emitidos a robots , hasta tareas altamente complejas, como la comprensión total de artículos de periódicos o pasajes de poesía. Muchas aplicaciones del mundo real se encuentran entre los dos extremos; por ejemplo, la clasificación de texto para el análisis automático de correos electrónicos y su enrutamiento a un departamento adecuado en una corporación no requiere una comprensión profunda del texto, [22] pero necesita lidiar con un vocabulario mucho más amplio y una sintaxis más diversa que la gestión de consultas simples a tablas de bases de datos con esquemas fijos.

A lo largo de los años , se han llevado a cabo varios intentos de procesar lenguaje natural o frases similares al inglés presentadas a computadoras con distintos grados de complejidad. Algunos intentos no han dado como resultado sistemas con una comprensión profunda, pero han ayudado a la usabilidad general del sistema. Por ejemplo, Wayne Ratliff desarrolló originalmente el programa Vulcan con una sintaxis similar al inglés para imitar la computadora angloparlante de Star Trek . Vulcan más tarde se convirtió en el sistema dBase cuya sintaxis fácil de usar lanzó efectivamente la industria de las bases de datos de computadoras personales. [23] [24] Sin embargo, los sistemas con una sintaxis fácil de usar o similar al inglés son bastante distintos de los sistemas que usan un léxico rico e incluyen una representación interna (a menudo como lógica de primer orden ) de la semántica de las oraciones del lenguaje natural.

Por lo tanto, la amplitud y profundidad de la "comprensión" que busca un sistema determinan tanto la complejidad del sistema (y los desafíos implícitos) como los tipos de aplicaciones con los que puede lidiar. La "amplitud" de un sistema se mide por el tamaño de su vocabulario y gramática. La "profundidad" se mide por el grado en que su comprensión se aproxima a la de un hablante nativo fluido. En el nivel más estrecho y superficial, los intérpretes de comandos similares al inglés requieren una complejidad mínima, pero tienen una gama pequeña de aplicaciones. Los sistemas estrechos pero profundos exploran y modelan mecanismos de comprensión, [25] pero aún tienen una aplicación limitada. Los sistemas que intentan comprender el contenido de un documento como un comunicado de prensa más allá de la simple coincidencia de palabras clave y juzgar su idoneidad para un usuario son más amplios y requieren una complejidad significativa, [26] pero aún son algo superficiales. Los sistemas que son a la vez muy amplios y muy profundos están más allá del estado actual de la técnica.

Componentes y arquitectura

Independientemente del enfoque utilizado, la mayoría de los sistemas de NLU comparten algunos componentes comunes. El sistema necesita un léxico del lenguaje y un analizador sintáctico y reglas gramaticales para descomponer las oraciones en una representación interna. La construcción de un léxico rico con una ontología adecuada requiere un esfuerzo significativo; por ejemplo , el léxico de Wordnet requirió muchos años-persona de esfuerzo. [27]

El sistema también necesita una teoría semántica que oriente la comprensión. Las capacidades de interpretación de un sistema de comprensión del lenguaje dependen de la teoría semántica que utilice. Las teorías semánticas del lenguaje que compiten entre sí tienen ventajas y desventajas específicas en cuanto a su idoneidad como base de la interpretación semántica automatizada por ordenador. [28] Estas teorías van desde la semántica ingenua o el análisis semántico estocástico hasta el uso de la pragmática para derivar el significado del contexto. [29] [30] [31] Los analizadores semánticos convierten textos en lenguaje natural en representaciones formales de significado. [32]

Las aplicaciones avanzadas de NLU también intentan incorporar la inferencia lógica dentro de su marco. Esto se logra generalmente mapeando el significado derivado en un conjunto de afirmaciones en lógica de predicados , y luego usando la deducción lógica para llegar a conclusiones. Por lo tanto, los sistemas basados ​​en lenguajes funcionales como Lisp necesitan incluir un subsistema para representar afirmaciones lógicas, mientras que los sistemas orientados a la lógica como los que usan el lenguaje Prolog generalmente se basan en una extensión del marco de representación lógica incorporado. [33] [34]

La gestión del contexto en NLU puede presentar desafíos especiales. Una gran variedad de ejemplos y contraejemplos han dado lugar a múltiples enfoques para el modelado formal del contexto, cada uno con fortalezas y debilidades específicas. [35] [36]

Véase también

Notas

  1. ^ Semaan, P. (2012). Generación de lenguaje natural: una descripción general. Revista de informática e investigación (JCSCR)-ISSN, 50-57
  2. ^ Roman V. Yampolskiy. La prueba de Turing como característica definitoria de la completitud de la IA. En Inteligencia artificial, computación evolutiva y metaheurística (AIECM) --Tras los pasos de Alan Turing. Xin-She Yang (Ed.). pp. 3-17. (Capítulo 1). Springer, Londres. 2013. http://cecs.louisville.edu/ry/TuringTestasaDefiningFeature04270003.pdf
  3. ^ Van Harmelen, Frank, Vladimir Lifschitz y Bruce Porter, eds. Manual de representación del conocimiento. vol. 1. Elsevier, 2008.
  4. ^ Macherey, Klaus, Franz Josef Och y Hermann Ney. "Comprensión del lenguaje natural mediante la traducción automática estadística". Séptima Conferencia Europea sobre Comunicación y Tecnología del Habla. 2001.
  5. ^ Hirschman, Lynette y Robert Gaizauskas. "Respuesta a preguntas en lenguaje natural: la perspectiva desde aquí". Ingeniería del lenguaje natural 7.4 (2001): 275-300.
  6. ^ Asociación Estadounidense de Inteligencia Artificial Breve historia de la IA [1]
  7. ^ Tesis doctoral de Daniel Bobrow Entrada de lenguaje natural para un sistema de resolución de problemas informáticos.
  8. ^ Máquinas que piensan por Pamela McCorduck 2004 ISBN  1-56881-205-1 página 286
  9. ^ Russell, Stuart J.; Norvig, Peter (2003), Inteligencia artificial: un enfoque moderno Prentice Hall, ISBN 0-13-790395-2 , http://aima.cs.berkeley.edu/, pág. 19 
  10. ^ Estilo de logotipo de informática: más allá de la programación por Brian Harvey 1997 ISBN 0-262-58150-7 página 278 
  11. ^ Weizenbaum, Joseph (1976). El poder de las computadoras y la razón humana: del juicio al cálculo WH Freeman and Company. ISBN 0-7167-0463-3 páginas 188-189 
  12. ^ Roger Schank , 1969, Un analizador de dependencia conceptual para el lenguaje natural Actas de la conferencia de 1969 sobre lingüística computacional, Sång-Säby, Suecia, páginas 1-3
  13. ^ Woods, William A (1970). "Gramáticas de redes de transición para el análisis del lenguaje natural". Communications of the ACM 13 (10): 591–606 [2]
  14. ^ Inteligencia artificial: conceptos críticos , Volumen 1 de Ronald Chrisley, Sander Begeer 2000 ISBN 0-415-19332-X página 89 
  15. ^ Página SHRDLU de Terry Winograd en Stanford SHRDLU
  16. ^ Winograd, Terry (1983), El lenguaje como proceso cognitivo , Addison–Wesley, Reading, MA.
  17. ^ Larry R. Harris, Investigación en la Corporación de Inteligencia Artificial. Boletín SIGART de la ACM, número 79, enero de 1982 [3]
  18. ^ Razonamiento basado en casos por Christopher K. Riesbeck, Roger C. Schank 1989 ISBN 0-89859-767-6 página xiii 
  19. ^ Comprensión en profundidad: un modelo de proceso integrado para la comprensión narrativa. Michael G. Dyer. MIT Press. ISBN 0-262-04073-5 
  20. ^ Searle, John (23 de febrero de 2011). "Watson no sabe que ganó en 'Jeopardy!'". Wall Street Journal .
  21. ^ Brandon, John (12 de julio de 2016). "Qué significa la tecnología de comprensión del lenguaje natural para los chatbots". VentureBeat . Consultado el 29 de febrero de 2024 .
  22. ^ Un enfoque para la categorización jerárquica del correo electrónico por Peifeng Li et al. en Procesamiento del lenguaje natural y sistemas de información editado por Zoubida Kedad, Nadira Lammari 2007 ISBN 3-540-73350-7 
  23. ^ InfoWorld , 13 de noviembre de 1989, página 144
  24. ^ InfoWorld , 19 de abril de 1984, página 71
  25. ^ Construcción de modelos de trabajo para la comprensión total del lenguaje natural en dominios pragmáticos limitados por James Mason 2010 [4]
  26. ^ Minería de la Web: descubrimiento de conocimiento a partir de datos de hipertexto por Soumen Chakrabarti 2002 ISBN 1-55860-754-4 página 289 
  27. ^ GA Miller, R. Beckwith, CD Fellbaum, D. Gross, K. Miller. 1990. WordNet: una base de datos léxica en línea . Int. J. Lexicograph. 3, 4, págs. 235-244.
  28. ^ El uso de computadoras en lingüística: una guía práctica por John Lawler, Helen Aristar Dry 198 ISBN 0-415-16792-2 página 209 
  29. ^ Semántica ingenua para la comprensión del lenguaje natural por Kathleen Dahlgren 1988 ISBN 0-89838-287-4 
  30. ^ Análisis semántico basado en el estocástico por Wolfgang Minker, Alex Waibel , Joseph Mariani 1999 ISBN 0-7923-8571-3 
  31. ^ Pragmática y comprensión del lenguaje natural por Georgia M. Green 1996 ISBN 0-8058-2166-X 
  32. ^ Wong, Yuk Wah y Raymond J. Mooney . "Aprendizaje para análisis semántico con traducción automática estadística". Actas de la conferencia principal sobre tecnología del lenguaje humano del Capítulo norteamericano de la Asociación de Lingüística Computacional. Asociación de Lingüística Computacional, 2006.
  33. ^ Procesamiento del lenguaje natural Programadores Prolog por M. Covington, 1994 ISBN 0-13-629478-2 
  34. ^ Procesamiento del lenguaje natural en Prolog por Gerald Gazdar, Christopher S. Mellish 1989 ISBN 0-201-18053-7 
  35. ^ Comprender la comprensión del lenguaje por Ashwin Ram, Kenneth Moorman 1999 ISBN 0-262-18192-4 página 111 
  36. ^ Aspectos formales del contexto por Pierre Bonzon et al 2000 ISBN 0-7923-6350-7 
  37. ^ La programación con lenguaje natural realmente va a funcionar—Blog de Wolfram
  38. ^ Van Valin, Jr, Robert D. "De la PNL a la NLU" (PDF) .
  39. ^ Ball, John. "Lenguaje de Aprendizaje Multilingüe en Línea de Pat Inc". Pat.ai .