La teoría de la dependencia conceptual es un modelo de comprensión del lenguaje natural utilizado en sistemas de inteligencia artificial .
Roger Schank de la Universidad de Stanford introdujo el modelo en 1969, en los primeros días de la inteligencia artificial. [1] Este modelo fue ampliamente utilizado por los estudiantes de Schank en la Universidad de Yale, como Robert Wilensky , Wendy Lehnert y Janet Kolodner .
Schank desarrolló el modelo para representar el conocimiento de la entrada de lenguaje natural en las computadoras. Influido en parte por el trabajo de Sydney Lamb , su objetivo era hacer que el significado fuera independiente de las palabras utilizadas en la entrada, es decir, dos frases idénticas en significado tendrían una única representación. El sistema también estaba destinado a sacar inferencias lógicas. [2]
El modelo utiliza los siguientes tokens de representación básicos: [3]
Luego, un conjunto de transiciones conceptuales actúa sobre esta representación, por ejemplo, se usa un ATRANS para representar una transferencia como "dar" o "recibir", mientras que un PTRANS se usa para actuar en ubicaciones como "mover" o "ir". Un MTRANS representa actos mentales como "contar", etc.
Una frase como "Juan le dio un libro a María" se representa entonces como la acción de un ATRANS sobre dos objetos del mundo real, Juan y María.