stringtranslate.com

Representación del conocimiento y razonamiento.

La representación del conocimiento y el razonamiento ( KRR , KR&R , KR² ) es el campo de la inteligencia artificial (IA) dedicado a representar información sobre el mundo en una forma que un sistema informático puede utilizar para resolver tareas complejas como diagnosticar una condición médica o mantener un diálogo. en un lenguaje natural . La representación del conocimiento incorpora hallazgos de la psicología [1] sobre cómo los humanos resuelven problemas y representan el conocimiento para diseñar formalismos que harán que los sistemas complejos sean más fáciles de diseñar y construir. La representación del conocimiento y el razonamiento también incorporan hallazgos de la lógica para automatizar varios tipos de razonamiento .

Ejemplos de formalismos de representación del conocimiento incluyen redes semánticas , marcos , reglas , programas lógicos y ontologías . Ejemplos de motores de razonamiento automatizados incluyen motores de inferencia , demostradores de teoremas , generadores de modelos y clasificadores.

Historia

Los primeros trabajos en representación computarizada del conocimiento se centraron en solucionadores de problemas generales, como el sistema General Problem Solver (GPS) desarrollado por Allen Newell y Herbert A. Simon en 1959 y el Advice Taker propuesto por John McCarthy también en 1959. El GPS presentaba datos Estructuras para planificación y descomposición. El sistema comenzaría con una meta. Luego descompondría esa meta en submetas y luego se propondría construir estrategias que pudieran lograr cada submeta. The Advisor Taker, por otro lado, propuso el uso del cálculo de predicados para representar el razonamiento de sentido común .

Muchos de los primeros enfoques de la representación del conocimiento en IA utilizaban representaciones gráficas y redes semánticas , similares a los gráficos de conocimiento actuales. En tales enfoques, la resolución de problemas era una forma de recorrido de gráficos [2] o búsqueda de rutas, como en el algoritmo de búsqueda A* . Las aplicaciones típicas incluían la formación de planos de robots y los juegos.

Otros investigadores se centraron en el desarrollo de demostradores de teoremas automatizados para la lógica de primer orden, motivados por el uso de la lógica matemática para formalizar las matemáticas y automatizar la demostración de teoremas matemáticos. Un paso importante en esta dirección fue el desarrollo del método de resolución por parte de John Alan Robinson .

Mientras tanto, John McCarthy y Pat Hayes desarrollaron el cálculo de situación como una representación lógica del conocimiento de sentido común sobre las leyes de causa y efecto. Cordell Green , a su vez, mostró cómo realizar la formación de planos de robots aplicando resolución al cálculo de situaciones. También mostró cómo utilizar la resolución para responder preguntas y programar automáticamente. [3]

Por el contrario, los investigadores del MIT rechazaron el paradigma del procedimiento de prueba uniforme de resolución y, en su lugar, abogaron por la incorporación procesal del conocimiento. [4] El conflicto resultante entre el uso de representaciones lógicas y el uso de representaciones procedimentales se resolvió a principios de la década de 1970 con el desarrollo de la programación lógica y Prolog , utilizando la resolución SLD para tratar las cláusulas Horn como procedimientos de reducción de objetivos.

El desarrollo inicial de la programación lógica fue en gran medida un fenómeno europeo. En América del Norte, investigadores de IA como Ed Feigenbaum y Frederick Hayes-Roth abogaron por la representación del conocimiento de un dominio específico en lugar del razonamiento de propósito general. [5]

Estos esfuerzos condujeron a la revolución cognitiva en psicología y a la fase de la IA centrada en la representación del conocimiento que dio lugar a sistemas expertos en las décadas de 1970 y 1980, sistemas de producción , lenguajes marco , etc. En lugar de solucionar problemas generales, la IA cambió su enfoque hacia expertos. sistemas que podrían igualar la competencia humana en una tarea específica, como el diagnóstico médico. [6]

Los sistemas expertos nos dieron la terminología que todavía se usa hoy en día, donde los sistemas de IA se dividen en una base de conocimiento , que incluye hechos y reglas sobre un dominio de problema, y ​​un motor de inferencia , que aplica el conocimiento de la base de conocimiento para responder preguntas y resolver problemas en el dominio. En estos primeros sistemas, los hechos en la base de conocimientos tendían a ser una estructura bastante plana, esencialmente afirmaciones sobre los valores de las variables utilizadas por las reglas. [7]

Mientras tanto, Marvin Minsky desarrolló el concepto de marco a mediados de los años 1970. [8] Un marco es similar a una clase de objeto: es una descripción abstracta de una categoría que describe cosas en el mundo, problemas y posibles soluciones. Los marcos se utilizaron originalmente en sistemas orientados a la interacción humana, por ejemplo, la comprensión del lenguaje natural y los entornos sociales en los que diversas expectativas predeterminadas, como pedir comida en un restaurante, estrechan el espacio de búsqueda y permiten al sistema elegir respuestas apropiadas a situaciones dinámicas.

No pasó mucho tiempo antes de que las comunidades marco y los investigadores basados ​​en reglas se dieran cuenta de que existía una sinergia entre sus enfoques. Los marcos eran buenos para representar el mundo real, descrito como clases, subclases, espacios (valores de datos) con varias restricciones sobre los valores posibles. Las reglas eran buenas para representar y utilizar lógica compleja como el proceso para hacer un diagnóstico médico. Se desarrollaron sistemas integrados que combinaban marcos y reglas. Uno de los más poderosos y conocidos fue el Entorno de Ingeniería del Conocimiento (KEE) de 1983 de Intellicorp . KEE tenía un motor de reglas completo con encadenamiento hacia adelante y hacia atrás . También tenía una base de conocimientos completa basada en marcos con activadores, espacios (valores de datos), herencia y paso de mensajes. Aunque el paso de mensajes se originó en la comunidad orientada a objetos y no en la IA, fue rápidamente adoptado por investigadores de IA, así como en entornos como KEE y en los sistemas operativos para máquinas Lisp de Symbolics , Xerox y Texas Instruments . [9]

La integración de marcos, reglas y programación orientada a objetos fue impulsada significativamente por empresas comerciales como KEE y Symbolics derivadas de varios proyectos de investigación. Al mismo tiempo, hubo otra línea de investigación que tenía un enfoque menos comercial y estaba impulsada por la lógica matemática y la demostración automatizada de teoremas. [ cita necesaria ] Uno de los lenguajes más influyentes en esta investigación fue el lenguaje KL-ONE de mediados de los 80. KL-ONE era un lenguaje marco que tenía una semántica rigurosa, definiciones formales para conceptos como una relación Is-A . [10] KL-ONE y los lenguajes que fueron influenciados por él, como Loom, tenían un motor de razonamiento automatizado que se basaba en lógica formal en lugar de reglas SI-ENTONCES. Este razonador se llama clasificador. Un clasificador puede analizar un conjunto de declaraciones e inferir nuevas afirmaciones, por ejemplo, redefinir una clase para que sea una subclase o superclase de alguna otra clase que no se haya especificado formalmente. De esta manera, el clasificador puede funcionar como un motor de inferencia, deduciendo nuevos hechos a partir de una base de conocimientos existente. El clasificador también puede proporcionar una verificación de coherencia en una base de conocimientos (que en el caso de los lenguajes KL-ONE también se denomina ontología). [11]

Otra área de investigación sobre la representación del conocimiento fue el problema del razonamiento de sentido común . Una de las primeras conclusiones que aprendí al intentar crear software que pudiera funcionar con el lenguaje natural humano fue que los humanos regularmente utilizamos una amplia base de conocimiento sobre el mundo real que simplemente damos por sentado pero que no es del todo obvio para un agente artificial. . Principios básicos de la física del sentido común, causalidad, intenciones, etc. Un ejemplo es el problema del marco , que en una lógica impulsada por eventos necesita haber axiomas que establezcan que las cosas mantienen su posición de un momento al siguiente a menos que sean movidas por algún elemento externo. fuerza. Para crear un verdadero agente de inteligencia artificial que pueda conversar con humanos utilizando el lenguaje natural y pueda procesar declaraciones y preguntas básicas sobre el mundo, es esencial representar este tipo de conocimiento. [12] Además del cálculo de situación de McCarthy y Hayes, uno de los programas más ambiciosos para abordar este problema fue el proyecto Cyc de Doug Lenat . Cyc estableció su propio lenguaje Frame y un gran número de analistas documentaron diversas áreas de razonamiento de sentido común en ese lenguaje. El conocimiento registrado en Cyc incluía modelos de sentido común sobre el tiempo, la causalidad, la física, las intenciones y muchos otros. [13]

El punto de partida para la representación del conocimiento es la hipótesis de la representación del conocimiento formalizada por primera vez por Brian C. Smith en 1985: [14]

Cualquier proceso inteligente incorporado mecánicamente estará compuesto de ingredientes estructurales que a) nosotros, como observadores externos, naturalmente consideramos que representan una explicación proposicional del conocimiento que exhibe el proceso general, y b) independientemente de dicha atribución semántica externa, desempeñan un papel formal pero causal y papel esencial en engendrar la conducta que manifiesta ese conocimiento.

Una de las áreas más activas de investigación sobre la representación del conocimiento es la Web Semántica . [ cita necesaria ] La Web Semántica busca agregar una capa de semántica (significado) a la Internet actual. En lugar de indexar sitios y páginas web mediante palabras clave, la Web Semántica crea grandes ontologías de conceptos. La búsqueda de un concepto será más eficaz que las búsquedas tradicionales de sólo texto. Los lenguajes marco y la clasificación automática juegan un papel importante en la visión de la futura Web Semántica. La clasificación automática proporciona a los desarrolladores tecnología para poner orden en una red de conocimiento en constante evolución. Definir ontologías que sean estáticas e incapaces de evolucionar sobre la marcha sería muy limitante para los sistemas basados ​​en Internet. La tecnología de clasificación brinda la capacidad de lidiar con el entorno dinámico de Internet.

Proyectos recientes financiados principalmente por la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) han integrado lenguajes de marco y clasificadores con lenguajes de marcado basados ​​en XML. El Marco de descripción de recursos (RDF) proporciona la capacidad básica para definir clases, subclases y propiedades de objetos. El lenguaje de ontología web (OWL) proporciona niveles adicionales de semántica y permite la integración con motores de clasificación. [15] [16]

Descripción general

La representación del conocimiento es un campo de la inteligencia artificial que se centra en el diseño de representaciones informáticas que capturan información sobre el mundo que puede utilizarse para resolver problemas complejos.

La justificación de la representación del conocimiento es que el código de procedimiento convencional no es el mejor formalismo para resolver problemas complejos. La representación del conocimiento hace que el software complejo sea más fácil de definir y mantener que el código de procedimiento y puede usarse en sistemas expertos .

Por ejemplo, hablar con expertos en términos de reglas de negocio en lugar de código reduce la brecha semántica entre usuarios y desarrolladores y hace que el desarrollo de sistemas complejos sea más práctico.

La representación del conocimiento va de la mano con el razonamiento automatizado porque uno de los principales propósitos de representar explícitamente el conocimiento es poder razonar sobre ese conocimiento, hacer inferencias, afirmar nuevos conocimientos, etc. Prácticamente todos los lenguajes de representación del conocimiento tienen un motor de razonamiento o inferencia. como parte del sistema. [17]

Un equilibrio clave en el diseño de formalismos de representación del conocimiento es el que existe entre expresividad y manejabilidad. [18] La lógica de primer orden (FOL), con su alto poder expresivo y su capacidad para formalizar gran parte de las matemáticas, es un estándar para comparar la expresabilidad de los lenguajes de representación del conocimiento.

Podría decirse que FOL tiene dos inconvenientes como formalismo de representación del conocimiento por derecho propio: la facilidad de uso y la eficiencia de implementación. En primer lugar, debido a su alto poder expresivo, FOL permite muchas formas de expresar la misma información, y esto puede dificultar que los usuarios formalicen o incluso comprendan el conocimiento expresado de maneras complejas y de orientación matemática. En segundo lugar, debido a sus complejos procedimientos de prueba, puede resultar difícil para los usuarios comprender pruebas y explicaciones complejas, y puede resultar complicado que las implementaciones sean eficientes. Como consecuencia, el FOL sin restricciones puede resultar intimidante para muchos desarrolladores de software.

Uno de los descubrimientos clave de la investigación de la IA en la década de 1970 fue que los lenguajes que no tienen todo el poder expresivo de FOL aún pueden proporcionar casi el mismo poder expresivo de FOL, pero pueden ser más fáciles de entender tanto para el desarrollador promedio como para la computadora. entender. Se puede considerar que muchos de los primeros formalismos de representación del conocimiento de la IA, desde bases de datos hasta redes semánticas y sistemas de producción, toman diversas decisiones de diseño sobre cómo equilibrar el poder expresivo con la naturalidad de la expresión y la eficiencia. [19] En particular, este acto de equilibrio fue una motivación impulsora para el desarrollo de reglas SI-ENTONCES en sistemas expertos basados ​​en reglas .

Un acto de equilibrio similar también fue una motivación para el desarrollo de la programación lógica (LP) y el lenguaje de programación lógica Prolog . Los programas lógicos tienen una sintaxis basada en reglas, que se confunde fácilmente con la sintaxis SI-ENTONCES de las reglas de producción . Pero los programas lógicos tienen una semántica lógica bien definida, mientras que los sistemas de producción no.

La forma más antigua de programación lógica se basó en el subconjunto de cláusulas Horn de FOL. Pero las extensiones posteriores de LP incluyeron la regla de inferencia de negación como falla , lo que convierte a LP en una lógica no monótona para el razonamiento predeterminado . La semántica extendida resultante de LP es una variación de la semántica estándar de las cláusulas Horn y FOL, y es una forma de semántica de base de datos, [20] que incluye la suposición de nombre único y una forma de suposición de mundo cerrado . Estos supuestos son mucho más difíciles de formular y razonar si se utiliza explícitamente la semántica estándar de FOL.

En un artículo clave de 1993 sobre el tema, Randall Davis del MIT describió cinco roles distintos para analizar un marco de representación del conocimiento: [21]

La representación del conocimiento y el razonamiento son una tecnología habilitadora clave para la Web Semántica . Los lenguajes basados ​​en el modelo Frame con clasificación automática proporcionan una capa de semántica sobre la Internet existente. En lugar de buscar mediante cadenas de texto como es habitual hoy en día, será posible definir consultas lógicas y encontrar páginas que se correspondan con esas consultas. [15] El componente de razonamiento automatizado en estos sistemas es un motor conocido como clasificador. Los clasificadores se centran en las relaciones de subsunción en una base de conocimiento más que en reglas. Un clasificador puede inferir nuevas clases y cambiar dinámicamente la ontología a medida que haya nueva información disponible. Esta capacidad es ideal para el espacio de información en constante evolución y cambio de Internet. [22]

La Web Semántica integra conceptos de representación del conocimiento y razonamiento con lenguajes de marcado basados ​​en XML. El Marco de descripción de recursos (RDF) proporciona las capacidades básicas para definir objetos basados ​​en conocimiento en Internet con características básicas como relaciones Is-A y propiedades de objetos. El lenguaje de ontología web (OWL) agrega semántica adicional y se integra con razonadores de clasificación automáticos. [23]

Características

En 1985, Ron Brachman categorizó las cuestiones centrales de la representación del conocimiento de la siguiente manera: [24]

Ingeniería de ontología

En los primeros años de los sistemas basados ​​en el conocimiento, las bases de conocimiento eran bastante pequeñas. Las bases de conocimiento que estaban destinadas a resolver problemas reales en lugar de realizar demostraciones de prueba de concepto debían centrarse en problemas bien definidos. Así, por ejemplo, no sólo el diagnóstico médico en su conjunto, sino el diagnóstico médico de ciertos tipos de enfermedades.

A medida que la tecnología basada en el conocimiento creció, se hizo evidente la necesidad de bases de conocimiento más grandes y de bases de conocimiento modulares que pudieran comunicarse e integrarse entre sí. Esto dio origen a la disciplina de la ingeniería ontológica, que diseña y construye grandes bases de conocimiento que podrían ser utilizadas por múltiples proyectos. Uno de los proyectos de investigación líderes en esta área fue el proyecto Cyc . Cyc fue un intento de construir una enorme base de conocimiento enciclopédico que contendría no sólo conocimiento experto sino también conocimiento de sentido común. Al diseñar un agente de inteligencia artificial, pronto se dio cuenta de que representar el conocimiento de sentido común, conocimiento que los humanos simplemente damos por sentado, era esencial para crear una IA que pudiera interactuar con los humanos usando el lenguaje natural. Cyc estaba destinado a abordar este problema. El lenguaje que definieron se conoció como CycL .

Después de CycL, se desarrollaron varios lenguajes de ontología . La mayoría son lenguajes declarativos y son lenguajes marco o se basan en lógica de primer orden . La modularidad (la capacidad de definir límites alrededor de dominios y espacios problemáticos específicos) es esencial para estos lenguajes porque, como afirma Tom Gruber , "Cada ontología es un tratado, un acuerdo social entre personas con un motivo común para compartir". Siempre hay muchos puntos de vista diferentes y en competencia que hacen imposible cualquier ontología de propósito general. Una ontología de propósito general tendría que ser aplicable en cualquier dominio y deberían unificarse las diferentes áreas de conocimiento. [28]

Existe una larga historia de trabajos que intentan construir ontologías para una variedad de dominios de tareas, por ejemplo, una ontología para líquidos, [29] el modelo de elementos agrupados ampliamente utilizado para representar circuitos electrónicos (por ejemplo, [30] ), así como ontologías. por el tiempo, las creencias e incluso la programación misma. Cada uno de estos ofrece una manera de ver alguna parte del mundo.

El modelo de elementos agrupados, por ejemplo, sugiere que pensemos en los circuitos en términos de componentes con conexiones entre ellos, con señales que fluyen instantáneamente a lo largo de las conexiones. Esta es una vista útil, pero no la única posible. Surge una ontología diferente si necesitamos prestar atención a la electrodinámica en el dispositivo: aquí las señales se propagan a una velocidad finita y ahora puede que haya que pensar en un objeto (como una resistencia) que antes se consideraba un solo componente con un comportamiento de E/S. como un medio extendido a través del cual fluye una onda electromagnética.

Por supuesto, las ontologías pueden escribirse en una amplia variedad de lenguajes y notaciones (por ejemplo, lógica, LISP, etc.); la información esencial no es la forma de ese lenguaje sino el contenido, es decir, el conjunto de conceptos ofrecidos como forma de pensar sobre el mundo. En pocas palabras, la parte importante son nociones como conexiones y componentes, no la elección entre escribirlos como predicados o construcciones LISP.

El compromiso asumido al seleccionar una u otra ontología puede producir una visión marcadamente diferente de la tarea en cuestión. Considere la diferencia que surge al seleccionar la vista de elementos agrupados de un circuito en lugar de la vista electrodinámica del mismo dispositivo. Como segundo ejemplo, el diagnóstico médico visto en términos de reglas (p. ej., MYCIN ) parece sustancialmente diferente de la misma tarea vista en términos de marcos (p. ej., INTERNIST). Mientras que MYCIN ve el mundo médico como compuesto de asociaciones empíricas que conectan síntomas con enfermedades, INTERNIST ve un conjunto de prototipos, en particular enfermedades prototípicas, que deben compararse con el caso en cuestión.

Ver también

Referencias

  1. ^ Schank, Roger; Abelson, Robert (1977). Guiones, planes, metas y comprensión: una investigación sobre las estructuras del conocimiento humano . Lawrence Erlbaum Associates, Inc.
  2. ^ Doran, JE; Michie, D. (20 de septiembre de 1966). "Experimentos con el programa Graph Traverser". Proc. R. Soc. Londres. A . 294 (1437): 235–259. Código bibliográfico : 1966RSPSA.294..235D. doi :10.1098/rspa.1966.0205. S2CID  21698093.
  3. ^ Verde, Cordell. Aplicación de la demostración de teoremas a la resolución de problemas (PDF) . IJCAI 1969.
  4. ^ Hewitt, C., 2009. Robustez de la inconsistencia en programas lógicos. Preimpresión de arXiv arXiv:0904.3036.
  5. ^ Kowalski, Robert (1986). "La limitación de la lógica". Actas de la decimocuarta conferencia anual de la ACM de 1986 sobre informática - CSC '86 . págs. 7-13. doi :10.1145/324634.325168. ISBN 0-89791-177-6. S2CID  17211581.
  6. ^ Nilsson, Nils (1995). "Ojo al premio". Revista AI . 16 : 2.
  7. ^ Hayes-Roth, Federico; Waterman, Donald; Lenat, Douglas (1983). Construcción de sistemas expertos. Addison-Wesley. ISBN 978-0-201-10686-2.
  8. ^ Marvin Minsky, Un marco para representar el conocimiento, Memo 306 del laboratorio MIT-AI, junio de 1974
  9. ^ Mettrey, William (1987). "Una evaluación de herramientas para construir grandes sistemas basados ​​en el conocimiento". Revista AI . 8 (4). Archivado desde el original el 10 de noviembre de 2013 . Consultado el 24 de diciembre de 2013 .
  10. ^ Brachman, Ron (1978). "Un paradigma estructural para representar el conocimiento" (PDF) . Informe técnico de Bolt, Beranek y Neumann (3605). Archivado (PDF) desde el original el 30 de abril de 2020.
  11. ^ MacGregor, Robert (junio de 1991). "Uso de un clasificador de descripciones para mejorar la representación del conocimiento". Experto IEEE . 6 (3): 41–46. doi : 10.1109/64.87683. S2CID  29575443.
  12. ^ McCarthy, J. y Hayes, PJ 1969. Algunos problemas filosóficos desde el punto de vista de la inteligencia artificial en Wayback Machine (archivado el 25 de agosto de 2013). En Meltzer, B. y Michie, D., eds., Machine Intelligence 4. Edimburgo: Edinburgh University Press. 463–502.
  13. ^ Lenat, Doug; RV Guha (enero de 1990). Construcción de grandes sistemas basados ​​en el conocimiento: representación e inferencia en el proyecto Cyc . Addison-Wesley. ISBN 978-0201517521.
  14. ^ Smith, Brian C. (1985). "Prólogo a reflexiones y semántica en un lenguaje procedimental". En Ronald Brachman y Héctor J. Levesque (ed.). Lecturas en Representación del Conocimiento . Morgan Kaufman. págs. 31–40. ISBN 978-0-934613-01-9.
  15. ^ ab Berners-Lee, Tim; Hendler, James; Lassila, Ora (17 de mayo de 2001). "La Web Semántica: una nueva forma de contenido Web que tiene significado para las computadoras desatará una revolución de nuevas posibilidades". Científico americano . 284 (5): 34–43. doi : 10.1038/scientificamerican0501-34. Archivado desde el original el 24 de abril de 2013.
  16. ^ Knublauch, Holger; Oberle, Daniel; Tetlow, Phil; Wallace, Evan (9 de marzo de 2006). "Una introducción a la web semántica para desarrolladores de software orientado a objetos". W3C . Archivado desde el original el 6 de enero de 2018 . Consultado el 30 de julio de 2008 .
  17. ^ Hayes-Roth, Federico; Waterman, Donald; Lenat, Douglas (1983). Construcción de sistemas expertos. Addison-Wesley. págs. 6–7. ISBN 978-0-201-10686-2.
  18. ^ Levesque, HJ y Brachman, RJ, 1987. Expresividad y manejabilidad en la representación y el razonamiento del conocimiento 1. Inteligencia computacional, 3 (1), págs.78-93.
  19. ^ Levesque, Héctor; Brachman, Ronald (1985). "Una compensación fundamental en la representación y el razonamiento del conocimiento". En Ronald Brachman y Héctor J. Levesque (ed.). Lecturas en Representación del Conocimiento . Morgan Kaufman. pag. 49.ISBN 978-0-934613-01-9. La buena noticia al reducir el servicio KR a la demostración de teoremas es que ahora tenemos una noción muy clara y específica de lo que debería hacer el sistema KR; la mala noticia es que también está claro que los servicios no se pueden proporcionar... decidir si una oración en FOL es o no un teorema... es irresoluble.
  20. ^ Russell, Stuart J .; Norvig, Peter. (2021). Inteligencia artificial: un enfoque moderno (4ª ed.). Hoboken: Pearson. pag. 282.ISBN 978-0134610993. LCCN  20190474.
  21. ^ abcdefghijk Davis, Randall; Shrobbe, Howard; Szolovits, Peter (primavera de 1993). "¿Qué es una representación del conocimiento?". Revista AI . 14 (1): 17–33. Archivado desde el original el 6 de abril de 2012 . Consultado el 23 de marzo de 2011 .
  22. ^ Macgregor, Robert (13 de agosto de 1999). "Retrospectiva sobre el telar". isi.edu . Instituto de Ciencias de la Información. Archivado desde el original el 25 de octubre de 2013 . Consultado el 10 de diciembre de 2013 .
  23. ^ Knublauch, Holger; Oberle, Daniel; Tetlow, Phil; Wallace, Evan (9 de marzo de 2006). "Una introducción a la web semántica para desarrolladores de software orientado a objetos". W3C . Archivado desde el original el 6 de enero de 2018 . Consultado el 30 de julio de 2008 .
  24. ^ Brachman, Ron (1985). "Introducción". En Ronald Brachman y Héctor J. Levesque (ed.). Lecturas en Representación del Conocimiento . Morgan Kaufman. págs. XVI-XVII. ISBN 978-0-934613-01-9.
  25. ^ Bih, José (2006). "Cambio de paradigma: una introducción a la lógica difusa" (PDF) . Potenciales IEEE . 25 : 6–21. doi :10.1109/MP.2006.1635021. S2CID  15451765. Archivado (PDF) desde el original el 12 de junio de 2014 . Consultado el 24 de diciembre de 2013 .
  26. ^ Zlatarva, Nellie (1992). "Sistemas de mantenimiento de la verdad y su aplicación para la verificación de bases de conocimientos de sistemas expertos". Revisión de inteligencia artificial . 6 : 67-110. doi :10.1007/bf00155580. S2CID  24696160.
  27. ^ Levesque, Héctor; Brachman, Ronald (1985). "Una compensación fundamental en la representación y el razonamiento del conocimiento". En Ronald Brachman y Héctor J. Levesque (ed.). Lecturas en Representación del Conocimiento . Morgan Kaufman. págs. 41–70. ISBN 978-0-934613-01-9.
  28. ^ Russell, Stuart J.; Norvig, Peter (2010), Inteligencia artificial: un enfoque moderno (3.ª ed.), Upper Saddle River, Nueva Jersey: Prentice Hall, ISBN 0-13-604259-7 , p. 437-439 
  29. ^ Hayes P, Física ingenua I: Ontología de líquidos. Informe de la Universidad de Essex, 1978, Essex, Reino Unido.
  30. ^ Davis R, Shrobe HE, Representación de la estructura y el comportamiento del hardware digital, IEEE Computer, Número especial sobre representación del conocimiento, 16(10):75-82.

Otras lecturas

enlaces externos