Modelo para diseñar inteligencia artificial.
El modelo de software creencia-deseo-intención ( BDI ) es un modelo de software desarrollado para programar agentes inteligentes . Caracterizado superficialmente por la implementación de las creencias , deseos e intenciones de un agente , en realidad utiliza estos conceptos para resolver un problema particular en la programación de agentes. En esencia, proporciona un mecanismo para separar la actividad de seleccionar un plan (de una biblioteca de planes o una aplicación de planificación externa) de la ejecución de planes actualmente activos. En consecuencia, los agentes de BDI pueden equilibrar el tiempo dedicado a deliberar sobre los planes (elegir qué hacer) y ejecutar esos planes (hacerlo). Una tercera actividad, la creación de los planes en primer lugar ( planificación ), no está dentro del alcance del modelo y se deja en manos del diseñador y programador del sistema.
Descripción general
Para lograr esta separación, el modelo de software BDI implementa los aspectos principales de la teoría del razonamiento práctico humano de Michael Bratman (también conocida como Creencia-Deseo-Intención o BDI). Es decir, implementa las nociones de creencia, deseo y (en particular) intención, de una manera inspirada en Bratman.
Para Bratman, el deseo y la intención son ambos proactitudes (actitudes mentales relacionadas con la acción). Identifica el compromiso como el factor distintivo entre deseo e intención, señalando que conduce a (1) la persistencia temporal en los planes y (2) la realización de planes adicionales sobre la base de aquellos con los que ya está comprometido. El modelo de software BDI aborda parcialmente estos problemas. No se explora la persistencia temporal, en el sentido de referencia explícita al tiempo. La naturaleza jerárquica de los planes se implementa más fácilmente: un plan consta de una serie de pasos, algunos de los cuales pueden invocar otros planes. La definición jerárquica de los planes implica en sí misma una especie de persistencia temporal, ya que el plan general permanece en vigor mientras se ejecutan los planes subsidiarios.
Un aspecto importante del modelo de software BDI (en términos de su relevancia para la investigación) es la existencia de modelos lógicos a través de los cuales es posible definir y razonar sobre los agentes BDI. La investigación en esta área ha llevado, por ejemplo, a la axiomatización de algunas implementaciones de BDI, así como a descripciones lógicas formales como la BDICTL de Anand Rao y Michael Georgeff . Este último combina una lógica multimodal (con modalidades que representan creencias, deseos e intenciones) con la lógica temporal CTL* . Más recientemente, Michael Wooldridge ha ampliado BDICTL para definir LORA (la Lógica de los Agentes Racionales), incorporando una lógica de acción. En principio, LORA permite razonar no sólo sobre agentes individuales, sino también sobre la comunicación y otras interacciones en un sistema multiagente .
El modelo de software BDI está estrechamente asociado con agentes inteligentes, pero, por sí solo, no garantiza todas las características asociadas con dichos agentes. Por ejemplo, permite a los agentes tener creencias privadas, pero no los obliga a ser privadas. Tampoco tiene nada que decir sobre la comunicación con los agentes. En definitiva, el modelo de software BDI es un intento de resolver un problema que tiene más que ver con los planes y la planificación (la elección y ejecución de los mismos) que con la programación de agentes inteligentes. Este enfoque ha sido propuesto recientemente por Steven Umbrello y Roman Yampolskiy como medio para diseñar vehículos autónomos acordes con los valores humanos. [1]
Agentes BDI
Un agente BDI es un tipo particular de agente de software racional limitado , imbuido de actitudes mentales particulares , a saber: Creencias, Deseos e Intenciones (BDI).
Arquitectura
Esta sección define los componentes arquitectónicos idealizados de un sistema BDI.
- Creencias : Las creencias representan el estado informativo del agente: sus creencias sobre el mundo (incluido él mismo y otros agentes). Las creencias también pueden incluir reglas de inferencia , lo que permite que el encadenamiento directo conduzca a nuevas creencias. Usar el término creencia en lugar de conocimiento reconoce que lo que un agente cree puede no ser necesariamente cierto (y de hecho puede cambiar en el futuro).
- Conjunto de creencias : las creencias se almacenan en una base de datos (a veces llamada base de creencias o conjunto de creencias ), aunque esa es una decisión de implementación .
- Deseos : Los deseos representan el estado motivacional del agente. Representan objetivos o situaciones que al agente le gustaría lograr o provocar. Ejemplos de deseos podrían ser: encontrar el mejor precio , ir a la fiesta o hacerse rico .
- Metas : Una meta es un deseo que el agente ha adoptado para su búsqueda activa. El uso del término metas añade la restricción adicional de que el conjunto de deseos activos debe ser consistente. Por ejemplo, uno no debería tener objetivos simultáneos para ir a una fiesta y quedarse en casa, aunque ambos podrían ser deseables.
- Intenciones : Las intenciones representan el estado deliberativo del agente: lo que el agente ha elegido hacer. Las intenciones son deseos con los que el agente se ha comprometido hasta cierto punto. En los sistemas implementados, esto significa que el agente ha comenzado a ejecutar un plan.
- Planes : Los planes son secuencias de acciones (recetas o áreas de conocimiento) que un agente puede realizar para lograr una o más de sus intenciones. Los planes pueden incluir otros planes: mi plan para dar una vuelta en auto puede incluir un plan para encontrar las llaves de mi auto. Esto refleja que en el modelo de Bratman, los planes inicialmente sólo se conciben parcialmente, y los detalles se van completando a medida que avanzan.
- Eventos : son desencadenantes de la actividad reactiva del agente. Un evento puede actualizar creencias, desencadenar planes o modificar metas. Los eventos pueden generarse externamente y recibirse mediante sensores o sistemas integrados. Además, se pueden generar eventos internamente para desencadenar actualizaciones o planes de actividad desacoplados.
BDI también se amplió con un componente de obligaciones, dando lugar a la arquitectura de agentes BOID [2] para incorporar obligaciones, normas y compromisos de los agentes que actúan dentro de un entorno social.
Intérprete BDI
Esta sección define un intérprete BDI idealizado que proporciona la base del linaje PRS de sistemas BDI de SRI : [3]
- estado de inicialización
- repetir
- opciones: generador de opciones (cola de eventos)
- opciones seleccionadas: deliberado (opciones)
- intenciones de actualización (opciones seleccionadas)
- ejecutar()
- obtener-nuevos-eventos-externos()
- soltar-actitudes-fallidas()
- soltar-actitudes-imposibles()
- finalizar repetir
Limitaciones y críticas
El modelo de software BDI es un ejemplo de una arquitectura de razonamiento para un único agente racional y una preocupación en un sistema multiagente más amplio . Esta sección delimita el alcance de las preocupaciones sobre el modelo de software BDI, destacando las limitaciones conocidas de la arquitectura.
- Aprendizaje : los agentes BDI carecen de mecanismos específicos dentro de la arquitectura para aprender del comportamiento pasado y adaptarse a nuevas situaciones. [4] [5]
- Tres actitudes : los teóricos de la decisión clásica y la investigación en planificación cuestionan la necesidad de tener las tres actitudes, la investigación de IA distribuida cuestiona si las tres actitudes son suficientes. [3]
- Lógicas : Las lógicas multimodales que subyacen al BDI (que no tienen axiomatizaciones completas y no son computables de manera eficiente) tienen poca relevancia en la práctica. [3] [6]
- Múltiples agentes : además de no apoyar explícitamente el aprendizaje, el marco puede no ser apropiado para el comportamiento de aprendizaje. Además, el modelo BDI no describe explícitamente mecanismos para la interacción con otros agentes y la integración en un sistema multiagente . [7]
- Objetivos explícitos : la mayoría de las implementaciones de BDI no tienen una representación explícita de objetivos. [8]
- Previsión : la arquitectura no tiene (por diseño) ninguna deliberación o planificación anticipada. Esto puede no ser deseable porque los planes adoptados pueden consumir recursos limitados, las acciones pueden no ser reversibles, la ejecución de tareas puede llevar más tiempo que la planificación anticipada y las acciones pueden tener efectos secundarios indeseables si no tienen éxito. [9]
Implementaciones de agentes BDI
BDI 'puro'
Extensiones y sistemas híbridos.
- Equipos JACK
- CogniTAO (pensar como uno) [21] [22]
- Suite de procesos de sistemas vivos [23] [24]
- Brahms [29]
- JaCaMo [30]
Ver también
Notas
- ^ Paraguas, Steven; Yampolskiy, Roman V. (15 de mayo de 2021). "Diseño de IA para lograr explicabilidad y verificabilidad: un enfoque de diseño sensible al valor para evitar la estupidez artificial en vehículos autónomos". Revista Internacional de Robótica Social . 14 (2): 313–322. doi : 10.1007/s12369-021-00790-w . hdl : 2318/1788856 . ISSN 1875-4805.
- ^
J. Broersen, M. Dastani, J. Hulstijn, Z. Huang, L. van der Torre La arquitectura BOID: conflictos entre creencias, obligaciones, intenciones y deseos Actas de la quinta conferencia internacional sobre agentes autónomos, 2001, páginas 9- 16, ACM Nueva York, Nueva York, EE. UU.
- ^ abc Rao, diputado Georgeff. (1995). "Agentes BDI: de la teoría a la práctica" (PDF) . Actas de la Primera Conferencia Internacional sobre Sistemas Multiagente (ICMAS'95) . Archivado desde el original (PDF) el 4 de junio de 2011 . Consultado el 9 de julio de 2009 .
- ^ Phung, Toan; Michael Winikoff; Lin Padgham (2005). "Aprendizaje dentro del marco BDI: un análisis empírico". Sistemas de ingeniería e información inteligentes basados en el conocimiento . Apuntes de conferencias sobre informática. vol. 3683, págs. 282–288. doi :10.1007/11553939_41. ISBN 978-3-540-28896-1.
- ^ Guerra-Hernández, Alejandro; Amal El Fallah-Seghrouchni; Enrique Soldano (2004). "Aprendizaje en Sistemas Multiagente BDI". Lógica Computacional en Sistemas Multiagente . Apuntes de conferencias sobre informática. vol. 3259, págs. 218-233. doi :10.1007/978-3-540-30200-1_12. ISBN 978-3-540-24010-5.
- ^ Rao, diputado Georgeff. (1995). "Modelos formales y procedimientos de decisión para sistemas multiagente". Nota Técnica, AAII . CiteSeerX 10.1.1.52.7924 .
- ^ Georgeff, Michael; Barney Pell; Marta E. Pollack ; Milind Tambe; Michael Wooldridge (1999). "El modelo de agencia creencia-deseo-intención". Agentes inteligentes V: teorías, arquitecturas y lenguajes de agentes . Apuntes de conferencias sobre informática. vol. 1555, págs. 1-10. doi :10.1007/3-540-49057-4_1. ISBN 978-3-540-65713-2.
- ^ Pokahr, Alejandro; Lars Braubach; Winfried Lamersdorf (2005). "Jadex: un motor de razonamiento BDI". Programación multiagente . Sistemas multiagente, sociedades artificiales y organizaciones simuladas. vol. 15. págs. 149-174. doi :10.1007/0-387-26350-0_6. ISBN 978-0-387-24568-3.
- ^ Sardina, Sebastián; Lavindra de Silva; Lin Padgham (2006). "Planificación jerárquica en lenguajes de programación de agentes BDI: un enfoque formal". Actas de la quinta conferencia internacional conjunta sobre agentes autónomos y sistemas multiagente .
- ^ UM-PRS
- ^ "AbiertoPRS". Archivado desde el original el 21 de octubre de 2014 . Consultado el 23 de octubre de 2014 .
- ^ AgentSpeak (RT) Archivado el 26 de marzo de 2012 en la Wayback Machine.
- ^ Vikhorev, K., Alechina, N. y Logan, B. (2011). «Programación de agentes con prioridades y plazos» Archivado el 26 de marzo de 2012 en Wayback Machine . En actas de la Décima Conferencia Internacional sobre Agentes Autónomos y Sistemas Multiagente (AAMAS 2011). Taipei, Taiwán. Mayo de 2011., págs. 397-404.
- ^ Sistema de agente en tiempo real Archivado el 27 de septiembre de 2011 en Wayback Machine.
- ^ Vikhorev, K., Alechina, N. y Logan, B. (2009). "La arquitectura del agente en tiempo real de ARTS" Archivado el 26 de marzo de 2012 en Wayback Machine . En actas del segundo taller sobre lenguajes, metodologías y herramientas de desarrollo para sistemas multiagente (LADS2009). Turín, Italia. Septiembre de 2009. Actas del taller CEUR Vol-494.
- ^ MERMELADA
- ^ JADEX
- ^ "Jason | un intérprete basado en Java para una versión extendida de AgentSpeak".
- ^ CHISPA
- ^ 2APL
- ^ ab CogniTAO (Pensar como uno)
- ^ ab TAO: un sistema de control de alto nivel basado en JAUS para robots individuales y múltiples Y. Elmaliach, CogniTeam, (2008) "Copia archivada". Archivado desde el original el 7 de enero de 2009 . Consultado el 3 de noviembre de 2008 .
{{cite web}}
: Mantenimiento CS1: copia archivada como título ( enlace ) - ^ ab Suite de procesos de sistemas vivos
- ^ ab Rimassa, G., Greenwood, D. y Kernland, ME, (2006). The Living Systems Technology Suite: un middleware autónomo para la informática autónoma Archivado el 16 de mayo de 2008 en Wayback Machine . Conferencia Internacional sobre Sistemas Autonómicos y Autónomos (ICAS).
- ^ Fichera, Loris; Marletta, Daniele; Nicosia, Vincenzo; Santoro, Corrado (2011). "Diseño de estrategia de robot flexible utilizando el modelo creencia-deseo-intención". En Obdržálek, David; Gottscheber, Achim (eds.). Investigación y Educación en Robótica - EUROBOT 2010 . Comunicaciones en Informática y Ciencias de la Información. vol. 156. Berlín, Heidelberg: Springer. págs. 57–71. doi :10.1007/978-3-642-27272-1_5. ISBN 978-3-642-27272-1.
- ^ Semántica de Gwendolen: 2017
- ^ Lenguajes de programación del agente de verificación de modelos
- ^ MCAPL (Zenodo)
- ^ Brahms
- ^ "Inicio". jacamo.sourceforge.net .
Referencias
- AS Rao y el diputado Georgeff. Modelado de agentes racionales dentro de una arquitectura BDI. En Actas de la Segunda Conferencia Internacional sobre Principios de Razonamiento y Representación del Conocimiento, páginas 473–484, 1991.
- AS Rao y el diputado Georgeff. Agentes BDI: de la teoría a la práctica Archivado el 4 de junio de 2011 en Wayback Machine , en las actas de la Primera Conferencia Internacional sobre Sistemas Multiagentes (ICMAS'95), San Francisco, 1995.
- Bratman, ME (1999) [1987]. Intención, planes y razón práctica. Publicaciones CSLI . ISBN 1-57586-192-5.
- Wooldridge, M. (2000). Razonamiento sobre agentes racionales. La prensa del MIT . ISBN 0-262-23213-8. Archivado desde el original el 30 de julio de 2010 . Consultado el 15 de junio de 2006 .
- KS Vikhorev, N. Alechina y B. Logan. La arquitectura del agente en tiempo real de ARTS. En actas del segundo taller sobre lenguajes, metodologías y herramientas de desarrollo para sistemas multiagente (LADS2009). Actas del taller CEUR, Vol-494, Turín, Italia, 2009.