Modelo para el diseño de inteligencia artificial
El modelo de software de creencias-deseos-intenciones ( BDI ) es un modelo de software desarrollado para la programación de agentes inteligentes . Superficialmente caracterizado por la implementación de las creencias , deseos e intenciones de un agente , en realidad utiliza estos conceptos para resolver un problema particular en la programación de agentes. En esencia, proporciona un mecanismo para separar la actividad de seleccionar un plan (de una biblioteca de planes o una aplicación de planificación externa) de la ejecución de los planes actualmente activos. En consecuencia, los agentes BDI pueden equilibrar el tiempo dedicado a deliberar sobre los planes (elegir qué hacer) y ejecutar esos planes (hacerlo). Una tercera actividad, la creación de los planes en primer lugar ( planificación ), no está dentro del alcance del modelo y se deja al diseñador y programador del sistema.
Descripción general
Para lograr esta separación, el modelo de software BDI implementa los aspectos principales de la teoría del razonamiento práctico humano de Michael Bratman (también conocida como Creencia-Deseo-Intención o BDI). Es decir, implementa las nociones de creencia, deseo y (en particular) intención, de una manera inspirada en Bratman.
Para Bratman, el deseo y la intención son ambos actitudes proactivas (actitudes mentales relacionadas con la acción). Identifica el compromiso como el factor distintivo entre el deseo y la intención, señalando que conduce a (1) la persistencia temporal de los planes y (2) la elaboración de otros planes sobre la base de aquellos con los que ya se ha comprometido. El modelo de software BDI aborda parcialmente estas cuestiones. La persistencia temporal, en el sentido de referencia explícita al tiempo, no se explora. La naturaleza jerárquica de los planes se implementa más fácilmente: un plan consta de una serie de pasos, algunos de los cuales pueden invocar otros planes. La definición jerárquica de los planes en sí misma implica una especie de persistencia temporal, ya que el plan general sigue vigente mientras se ejecutan los planes secundarios.
Un aspecto importante del modelo de software BDI (en términos de su relevancia para la investigación) es la existencia de modelos lógicos a través de los cuales es posible definir y razonar sobre los agentes BDI. La investigación en esta área ha llevado, por ejemplo, a la axiomatización de algunas implementaciones BDI, así como a descripciones lógicas formales como la BDICTL de Anand Rao y Michael Georgeff . Esta última combina una lógica multimodal (con modalidades que representan creencias, deseos e intenciones) con la lógica temporal CTL* . Más recientemente, Michael Wooldridge ha extendido BDICTL para definir LORA (la lógica de los agentes racionales), incorporando una lógica de acción. En principio, LORA permite razonar no solo sobre agentes individuales, sino también sobre la comunicación y otras interacciones en un sistema multiagente .
El modelo de software BDI está estrechamente asociado con los agentes inteligentes, pero no garantiza por sí mismo todas las características asociadas con dichos agentes. Por ejemplo, permite a los agentes tener creencias privadas, pero no los obliga a serlo. Tampoco dice nada sobre la comunicación entre agentes. En definitiva, el modelo de software BDI es un intento de resolver un problema que tiene más que ver con los planes y la planificación (la elección y ejecución de los mismos) que con la programación de agentes inteligentes. Este enfoque ha sido propuesto recientemente por Steven Umbrello y Roman Yampolskiy como un medio para diseñar vehículos autónomos que tengan en cuenta los valores humanos. [1]
Agentes del BDI
Un agente BDI es un tipo particular de agente de software racional limitado , imbuido de actitudes mentales particulares , a saber: Creencias, Deseos e Intenciones (BDI).
Arquitectura
Esta sección define los componentes arquitectónicos idealizados de un sistema BDI.
- Creencias : Las creencias representan el estado informativo del agente, es decir, sus creencias sobre el mundo (incluido él mismo y otros agentes). Las creencias también pueden incluir reglas de inferencia , lo que permite que el encadenamiento hacia adelante conduzca a nuevas creencias. El uso del término creencia en lugar de conocimiento reconoce que lo que un agente cree puede no ser necesariamente cierto (y, de hecho, puede cambiar en el futuro).
- Conjunto de creencias : las creencias se almacenan en una base de datos (a veces llamada base de creencias o conjunto de creencias ), aunque esa es una decisión de implementación .
- Deseos : Los deseos representan el estado motivacional del agente. Representan objetivos o situaciones que el agente quisiera lograr o hacer realidad. Algunos ejemplos de deseos podrían ser: encontrar el mejor precio , ir a la fiesta o hacerse rico .
- Metas : Una meta es un deseo que el agente ha adoptado para perseguirlo activamente. El uso del término metas agrega la restricción adicional de que el conjunto de deseos activos debe ser consistente. Por ejemplo, uno no debería tener metas concurrentes de ir a una fiesta y quedarse en casa, aunque ambas podrían ser deseables.
- Intenciones : Las intenciones representan el estado deliberativo del agente, es decir, lo que el agente ha elegido hacer. Las intenciones son deseos con los que el agente se ha comprometido hasta cierto punto. En los sistemas implementados, esto significa que el agente ha comenzado a ejecutar un plan.
- Planes : Los planes son secuencias de acciones (recetas o áreas de conocimiento) que un agente puede llevar a cabo para lograr una o más de sus intenciones. Los planes pueden incluir otros planes: mi plan de salir a dar un paseo en coche puede incluir un plan para encontrar las llaves de mi coche. Esto refleja que en el modelo de Bratman, los planes se conciben inicialmente solo parcialmente y se van completando a medida que avanzan.
- Eventos : Son desencadenantes de la actividad reactiva del agente. Un evento puede actualizar creencias, activar planes o modificar objetivos. Los eventos pueden generarse externamente y recibirse mediante sensores o sistemas integrados. Además, los eventos pueden generarse internamente para activar actualizaciones o planes de actividad desacoplados.
BDI también se amplió con un componente de obligaciones, dando lugar a la arquitectura de agente BOID [2] para incorporar obligaciones, normas y compromisos de los agentes que actúan dentro de un entorno social.
Intérprete BDI
Esta sección define un intérprete BDI idealizado que proporciona la base del linaje PRS de sistemas BDI de SRI: [3]
- estado inicializado
- repetir
- opciones: generador de opciones (cola de eventos)
- opciones seleccionadas: deliberar(opciones)
- intenciones de actualización (opciones seleccionadas)
- ejecutar()
- obtener-nuevos-eventos-externos()
- Abandonar actitudes fallidas ()
- abandona las actitudes imposibles()
- Fin de repetición
Limitaciones y críticas
El modelo de software BDI es un ejemplo de arquitectura de razonamiento para un solo agente racional y una preocupación en un sistema multiagente más amplio . Esta sección delimita el alcance de las preocupaciones para el modelo de software BDI, destacando las limitaciones conocidas de la arquitectura.
- Aprendizaje : Los agentes BDI carecen de mecanismos específicos dentro de la arquitectura para aprender del comportamiento pasado y adaptarse a nuevas situaciones. [4] [5]
- Tres actitudes : los teóricos de la decisión clásica y las investigaciones sobre planificación cuestionan la necesidad de tener las tres actitudes; las investigaciones sobre IA distribuida cuestionan si las tres actitudes son suficientes. [3]
- Lógicas : Las lógicas multimodales que subyacen a BDI (que no tienen axiomatizaciones completas y no son computables de manera eficiente) tienen poca relevancia en la práctica. [3] [6]
- Agentes múltiples : además de no respaldar explícitamente el aprendizaje, el marco puede no ser apropiado para el comportamiento de aprendizaje. Además, el modelo BDI no describe explícitamente los mecanismos para la interacción con otros agentes y la integración en un sistema multiagente . [7]
- Objetivos explícitos : la mayoría de las implementaciones de BDI no tienen una representación explícita de los objetivos. [8]
- Mirada hacia adelante : la arquitectura no tiene (por diseño) ninguna deliberación de mirada hacia adelante o planificación a futuro. Esto puede no ser deseable porque los planes adoptados pueden consumir recursos limitados, las acciones pueden no ser reversibles, la ejecución de tareas puede llevar más tiempo que la planificación a futuro y las acciones pueden tener efectos secundarios indeseables si no tienen éxito. [9]
Implementaciones de agentes BDI
BDI 'puro'
Extensiones y sistemas híbridos
- Equipos JACK
- CogniTAO (Piensa como uno) [21] [22]
- Conjunto de procesos de sistemas vivos [23] [24]
- Brahms [29]
- JaCaMo [30]
Véase también
Notas
- ^ Umbrello, Steven; Yampolskiy, Roman V. (15 de mayo de 2021). "Diseño de IA para explicabilidad y verificabilidad: un enfoque de diseño sensible al valor para evitar la estupidez artificial en vehículos autónomos". Revista internacional de robótica social . 14 (2): 313–322. doi : 10.1007/s12369-021-00790-w . hdl : 2318/1788856 . ISSN 1875-4805.
- ^
J. Broersen, M. Dastani, J. Hulstijn, Z. Huang, L. van der Torre La arquitectura BOID: conflictos entre creencias, obligaciones, intenciones y deseos Actas de la quinta conferencia internacional sobre agentes autónomos, 2001, páginas 9-16, ACM Nueva York, NY, EE. UU.
- ^ abc Rao, MP Georgeff. (1995). "BDI-agents: From Theory to Practice" (PDF) . Actas de la Primera Conferencia Internacional sobre Sistemas Multiagente (ICMAS'95) . Archivado desde el original (PDF) el 2011-06-04 . Consultado el 2009-07-09 .
- ^ Phung, Toan; Michael Winikoff; Lin Padgham (2005). "Aprendizaje dentro del marco BDI: un análisis empírico". Knowledge-Based Intelligent Information and Engineering Systems . Apuntes de clase en informática. Vol. 3683. págs. 282–288. doi :10.1007/11553939_41. ISBN 978-3-540-28896-1.
- ^ Guerra-Hernández, Alejandro; Amal El Fallah-Seghrouchni; Henry Soldano (2004). "Aprendizaje en sistemas multiagente BDI". Lógica computacional en sistemas multiagente . Apuntes de clase en informática. Vol. 3259. págs. 218–233. doi :10.1007/978-3-540-30200-1_12. ISBN 978-3-540-24010-5.
- ^ Rao, diputado Georgeff. (1995). "Modelos formales y procedimientos de decisión para sistemas multiagente". Nota Técnica, AAII . CiteSeerX 10.1.1.52.7924 .
- ^ Georgeff, Michael; Barney Pell; Martha E. Pollack ; Milind Tambe; Michael Wooldridge (1999). "El modelo de agencia creencia-deseo-intención". Agentes inteligentes V: Teorías, arquitecturas y lenguajes de los agentes . Apuntes de clase en informática. Vol. 1555. págs. 1–10. doi :10.1007/3-540-49057-4_1. ISBN 978-3-540-65713-2.
- ^ Pokahr, Alexander; Lars Braubach; Winfried Lamersdorf (2005). "Jadex: un motor de razonamiento BDI". Programación multiagente . Sistemas multiagente, sociedades artificiales y organizaciones simuladas. Vol. 15. págs. 149–174. doi :10.1007/0-387-26350-0_6. ISBN 978-0-387-24568-3.
- ^ Sardina, Sebastian; Lavindra de Silva; Lin Padgham (2006). "Planificación jerárquica en lenguajes de programación de agentes BDI: un enfoque formal". Actas de la quinta conferencia conjunta internacional sobre agentes autónomos y sistemas multiagente .
- ^ UM-PRS
- ^ "OpenPRS". Archivado desde el original el 21 de octubre de 2014. Consultado el 23 de octubre de 2014 .
- ^ AgentSpeak(RT) Archivado el 26 de marzo de 2012 en Wayback Machine.
- ^ Vikhorev, K., Alechina, N. y Logan, B. (2011). "Programación de agentes con prioridades y plazos" Archivado el 26 de marzo de 2012 en Wayback Machine . En Actas de la Décima Conferencia Internacional sobre Agentes Autónomos y Sistemas Multiagente (AAMAS 2011). Taipei, Taiwán. Mayo de 2011., págs. 397-404.
- ^ Sistema de agente en tiempo real Archivado el 27 de septiembre de 2011 en Wayback Machine.
- ^ Vikhorev, K., Alechina, N. y Logan, B. (2009). "La arquitectura del agente en tiempo real ARTS" Archivado el 26 de marzo de 2012 en Wayback Machine . En Actas del segundo taller sobre lenguajes, metodologías y herramientas de desarrollo para sistemas multiagente (LADS2009). Turín, Italia. Septiembre de 2009. Actas del taller CEUR, vol. 494.
- ^ MERMELADA
- ^ JADEX
- ^ "Jason | un intérprete basado en Java para una versión extendida de AgentSpeak".
- ^ CHISPA
- ^ 2APL
- ^ de CogniTAO (Piensa como uno)
- ^ ab TAO: Un sistema de control de alto nivel basado en JAUS para robots individuales y múltiples Y. Elmaliach, CogniTeam, (2008) "Copia archivada". Archivado desde el original el 7 de enero de 2009. Consultado el 3 de noviembre de 2008 .
{{cite web}}
: CS1 maint: copia archivada como título ( enlace ) - ^ Suite de procesos de sistemas vivos de ab
- ^ ab Rimassa, G., Greenwood, D. y Kernland, ME, (2006). The Living Systems Technology Suite: An Autonomous Middleware for Autonomic Computing Archivado el 16 de mayo de 2008 en Wayback Machine . Conferencia Internacional sobre Sistemas Autónomos y Autonómicos (ICAS).
- ^ Fichera, Loris; Marletta, Daniele; Nicosia, Vincenzo; Santoro, Corrado (2011). "Diseño de estrategia de robot flexible utilizando el modelo de creencia-deseo-intención". En Obdržálek, David; Gottscheber, Achim (eds.). Investigación y educación en robótica - EUROBOT 2010. Comunicaciones en informática y ciencias de la información. Vol. 156. Berlín, Heidelberg: Springer. págs. 57–71. doi :10.1007/978-3-642-27272-1_5. ISBN 978-3-642-27272-1.
- ^ Semántica de Gwendolen: 2017
- ^ Lenguajes de programación de agentes de verificación de modelos
- ^ MCAPL (Zenodo)
- ^ Brahms
- ^ "Inicio". jacamo.sourceforge.net .
Referencias
- AS Rao y MP Georgeff. Modelado de agentes racionales dentro de una arquitectura BDI. En Actas de la 2.ª Conferencia internacional sobre principios de representación y razonamiento del conocimiento, páginas 473–484, 1991.
- AS Rao y MP Georgeff. Agentes BDI: de la teoría a la práctica Archivado el 4 de junio de 2011 en Wayback Machine , en Actas de la Primera Conferencia Internacional sobre Sistemas Multiagente (ICMAS'95), San Francisco, 1995.
- Bratman, ME (1999) [1987]. Intención, planes y razón práctica. Publicaciones CSLI . ISBN 1-57586-192-5.
- Wooldridge, M. (2000). Razonamiento sobre agentes racionales. The MIT Press . ISBN 0-262-23213-8Archivado desde el original el 30 de julio de 2010. Consultado el 15 de junio de 2006 .
- KS Vikhorev, N. Alechina y B. Logan. La arquitectura del agente en tiempo real ARTS. En Actas del segundo taller sobre lenguajes, metodologías y herramientas de desarrollo para sistemas multiagente (LADS2009). Actas del taller CEUR, vol. 494, Turín, Italia, 2009.