stringtranslate.com

Agente inteligente

En inteligencia e inteligencia artificial, un agente inteligente ( IA ) es un agente que actúa de manera inteligente ; Percibe su entorno , toma acciones de forma autónoma para lograr objetivos y puede mejorar su desempeño con el aprendizaje o la adquisición de conocimientos . Un agente inteligente puede ser simple o complejo: un termostato u otro sistema de control se considera un ejemplo de agente inteligente, al igual que un ser humano , al igual que cualquier sistema que cumpla con la definición, como una empresa , un estado o un bioma. . [1]

Diagrama simple de agente reflejo.

Los principales libros de texto sobre IA definen la "inteligencia artificial" como el "estudio y diseño de agentes inteligentes", una definición que considera que el comportamiento dirigido a objetivos es la esencia de la inteligencia. Los agentes dirigidos a objetivos también se describen utilizando un término tomado de la economía , " agente racional ". [1]

Un agente tiene una "función objetiva" que resume todos los objetivos de la AI. Un agente de este tipo está diseñado para crear y ejecutar cualquier plan que, una vez finalizado, maximice el valor esperado de la función objetivo. [2] Por ejemplo, un agente de aprendizaje por refuerzo tiene una "función de recompensa" que permite a los programadores moldear el comportamiento deseado del IA, [3] y el comportamiento de un algoritmo evolutivo está moldeado por una "función de aptitud". [4]

Los agentes inteligentes en inteligencia artificial están estrechamente relacionados con los agentes en economía , y las versiones del paradigma del agente inteligente se estudian en la ciencia cognitiva , la ética , la filosofía de la razón práctica , así como en muchos modelos sociocognitivos interdisciplinarios y simulaciones sociales por computadora .

Los agentes inteligentes a menudo se describen esquemáticamente como un sistema funcional abstracto similar a un programa de computadora. Las descripciones abstractas de agentes inteligentes se denominan agentes inteligentes abstractos ( AIA ) para distinguirlos de sus implementaciones en el mundo real. Un agente inteligente autónomo está diseñado para funcionar en ausencia de intervención humana. Los agentes inteligentes también están estrechamente relacionados con los agentes de software (un programa informático autónomo que realiza tareas en nombre de los usuarios).

Como definición de inteligencia artificial

Inteligencia artificial: un enfoque moderno [5] [6] [2] define un "agente" como

"Cualquier cosa que pueda considerarse que percibe su entorno a través de sensores y actúa sobre ese entorno a través de actuadores"

Define un "agente racional" como:

"Un agente que actúa para maximizar el valor esperado de una medida de desempeño basada en la experiencia y el conocimiento pasados".

También define el campo de la "investigación de inteligencia artificial" como:

"El estudio y diseño de agentes racionales"

Padgham y Winikoff (2005) coinciden en que un agente inteligente está situado en un entorno y responde de manera oportuna (aunque no necesariamente en tiempo real) a los cambios en el entorno. Sin embargo, los agentes inteligentes también deben perseguir objetivos de forma proactiva, de forma flexible y sólida. [a] Los desiderata opcionales incluyen que el agente sea racional y que el agente sea capaz de realizar un análisis de creencia-deseo-intención . [7]

Kaplan y Haenlein definen la inteligencia artificial como "la capacidad de un sistema para interpretar correctamente datos externos, aprender de dichos datos y utilizar esos aprendizajes para lograr objetivos y tareas específicas mediante una adaptación flexible". [8] Esta definición está estrechamente relacionada con la de agente inteligente.

Ventajas

Filosóficamente, esta definición de inteligencia artificial evita varias líneas de crítica. A diferencia del test de Turing , no hace referencia de ninguna manera a la inteligencia humana. Por lo tanto, no hay necesidad de discutir si se trata de inteligencia "real" o "simulada" (es decir, inteligencia "sintética" o "artificial") y no indica que dicha máquina tenga mente , conciencia o comprensión verdadera (es decir, no implica la " hipótesis de IA fuerte " de John Searle). Tampoco intenta trazar una línea divisoria clara entre comportamientos que son "inteligentes" y comportamientos que son "poco inteligentes": los programas sólo necesitan medirse en términos de su función objetiva.

Más importante aún, tiene una serie de ventajas prácticas que han ayudado a hacer avanzar la investigación de la IA. Proporciona una manera confiable y científica de probar programas; Los investigadores pueden comparar directamente o incluso combinar diferentes enfoques para problemas aislados, preguntando qué agente es mejor para maximizar una "función objetivo" determinada. También les proporciona un lenguaje común para comunicarse con otros campos, como la optimización matemática (que se define en términos de "metas") o la economía (que utiliza la misma definición de " agente racional "). [9]

Función objetiva

Un agente al que se le asigna una "función objetivo" explícita se considera más inteligente si toma consistentemente acciones que maximicen con éxito su función objetivo programada. El objetivo puede ser simple ("1 si el IA gana un juego de Go , 0 en caso contrario") o complejo ("Realizar acciones matemáticamente similares a las que tuvieron éxito en el pasado"). La "función de objetivo" encapsula todos los objetivos sobre los que el agente se ve obligado a actuar; en el caso de agentes racionales, la función también resume las compensaciones aceptables entre el logro de objetivos en conflicto. (La terminología varía; por ejemplo, algunos agentes buscan maximizar o minimizar una " función de utilidad ", una "función objetivo" o una " función de pérdida ".) [6] [2]

Los objetivos pueden definirse o inducirse explícitamente. Si la IA está programada para " aprendizaje por refuerzo ", tiene una " función de recompensa " que fomenta algunos tipos de comportamiento y castiga otros. Alternativamente, un sistema evolutivo puede inducir objetivos mediante el uso de una " función de aptitud " para mutar y replicar preferentemente sistemas de IA de alta puntuación, de forma similar a cómo los animales evolucionaron para desear de forma innata ciertos objetivos, como encontrar comida. [10] Algunos sistemas de IA, como el vecino más cercano, en lugar de razonar por analogía, a estos sistemas generalmente no se les asignan objetivos, excepto en la medida en que los objetivos estén implícitos en sus datos de entrenamiento. [11] Estos sistemas todavía pueden ser evaluados como punto de referencia si el sistema sin objetivos se encuadra como un sistema cuyo "objetivo" es cumplir su estrecha tarea de clasificación. [12]

Los sistemas que tradicionalmente no se consideran agentes, como los sistemas de representación del conocimiento, a veces se incluyen en el paradigma enmarcándolos como agentes que tienen el objetivo de (por ejemplo) responder preguntas con la mayor precisión posible; El concepto de "acción" se amplía aquí para abarcar el "acto" de dar una respuesta a una pregunta. Como extensión adicional, los sistemas impulsados ​​por el mimetismo pueden enmarcarse como agentes que optimizan una "función objetivo" en función de qué tan cerca la AI logra imitar el comportamiento deseado. [6] [2] En las redes generativas de confrontación de la década de 2010, un componente "codificador"/"generador" intenta imitar e improvisar la composición de texto humano. El generador intenta maximizar una función que encapsula qué tan bien puede engañar a un componente antagonista "predictor"/"discriminador". [13]

Si bien los sistemas de IA simbólica a menudo aceptan una función objetivo explícita, el paradigma también se puede aplicar a las redes neuronales y a la computación evolutiva . El aprendizaje por refuerzo puede generar agentes inteligentes que parecen actuar de manera destinada a maximizar una "función de recompensa". [14] A veces, en lugar de configurar la función de recompensa para que sea directamente igual a la función de evaluación de referencia deseada, los programadores de aprendizaje automático utilizarán la configuración de recompensa para otorgar inicialmente a la máquina recompensas por el progreso incremental en el aprendizaje. [15] Yann LeCun declaró en 2018 que "la mayoría de los algoritmos de aprendizaje que se le han ocurrido a la gente consisten esencialmente en minimizar alguna función objetivo". [16] El ajedrez AlphaZero tenía una función objetivo simple; cada victoria cuenta como +1 punto y cada derrota cuenta como -1 punto. Una función objetivo para un vehículo autónomo tendría que ser más complicada. [17] La ​​computación evolutiva puede desarrollar agentes inteligentes que parecen actuar de maneras destinadas a maximizar una "función de aptitud" que influye en cuántos descendientes se le permite dejar a cada agente. [4]

El diseño teórico e incomputable de AIXI es un agente de máxima inteligencia en este paradigma; [18] sin embargo, en el mundo real, la IA está limitada por un tiempo y recursos de hardware finitos, y los científicos compiten para producir algoritmos que puedan alcanzar puntuaciones progresivamente más altas en pruebas comparativas con hardware del mundo real. [19] [¿ relevante? ]

Clases de agentes inteligentes.

Clasificación de Russell y Norvig

Russell y Norvig (2003) agrupan a los agentes en cinco clases según su grado de inteligencia y capacidad percibidas: [20]

Agentes reflejos simples

Agente reflejo simple

Los agentes reflejos simples actúan sólo sobre la base de la percepción actual , ignorando el resto de la historia de la percepción. La función del agente se basa en la regla condición-acción : "si condición, entonces acción".

Esta función de agente sólo tiene éxito cuando el entorno es plenamente observable. Algunos agentes reflejos también pueden contener información sobre su estado actual, lo que les permite ignorar las condiciones cuyos actuadores ya están activados.

Los bucles infinitos son a menudo inevitables para agentes reflejos simples que operan en entornos parcialmente observables. Si el agente puede aleatorizar sus acciones, es posible escapar de bucles infinitos.

Agentes reflejos basados ​​en modelos.

Agente reflejo basado en modelos

Un agente basado en modelos puede manejar entornos parcialmente observables. Su estado actual se almacena dentro del agente manteniendo algún tipo de estructura que describe la parte del mundo que no se puede ver. Este conocimiento sobre "cómo funciona el mundo" se denomina modelo del mundo, de ahí el nombre de "agente basado en modelos".

Un agente reflejo basado en modelos debería mantener algún tipo de modelo interno que dependa de la historia de la percepción y, por lo tanto, refleje al menos algunos de los aspectos no observados del estado actual. La historia de la percepción y el impacto de la acción en el medio ambiente se pueden determinar utilizando el modelo interno. Luego elige una acción de la misma manera que el agente reflejo.

Un agente también puede utilizar modelos para describir y predecir los comportamientos de otros agentes en el entorno. [21]

Agentes basados ​​en objetivos

Agente basado en modelos y objetivos

Los agentes basados ​​en objetivos amplían aún más las capacidades de los agentes basados ​​en modelos utilizando información de "objetivos". La información de objetivos describe situaciones que son deseables. Esto proporciona al agente una forma de elegir entre múltiples posibilidades, seleccionando aquella que alcanza un estado objetivo. La búsqueda y la planificación son los subcampos de la inteligencia artificial dedicados a encontrar secuencias de acción que logren los objetivos del agente.

Agentes basados ​​en servicios públicos

Agente basado en modelos y servicios públicos

Los agentes basados ​​en objetivos sólo distinguen entre estados con objetivos y estados sin objetivos. También es posible definir una medida de cuán deseable es un estado particular. Esta medida se puede obtener mediante el uso de una función de utilidad que asigna un estado a una medida de la utilidad del estado. Una medida de desempeño más general debería permitir una comparación de diferentes estados del mundo según qué tan bien cumplieron con los objetivos del agente. El término utilidad se puede utilizar para describir cuán "feliz" es el agente.


Un agente racional basado en la utilidad elige la acción que maximiza la utilidad esperada de los resultados de la acción, es decir, lo que el agente espera obtener, en promedio, dadas las probabilidades y utilidades de cada resultado. Un agente basado en la utilidad tiene que modelar y realizar un seguimiento de su entorno, tareas que han implicado una gran cantidad de investigaciones sobre percepción, representación, razonamiento y aprendizaje.

Agentes de aprendizaje

Un agente de aprendizaje general.

El aprendizaje tiene la ventaja de que permite a los agentes operar inicialmente en entornos desconocidos y volverse más competentes de lo que su conocimiento inicial por sí solo podría permitir. La distinción más importante es entre el "elemento de aprendizaje", que es responsable de realizar mejoras, y el "elemento de desempeño", que es responsable de seleccionar acciones externas.

El elemento de aprendizaje utiliza la retroalimentación del "crítico" sobre cómo le está yendo al agente y determina cómo el elemento de desempeño, o "actor", debe modificarse para mejorar en el futuro. El elemento de actuación es lo que antes hemos considerado el agente completo: capta percepciones y decide acciones.

El último componente del agente de aprendizaje es el "generador de problemas". Es responsable de sugerir acciones que conducirán a experiencias nuevas e informativas.

clasificación de weiss

Weiss (2013) define cuatro clases de agentes:


Otro

En 2013, Alexander Wissner-Gross publicó una teoría sobre la libertad y la inteligencia para agentes inteligentes. [22] [23]

Jerarquías de agentes

Para desempeñar activamente sus funciones , los Agentes Inteligentes hoy en día normalmente se reúnen en una estructura jerárquica que contiene muchos “subagentes”. Los subagentes inteligentes procesan y realizan funciones de nivel inferior. En conjunto, el agente inteligente y los subagentes crean un sistema completo que puede lograr tareas u objetivos difíciles con comportamientos y respuestas que muestran una forma de inteligencia.

Generalmente, se puede construir un agente separando el cuerpo en sensores y actuadores, de modo que opere con un sistema de percepción complejo que toma la descripción del mundo como entrada para un controlador y envía comandos al actuador. Sin embargo, a menudo es necesaria una jerarquía de capas de controlador para equilibrar la reacción inmediata deseada para tareas de bajo nivel y el razonamiento lento sobre objetivos complejos de alto nivel. [24]

Función de agente

Un programa de agente simple puede definirse matemáticamente como una función f (llamada "función de agente") [25] que asigna cada secuencia posible de perceptos a una posible acción que el agente puede realizar o a un coeficiente, elemento de retroalimentación, función o constante que afecta acciones eventuales:

La función de agente es un concepto abstracto ya que podría incorporar varios principios de toma de decisiones como el cálculo de la utilidad de opciones individuales, la deducción sobre reglas lógicas, la lógica difusa , etc. [26]

El agente del programa, en cambio, asigna cada percepción posible a una acción. [27]

Usamos el término percepción para referirnos a los inputs percepcionales del agente en un instante dado. En las siguientes figuras, un agente es cualquier cosa que pueda considerarse que percibe su entorno a través de sensores y actúa sobre ese entorno a través de actuadores.

Aplicaciones

Hallerbach et al. discutió la aplicación de enfoques basados ​​en agentes para el desarrollo y validación de sistemas de conducción automatizados a través de un gemelo digital del vehículo bajo prueba y una simulación microscópica del tráfico basada en agentes independientes. [28] Waymo ha creado un entorno de simulación de múltiples agentes, Carcraft, para probar algoritmos para vehículos autónomos . [29] [30] Simula las interacciones de tráfico entre conductores humanos, peatones y vehículos automatizados. El comportamiento de las personas es imitado por agentes artificiales basados ​​en datos del comportamiento humano real. La idea básica de utilizar modelos basados ​​en agentes para comprender los vehículos autónomos se discutió ya en 2003. [31]

Definiciones y usos alternativos

"Agente inteligente" también se utiliza a menudo como un término de marketing vago, a veces sinónimo de " asistente personal virtual ". [32] Algunas definiciones del siglo XX caracterizan a un agente como un programa que ayuda a un usuario o que actúa en nombre de un usuario. [33] Estos ejemplos se conocen como agentes de software y, a veces, un "agente de software inteligente" (es decir, un agente de software con inteligencia) se denomina "agente inteligente".

Según Nikola Kasabov, los sistemas de IA deberían presentar las siguientes características: [34]

Ver también

Notas

  1. ^ La definición de Padgham y Winikoff cubre explícitamente sólo los agentes sociales que interactúan con otros agentes.

Referencias en línea

  1. ^ ab Russell y Norvig 2003, cap. 2.
  2. ^ abcd Bringsjord, Selmer; Govindarajulu, Naveen Sundar (12 de julio de 2018). "Inteligencia artificial". En Edward N. Zalta (ed.). La Enciclopedia de Filosofía de Stanford (edición de verano de 2020) .
  3. ^ Wolchover, Natalie (30 de enero de 2020). "La inteligencia artificial hará lo que le pedimos. Eso es un problema". Revista Quanta . Consultado el 21 de junio de 2020 .
  4. ^ ab Bull, Larry (1999). "Sobre la computación evolutiva basada en modelos". Computación blanda . 3 (2): 76–82. doi :10.1007/s005000050055. S2CID  9699920.
  5. ^ Russell y Norvig 2003, págs. 4–5, 32, 35, 36 y 56.
  6. ^ abc Russell y Norvig (2003)
  7. ^ Lin Padgham y Michael Winikoff. Desarrollo de sistemas de agentes inteligentes: una guía práctica. vol. 13. John Wiley e hijos, 2005.
  8. ^ Kaplan, Andreas; Haenlein, Michael (1 de enero de 2019). "Siri, Siri, en mi mano: ¿Quién es la más bella del país? Sobre las interpretaciones, ilustraciones e implicaciones de la inteligencia artificial". Horizontes empresariales . 62 (1): 15-25. doi :10.1016/j.bushor.2018.08.004. S2CID  158433736.
  9. ^ Russell y Norvig 2003, pág. 27.
  10. ^ Domingos 2015, Capítulo 5.
  11. ^ Domingos 2015, Capítulo 7.
  12. ^ Lindenbaum, M., Markovitch, S. y Rusakov, D. (2004). Muestreo selectivo para clasificadores vecinos más cercanos. Aprendizaje automático, 54 (2), 125-152.
  13. ^ "Redes generativas de confrontación: qué son las GAN y cómo han evolucionado". VentureBeat . 26 de diciembre de 2019 . Consultado el 18 de junio de 2020 .
  14. ^ Wolchover, Natalie (enero de 2020). "La inteligencia artificial hará lo que le pedimos. Eso es un problema". Revista Quanta . Consultado el 18 de junio de 2020 .
  15. ^ Andrew Y. Ng, Daishi Harada y Stuart Russell. "Invariancia de políticas bajo transformaciones de recompensa: teoría y aplicación a la configuración de recompensas". En ICML, vol. 99, págs. 278-287. 1999.
  16. ^ Martín Ford . Arquitectos de la inteligencia: la verdad sobre la IA a través de las personas que la construyen. Packt Publishing Ltd, 2018.
  17. ^ "Por qué la inteligencia artificial de AlphaZero tiene problemas con el mundo real". Revista Quanta . 2018 . Consultado el 18 de junio de 2020 .
  18. ^ Adams, Sam; Arel, Itmar; Bach, Joscha; Cooperativa, Robert; Furlán, Rod; Goertzel, Ben; Salón, J. Storrs; Samsonovich, Alexei; Scheutz, Matías; Schlesinger, Mateo; Shapiro, Stuart C.; Sowa, John (15 de marzo de 2012). "Mapeo del panorama de la inteligencia general artificial a nivel humano". Revista AI . 33 (1): 25. doi : 10.1609/aimag.v33i1.2322 .
  19. ^ Hutson, Matthew (27 de mayo de 2020). "Los avances llamativos en algunos campos de la IA no son reales". Ciencia | AAAS . Consultado el 18 de junio de 2020 .
  20. ^ Russell y Norvig 2003, págs. 46–54
  21. ^ Stefano Albrecht y Peter Stone (2018). Agentes autónomos que modelan a otros agentes: un estudio completo y problemas abiertos. Inteligencia artificial, vol. 258, págs. 66-95. https://doi.org/10.1016/j.artint.2018.01.002
  22. ^ Box, Geeks fuera del (4 de diciembre de 2019). "Una fórmula universal para la inteligencia". Frikis fuera de la caja . Consultado el 11 de octubre de 2022 .
  23. ^ Wissner-Gross, ANUNCIO; Más libre, CE (19 de abril de 2013). "Fuerzas entrópicas causales". Cartas de revisión física . 110 (16): 168702. Código bibliográfico : 2013PhRvL.110p8702W. doi : 10.1103/PhysRevLett.110.168702 . hdl : 1721.1/79750 . PMID  23679649.
  24. ^ Poole, David; Mackworth, Alan. "1.3 Agentes situados en entornos ‣ Capítulo 2 Arquitecturas de agentes y control jerárquico ‣ Inteligencia artificial: fundamentos de los agentes computacionales, 2ª edición". artint.info . Consultado el 28 de noviembre de 2018 .
  25. ^ Russell y Norvig 2003, pág. 33
  26. ^ Salamón, Tomás (2011). Diseño de Modelos Basados ​​en Agentes. Repin: Editorial Bruckner. págs. 42–59. ISBN 978-80-904661-1-1.
  27. ^ Nilsson, Nils J. (abril de 1996). "Inteligencia artificial: un enfoque moderno". Inteligencia artificial . 82 (1–2): 369–380. doi : 10.1016/0004-3702(96)00007-0 . ISSN  0004-3702.
  28. ^ Hallerbach, S.; Xia, Y.; Eberle, U.; Koester, F. (2018). "Identificación basada en simulación de escenarios críticos para vehículos cooperativos y automatizados". Revista Internacional SAE de Vehículos Conectados y Automatizados . 1 (2). SAE Internacional: 93. doi :10.4271/2018-01-1066.
  29. ^ Madrigal, historia de Alexis C. "Dentro del mundo secreto de Waymo para entrenar vehículos autónomos". El Atlántico . Consultado el 14 de agosto de 2020 .
  30. ^ Connors, J.; Graham, S.; Mailloux, L. (2018). "Modelado cibersintético para aplicaciones de vehículo a vehículo". En Conferencia Internacional sobre Seguridad y Guerra Cibernética . Conferencias académicas internacionales limitadas: 594-XI.
  31. ^ Yang, Guoqing; Wu, Zhaohui; Li, Xiumei; Chen, Wei (2003). "SVE: entorno de vehículo inteligente basado en agentes integrados". Actas de la Conferencia Internacional IEEE de 2003 sobre Sistemas de Transporte Inteligentes . vol. 2. págs. 1745-1749. doi :10.1109/ITSC.2003.1252782. ISBN 0-7803-8125-4. S2CID  110177067.
  32. ^ Fingar, Peter (2018). "Compitiendo por el futuro con agentes inteligentes... y una confesión". Sitios de Forbes . Consultado el 18 de junio de 2020 .
  33. ^ Burgin, Mark y Gordana Dodig-Crnkovic. "Un enfoque sistemático de los agentes artificiales". Preimpresión de arXiv arXiv:0902.3513 (2009).
  34. ^ Kasabov 1998.

otras referencias

enlaces externos