En inteligencia artificial (IA), la anticipación se produce cuando un agente toma decisiones basadas en sus creencias explícitas sobre el futuro. En términos más generales, la "anticipación" también puede referirse a la capacidad de actuar de manera apropiada teniendo en cuenta los acontecimientos futuros, sin poseer necesariamente de manera explícita un modelo de los acontecimientos futuros.
El concepto contrasta con el paradigma reactivo, que no es capaz de predecir estados futuros del sistema. [1]
Un agente que emplee la anticipación intentaría predecir el estado futuro del entorno (el clima en este caso) y utilizaría las predicciones en la toma de decisiones. Por ejemplo,
Si el cielo está nublado y la presión del aire es baja, Probablemente lloverá pronto Así que lleva el paraguas contigo.De lo contrario deja el paraguas en casa.
Estas reglas tienen en cuenta explícitamente posibles acontecimientos futuros.
En 1985, Robert Rosen definió un sistema anticipatorio de la siguiente manera: [2]
Hasta cierto punto, la definición de anticipación de Rosen se aplica a cualquier sistema que incorpore aprendizaje automático . La cuestión es qué parte del comportamiento de un sistema debe o puede determinarse mediante el razonamiento a partir de representaciones específicas, qué parte mediante la planificación en línea y qué parte deben proporcionar los diseñadores del sistema.
Los seres humanos pueden tomar decisiones basadas en creencias explícitas sobre el futuro. En términos más generales, los animales pueden actuar de manera apropiada teniendo en cuenta los acontecimientos futuros, aunque no necesariamente tengan un modelo cognitivo explícito del futuro; la evolución puede haber dado forma a características sistémicas más simples que resultan en un comportamiento anticipatorio adaptativo en un dominio limitado. [3] Por ejemplo, la hibernación es un comportamiento anticipatorio, pero no parece estar impulsada por un modelo cognitivo del futuro. [4]