AIXI ['ai̯k͡siː] es un formalismo matemático teórico para la inteligencia artificial general . Combina la inducción de Solomonoff con la teoría de decisiones secuenciales . AIXI fue propuesto por primera vez por Marcus Hutter en 2000 [1] y varios resultados relacionados con AIXI se prueban en el libro de Hutter de 2005, Universal Artificial Intelligence [2] .
AIXI es un agente de aprendizaje por refuerzo (RL). Maximiza las recompensas totales esperadas recibidas del entorno. Intuitivamente, considera simultáneamente cada hipótesis computable (o entorno). En cada paso de tiempo, observa cada programa posible y evalúa cuántas recompensas genera ese programa dependiendo de la siguiente acción realizada. Las recompensas prometidas se ponderan luego según la creencia subjetiva de que este programa constituye el entorno real. Esta creencia se calcula a partir de la duración del programa: los programas más largos se consideran menos probables, de acuerdo con la navaja de Occam . A continuación, AIXI selecciona la acción que tiene la recompensa total esperada más alta en la suma ponderada de todos estos programas.
Según Hutter, la palabra "AIXI" puede tener varias interpretaciones. AIXI puede significar AI según la distribución de Solomonoff, denotada por (que es la letra griega xi), o por ejemplo puede significar AI "cruzado" (X) con inducción (I). Existen otras interpretaciones. [3]
AIXI es un agente de aprendizaje por refuerzo que interactúa con un entorno estocástico y desconocido pero computable . La interacción se produce en pasos de tiempo, desde hasta , donde es la vida útil del agente AIXI. En el paso de tiempo t , el agente elige una acción (por ejemplo, un movimiento de extremidades) y la ejecuta en el entorno, y el entorno responde con un "percepto" , que consiste en una "observación" (por ejemplo, una imagen de cámara) y una recompensa , distribuida de acuerdo con la probabilidad condicional , donde es el "historial" de acciones, observaciones y recompensas. Por tanto, el entorno se representa matemáticamente como una distribución de probabilidad sobre "percepciones" (observaciones y recompensas) que dependen del historial completo , por lo que no hay una suposición de Markov (a diferencia de otros algoritmos de RL). Nótese nuevamente que esta distribución de probabilidad es desconocida para el agente AIXI. Además, observe nuevamente que es computable, es decir, las observaciones y recompensas recibidas por el agente del entorno pueden ser calculadas por algún programa (que se ejecuta en una máquina de Turing ), dadas las acciones pasadas del agente AIXI. [4]
El único objetivo del agente AIXI es maximizar , es decir, la suma de recompensas desde el paso de tiempo 1 hasta m.
El agente AIXI está asociado a una política estocástica , que es la función que utiliza para elegir acciones en cada paso de tiempo, donde es el espacio de todas las posibles acciones que AIXI puede tomar y es el espacio de todas las posibles "percepciones" que puede producir el entorno. El entorno (o distribución de probabilidad) también puede considerarse como una política estocástica (que es una función): , donde es la operación de estrella de Kleene .
En general, en un paso de tiempo (que varía de 1 a m), AIXI, habiendo ejecutado previamente acciones (que a menudo se abrevia en la literatura como ) y habiendo observado el historial de percepciones (que se puede abreviar como ), elige y ejecuta en el entorno la acción, , definida de la siguiente manera: [3]
o, utilizando paréntesis, para desambiguar las precedencias
Intuitivamente, en la definición anterior, AIXI considera la suma de la recompensa total sobre todos los "futuros" posibles hasta pasos de tiempo hacia adelante (es decir, desde hasta ), pondera cada uno de ellos por la complejidad de los programas (es decir, por ) consistentes con el pasado del agente (es decir, las acciones ejecutadas previamente, , y las percepciones recibidas, ) que pueden generar ese futuro, y luego elige la acción que maximiza las recompensas futuras esperadas. [4]
Vamos a desglosar esta definición para intentar comprenderla en su totalidad.
es la "percepción" (que consiste en la observación y la recompensa ) recibida por el agente AIXI en el paso de tiempo del entorno (que es desconocido y estocástico). De manera similar, es la percepción recibida por AIXI en el paso de tiempo (el último paso de tiempo en el que AIXI está activo).
es la suma de las recompensas de un paso de tiempo a otro , por lo que AIXI necesita mirar hacia el futuro para elegir su acción en el paso de tiempo .
denota una máquina de Turing universal monótona , y abarca todos los programas (deterministas) de la máquina universal , que recibe como entrada el programa y la secuencia de acciones (es decir, todas las acciones), y produce la secuencia de percepciones . La máquina de Turing universal se utiliza, por tanto, para "simular" o calcular las respuestas o percepciones del entorno, dado el programa (que "modela" el entorno) y todas las acciones del agente AIXI: en este sentido, el entorno es "computable" (como se indicó anteriormente). Nótese que, en general, el programa que "modela" el entorno actual y real (donde AIXI necesita actuar) es desconocido porque el entorno actual también es desconocido.
es la longitud del programa (que está codificada como una cadena de bits). Nótese que . Por lo tanto, en la definición anterior, debe interpretarse como una mezcla (en este caso, una suma) de todos los entornos computables (que son consistentes con el pasado del agente), cada uno ponderado por su complejidad . Nótese que también se puede escribir como , y es la secuencia de acciones ya ejecutadas en el entorno por el agente AIXI. De manera similar, , y es la secuencia de percepciones producidas por el entorno hasta el momento.
Juntemos ahora todos estos componentes para poder entender esta ecuación o definición.
En el paso de tiempo t, AIXI elige la acción donde la función alcanza su máximo.
Los parámetros de AIXI son la máquina universal de Turing U y el tiempo de vida del agente m , que deben elegirse. El último parámetro puede eliminarse mediante el uso de descuento .
El rendimiento de AIXI se mide por la cantidad total esperada de recompensas que recibe. Se ha demostrado que AIXI es óptimo en los siguientes aspectos: [2]
Posteriormente, Hutter y Jan Leike demostraron que la optimalidad de Pareto equilibrada es subjetiva y que cualquier política puede considerarse óptima de Pareto, lo que, según ellos, socava todas las afirmaciones de optimalidad anteriores para AIXI. [5]
Sin embargo, AIXI tiene limitaciones. Se limita a maximizar las recompensas en función de las percepciones en lugar de los estados externos. También supone que interactúa con el entorno únicamente a través de canales de acción y percepción, lo que le impide considerar la posibilidad de sufrir daños o modificaciones. En términos coloquiales, esto significa que no se considera contenido por el entorno con el que interactúa. También supone que el entorno es computable. [6]
Al igual que la inducción de Solomonoff , AIXI es incomputable . Sin embargo, existen aproximaciones computables de ella. Una de esas aproximaciones es AIXI tl , que funciona al menos tan bien como el agente limitado en tiempo t y espacio l , que es probablemente el mejor. [2] Otra aproximación a AIXI con una clase de entorno restringida es MC-AIXI (FAC-CTW) (que significa Monte Carlo AIXI FAC- Context-Tree Weighting ), que ha tenido cierto éxito jugando juegos simples como el parcialmente observable Pac-Man . [4] [7]