El filtrado generalizado es un esquema de filtrado bayesiano genérico para modelos de espacio de estados no lineales. [1] Se basa en un principio variacional de mínima acción , formulado en coordenadas generalizadas de movimiento. [2] Nótese que las "coordenadas generalizadas de movimiento" están relacionadas con, pero son distintas de, las coordenadas generalizadas tal como se usan en el análisis de sistemas dinámicos (multicuerpo). El filtrado generalizado proporciona densidades posteriores sobre estados ocultos (y parámetros) generando datos observados utilizando un descenso de gradiente generalizado sobre energía libre variacional, bajo el supuesto de Laplace . A diferencia del filtrado clásico (por ejemplo, Kalman-Bucy o de partículas ), el filtrado generalizado evita los supuestos markovianos sobre fluctuaciones aleatorias. Además, opera en línea, asimilando datos para aproximarse a la densidad posterior sobre cantidades desconocidas, sin la necesidad de un pase hacia atrás. Los casos especiales incluyen el filtrado variacional , [3] la maximización de la expectativa dinámica [4] y la codificación predictiva generalizada .
Definición
Definición : El filtrado generalizado se basa en la tupla :
- Un espacio muestral del que se extraen fluctuaciones aleatorias
- Estados de control : que actúan como causas externas, términos de entrada o de fuerza.
- Estados ocultos : que provocan estados sensoriales y dependen de estados de control.
- Estados de los sensores : un mapeo probabilístico de estados ocultos y de control
- Densidad generativa – sobre estados sensoriales, ocultos y de control bajo un modelo generativo
- Densidad variacional – sobre estados ocultos y de control con media
Aquí ~ denota una variable en coordenadas generalizadas de movimiento:
Filtrado generalizado
El objetivo es aproximar la densidad posterior sobre estados ocultos y de control, dados los estados del sensor y un modelo generativo, y estimar la evidencia del modelo (integral de trayectoria) para comparar diferentes modelos. Esto generalmente implica una marginalización intratable sobre estados ocultos, por lo que la evidencia del modelo (o probabilidad marginal) se reemplaza con un límite de energía libre variacional. [5] Dadas las siguientes definiciones:
Denotemos la entropía de Shannon de la densidad por . Podemos escribir entonces la energía libre variacional de dos maneras:
La segunda igualdad muestra que al minimizar la energía libre variacional (i) se minimiza la divergencia de Kullback-Leibler entre la densidad variacional y la densidad posterior verdadera y (ii) se obtiene la energía libre variacional (una aproximación límite a) como evidencia logarítmica negativa (porque la divergencia nunca puede ser menor que cero). [6] Según el supuesto de Laplace, la densidad variacional es gaussiana y la precisión que minimiza la energía libre es . Esto significa que la energía libre se puede expresar en términos de la media variacional [7] (omitiendo las constantes):
Los medios variacionales que minimizan la (integral de trayectoria) de la energía libre ahora se pueden recuperar resolviendo el filtro generalizado:
donde es un operador de derivada de matriz de bloques de matrices de identificación tales que
Base variacional
El filtrado generalizado se basa en el siguiente lema: La solución autoconsistente para satisface el principio variacional de acción estacionaria , donde la acción es la integral de trayectoria de la energía libre variacional.
Demostración : la autoconsistencia requiere que el movimiento de la media sea la media del movimiento y (por el lema fundamental del cálculo variacional )
En pocas palabras, pequeñas perturbaciones en la trayectoria de la media no cambian la energía libre variacional y tiene la menor acción de todas las trayectorias (locales) posibles.
Observaciones : Heurísticamente, el filtrado generalizado realiza un descenso de gradiente sobre la energía libre variacional en un marco de referencia móvil: , donde el propio marco minimiza la energía libre variacional. Para un ejemplo relacionado en física estadística, véase Kerr y Graham [8], quienes utilizan dinámica de conjuntos en coordenadas generalizadas para proporcionar una versión generalizada en el espacio de fases de las ecuaciones de Langevin y Fokker-Planck asociadas.
En la práctica, el filtrado generalizado utiliza la linealización local [9] a lo largo de intervalos para recuperar actualizaciones discretas.
Esto actualiza las medias de las variables ocultas en cada intervalo (normalmente el intervalo entre observaciones).
Modelos generativos (espacio de estados) en coordenadas generalizadas
Generalmente, la densidad o modelo generativo se especifica en términos de un modelo de entrada-estado-salida no lineal con funciones no lineales continuas:
El modelo generalizado correspondiente (bajo supuestos de linealidad local) obtiene la regla de la cadena.
Las suposiciones gaussianas sobre las fluctuaciones aleatorias prescriben entonces la probabilidad y los antecedentes empíricos sobre el movimiento de los estados ocultos.
Las covarianzas se factorizan en una covarianza entre variables y correlaciones entre fluctuaciones generalizadas que codifica su autocorrelación :
Aquí, se evalúa la segunda derivada de la función de autocorrelación en cero. Esta es una medida ubicua de la rugosidad en la teoría de los procesos estocásticos . [10] Fundamentalmente, la precisión (varianza inversa) de las derivadas de orden alto cae a cero con bastante rapidez, lo que significa que solo es necesario modelar un movimiento generalizado de orden relativamente bajo (generalmente entre dos y ocho) para cualquier función de autocorrelación dada o parametrizada.
Casos especiales
Filtrado de series temporales discretas
Cuando las series de tiempo se observan como una secuencia discreta de observaciones, el muestreo implícito se trata como parte del proceso generativo, donde (utilizando el teorema de Taylor )
En principio, se podría utilizar toda la secuencia para estimar variables ocultas en cada punto temporal. Sin embargo, la precisión de las muestras del pasado y del futuro disminuye rápidamente y se puede ignorar. Esto permite que el esquema asimile los datos en línea, utilizando observaciones locales en torno a cada punto temporal (normalmente entre dos y ocho).
Filtrado generalizado y parámetros del modelo
Para cualquier modelo que varíe lentamente los parámetros de las ecuaciones de movimiento o el filtrado generalizado de precisión toma la siguiente forma (donde corresponde a la media variacional de los parámetros)
Aquí, la solución minimiza la energía libre variacional, cuando el movimiento de la media es pequeño. Esto se puede ver notando . Es sencillo demostrar que esta solución corresponde a una actualización clásica de Newton . [11]
Relación con el filtrado bayesiano y la codificación predictiva
Filtrado generalizado y filtrado de Kalman
El filtrado clásico bajo supuestos markovianos o de Wiener es equivalente a suponer que la precisión del movimiento de fluctuaciones aleatorias es cero. En este caso límite, sólo hay que considerar los estados y su primera derivada . Esto significa que el filtrado generalizado toma la forma de un filtro de Kalman-Bucy, con términos de predicción y corrección:
Sustituir este filtrado de primer orden en el esquema de actualización discreto anterior proporciona el equivalente del filtrado de Kalman (extendido). [12]
Filtrado generalizado y filtrado de partículas
El filtrado de partículas es un esquema basado en muestreo que relaja los supuestos sobre la forma de la densidad posterior aproximada o variacional. El esquema de filtrado generalizado correspondiente se denomina filtrado variacional . [3] En el filtrado variacional, un conjunto de partículas se difunde sobre el paisaje de energía libre en un marco de referencia que se mueve con el movimiento esperado (generalizado) del conjunto. Esto proporciona un esquema relativamente simple que evita los supuestos gaussianos (unimodales). A diferencia del filtrado de partículas, no requiere densidades propuestas, ni la eliminación o creación de partículas.
Filtrado generalizado y Bayes variacional
El Bayes variacional se basa en una partición de campo medio de la densidad variacional:
Esta partición induce una actualización o paso variacional para cada densidad marginal, que generalmente se resuelve analíticamente utilizando valores previos conjugados. En el filtrado generalizado, esto conduce a una maximización de la expectativa dinámica [4] que comprende un paso D que optimiza las estadísticas suficientes de los estados desconocidos, un paso E para los parámetros y un paso M para las precisiones.
Filtrado generalizado y codificación predictiva
El filtrado generalizado se utiliza generalmente para invertir modelos jerárquicos de la siguiente forma
El consiguiente descenso de gradiente generalizado sobre la energía libre se puede expresar entonces de forma compacta en términos de errores de predicción, donde (omitiendo los términos de orden superior):
Aquí se muestra la precisión de las fluctuaciones aleatorias en el nivel i . Esto se conoce como codificación predictiva generalizada [11], siendo la codificación predictiva lineal un caso especial.
Aplicaciones
El filtrado generalizado se ha aplicado principalmente a series temporales biológicas, en particular a imágenes por resonancia magnética funcional y datos electrofisiológicos. Esto suele ocurrir en el contexto de modelos causales dinámicos para hacer inferencias sobre las arquitecturas subyacentes de los sistemas (neuronales) que generan datos. [13] También se utiliza para simular inferencias en términos de codificación predictiva generalizada (jerárquica) en el cerebro. [14]
Véase también
Referencias
- ^ K Friston, K Stephan, B Li y J. Daunizeau, "Filtrado generalizado", Problemas matemáticos en ingeniería , vol. vol., 2010, pág. 621670, 2010.
- ^ B Balaji y K Friston, "Estimación de estado bayesiano utilizando coordenadas generalizadas", Proc. SPIE, pág. 80501Y, 2011
- ^ ab KJ Friston, "Filtrado variacional", Neuroimage, vol. 41, núm. 3, págs. 747-66, 2008.
- ^ ab KJ Friston, N Trujillo-Barreto y J Daunizeau, "DEM: Un tratamiento variacional de sistemas dinámicos", Neuroimage, vol. 41, núm. 3, págs. 849-85, 2008
- ^ RP Feynman, Mecánica estadística. Lectura MA: Benjamin, 1972
- ^ MJ Beal, "Algoritmos variacionales para inferencia bayesiana aproximada", tesis doctoral, University College London, 2003.
- ^ K Friston, J Mattout, N Trujillo-Barreto, J Ashburner y W Penny, "Energía libre variacional y la aproximación de Laplace", NeuroImage, vol. 34, núm. 1, págs. 220-34, 2007
- ^ WC Kerr y AJ Graham, "Versión generalizada del espacio de fases de las ecuaciones de Langevin y ecuaciones de Fokker-Planck asociadas", Eur. Phys. JB, vol. 15, págs. 305-11, 2000.
- ^ T Ozaki, "Un puente entre los modelos de series temporales no lineales y los sistemas dinámicos estocásticos no lineales: un enfoque de linealización local", Statistica Sin., vol. 2, págs. 113-135, 1992
- ^ DR Cox y HD Miller, La teoría de los procesos estocásticos. Londres: Methuen, 1965.
- ^ K Friston, K Stephan, B Li y J. Daunizeau, "Filtrado generalizado", Problemas matemáticos en ingeniería, vol. vol., 2010, pág. 621670, 2010.
- ^ KJ Friston, N Trujillo-Barreto y J Daunizeau, "DEM: Un tratamiento variacional de sistemas dinámicos", Neuroimage, vol. 41, núm. 3, págs. 849-85, 2008
- ^ J Daunizeau, O David y KE Stephan, "Modelado causal dinámico: una revisión crítica de los fundamentos biofísicos y estadísticos Archivado el 7 de diciembre de 2012 en Wayback Machine ", Neuroimage, vol. 58, núm. 2, págs. 312-22, 2011
- ^ K Friston, "Modelos jerárquicos en el cerebro", PLoS Comput. Biol., vol. 4, núm. 11, pág. e1000211, 2008.
Enlaces externos
- Las demostraciones y aplicaciones de software están disponibles como software académico gratuito (como código Matlab) en la caja de herramientas DEM de SPM
- Colección de artículos técnicos y de aplicación.