stringtranslate.com

filtro de kalman

El filtro de Kalman realiza un seguimiento del estado estimado del sistema y la varianza o incertidumbre de la estimación. La estimación se actualiza utilizando un modelo y mediciones de transición de estado . denota la estimación del estado del sistema en el paso de tiempo k antes de que se haya tenido en cuenta la k -ésima medición yk ; es la incertidumbre correspondiente.

Para estadística y teoría de control , el filtrado de Kalman , también conocido como estimación cuadrática lineal ( LQE ), es un algoritmo que utiliza una serie de mediciones observadas a lo largo del tiempo, incluido el ruido estadístico y otras imprecisiones, y produce estimaciones de variables desconocidas que tienden a ser más precisos que aquellos que se basan en una sola medición, al estimar una distribución de probabilidad conjunta sobre las variables para cada período de tiempo. El filtro lleva el nombre de Rudolf E. Kálmán , quien fue uno de los principales desarrolladores de su teoría.

Este filtro digital a veces se denomina filtro Stratonovich-Kalman-Bucy porque es un caso especial de un filtro no lineal más general desarrollado algo antes por el matemático soviético Ruslan Stratonovich . [1] [2] [3] [4] De hecho, algunas de las ecuaciones del filtro lineal de casos especiales aparecieron en artículos de Stratonovich que se publicaron antes del verano de 1961, cuando Kalman se reunió con Stratonovich durante una conferencia en Moscú. [5]

El filtrado de Kalman [6] tiene numerosas aplicaciones tecnológicas. Una aplicación común es la orientación, navegación y control de vehículos, en particular aviones, naves espaciales y barcos posicionados dinámicamente . [7] Además, el filtrado de Kalman es un concepto muy aplicado en el análisis de series de tiempo utilizado para temas como el procesamiento de señales y la econometría . El filtrado de Kalman es también uno de los temas principales de la planificación y el control del movimiento robótico [8] [9] y puede utilizarse para la optimización de trayectorias . [10] El filtrado de Kalman también funciona para modelar el control del movimiento del sistema nervioso central . Debido al retraso de tiempo entre la emisión de comandos motores y la recepción de retroalimentación sensorial , el uso de filtros de Kalman [11] proporciona un modelo realista para hacer estimaciones del estado actual de un sistema motor y emitir comandos actualizados. [12]

El algoritmo funciona mediante un proceso de dos fases que tiene una fase de predicción y una fase de actualización. Para la fase de predicción, el filtro de Kalman produce estimaciones de las variables del estado actual , junto con sus incertidumbres. Una vez que se observa el resultado de la siguiente medición (necesariamente corrompido con algún error, incluido ruido aleatorio), estas estimaciones se actualizan utilizando un promedio ponderado , dándole más peso a las estimaciones con mayor certeza. El algoritmo es recursivo . Puede operar en tiempo real , utilizando únicamente las medidas de entrada actuales y el estado calculado previamente y su matriz de incertidumbre; no se requiere información anterior adicional.

La optimización del filtrado de Kalman supone que los errores tienen una distribución normal (gaussiana) . En palabras de Rudolf E. Kálmán : "Se hacen las siguientes suposiciones sobre los procesos aleatorios: Se puede pensar que los fenómenos físicos aleatorios se deben a fuentes aleatorias primarias que excitan sistemas dinámicos. Se supone que las fuentes primarias son procesos aleatorios gaussianos independientes con media cero ; los sistemas dinámicos serán lineales." [13] Sin embargo, independientemente de la gaussianidad, si se conocen las covarianzas del proceso y de la medición, entonces el filtro de Kalman es el mejor estimador lineal posible en el sentido del mínimo error cuadrático medio , [14] aunque puede haber mejores estimadores no lineales. Es un error común (perpetuado en la literatura [¿ dónde? ] ) que el filtro de Kalman no puede aplicarse rigurosamente a menos que se suponga que todos los procesos de ruido son gaussianos. [15]

También se han desarrollado extensiones y generalizaciones del método, como el filtro Kalman extendido y el filtro Kalman sin perfume que funcionan en sistemas no lineales . La base es un modelo oculto de Markov tal que el espacio de estados de las variables latentes es continuo y todas las variables latentes y observadas tienen distribuciones gaussianas. El filtrado de Kalman se ha utilizado con éxito en la fusión de múltiples sensores [16] y en redes de sensores distribuidos para desarrollar el filtrado de Kalman distribuido o por consenso . [17]

Historia

El método de filtrado lleva el nombre del emigrado húngaro Rudolf E. Kálmán , aunque Thorvald Nicolai Thiele [18] [19] y Peter Swerling desarrollaron un algoritmo similar anteriormente. Richard S. Bucy del Laboratorio de Física Aplicada de Johns Hopkins contribuyó a la teoría, lo que hizo que a veces se la conociera como filtrado de Kalman-Bucy. Kalman se inspiró para derivar el filtro de Kalman aplicando variables de estado al problema de filtrado de Wiener . [20] Generalmente se le atribuye a Stanley F. Schmidt el desarrollo de la primera implementación de un filtro de Kalman. Se dio cuenta de que el filtro se podía dividir en dos partes distintas, una parte para los períodos de tiempo entre las salidas de los sensores y otra parte para incorporar mediciones. [21] Fue durante una visita de Kálmán al Centro de Investigación Ames de la NASA que Schmidt vio la aplicabilidad de las ideas de Kálmán al problema no lineal de estimación de trayectoria para el programa Apollo , lo que resultó en su incorporación en la computadora de navegación Apollo . [22] : 16 

Este filtrado de Kalman fue descrito y desarrollado parcialmente por primera vez en artículos técnicos de Swerling (1958), Kalman (1960) y Kalman y Bucy (1961).

La computadora Apollo utilizó 2k de RAM de núcleo magnético y 36k de cable [...]. La CPU se construyó a partir de circuitos integrados [...]. La velocidad del reloj estaba por debajo de los 100 kHz [...]. El hecho de que los ingenieros del MIT fueran capaces de empaquetar un software tan bueno (una de las primeras aplicaciones del filtro de Kalman) en una computadora tan pequeña es realmente notable.

—  Entrevista con Jack Crenshaw, por Matthew Reed, TRS-80.org (2009) [1]

Los filtros Kalman han sido vitales en la implementación de los sistemas de navegación de los submarinos de misiles balísticos nucleares de la Marina de los EE. UU. y en los sistemas de guía y navegación de misiles de crucero como el misil Tomahawk de la Marina de los EE. UU. y el misil de crucero lanzado desde el aire de la Fuerza Aérea de los EE. UU . También se utilizan en los sistemas de guía y navegación de vehículos de lanzamiento reutilizables y en los sistemas de navegación y control de actitud de las naves espaciales que atracan en la Estación Espacial Internacional . [23]

Resumen del cálculo

El filtrado de Kalman utiliza el modelo dinámico de un sistema (p. ej., leyes físicas del movimiento), entradas de control conocidas para ese sistema y múltiples mediciones secuenciales (como las de sensores) para formar una estimación de las cantidades variables del sistema (su estado ) que es mejor que la estimación obtenida utilizando sólo una medición. Como tal, es un algoritmo común de fusión de sensores y de datos .

Los datos ruidosos de los sensores, las aproximaciones en las ecuaciones que describen la evolución del sistema y los factores externos que no se tienen en cuenta limitan la precisión con la que es posible determinar el estado del sistema. El filtro de Kalman aborda eficazmente la incertidumbre debida a datos de sensores ruidosos y, hasta cierto punto, a factores externos aleatorios. El filtro de Kalman produce una estimación del estado del sistema como un promedio del estado previsto del sistema y de la nueva medición utilizando un promedio ponderado . El propósito de las ponderaciones es que los valores con mejor (es decir, menor) incertidumbre estimada sean más "confiables". Los pesos se calculan a partir de la covarianza , una medida de la incertidumbre estimada de la predicción del estado del sistema. El resultado del promedio ponderado es una nueva estimación del estado que se encuentra entre el estado previsto y el medido, y tiene una incertidumbre estimada mejor que cualquiera de los dos por separado. Este proceso se repite en cada paso de tiempo, y la nueva estimación y su covarianza informan la predicción utilizada en la siguiente iteración. Esto significa que el filtro de Kalman funciona de forma recursiva y requiere sólo la última "mejor suposición", en lugar de todo el historial, del estado de un sistema para calcular un nuevo estado.

La calificación de certeza de las mediciones y la estimación del estado actual son consideraciones importantes. Es común discutir la respuesta del filtro en términos de la ganancia del filtro de Kalman . La ganancia de Kalman es el peso que se le da a las mediciones y a la estimación del estado actual, y se puede "ajustar" para lograr un rendimiento particular. Con una ganancia alta, el filtro otorga más importancia a las mediciones más recientes y, por lo tanto, se adapta a ellas con mayor capacidad de respuesta. Con una ganancia baja, el filtro se ajusta más estrechamente a las predicciones del modelo. En los extremos, una ganancia alta (cerca de uno) dará como resultado una trayectoria estimada con más saltos, mientras que una ganancia baja (cerca de cero) suavizará el ruido pero disminuirá la capacidad de respuesta.

Al realizar los cálculos reales para el filtro (como se analiza a continuación), la estimación del estado y las covarianzas se codifican en matrices debido a las múltiples dimensiones involucradas en un único conjunto de cálculos. Esto permite una representación de relaciones lineales entre diferentes variables de estado (como posición, velocidad y aceleración) en cualquiera de los modelos de transición o covarianzas.

Aplicación de ejemplo

Como ejemplo de aplicación, consideremos el problema de determinar la ubicación precisa de un camión. El camión puede equiparse con una unidad GPS que proporciona una estimación de la posición en unos pocos metros. Es probable que la estimación del GPS sea ruidosa; las lecturas 'salta' rápidamente, aunque permanecen a unos pocos metros de la posición real. Además, dado que se espera que el camión siga las leyes de la física, su posición también se puede estimar integrando su velocidad en el tiempo, determinada al realizar un seguimiento de las revoluciones de las ruedas y el ángulo del volante. Esta es una técnica conocida como navegación a estima . Normalmente, la navegación a estima proporcionará una estimación muy precisa de la posición del camión, pero variará con el tiempo a medida que se acumulen pequeños errores.

Para este ejemplo, se puede considerar que el filtro de Kalman opera en dos fases distintas: predicción y actualización. En la fase de predicción, la antigua posición del camión se modificará según las leyes físicas del movimiento (el modelo dinámico o de "transición de estado"). No sólo se calculará una nueva estimación de posición, sino que también se calculará una nueva covarianza. Quizás la covarianza sea proporcional a la velocidad del camión porque tenemos más incertidumbre acerca de la precisión de la estimación de la posición a estima a altas velocidades, pero estamos muy seguros acerca de la estimación de la posición a bajas velocidades. A continuación, en la fase de actualización, se toma una medida de la posición del camión desde la unidad GPS. Junto con esta medición viene cierta cantidad de incertidumbre, y su covarianza relativa a la de la predicción de la fase anterior determina cuánto afectará la nueva medición a la predicción actualizada. Idealmente, como las estimaciones de navegación a estima tienden a alejarse de la posición real, la medición del GPS debería hacer que la estimación de posición regrese a la posición real pero no perturbarla hasta el punto de volverse ruidosa y saltar rápidamente.

Descripción técnica y contexto.

El filtro de Kalman es un filtro recursivo eficiente que estima el estado interno de un sistema dinámico lineal a partir de una serie de mediciones ruidosas . Se utiliza en una amplia gama de aplicaciones econométricas y de ingeniería , desde radar y visión por computadora hasta estimación de modelos macroeconómicos estructurales, [24] [25] y es un tema importante en la teoría del control y la ingeniería de sistemas de control . Junto con el regulador lineal-cuadrático (LQR), el filtro de Kalman resuelve el problema de control lineal-cuadrático-gaussiano (LQG). El filtro de Kalman, el regulador lineal-cuadrático y el controlador lineal-cuadrático-gaussiano son soluciones a lo que posiblemente sean los problemas más fundamentales de la teoría del control.

En la mayoría de las aplicaciones, el estado interno es mucho mayor (tiene más grados de libertad ) que los pocos parámetros "observables" que se miden. Sin embargo, al combinar una serie de mediciones, el filtro de Kalman puede estimar todo el estado interno.

Para la teoría de Dempster-Shafer , cada ecuación de estado u observación se considera un caso especial de una función de creencia lineal y el filtrado de Kalman es un caso especial de combinación de funciones de creencia lineal en un árbol de unión o árbol de Markov . Los métodos adicionales incluyen el filtrado de creencias que utiliza Bayes o actualizaciones probatorias de las ecuaciones de estado.

Actualmente existe una amplia variedad de filtros de Kalman: la formulación original de Kalman, ahora denominada filtro de Kalman "simple", el filtro de Kalman-Bucy , el filtro "extendido" de Schmidt, el filtro de información y una variedad de filtros de "raíz cuadrada" que fueron desarrollados por Bierman, Thornton y muchos otros. Quizás el tipo más comúnmente utilizado de filtro de Kalman muy simple es el bucle de bloqueo de fase , que ahora es omnipresente en las radios, especialmente en las radios de modulación de frecuencia (FM), televisores, receptores de comunicaciones por satélite , sistemas de comunicaciones en el espacio exterior y casi cualquier otro filtro electrónico. equipo de comunicaciones.

Modelo de sistema dinámico subyacente

El filtrado de Kalman se basa en sistemas dinámicos lineales discretizados en el dominio del tiempo. Están modelados sobre una cadena de Markov construida sobre operadores lineales perturbados por errores que pueden incluir ruido gaussiano . El estado del sistema objetivo se refiere a la configuración de interés del sistema de verdad fundamental (aún oculta), que se representa como un vector de números reales . En cada incremento de tiempo discreto , se aplica un operador lineal al estado para generar el nuevo estado, con algo de ruido mezclado y, opcionalmente, alguna información de los controles del sistema, si se conocen. Luego, otro operador lineal mezclado con más ruido genera resultados medibles (es decir, observación) desde el estado verdadero ("oculto"). El filtro de Kalman puede considerarse análogo al modelo de Markov oculto, con la diferencia de que las variables de estado oculto tienen valores en un espacio continuo en lugar de un espacio de estados discreto como en el modelo de Markov oculto. Existe una fuerte analogía entre las ecuaciones de un filtro de Kalman y las del modelo oculto de Markov. En Roweis y Ghahramani (1999) [26] y Hamilton (1994), capítulo 13, se ofrece una revisión de este y otros modelos.

Para utilizar el filtro de Kalman para estimar el estado interno de un proceso dada solo una secuencia de observaciones ruidosas, se debe modelar el proceso de acuerdo con el siguiente marco. Esto significa especificar las matrices, para cada paso de tiempo k , de la siguiente manera:

Modelo subyacente al filtro de Kalman. Los cuadrados representan matrices. Las elipses representan distribuciones normales multivariadas (con la matriz de media y covarianza adjunta). Los valores no encerrados son vectores . Para el caso simple, las diversas matrices son constantes en el tiempo y, por lo tanto, no se utilizan los subíndices, pero el filtrado de Kalman permite que cualquiera de ellos cambie en cada paso de tiempo.

El modelo de filtro de Kalman supone que el estado verdadero en el momento k evoluciona desde el estado en ( k  − 1) de acuerdo con

dónde

En el momento k se realiza una observación (o medición) z k del estado verdadero x k de acuerdo con

dónde

Se supone que el estado inicial y los vectores de ruido en cada paso { x 0 , w 1 , ..., w k , v 1 , ... , v k } son mutuamente independientes .

Muchos sistemas dinámicos en tiempo real no se ajustan exactamente a este modelo. De hecho, la dinámica no modelada puede degradar seriamente el rendimiento del filtro, incluso cuando se suponía que debía funcionar con señales estocásticas desconocidas como entradas. La razón de esto es que el efecto de la dinámica no modelada depende de la entrada y, por lo tanto, puede provocar inestabilidad en el algoritmo de estimación (divergencia). Por otro lado, las señales de ruido blanco independientes no harán que el algoritmo diverja. El problema de distinguir entre ruido de medición y dinámica no modelada es difícil y se trata como un problema de teoría de control que utiliza un control robusto . [28] [29]

Detalles

El filtro de Kalman es un estimador recursivo . Esto significa que sólo se necesitan el estado estimado del paso de tiempo anterior y la medición actual para calcular la estimación del estado actual. A diferencia de las técnicas de estimación por lotes, no se requiere ningún historial de observaciones y/o estimaciones. A continuación, la notación representa la estimación de en el momento n observaciones dadas hasta el momento mn inclusive .

El estado del filtro está representado por dos variables:

La estructura del algoritmo del filtro Kalman se parece a la del filtro Alfa beta . El filtro de Kalman se puede escribir como una única ecuación; sin embargo, a menudo se conceptualiza como dos fases distintas: "Predecir" y "Actualizar". La fase de predicción utiliza la estimación del estado del paso de tiempo anterior para producir una estimación del estado en el paso de tiempo actual. Esta estimación del estado predicho también se conoce como estimación del estado a priori porque, aunque es una estimación del estado en el paso de tiempo actual, no incluye información de observación del paso de tiempo actual. En la fase de actualización, la innovación (el residual preajustado), es decir, la diferencia entre la predicción a priori actual y la información de observación actual, se multiplica por la ganancia de Kalman óptima y se combina con la estimación del estado anterior para refinar la estimación del estado. Esta estimación mejorada basada en la observación actual se denomina estimación del estado a posteriori .

Normalmente, las dos fases se alternan: la predicción avanza el estado hasta la siguiente observación programada y la actualización incorpora la observación. Sin embargo, esto no es necesario; Si una observación no está disponible por algún motivo, se puede omitir la actualización y realizar múltiples procedimientos de predicción. Del mismo modo, si hay múltiples observaciones independientes disponibles al mismo tiempo, se pueden realizar múltiples procedimientos de actualización (típicamente con diferentes matrices de observación Hk ) . [30] [31]

Predecir

Actualizar

La fórmula para la covarianza estimada actualizada ( a posteriori ) anterior es válida para la ganancia K k óptima que minimiza el error residual, en cuya forma se usa más ampliamente en las aplicaciones. La prueba de las fórmulas se encuentra en la sección de derivaciones , donde también se muestra la fórmula válida para cualquier K k .

Una forma más intuitiva de expresar la estimación del estado actualizado ( ) es:

Esta expresión nos recuerda una interpolación lineal, entre [0,1]. En nuestro caso:

Esta expresión también se parece al paso de actualización del filtro alfa beta .

Invariantes

Si el modelo es preciso y los valores reflejan con precisión la distribución de los valores del estado inicial, entonces se conservan las siguientes invariantes:

¿ Dónde está el valor esperado de ? Es decir, todas las estimaciones tienen un error medio de cero.

También:

por lo que las matrices de covarianza reflejan con precisión la covarianza de las estimaciones.

Estimación de las covarianzas del ruido Q k y R k

La implementación práctica de un filtro de Kalman suele ser difícil debido a la dificultad de obtener una buena estimación de las matrices de covarianza del ruido Qk y Rk . Se han realizado extensas investigaciones para estimar estas covarianzas a partir de los datos. Un método práctico para hacer esto es la técnica de mínimos cuadrados de autocovarianza (ALS) , que utiliza las autocovarianzas retardadas de datos operativos de rutina para estimar las covarianzas. [32] [33] El código GNU Octave y Matlab utilizado para calcular las matrices de covarianza de ruido utilizando la técnica ALS está disponible en línea utilizando la Licencia Pública General GNU . [34] Se ha propuesto el filtro de Kalman de campo (FKF), un algoritmo bayesiano que permite la estimación simultánea del estado, los parámetros y la covarianza del ruido. [35] El algoritmo FKF tiene una formulación recursiva, una buena convergencia observada y una complejidad relativamente baja, lo que sugiere que el algoritmo FKF posiblemente pueda ser una alternativa valiosa a los métodos de mínimos cuadrados de autocovarianza.

Optimidad y rendimiento

De la teoría se deduce que el filtro de Kalman proporciona una estimación de estado óptima en los casos en que a) el modelo coincide perfectamente con el sistema real, b) el ruido entrante es "blanco" (no correlacionado) yc) las covarianzas del ruido se conocen exactamente. El ruido correlacionado también se puede tratar utilizando filtros de Kalman. [36] Durante las últimas décadas se han propuesto varios métodos para la estimación de la covarianza del ruido, incluido el ALS, mencionado en la sección anterior. Una vez estimadas las covarianzas, resulta útil evaluar el rendimiento del filtro; es decir, si es posible mejorar la calidad de la estimación estatal. Si el filtro de Kalman funciona de manera óptima, la secuencia de innovación (el error de predicción de salida) es un ruido blanco, por lo tanto, la propiedad de blancura de las innovaciones mide el rendimiento del filtro. Se pueden utilizar varios métodos diferentes para este propósito. [37] Si los términos de ruido se distribuyen de manera no gaussiana, en la literatura se conocen métodos para evaluar el rendimiento de la estimación del filtro, que utilizan desigualdades de probabilidad o teoría de muestras grandes. [38] [39]

Aplicación de ejemplo, técnica

  Verdad;  proceso filtrado;  observaciones.

Considere un camión sobre rieles rectos y sin fricción. Inicialmente, el camión está parado en la posición 0, pero es sacudido de un lado a otro por fuerzas aleatorias e incontroladas. Medimos la posición del camión cada Δ t segundos, pero estas mediciones son imprecisas; Queremos mantener un modelo de la posición y velocidad del camión . Aquí mostramos cómo derivamos el modelo a partir del cual creamos nuestro filtro de Kalman.

Como son constantes, sus índices de tiempo se eliminan.

La posición y la velocidad del camión se describen en el espacio de estados lineal.

donde es la velocidad, es decir, la derivada de la posición con respecto al tiempo.

Suponemos que entre el paso de tiempo ( k  − 1) y k , las fuerzas no controladas provocan una aceleración constante de a k que se distribuye normalmente con media 0 y desviación estándar σ a . De las leyes del movimiento de Newton concluimos que

(no existe un término ya que no hay entradas de control conocidas. En cambio, a k es el efecto de una entrada desconocida y aplica ese efecto al vector de estado) donde

de modo que

dónde

La matriz no es de rango completo (es de rango uno si ). Por tanto, la distribución no es absolutamente continua y no tiene función de densidad de probabilidad . Otra forma de expresar esto, evitando distribuciones degeneradas explícitas, viene dada por

En cada fase temporal se realiza una medición ruidosa de la posición real del camión. Supongamos que el ruido de medición v k también se distribuye normalmente, con media 0 y desviación estándar σ z .

dónde

y

Conocemos el estado inicial de arranque del camión con perfecta precisión, por lo que inicializamos

y para decirle al filtro que conocemos la posición y velocidad exactas, le damos una matriz de covarianza cero:

Si la posición inicial y la velocidad no se conocen perfectamente, la matriz de covarianza debe inicializarse con varianzas adecuadas en su diagonal:

Entonces, el filtro preferirá la información de las primeras mediciones a la información que ya está en el modelo.

forma asintótica

Para simplificar, supongamos que la entrada de control . Entonces el filtro de Kalman puede escribirse:

Una ecuación similar se cumple si incluimos una entrada de control distinta de cero. Las matrices de ganancia evolucionan independientemente de las mediciones . Desde arriba, las cuatro ecuaciones necesarias para actualizar la ganancia de Kalman son las siguientes:

Dado que las matrices de ganancia dependen únicamente del modelo y no de las mediciones, pueden calcularse fuera de línea. La convergencia de las matrices de ganancia a una matriz asintótica se aplica a las condiciones establecidas en Walrand y Dimakis. [40] Las simulaciones establecen el número de pasos hacia la convergencia. Para el ejemplo del camión de mudanzas descrito anteriormente, con . y la simulación muestra convergencia en iteraciones.

Utilizando la ganancia asintótica y suponiendo que y son independientes de , el filtro de Kalman se convierte en un filtro lineal invariante en el tiempo :

La ganancia asintótica , si existe, se puede calcular resolviendo primero la siguiente ecuación discreta de Riccati para la covarianza del estado asintótico : [40]

Luego se calcula la ganancia asintótica como antes.

Además, una forma del filtro de Kalman asintótico más comúnmente utilizada en la teoría de control viene dada por

dónde

Esto lleva a un estimador de la forma

Derivaciones

El filtro de Kalman se puede derivar como un método de mínimos cuadrados generalizado que opera con datos anteriores. [41]

Derivación de la matriz de covarianza estimada a posteriori

Comenzando con nuestra invariante sobre la covarianza del error P k  | k como arriba

sustituir en la definición de

y sustituir

y

y al recopilar los vectores de error obtenemos

Dado que el error de medición v k no está correlacionado con los otros términos, esto se convierte en

por las propiedades de la covarianza vectorial esto se convierte en

que, usando nuestra invariante en P k  | k −1 y la definición de R k se convierte en

Esta fórmula (a veces conocida como forma de Joseph de la ecuación de actualización de covarianza) es válida para cualquier valor de K k . Resulta que si K k es la ganancia de Kalman óptima, esto se puede simplificar aún más como se muestra a continuación.

Derivación de ganancia de Kalman

El filtro de Kalman es un estimador del error cuadrático medio mínimo . El error en la estimación del estado a posteriori es

Buscamos minimizar el valor esperado del cuadrado de la magnitud de este vector, . Esto equivale a minimizar el rastro de la matriz de covarianza estimada a posteriori . Al expandir los términos de la ecuación anterior y recopilarlos, obtenemos:

La traza se minimiza cuando su derivada matricial con respecto a la matriz de ganancia es cero. Usando las reglas de la matriz de gradiente y la simetría de las matrices involucradas encontramos que

Al resolver esto para K k se obtiene la ganancia de Kalman:

Esta ganancia, que se conoce como ganancia de Kalman óptima , es la que produce estimaciones del MMSE cuando se utiliza.

Simplificación de la fórmula de covarianza del error a posteriori

La fórmula utilizada para calcular la covarianza del error a posteriori se puede simplificar cuando la ganancia de Kalman es igual al valor óptimo obtenido anteriormente. Multiplicando ambos lados de nuestra fórmula de ganancia de Kalman a la derecha por S k K k T , se deduce que

Volviendo a nuestra fórmula ampliada para la covarianza del error a posteriori ,

encontramos que los dos últimos términos se cancelan, dando

Esta fórmula es computacionalmente más barata y, por lo tanto, casi siempre se usa en la práctica, pero solo es correcta para la ganancia óptima. Si la precisión aritmética es inusualmente baja y causa problemas con la estabilidad numérica , o si se utiliza deliberadamente una ganancia de Kalman no óptima, esta simplificación no se puede aplicar; Se debe utilizar la fórmula de covarianza del error a posteriori derivada anteriormente (forma de Joseph).

Análisis de sensibilidad

Las ecuaciones de filtrado de Kalman proporcionan una estimación del estado y su covarianza de error de forma recursiva. La estimación y su calidad dependen de los parámetros del sistema y de las estadísticas de ruido alimentadas como entradas al estimador. Esta sección analiza el efecto de las incertidumbres en las entradas estadísticas del filtro. [42] En ausencia de estadísticas confiables o de los valores verdaderos de las matrices de covarianza de ruido y , la expresión

ya no proporciona la covarianza de error real. En otras palabras, . En la mayoría de las aplicaciones en tiempo real, las matrices de covarianzas que se utilizan para diseñar el filtro de Kalman son diferentes de las matrices de covarianzas de ruido reales (verdaderas). [ cita necesaria ] Este análisis de sensibilidad describe el comportamiento de la covarianza del error de estimación cuando las covarianzas de ruido, así como las matrices del sistema y que se alimentan como entradas al filtro, son incorrectas. Por lo tanto, el análisis de sensibilidad describe la robustez (o sensibilidad) del estimador ante entradas estadísticas y paramétricas mal especificadas al estimador.

Esta discusión se limita al análisis de sensibilidad al error para el caso de incertidumbres estadísticas. Aquí las covarianzas reales del ruido se denotan por y respectivamente, mientras que los valores de diseño utilizados en el estimador son y respectivamente. La covarianza del error real se denota y, tal como se calcula mediante el filtro de Kalman, se denomina variable de Riccati. Cuándo y , esto significa que . Mientras se calcula la covarianza del error real usando , sustituyendo y usando el hecho de que y , se obtienen las siguientes ecuaciones recursivas para  :

y

Mientras se calcula , por diseño el filtro supone implícitamente que y . Las expresiones recursivas para y son idénticas excepto por la presencia de y en lugar de los valores de diseño y respectivamente. Se han realizado investigaciones para analizar la robustez del sistema de filtro Kalman. [43]

Forma de raíz cuadrada

Un problema del filtro de Kalman es su estabilidad numérica . Si la covarianza del ruido del proceso Q k es pequeña, el error de redondeo a menudo causa que un pequeño valor propio positivo de la matriz de covarianza de estado P se calcule como un número negativo. Esto hace que la representación numérica de P sea indefinida , mientras que su forma verdadera es definida positiva .

Las matrices definidas positivas tienen la propiedad de tener una matriz triangular raíz cuadrada P  =  S · S T . Esto se puede calcular de manera eficiente utilizando el algoritmo de factorización de Cholesky , pero lo más importante es que si la covarianza se mantiene en esta forma, nunca podrá tener una diagonal negativa ni volverse asimétrica. Una forma equivalente, que evita muchas de las operaciones de raíz cuadrada requeridas por la raíz cuadrada de la matriz pero conserva las propiedades numéricas deseables, es la forma de descomposición UD, P  =  U · D · U T , donde U es una matriz triangular unitaria (con unidad diagonal), y D es una matriz diagonal.

Entre las dos, la factorización UD utiliza la misma cantidad de almacenamiento y algo menos de cálculo, y es la forma de raíz cuadrada más utilizada. (La literatura antigua sobre la eficiencia relativa es algo engañosa, ya que suponía que las raíces cuadradas consumían mucho más tiempo que las divisiones, [44] : 69,  mientras que en las computadoras del siglo XXI son sólo un poco más caras).

GJ Bierman y CL Thornton desarrollaron algoritmos eficientes para los pasos de predicción y actualización de Kalman en forma de raíz cuadrada. [44] [45]

La descomposición L · D · L T de la matriz de covarianza de innovación S k es la base para otro tipo de filtro de raíz cuadrada robusto y numéricamente eficiente. [46] El algoritmo comienza con la descomposición LU implementada en el PAQUETE de Álgebra Lineal ( LAPACK ). Estos resultados se factorizan aún más en la estructura L · D · L T con los métodos dados por Golub y Van Loan (algoritmo 4.1.2) para una matriz no singular simétrica. [47] Cualquier matriz de covarianza singular se pivota de modo que la primera partición diagonal sea no singular y esté bien condicionada . El algoritmo pivotante debe retener cualquier porción de la matriz de covarianza de innovación que corresponda directamente a las variables de estado observadas H k · x k|k-1 que están asociadas con observaciones auxiliares en y k . El filtro de raíz cuadrada l · d · l t requiere la ortogonalización del vector de observación. [45] [46] Esto se puede hacer con la raíz cuadrada inversa de la matriz de covarianza para las variables auxiliares utilizando el Método 2 en Higham (2002, p. 263). [48]

forma paralela

El filtro de Kalman es eficaz para el procesamiento secuencial de datos en unidades centrales de procesamiento (CPU), pero en su forma original es ineficiente en arquitecturas paralelas como las unidades de procesamiento de gráficos (GPU). Sin embargo, es posible expresar la rutina de actualización del filtro en términos de un operador asociativo utilizando la formulación de Särkkä (2021). [49] La solución de filtrado se puede recuperar mediante el uso de un algoritmo de suma de prefijos que se puede implementar de manera eficiente en la GPU. [50] Esto reduce la complejidad computacional desde el número de pasos de tiempo hasta .

Relación con la estimación bayesiana recursiva

El filtro de Kalman se puede presentar como una de las redes bayesianas dinámicas más simples . El filtro de Kalman calcula estimaciones de los valores reales de los estados de forma recursiva a lo largo del tiempo utilizando mediciones entrantes y un modelo de proceso matemático. De manera similar, la estimación bayesiana recursiva calcula estimaciones de una función de densidad de probabilidad (PDF) desconocida de forma recursiva a lo largo del tiempo utilizando mediciones entrantes y un modelo de proceso matemático. [51]

En la estimación bayesiana recursiva, se supone que el estado verdadero es un proceso de Markov no observado y las mediciones son los estados observados de un modelo de Markov oculto (HMM).

modelo de markov oculto
modelo de markov oculto

Debido al supuesto de Markov, el estado verdadero es condicionalmente independiente de todos los estados anteriores dado el estado inmediatamente anterior.

De manera similar, la medición en el k -ésimo paso de tiempo depende sólo del estado actual y es condicionalmente independiente de todos los demás estados dado el estado actual.

Utilizando estos supuestos, la distribución de probabilidad sobre todos los estados del modelo oculto de Markov se puede escribir simplemente como:

Sin embargo, cuando se utiliza un filtro de Kalman para estimar el estado x , la distribución de probabilidad de interés es la asociada con los estados actuales condicionados a las mediciones hasta el paso de tiempo actual. Esto se logra marginando los estados anteriores y dividiendo por la probabilidad del conjunto de medidas.

Esto da como resultado las fases de predicción y actualización del filtro de Kalman escritas de forma probabilística. La distribución de probabilidad asociada con el estado predicho es la suma (integral) de los productos de la distribución de probabilidad asociada con la transición del ( k  − 1) -ésimo paso de tiempo al k -ésimo y la distribución de probabilidad asociada con el estado anterior, sobre todo lo posible .

La medición configurada en el momento t es

La distribución de probabilidad de la actualización es proporcional al producto de la probabilidad de medición y el estado previsto.

el denominador

es un término de normalización.

Las funciones de densidad de probabilidad restantes son

Se supone inductivamente que la PDF en el paso de tiempo anterior es el estado estimado y la covarianza. Esto se justifica porque, como estimador óptimo, el filtro de Kalman hace el mejor uso de las mediciones, por lo tanto, la PDF para las mediciones dadas es la estimación del filtro de Kalman.

probabilidad marginal

En relación con la interpretación bayesiana recursiva descrita anteriormente, el filtro de Kalman puede verse como un modelo generativo , es decir, un proceso para generar un flujo de observaciones aleatorias z = ( z 0 , z 1 , z 2 ,...). En concreto, el proceso es

  1. Muestreo de un estado oculto de la distribución previa gaussiana .
  2. Muestreo de una observación del modelo de observación .
  3. Para hacer
    1. Pruebe el siguiente estado oculto del modelo de transición
    2. Tomar una muestra de una observación del modelo de observación

Este proceso tiene una estructura idéntica al modelo oculto de Markov , excepto que el estado discreto y las observaciones se reemplazan con variables continuas muestreadas a partir de distribuciones gaussianas.

En algunas aplicaciones, es útil calcular la probabilidad de que un filtro de Kalman con un conjunto determinado de parámetros (distribución previa, modelos de transición y observación, y entradas de control) genere una señal observada particular. Esta probabilidad se conoce como verosimilitud marginal porque integra ("marginaliza") los valores de las variables de estado ocultas, por lo que se puede calcular utilizando solo la señal observada. La verosimilitud marginal puede resultar útil para evaluar diferentes opciones de parámetros o para comparar el filtro de Kalman con otros modelos mediante la comparación de modelos bayesianos .

Es sencillo calcular la probabilidad marginal como efecto secundario del cálculo del filtrado recursivo. Según la regla de la cadena , la probabilidad se puede factorizar como el producto de la probabilidad de cada observación dadas las observaciones anteriores,

,

y debido a que el filtro de Kalman describe un proceso de Markov, toda la información relevante de observaciones anteriores está contenida en la estimación del estado actual. Por lo tanto, la probabilidad marginal viene dada por

es decir, un producto de densidades gaussianas, cada una correspondiente a la densidad de una observación z k bajo la distribución de filtrado actual . Esto se puede calcular fácilmente como una simple actualización recursiva; sin embargo, para evitar un desbordamiento numérico , en una implementación práctica suele ser deseable calcular la probabilidad marginal logarítmica . Al adoptar la convención , esto se puede hacer mediante la regla de actualización recursiva.

donde es la dimensión del vector de medición. [52]

Una aplicación importante en la que se utiliza dicha probabilidad (logarítmica) de las observaciones (dados los parámetros del filtro) es el seguimiento de objetivos múltiples. Por ejemplo, considere un escenario de seguimiento de objetos donde un flujo de observaciones es la entrada, sin embargo, se desconoce cuántos objetos hay en la escena (o se conoce el número de objetos pero es mayor que uno). Para tal escenario, se puede desconocer a priori qué observaciones/mediciones fueron generadas por qué objeto. Un rastreador de hipótesis múltiples (MHT) normalmente formará diferentes hipótesis de asociación de seguimiento, donde cada hipótesis puede considerarse como un filtro de Kalman (para el caso gaussiano lineal) con un conjunto específico de parámetros asociados con el objeto hipotético. Por lo tanto, es importante calcular la probabilidad de las observaciones para las diferentes hipótesis consideradas, de modo que se pueda encontrar la más probable.

Filtro de información

En los casos en que la dimensión del vector de observación y es mayor que la dimensión del vector del espacio de estados x , el filtro de información puede evitar la inversión de una matriz más grande en el cálculo de la ganancia de Kalman al precio de invertir una matriz más pequeña en el paso de predicción. , ahorrando así tiempo de cálculo. En el filtro de información, o filtro de covarianza inversa, la covarianza estimada y el estado estimado se reemplazan por la matriz de información y el vector de información respectivamente. Estos se definen como:

De manera similar, la covarianza y el estado previstos tienen formas de información equivalentes, definidas como:

al igual que la covarianza de medición y el vector de medición, que se definen como:

La actualización de la información se convierte ahora en una suma trivial. [53]

La principal ventaja del filtro de información es que se pueden filtrar N mediciones en cada paso de tiempo simplemente sumando sus matrices y vectores de información.

Para predecir el filtro de información, la matriz y el vector de información se pueden volver a convertir a sus equivalentes en el espacio de estados o, alternativamente, se puede utilizar la predicción del espacio de información. [53]

Retraso fijo más suave

El suavizador de retraso fijo óptimo proporciona la estimación óptima de para un retraso fijo determinado utilizando las mediciones desde hasta . [54] Se puede derivar utilizando la teoría anterior mediante un estado aumentado, y la ecuación principal del filtro es la siguiente:

dónde:

y
donde y son la covarianza del error de predicción y las ganancias del filtro de Kalman estándar (es decir, ).

Si la covarianza del error de estimación se define de modo que

entonces tenemos que la mejora en la estimación de viene dada por:

Suavizadores de intervalo fijo

El suavizador óptimo de intervalo fijo proporciona la estimación óptima de ( ) utilizando las mediciones desde un intervalo fijo hasta . Esto también se llama "suavizado Kalman". Existen varios algoritmos de suavizado de uso común.

Rauch–Tung–Striebel

El suavizador Rauch-Tung-Striebel (RTS) es un algoritmo eficiente de dos pasadas para suavizado de intervalos fijos. [55]

El pase hacia adelante es el mismo que el algoritmo de filtro de Kalman normal. Estas estimaciones de estado y covarianzas filtradas a priori y a posteriori se guardan para su uso en el paso hacia atrás (para retrodicción ).

En el paso hacia atrás, calculamos las estimaciones y covarianzas del estado suavizado . Comenzamos en el último paso de tiempo y retrocedemos en el tiempo usando las siguientes ecuaciones recursivas:

dónde

es la estimación del estado a posteriori del paso de tiempo y es la estimación del estado a priori del paso de tiempo . La misma notación se aplica a la covarianza.

Suavizante Bryson-Frazier modificado

Una alternativa al algoritmo RTS es el intervalo fijo modificado Bryson-Frazier (MBF) más suave desarrollado por Bierman. [45] Esto también utiliza un paso hacia atrás que procesa los datos guardados desde el paso hacia adelante del filtro Kalman. Las ecuaciones para el paso hacia atrás implican el cálculo recursivo de datos que se utilizan en cada momento de observación para calcular el estado suavizado y la covarianza.

Las ecuaciones recursivas son

donde es la covarianza residual y . El estado suavizado y la covarianza se pueden encontrar mediante sustitución en las ecuaciones

o

Una ventaja importante del MBF es que no requiere encontrar la inversa de la matriz de covarianza.

Variación mínima más suave

El suavizador de varianza mínima puede lograr el mejor rendimiento de error posible, siempre que los modelos sean lineales, sus parámetros y las estadísticas de ruido se conozcan con precisión. [56] Este suavizador es una generalización en el espacio de estados que varía en el tiempo del filtro de Wiener no causal óptimo .

Los cálculos más fluidos se realizan en dos pasadas. Los cálculos directos implican un predictor de un paso adelante y están dados por

El sistema anterior se conoce como factor de Wiener-Hopf inverso. La recursión hacia atrás es el complemento del sistema hacia adelante anterior. El resultado del paso hacia atrás se puede calcular operando las ecuaciones hacia adelante en el tiempo invertido y en el tiempo invirtiendo el resultado. En el caso de la estimación del producto, la estimación suavizada viene dada por

Tomando la parte causal de esta varianza mínima se obtienen rendimientos más suaves.

que es idéntico al filtro de Kalman de varianza mínima. Las soluciones anteriores minimizan la varianza del error de estimación de salida. Tenga en cuenta que la derivación más suave de Rauch-Tung-Striebel supone que las distribuciones subyacentes son gaussianas, mientras que las soluciones de varianza mínima no lo son. De manera similar se pueden construir suavizadores óptimos para la estimación del estado y la estimación de entradas.

En [57] [58] se describe una versión de tiempo continuo del suavizador anterior.

Se pueden emplear algoritmos de maximización de expectativas para calcular estimaciones aproximadas de máxima verosimilitud de parámetros desconocidos del espacio de estados dentro de filtros y suavizadores de varianza mínima. A menudo persisten incertidumbres dentro de los supuestos del problema. Se puede diseñar un método más suave que tenga en cuenta las incertidumbres agregando un término definido positivo a la ecuación de Riccati. [59]

En los casos en que los modelos no son lineales, las linealizaciones paso a paso pueden estar dentro del filtro de varianza mínima y recursiones más suaves ( filtrado de Kalman extendido ).

Filtros de Kalman ponderados en frecuencia

Fletcher y Munson llevaron a cabo una investigación pionera sobre la percepción de sonidos en diferentes frecuencias en la década de 1930. Su trabajo condujo a una forma estándar de ponderar los niveles de sonido medidos en las investigaciones sobre ruido industrial y pérdida auditiva. Desde entonces, se han utilizado ponderaciones de frecuencia en diseños de filtros y controladores para gestionar el rendimiento dentro de las bandas de interés.

Normalmente, se utiliza una función de conformación de frecuencia para ponderar la potencia promedio de la densidad espectral de error en una banda de frecuencia específica. Denotemos el error de estimación de salida exhibido por un filtro de Kalman convencional. Además, denotemos una función de transferencia de ponderación de frecuencia causal. La solución óptima que minimiza la varianza de surge simplemente construyendo .

El diseño de sigue siendo una cuestión abierta. Una forma de proceder es identificar un sistema que genere el error de estimación e igualarlo a la inversa de ese sistema. [60] Este procedimiento puede repetirse para obtener una mejora del error cuadrático medio a costa de un mayor orden de filtrado. La misma técnica se puede aplicar a los alisadores.

Filtros no lineales

El filtro de Kalman básico se limita a una suposición lineal. Sin embargo, los sistemas más complejos pueden ser no lineales . La no linealidad puede asociarse con el modelo de proceso, con el modelo de observación o con ambos.

Las variantes más comunes de filtros Kalman para sistemas no lineales son el filtro Kalman extendido y el filtro Kalman sin perfume. La idoneidad de qué filtro utilizar depende de los índices de no linealidad del proceso y del modelo de observación. [61]

Filtro de Kalman extendido

En el filtro de Kalman extendido (EKF), los modelos de observación y transición de estado no necesitan ser funciones lineales del estado, sino que pueden ser funciones no lineales. Estas funciones son de tipo diferenciable .

La función f se puede utilizar para calcular el estado previsto a partir de la estimación anterior y, de manera similar, la función h se puede utilizar para calcular la medición prevista a partir del estado previsto. Sin embargo, f y h no se pueden aplicar directamente a la covarianza. En lugar de ello, se calcula una matriz de derivadas parciales (la jacobiana ).

En cada paso de tiempo, el jacobiano se evalúa con los estados actuales previstos. Estas matrices se pueden utilizar en las ecuaciones del filtro de Kalman. Este proceso esencialmente linealiza la función no lineal alrededor de la estimación actual.

Filtro Kalman sin perfume

Cuando los modelos de observación y transición de estado (es decir, las funciones de predicción y actualización y) son altamente no lineales, el filtro de Kalman extendido puede ofrecer un rendimiento particularmente pobre. [62] [63] Esto se debe a que la covarianza se propaga mediante la linealización del modelo no lineal subyacente. El filtro de Kalman sin aroma (UKF)  [62] utiliza una técnica de muestreo determinista conocida como transformación sin aroma (UT) para seleccionar un conjunto mínimo de puntos de muestra (llamados puntos sigma) alrededor de la media. Luego, los puntos sigma se propagan a través de las funciones no lineales, a partir de las cuales se forma una nueva estimación de media y covarianza. El filtro resultante depende de cómo se calculan las estadísticas transformadas del UT y qué conjunto de puntos sigma se utilizan. Cabe señalar que siempre es posible construir nuevos UKF de manera consistente. [64] Para ciertos sistemas, el UKF resultante estima con mayor precisión la media y la covarianza verdaderas. [65] Esto se puede verificar con el muestreo de Monte Carlo o la expansión de la serie de Taylor de las estadísticas posteriores. Además, esta técnica elimina el requisito de calcular explícitamente los jacobianos, lo que para funciones complejas puede ser una tarea difícil en sí misma (es decir, requerir derivadas complicadas si se hace analíticamente o ser computacionalmente costosa si se hace numéricamente), si no imposible (si esas funciones son no diferenciable).

puntos sigma

Para un vector aleatorio , los puntos sigma son cualquier conjunto de vectores.

atribuido con

  1. para todos :
  1. para todos los pares .

Una elección simple de puntos sigma y pesos en el algoritmo UKF es

¿ Dónde está la estimación media de ? El vector es la j- ésima columna de donde . Normalmente, se obtiene mediante descomposición de Cholesky . Con cierto cuidado, las ecuaciones de filtro se pueden expresar de tal manera que se evalúen directamente sin cálculos intermedios . Esto se conoce como filtro Kalman sin perfume de raíz cuadrada . [66]

El peso del valor medio, , se puede elegir arbitrariamente.

Otra parametrización popular (que generaliza lo anterior) es

y controlar la dispersión de los puntos sigma. está relacionado con la distribución de . Tenga en cuenta que se trata de una parametrización excesiva en el sentido de que cualquiera de y puede elegirse arbitrariamente.

Los valores apropiados dependen del problema en cuestión, pero una recomendación típica es , y . [67] Si la verdadera distribución de es gaussiana, es óptima. [68]

Predecir

Al igual que con el EKF, la predicción del UKF se puede utilizar independientemente de la actualización del UKF, en combinación con una actualización lineal (o incluso EKF), o viceversa.

Dadas las estimaciones de la media y la covarianza, y , se obtienen puntos sigma como se describe en la sección anterior. Los puntos sigma se propagan a través de la función de transición f .

.

Los puntos sigma propagados se pesan para producir la media y la covarianza predichas.

donde están los pesos de primer orden de los puntos sigma originales y son los pesos de segundo orden. La matriz es la covarianza del ruido de transición, .

Actualizar

Dadas las estimaciones de predicción y , se calcula un nuevo conjunto de puntos sigma con sus correspondientes ponderaciones de primer orden y ponderaciones de segundo orden . [69] Estos puntos sigma se transforman a través de la función de medición .

.

Luego se calculan la media empírica y la covarianza de los puntos transformados.

donde es la matriz de covarianza del ruido de observación, . Además, también se necesita la matriz de covarianza cruzada.

La ganancia de Kalman es

Las estimaciones actualizadas de media y covarianza son

Filtro de Kalman discriminativo

Cuando el modelo de observación es altamente no lineal y/o no gaussiano, puede resultar ventajoso aplicar la regla de Bayes y estimar

donde para funciones no lineales . Esto reemplaza la especificación generativa del filtro de Kalman estándar con un modelo discriminativo para los estados latentes dadas las observaciones.

Bajo un modelo de estado estacionario

donde , si

luego, dada una nueva observación , se deduce que [70]

dónde

Tenga en cuenta que esta aproximación debe ser positiva-definida; en el caso de que no lo sea,

se utiliza en su lugar. Este enfoque resulta particularmente útil cuando la dimensionalidad de las observaciones es mucho mayor que la de los estados latentes [71] y puede usarse para construir filtros que sean particularmente robustos a las no estacionariedades en el modelo de observación. [72]

Filtro de Kalman adaptativo

Los filtros Kalman adaptativos permiten adaptarse a la dinámica del proceso que no está modelada en el modelo de proceso , lo que ocurre, por ejemplo, en el contexto de un objetivo de maniobra cuando se emplea un filtro Kalman de velocidad constante (orden reducido) para el seguimiento. [73]

Filtro de Kalman-Bucy

El filtrado de Kalman-Bucy (llamado así por Richard Snowden Bucy) es una versión de tiempo continuo del filtrado de Kalman. [74] [75]

Se basa en el modelo de espacio de estados.

donde y representan las intensidades (o, más exactamente: las matrices de densidad espectral de potencia - PSD) de los dos términos de ruido blanco y , respectivamente.

El filtro consta de dos ecuaciones diferenciales, una para la estimación del estado y otra para la covarianza:

donde la ganancia de Kalman está dada por

Tenga en cuenta que en esta expresión la covarianza del ruido de observación representa al mismo tiempo la covarianza del error de predicción (o innovación ) ; estas covarianzas son iguales sólo en el caso de tiempo continuo. [76]

La distinción entre los pasos de predicción y actualización del filtrado de Kalman en tiempo discreto no existe en el tiempo continuo.

La segunda ecuación diferencial, para la covarianza, es un ejemplo de ecuación de Riccati . Las generalizaciones no lineales a los filtros de Kalman-Bucy incluyen el filtro de Kalman extendido en tiempo continuo.

Filtro Kalman híbrido

La mayoría de los sistemas físicos se representan como modelos de tiempo continuo, mientras que con frecuencia se realizan mediciones de tiempo discreto para la estimación del estado mediante un procesador digital. Por lo tanto, el modelo del sistema y el modelo de medición están dados por

dónde

.

Inicializar

Predecir

Las ecuaciones de predicción se derivan de las del filtro de Kalman de tiempo continuo sin actualización de las mediciones, es decir , El estado predicho y la covarianza se calculan respectivamente resolviendo un conjunto de ecuaciones diferenciales con el valor inicial igual a la estimación en el paso anterior.

Para el caso de sistemas lineales invariantes en el tiempo , la dinámica del tiempo continuo se puede discretizar exactamente en un sistema de tiempo discreto utilizando exponenciales matriciales .

Actualizar

Las ecuaciones de actualización son idénticas a las del filtro de Kalman de tiempo discreto.

Variantes para la recuperación de señales dispersas.

El filtro de Kalman tradicional también se ha empleado para recuperar señales escasas, posiblemente dinámicas, procedentes de observaciones ruidosas. Trabajos recientes [77] [78] [79] utilizan nociones de la teoría de detección/muestreo comprimido , como la propiedad de isometría restringida y argumentos de recuperación probabilística relacionados, para estimar secuencialmente el estado disperso en sistemas intrínsecamente de baja dimensión.

Relación con los procesos gaussianos

Dado que los modelos lineales de espacio de estados gaussianos conducen a procesos gaussianos, los filtros de Kalman pueden verse como solucionadores secuenciales para la regresión del proceso gaussiano . [80]

Aplicaciones

Ver también

Referencias

  1. ^ Stratonovich, RL (1959). Sistemas no lineales óptimos que provocan una separación de una señal con parámetros constantes del ruido . Radiofizika, 2:6, págs. 892–901.
  2. ^ Stratonovich, RL (1959). Sobre la teoría del filtrado no lineal óptimo de funciones aleatorias . Teoría de la probabilidad y sus aplicaciones, 4, págs. 223–225.
  3. ^ Stratonovich, RL (1960) Aplicación de la teoría de los procesos de Markov al filtrado óptimo . Ingeniería de radio y física electrónica, 5:11, págs. 1–19.
  4. ^ Stratonovich, RL (1960). Procesos Condicionales de Markov . Teoría de la probabilidad y sus aplicaciones, 5, págs. 156-178.
  5. ^ Stepanov, OA (15 de mayo de 2011). "Filtrado Kalman: Pasado y presente. Una perspectiva desde Rusia. (Con motivo del 80 cumpleaños de Rudolf Emil Kalman)". Giroscopia y Navegación . 2 (2): 105. doi :10.1134/S2075108711020076. S2CID  53120402.
  6. ^ Fauzi, Hilman; Batool, Uzma (15 de julio de 2019). "Un diseño de armadura de tres barras que utiliza un optimizador de filtro Kalman simulado de solución única". Mecatrónica . 1 (2): 98-102. doi : 10.15282/mekatronika.v1i2.4991 . S2CID  222355496.
  7. ^ Pablo Zarchan; Howard Musoff (2000). Fundamentos del filtrado de Kalman: un enfoque práctico. Instituto Americano de Aeronáutica y Astronáutica, Incorporado. ISBN 978-1-56347-455-2.
  8. ^ Lora-Millan, Julio S.; Hidalgo, Andrés F.; Rocón, Eduardo (2021). "Un filtro de Kalman extendido basado en IMU para estimar la cinemática sagital de la marcha de las extremidades inferiores para el control de dispositivos robóticos portátiles". Acceso IEEE . 9 : 144540–144554. Código Bib : 2021IEEEA...9n4540L. doi : 10.1109/ACCESS.2021.3122160 . hdl : 10261/254265 . ISSN  2169-3536. S2CID  239938971.
  9. ^ Kalita, Diana; Lyakhov, Pavel (diciembre de 2022). "Detección de objetos en movimiento basada en una combinación de filtro de Kalman y filtrado de mediana". Big Data y Computación Cognitiva . 6 (4): 142. doi : 10.3390/bdcc6040142 . ISSN  2504-2289.
  10. ^ Ghysels, Eric; Marcellino, Massimiliano (2018). Previsión económica aplicada mediante métodos de series temporales . Nueva York, Nueva York: Oxford University Press. pag. 419.ISBN _ 978-0-19-062201-5. OCLC  1010658777.
  11. ^ Azzam, M. Abdullah; Batool, Uzma; Fauzi, Hilman (15 de julio de 2019). "Diseño de un resorte helicoidal utilizando un optimizador de filtro Kalman simulado de solución única". Mecatrónica . 1 (2): 93–97. doi : 10.15282/mekatronika.v1i2.4990 . S2CID  221855079.
  12. ^ Wolpert, Daniel; Ghahramani, Zoubin (2000). "Principios computacionales de la neurociencia del movimiento". Neurociencia de la Naturaleza . 3 : 1212–7. doi :10.1038/81497. PMID  11127840. S2CID  736756.
  13. ^ Kalman, RE (1960). "Un nuevo enfoque de los problemas de filtración y de predicción lineal". Revista de Ingeniería Básica . 82 : 35–45. doi : 10.1115/1.3662552. S2CID  1242324.
  14. ^ Humpherys, Jeffrey (2012). "Una nueva mirada al filtro de Kalman". Revisión SIAM . 54 (4): 801–823. doi :10.1137/100799666.
  15. ^ Uhlmann, Jeffrey; Julier, Simón (2022). "La gaussianidad y el filtro de Kalman: una relación simple pero complicada" (PDF) . Revista de Ciencia e Ingeniería . 14 (1): 21–26. doi :10.46571/JCI.2022.1.2. S2CID  251143915.
  16. ^ Li, Wangyan; Wang, Zidong; Wei, Guoliang; Mamá, Lifeng; Hu, junio; Ding, Derui (2015). "Una encuesta sobre fusión multisensor y filtrado de consenso para redes de sensores". Dinámica discreta en la naturaleza y la sociedad . 2015 : 1-12. doi : 10.1155/2015/683701 . ISSN  1026-0226.
  17. ^ Li, Wangyan; Wang, Zidong; Ho, Daniel WC; Wei, Guoliang (2019). "Sobre la limitación de las covarianzas de error para los problemas de filtrado del consenso de Kalman". Transacciones IEEE sobre control automático . 65 (6): 2654–2661. doi :10.1109/TAC.2019.2942826. ISSN  0018-9286. S2CID  204196474.
  18. ^ Lauritzen, SL (diciembre de 1981). "Análisis de series temporales en 1880. Una discusión sobre las contribuciones de TN Thiele". Revista estadística internacional . 49 (3): 319–331. doi :10.2307/1402616. JSTOR  1402616. Deriva un procedimiento recursivo para estimar el componente de regresión y predecir el movimiento browniano. El procedimiento ahora se conoce como filtrado de Kalman.
  19. ^ Lauritzen, SL (2002). Thiele: pionero en estadística. Nueva York: Oxford University Press . pag. 41.ISBN _ 978-0-19-850972-1. Resuelve el problema de estimar los coeficientes de regresión y predecir los valores del movimiento browniano mediante el método de mínimos cuadrados y proporciona un elegante procedimiento recursivo para realizar los cálculos. El procedimiento se conoce hoy en día como filtrado de Kalman .
  20. ^ Grewal, Mohinder S.; Andrews, Angus P. (2015). "1". Filtrado de Kalman: teoría y práctica con MATLAB (4ª ed.). Hoboken, Nueva Jersey: Wiley. págs. 16-18. ISBN 978-1-118-98498-7.
  21. ^ "Mohinder S. Grewal y Angus P. Andrews" (PDF) . Archivado desde el original (PDF) el 7 de marzo de 2016 . Consultado el 23 de abril de 2015 .
  22. ^ Jerrold H. Suddath; Robert H. Kidd; Arnold G. Reinhold (agosto de 1967). Un análisis de errores linealizado de los sistemas de navegación primarios a bordo del módulo lunar Apolo, NASA TN D-4027 (PDF) . Administración Nacional de Aeronáutica y Espacio. {{cite book}}: |work=ignorado ( ayuda )
  23. ^ Gaylor, David; Lightsey, E. Glenn (2003). "Diseño de filtro Kalman GPS / INS para naves espaciales que operan en las proximidades de la Estación Espacial Internacional". Conferencia y exhibición de orientación, navegación y control de la AIAA . doi :10.2514/6.2003-5445. ISBN 978-1-62410-090-1.
  24. ^ Ingvar Strid; Karl Walentin (abril de 2009). "Bloquear filtrado de Kalman para modelos DSGE a gran escala". Economía Computacional . 33 (3): 277–304. CiteSeerX 10.1.1.232.3790 . doi :10.1007/s10614-008-9160-4. hdl :10419/81929. S2CID  3042206. 
  25. ^ Martín Møller Andreasen (2008). "Modelos DSGE no lineales, el filtro de Kalman de diferencia central y el filtro de partículas con desplazamiento medio" (PDF) .[ enlace muerto permanente ]
  26. ^ Roweis, S; Ghahramani, Z (1999). "Una revisión unificadora de los modelos gaussianos lineales" (PDF) . Computación neuronal . 11 (2): 305–45. doi :10.1162/089976699300016674. PMID  9950734. S2CID  2590898.
  27. ^ Hamilton, J. (1994), Análisis de series temporales , Princeton University Press. Capítulo 13, 'El filtro Kalman'
  28. ^ Ishihara, JY; Terra, MH; Campos, JCT (2006). "Filtro de Kalman robusto para sistemas de descriptores". Transacciones IEEE sobre control automático . 51 (8): 1354. doi :10.1109/TAC.2006.878741. S2CID  12741796.
  29. ^ Tierra, Marco H.; Cerri, Joao P.; Ishihara, Joao Y. (2014). "Regulador cuadrático lineal robusto óptimo para sistemas sujetos a incertidumbres". Transacciones IEEE sobre control automático . 59 (9): 2586–2591. doi :10.1109/TAC.2014.2309282. S2CID  8810105.
  30. ^ Kelly, Alonso (1994). "Una formulación de espacio de estados 3D de un filtro de Kalman de navegación para vehículos autónomos" (PDF) . Documento DTIC : 13. Archivado (PDF) desde el original el 30 de diciembre de 2014.Versión corregida de 2006 Archivado el 10 de enero de 2017 en Wayback Machine.
  31. ^ Reid, Ian; Término, Hilary. «Estimación II» (PDF) . www.robots.ox.ac.uk . Universidad de Oxford . Consultado el 6 de agosto de 2014 .
  32. ^ Rajamani, Murali (octubre de 2007). Técnicas basadas en datos para mejorar la estimación del estado en el control predictivo de modelos (PDF) (Tesis doctoral). Universidad de Wisconsin-Madison. Archivado desde el original (PDF) el 4 de marzo de 2016 . Consultado el 4 de abril de 2011 .
  33. ^ Rajamani, Murali R.; Rawlings, James B. (2009). "Estimación de la estructura de perturbaciones a partir de datos mediante programación semidefinida y ponderación óptima". Automática . 45 (1): 142-148. doi :10.1016/j.automatica.2008.05.032. S2CID  5699674.
  34. ^ "Caja de herramientas de mínimos cuadrados de autocovarianza". Jbrwww.che.wisc.edu . Consultado el 18 de agosto de 2021 .
  35. ^ Bania, P.; Baranowski, J. (12 de diciembre de 2016). Filtro de Kalman de campo y su aproximación. 55ª Conferencia del IEEE sobre Decisión y Control (CDC). Las Vegas, NV, EE.UU.: IEEE. págs. 2875–2880.
  36. ^ Bar-Shalom, Yaakov; Li, X.-Rong; Kirubarajan, Thiagalingam (2001). Estimación con Aplicaciones al Seguimiento y Navegación . Nueva York, Estados Unidos: John Wiley & Sons, Inc. págs. 319 y siguientes. doi :10.1002/0471221279. ISBN 0-471-41655-X.
  37. ^ En Peter, Matisko (2012) se describen tres pruebas de optimización con ejemplos numéricos . "Pruebas de optimización y filtro de Kalman adaptativo". 16º Simposio de la IFAC sobre identificación de sistemas . vol. 45. págs. 1523-1528. doi :10.3182/20120711-3-BE-2027.00011. ISBN 978-3-902823-06-9. {{cite book}}: |journal=ignorado ( ayuda )
  38. ^ Spall, James C. (1995). "La desigualdad de Kantorovich para el análisis de errores del filtro de Kalman con distribuciones de ruido desconocidas". Automática . 31 (10): 1513-1517. doi :10.1016/0005-1098(95)00069-9.
  39. ^ Maryak, JL; Spall, JC; Heydon, BD (2004). "Uso del filtro de Kalman para inferencia en modelos de espacio de estados con distribuciones de ruido desconocidas". Transacciones IEEE sobre control automático . 49 : 87–90. doi :10.1109/TAC.2003.821415. S2CID  21143516.
  40. ^ ab Walrand, Jean; Dimakis, Antonis (agosto de 2006). Procesos aleatorios en Sistemas - Apuntes de conferencias (PDF) . págs. 69–70. Archivado desde el original (PDF) el 7 de mayo de 2019 . Consultado el 7 de mayo de 2019 .
  41. ^ Sant, Donald T. "Mínimos cuadrados generalizados aplicados a modelos de parámetros variables en el tiempo". Annals of Economic and Social Measurement, Volumen 6, número 3. NBER, 1977. 301-314. Pdf en línea
  42. ^ Anderson, Brian DO; Moore, John B. (1979). Filtrado óptimo . Nueva York: Prentice Hall . págs. 129-133. ISBN 978-0-13-638122-8.
  43. ^ Jingyang Lu. “Ataque de inyección de información falsa sobre estimación de estado dinámico en sistemas multisensor”, Fusion 2014
  44. ^ ab Thornton, Catherine L. (15 de octubre de 1976). Factorizaciones de covarianza triangular para el filtrado de Kalman (Doctor). NASA . Memorando técnico de la NASA 33-798.
  45. ^ abc Bierman, GJ (1977). "Métodos de factorización para estimación secuencial discreta". Métodos de factorización para estimación secuencial discreta . Código bibliográfico : 1977fmds.book.....B.
  46. ^ ab Bar-Shalom, Yaakov; Li, X. Rong; Kirubarajan, Thiagalingam (julio de 2001). Estimación con Aplicaciones al Seguimiento y Navegación . Nueva York: John Wiley & Sons . págs. 308–317. ISBN 978-0-471-41655-5.
  47. ^ Golub, gen H.; Préstamo de Van, Charles F. (1996). Cálculos matriciales . Estudios de Johns Hopkins en Ciencias Matemáticas (Tercera ed.). Baltimore, Maryland: Universidad Johns Hopkins . pag. 139.ISBN _ 978-0-8018-5414-9.
  48. ^ Higham, Nicolás J. (2002). Precisión y estabilidad de algoritmos numéricos (Segunda ed.). Filadelfia, PA: Sociedad de Matemáticas Industriales y Aplicadas . pag. 680.ISBN _ 978-0-89871-521-7.
  49. ^ Särkkä, S.; Ángel F. García-Fernández (2021). "Paralelización temporal de suavizadores bayesianos". Transacciones IEEE sobre control automático . 66 (1): 299–306. arXiv : 1905.13002 . doi :10.1109/TAC.2020.2976316. S2CID  213695560.
  50. ^ "Suma de prefijos paralelos (escaneo) con CUDA". desarrollador.nvidia.com/ . Consultado el 21 de febrero de 2020 . La operación de escaneo es una primitiva paralela simple y poderosa con una amplia gama de aplicaciones. En este capítulo hemos explicado una implementación eficiente de escaneo usando CUDA, que logra una aceleración significativa en comparación con una implementación secuencial en una CPU rápida y en comparación con una implementación paralela en OpenGL en la misma GPU. Debido al poder cada vez mayor de los procesadores paralelos básicos, como las GPU, esperamos que los algoritmos de datos paralelos, como el escaneo, aumenten su importancia en los próximos años.
  51. ^ Masreliez, C. Johan; Martín, RD (1977). "Estimación bayesiana robusta para el modelo lineal y robustificación del filtro de Kalman". Transacciones IEEE sobre control automático . 22 (3): 361–371. doi :10.1109/TAC.1977.1101538.
  52. ^ Lütkepohl, Helmut (1991). Introducción al análisis de series temporales múltiples . Heidelberg: Springer-Verlag Berlín. pag. 435.
  53. ^ ab Gabriel T. Terejanu (4 de agosto de 2012). "Tutorial de filtro de Kalman discreto" (PDF) . Archivado desde el original (PDF) el 17 de agosto de 2020 . Consultado el 13 de abril de 2016 .
  54. ^ Anderson, Brian DO; Moore, John B. (1979). Filtrado óptimo . Englewood Cliffs, Nueva Jersey: Prentice Hall, Inc. págs. 176-190. ISBN 978-0-13-638122-8.
  55. ^ Rauch, ÉL; Tung, F.; Striebel, CT (agosto de 1965). "Estimaciones de máxima verosimilitud de sistemas dinámicos lineales". Revista AIAA . 3 (8): 1445-1450. Código bibliográfico : 1965AIAAJ...3.1445R. doi :10.2514/3.3166.
  56. ^ Einicke, GA (marzo de 2006). "Formulaciones de filtros no causales óptimas y robustas". Transacciones IEEE sobre procesamiento de señales . 54 (3): 1069-1077. Código Bib : 2006ITSP...54.1069E. doi :10.1109/TSP.2005.863042. S2CID  15376718.
  57. ^ Einicke, GA (abril de 2007). "Optimidad asintótica del suavizador de intervalo fijo de varianza mínima". Transacciones IEEE sobre procesamiento de señales . 55 (4): 1543-1547. Código Bib : 2007ITSP...55.1543E. doi :10.1109/TSP.2006.889402. S2CID  16218530.
  58. ^ Einicke, GA; Ralston, JC; Hargrave, CO; Reid, CC; Hainsworth, DW (diciembre de 2008). "Automatización minera de tajo largo. Una aplicación de suavizado de varianza mínima". Revista de sistemas de control IEEE . 28 (6): 28–37. doi :10.1109/MCS.2008.929281. S2CID  36072082.
  59. ^ Einicke, GA (diciembre de 2009). "Optimidad asintótica del suavizador de intervalo fijo de varianza mínima". Transacciones IEEE sobre control automático . 54 (12): 2904–2908. Código Bib : 2007ITSP...55.1543E. doi :10.1109/TSP.2006.889402. S2CID  16218530.
  60. ^ Einicke, GA (diciembre de 2014). "Procedimientos iterativos de filtrado y suavizado ponderados en frecuencia". Cartas de procesamiento de señales IEEE . 21 (12): 1467-1470. Código Bib : 2014ISPL...21.1467E. doi :10.1109/LSP.2014.2341641. S2CID  13569109.
  61. ^ Biswas, Sanat K.; Qiao, Li; Dempster, Andrew G. (1 de diciembre de 2020). "Un enfoque cuantificado para predecir la idoneidad del uso del filtro Kalman sin perfume en una aplicación no lineal". Automática . 122 : 109241. doi : 10.1016/j.automatica.2020.109241. ISSN  0005-1098. S2CID  225028760.
  62. ^ ab Julier, Simon J.; Uhlmann, Jeffrey K. (2004). "Filtrado sin perfume y estimación no lineal". Actas del IEEE . 92 (3): 401–422. doi :10.1109/JPROC.2003.823141. S2CID  9614092.
  63. ^ Julier, Simón J.; Uhlmann, Jeffrey K. (1997). «Nueva extensión del filtro de Kalman a sistemas no lineales» (PDF) . En Kadar, Ivan (ed.). Procesamiento de señales, fusión de sensores y reconocimiento de objetivos VI . Actas de SPIE. vol. 3. págs. 182-193. Código bibliográfico : 1997SPIE.3068..182J. CiteSeerX 10.1.1.5.2891 . doi :10.1117/12.280797. S2CID  7937456 . Consultado el 3 de mayo de 2008 . 
  64. ^ Menegaz, HMT; Ishihara, JY; Borges, GA; Vargas, AN (octubre de 2015). "Una sistematización de la teoría del filtro de Kalman sin perfume". Transacciones IEEE sobre control automático . 60 (10): 2583–2598. doi :10.1109/tac.2015.2404511. hdl : 20.500.11824/251 . ISSN  0018-9286. S2CID  12606055.
  65. ^ Gustafsson, Fredrik; Hendeby, Gustaf (2012). "Algunas relaciones entre los filtros Kalman extendidos y sin perfume". Transacciones IEEE sobre procesamiento de señales . 60 (2): 545–555. Código Bib : 2012ITSP...60..545G. doi :10.1109/tsp.2011.2172431. S2CID  17876531.
  66. ^ Van der Merwe, R.; Wan, EA (2001). "El filtro de Kalman sin perfume de raíz cuadrada para estimación de estados y parámetros". 2001 Conferencia internacional IEEE sobre acústica, habla y procesamiento de señales. Actas (Cat. No.01CH37221) . vol. 6. págs. 3461–3464. doi :10.1109/ICASSP.2001.940586. ISBN 0-7803-7041-4. S2CID  7290857.
  67. ^ Bitzer, S. (2016). "El UKF expuso: cómo funciona, cuándo funciona y cuándo es mejor tomar muestras". doi :10.5281/zenodo.44386. {{cite journal}}: Citar diario requiere |journal=( ayuda )
  68. ^ Wan, EA; Van Der Merwe, R. (2000). "El filtro de Kalman sin perfume para estimación no lineal" (PDF) . Actas del Simposio de sistemas adaptativos para procesamiento de señales, comunicaciones y control IEEE 2000 (Nº de catálogo 00EX373) . pag. 153. CiteSeerX 10.1.1.361.9373 . doi :10.1109/ASSPCC.2000.882463. ISBN  978-0-7803-5800-3. S2CID  13992571. Archivado desde el original (PDF) el 3 de marzo de 2012 . Consultado el 31 de enero de 2010 .
  69. ^ Sarkka, Simo (septiembre de 2007). "Sobre el filtrado de Kalman sin perfume para la estimación del estado de sistemas no lineales de tiempo continuo". Transacciones IEEE sobre control automático . 52 (9): 1631-1641. doi :10.1109/TAC.2007.904453.
  70. ^ ab Burkhart, Michael C.; Brandman, David M.; Franco, Brian; Hochberg, Leigh; Harrison, Matthew T. (2020). "El filtro de Kalman discriminativo para el filtrado bayesiano con modelos de observación no lineales y no gaussianos". Computación neuronal . 32 (5): 969–1017. doi :10.1162/neco_a_01275. PMC 8259355 . PMID  32187000. S2CID  212748230 . Consultado el 26 de marzo de 2021 . 
  71. ^ ab Burkhart, Michael C. (2019). Un enfoque discriminativo del filtrado bayesiano con aplicaciones a la decodificación neuronal humana (Tesis). Providence, RI, Estados Unidos: Universidad de Brown. doi :10.26300/nhfp-xv22.
  72. ^ ab Brandman, David M.; Burkhart, Michael C.; Kelemen, Jessica; Franco, Brian; Harrison, Mateo T.; Hochberg, Leigh R. (2018). "Control robusto de circuito cerrado de un cursor en una persona con tetraplejía mediante regresión del proceso gaussiano". Computación neuronal . 30 (11): 2986–3008. doi :10.1162/neco_a_01129. PMC 6685768 . PMID  30216140 . Consultado el 26 de marzo de 2021 . 
  73. ^ Bar-Shalom, Yaakov; Li, X.-Rong; Kirubarajan, Thiagalingam (2001). Estimación con Aplicaciones al Seguimiento y Navegación . Nueva York, Estados Unidos: John Wiley & Sons, Inc. págs. 421 y siguientes. doi :10.1002/0471221279. ISBN 0-471-41655-X.
  74. ^ Bucy, RS y Joseph, PD, Filtrado de procesos estocásticos con aplicaciones a la orientación, John Wiley & Sons, 1968; Segunda edición, AMS Chelsea Publ., 2005. ISBN 0-8218-3782-6 
  75. ^ Jazwinski, Andrew H., Procesos estocásticos y teoría del filtrado, Academic Press, Nueva York, 1970. ISBN 0-12-381550-9 
  76. ^ Kailath, T. (1968). "Un enfoque innovador para la estimación de mínimos cuadrados - Parte I: filtrado lineal en ruido blanco aditivo". Transacciones IEEE sobre control automático . 13 (6): 646–655. doi :10.1109/TAC.1968.1099025.
  77. ^ Vaswani, Namrata (2008). "Sensación comprimida filtrada por Kalman". 2008 15ª Conferencia Internacional IEEE sobre Procesamiento de Imágenes . págs. 893–896. arXiv : 0804.0819 . doi :10.1109/ICIP.2008.4711899. ISBN 978-1-4244-1765-0. S2CID  9282476.
  78. ^ Carmi, Avishy; Gurfil, Pini; Kanevsky, Dimitri (2010). "Métodos para la recuperación de señales dispersas utilizando el filtrado de Kalman con pseudonormas y cuasinormas de medición integradas". Transacciones IEEE sobre procesamiento de señales . 58 (4): 2405–2409. Código Bib : 2010ITSP...58.2405C. doi :10.1109/TSP.2009.2038959. S2CID  10569233.
  79. ^ Zacarías, Dave; Chatterjee, Saikat; Jansson, Magnus (2012). "Búsqueda iterativa dinámica". Transacciones IEEE sobre procesamiento de señales . 60 (9): 4967–4972. arXiv : 1206.2496 . Código Bib : 2012ITSP...60.4967Z. doi :10.1109/TSP.2012.2203813. S2CID  18467024.
  80. ^ Särkkä, Simo; Hartikainen, Jouni; Svensson, Lennart; Sandblom, Fredrik (22 de abril de 2015). "Sobre la relación entre las cuadraturas del proceso gaussiano y los métodos del punto sigma". arXiv : 1504.05994 [estad.ME].
  81. ^ Vasebi, Amir; Partovibakhsh, Maral; Bathaee, S. Mohammad Taghi (2007). "Un novedoso modelo de batería combinada para la estimación del estado de carga en baterías de plomo-ácido basado en un filtro Kalman extendido para aplicaciones de vehículos eléctricos híbridos". Revista de fuentes de energía . 174 (1): 30–40. Código Bib : 2007JPS...174...30V. doi :10.1016/j.jpowsour.2007.04.011.
  82. ^ Vasebi, A.; Bathaee, SMT; Partovibakhsh, M. (2008). "Predicción del estado de carga de baterías de plomo-ácido para vehículos eléctricos híbridos mediante filtro de Kalman extendido". Conversión y Gestión de Energía . 49 : 75–82. doi :10.1016/j.enconman.2007.05.017.
  83. ^ Fruhwirth, R. (1987). "Aplicación del filtrado de Kalman al seguimiento y ajuste de vértices". Instrumentos y métodos nucleares en la investigación en física Sección A. 262 (2–3): 444–450. Código bibliográfico : 1987NIMPA.262..444F. doi :10.1016/0168-9002(87)90887-4.
  84. ^ Harvey, Andrew C. (1994). "Aplicaciones del filtro de Kalman en econometría". En Bewley, Truman (ed.). Avances en Econometría . Nueva York: Cambridge University Press. págs. 285 y sigs. ISBN 978-0-521-46726-1.
  85. ^ Boulfelfel, D.; Rangayyan, RM; Hahn, LJ; Kloiber, R.; Kuduvalli, GR (1994). "Restauración bidimensional de imágenes de tomografía computarizada por emisión de fotón único utilizando el filtro de Kalman". Transacciones IEEE sobre imágenes médicas . 13 (1): 102-109. doi :10.1109/42.276148. PMID  18218487.
  86. ^ Bock, Y.; Crowell, B.; Webb, F.; Kedar, S.; Clayton, R.; Miyahara, B. (2008). "Fusión de datos sísmicos y GPS de alta velocidad: aplicaciones a sistemas de alerta temprana para la mitigación de peligros geológicos". Resúmenes de las reuniones de otoño de AGU . 43 : G43B–01. Código Bib : 2008AGUFM.G43B..01B.
  87. ^ Wolpert, DM; Miall, RC (1996). "Modelos avanzados para el control fisiológico motor". Redes neuronales . 9 (8): 1265-1279. doi :10.1016/S0893-6080(96)00035-4. PMID  12662535.

Otras lecturas

enlaces externos