stringtranslate.com

Filtro Kalman

El filtro Kalman lleva un registro del estado estimado del sistema y de la varianza o incertidumbre de la estimación. La estimación se actualiza utilizando un modelo de transición de estado y mediciones. denota la estimación del estado del sistema en el paso de tiempo k antes de que se haya tenido en cuenta la k -ésima medición y k ; es la incertidumbre correspondiente.

En estadística y teoría de control , el filtrado de Kalman (también conocido como estimación cuadrática lineal ) es un algoritmo que utiliza una serie de mediciones observadas a lo largo del tiempo, incluido el ruido estadístico y otras imprecisiones, para producir estimaciones de variables desconocidas que tienden a ser más precisas que las basadas en una sola medición, al estimar una distribución de probabilidad conjunta sobre las variables para cada paso de tiempo. El filtro se construye como un minimizador de error cuadrático medio, pero también se proporciona una derivación alternativa del filtro que muestra cómo se relaciona el filtro con las estadísticas de máxima verosimilitud. [1] El filtro recibe su nombre de Rudolf E. Kálmán .

Este filtro digital a veces se denomina filtro Stratonovich-Kalman-Bucy porque es un caso especial de un filtro no lineal más general desarrollado por el matemático soviético Ruslan Stratonovich . [2] [3] [4] [5] De hecho, algunas de las ecuaciones del filtro lineal de caso especial aparecieron en artículos de Stratonovich que se publicaron antes del verano de 1961, cuando Kalman se reunió con Stratonovich durante una conferencia en Moscú. [6]

El filtrado de Kalman [7] tiene numerosas aplicaciones tecnológicas. Una aplicación común es para la guía, navegación y control de vehículos, particularmente aeronaves, naves espaciales y barcos posicionados dinámicamente . [8] Además, el filtrado de Kalman se aplica mucho en tareas de análisis de series de tiempo como procesamiento de señales y econometría . El filtrado de Kalman también es importante para la planificación y control del movimiento robótico , [9] [10] y se puede utilizar para la optimización de trayectorias . [11] El filtrado de Kalman también funciona para modelar el control del movimiento del sistema nervioso central . Debido al retraso de tiempo entre la emisión de comandos de motor y la recepción de retroalimentación sensorial , el uso de filtros de Kalman [12] proporciona un modelo realista para realizar estimaciones del estado actual de un sistema de motor y emitir comandos actualizados. [13]

El algoritmo funciona mediante un proceso de dos fases: una fase de predicción y una fase de actualización. En la fase de predicción, el filtro de Kalman produce estimaciones de las variables de estado actuales , incluidas sus incertidumbres. Una vez que se observa el resultado de la siguiente medición (necesariamente corrompido por algún error, incluido el ruido aleatorio), estas estimaciones se actualizan utilizando un promedio ponderado , y se otorga más peso a las estimaciones con mayor certeza. El algoritmo es recursivo . Puede operar en tiempo real , utilizando solo las mediciones de entrada actuales y el estado calculado previamente y su matriz de incertidumbre; no se requiere información pasada adicional.

La optimalidad del filtrado de Kalman supone que los errores tienen una distribución normal (gaussiana) . En palabras de Rudolf E. Kálmán : "Se hacen las siguientes suposiciones sobre los procesos aleatorios: los fenómenos aleatorios físicos pueden considerarse debidos a fuentes aleatorias primarias que excitan sistemas dinámicos. Se supone que las fuentes primarias son procesos aleatorios gaussianos independientes con media cero; los sistemas dinámicos serán lineales". [14] Sin embargo, independientemente de la gaussianidad, si se conocen las covarianzas de proceso y medición, entonces el filtro de Kalman es el mejor estimador lineal posible en el sentido de error cuadrático medio mínimo , [15] aunque puede haber mejores estimadores no lineales. Es un error común (perpetuado en la literatura) que el filtro de Kalman no se puede aplicar rigurosamente a menos que se suponga que todos los procesos de ruido son gaussianos. [16]

También se han desarrollado extensiones y generalizaciones del método, como el filtro de Kalman extendido y el filtro de Kalman sin aroma, que funcionan en sistemas no lineales . La base es un modelo oculto de Markov tal que el espacio de estados de las variables latentes es continuo y todas las variables latentes y observadas tienen distribuciones gaussianas. El filtrado de Kalman se ha utilizado con éxito en la fusión de múltiples sensores [17] y en redes de sensores distribuidas para desarrollar un filtrado de Kalman distribuido o de consenso [18] .

Historia

El método de filtrado recibe su nombre del emigrado húngaro Rudolf E. Kálmán , aunque Thorvald Nicolai Thiele [19] [20] y Peter Swerling desarrollaron un algoritmo similar anteriormente. Richard S. Bucy del Laboratorio de Física Aplicada de Johns Hopkins contribuyó a la teoría, lo que provocó que a veces se la conociera como filtrado de Kalman-Bucy. Kalman se inspiró para derivar el filtro de Kalman aplicando variables de estado al problema de filtrado de Wiener . [21] Generalmente se le atribuye a Stanley F. Schmidt el desarrollo de la primera implementación de un filtro de Kalman. Se dio cuenta de que el filtro podía dividirse en dos partes distintas, con una parte para los períodos de tiempo entre las salidas de los sensores y otra parte para incorporar mediciones. [22] Fue durante una visita de Kálmán al Centro de Investigación Ames de la NASA que Schmidt vio la aplicabilidad de las ideas de Kálmán al problema no lineal de estimación de trayectoria para el programa Apolo, lo que resultó en su incorporación en la computadora de navegación Apolo . [23] : 16 

Este filtrado de Kalman fue descrito por primera vez y desarrollado parcialmente en artículos técnicos por Swerling (1958), Kalman (1960) y Kalman y Bucy (1961).

El ordenador Apollo utilizaba 2k de memoria RAM de núcleo magnético y 36k de cable [...]. La CPU estaba construida a partir de circuitos integrados [...]. La velocidad de reloj era inferior a 100 kHz [...]. El hecho de que los ingenieros del MIT fueran capaces de incluir un software tan bueno (una de las primeras aplicaciones del filtro Kalman) en un ordenador tan pequeño es realmente notable.

—  Entrevista con Jack Crenshaw, por Matthew Reed, TRS-80.org (2009) [1]

Los filtros Kalman han sido vitales en la implementación de los sistemas de navegación de los submarinos de misiles balísticos nucleares de la Armada de los EE. UU. , y en los sistemas de guía y navegación de misiles de crucero como el misil Tomahawk de la Armada de los EE. UU. y el misil de crucero lanzado desde el aire de la Fuerza Aérea de los EE. UU . También se utilizan en los sistemas de guía y navegación de vehículos de lanzamiento reutilizables y en los sistemas de control de actitud y navegación de las naves espaciales que atracan en la Estación Espacial Internacional . [24]

Descripción general del cálculo

El filtrado de Kalman utiliza el modelo dinámico de un sistema (por ejemplo, las leyes físicas del movimiento), las entradas de control conocidas de ese sistema y múltiples mediciones secuenciales (por ejemplo, las de los sensores) para formar una estimación de las cantidades variables del sistema (su estado ) que sea mejor que la estimación obtenida utilizando solo una medición. Como tal, es un algoritmo común de fusión de sensores y datos .

Los datos ruidosos de los sensores, las aproximaciones en las ecuaciones que describen la evolución del sistema y los factores externos que no se tienen en cuenta limitan la posibilidad de determinar el estado del sistema. El filtro de Kalman se ocupa de manera eficaz de la incertidumbre debida a los datos ruidosos de los sensores y, en cierta medida, de los factores externos aleatorios. El filtro de Kalman produce una estimación del estado del sistema como un promedio del estado predicho del sistema y de la nueva medición utilizando un promedio ponderado . El propósito de los pesos es que los valores con una incertidumbre estimada mejor (es decir, menor) sean más "confiables". Los pesos se calculan a partir de la covarianza , una medida de la incertidumbre estimada de la predicción del estado del sistema. El resultado del promedio ponderado es una nueva estimación del estado que se encuentra entre el estado predicho y el medido, y tiene una incertidumbre estimada mejor que cualquiera de los dos por separado. Este proceso se repite en cada paso de tiempo, y la nueva estimación y su covarianza informan la predicción utilizada en la siguiente iteración. Esto significa que el filtro de Kalman funciona de forma recursiva y requiere sólo la última "mejor estimación", en lugar de todo el historial del estado de un sistema para calcular un nuevo estado.

La clasificación de certeza de las mediciones y la estimación del estado actual son consideraciones importantes. Es común analizar la respuesta del filtro en términos de la ganancia del filtro Kalman . La ganancia de Kalman es el peso que se le da a las mediciones y la estimación del estado actual, y se puede "ajustar" para lograr un rendimiento particular. Con una ganancia alta, el filtro otorga más peso a las mediciones más recientes y, por lo tanto, se ajusta a ellas de manera más sensible. Con una ganancia baja, el filtro se ajusta más a las predicciones del modelo. En los extremos, una ganancia alta (cercana a uno) dará como resultado una trayectoria estimada más irregular, mientras que una ganancia baja (cercana a cero) suavizará el ruido pero disminuirá la capacidad de respuesta.

Al realizar los cálculos reales para el filtro (como se explica a continuación), la estimación del estado y las covarianzas se codifican en matrices debido a las múltiples dimensiones involucradas en un único conjunto de cálculos. Esto permite una representación de relaciones lineales entre diferentes variables de estado (como posición, velocidad y aceleración) en cualquiera de los modelos de transición o covarianzas.

Ejemplo de aplicación

Como ejemplo de aplicación, considere el problema de determinar la ubicación precisa de un camión. El camión puede estar equipado con una unidad GPS que proporciona una estimación de la posición con una precisión de unos pocos metros. Es probable que la estimación del GPS sea ruidosa; las lecturas "saltan" rápidamente, aunque permanecen a unos pocos metros de la posición real. Además, dado que se espera que el camión siga las leyes de la física, su posición también se puede estimar integrando su velocidad a lo largo del tiempo, determinada mediante el seguimiento de las revoluciones de las ruedas y el ángulo del volante. Esta es una técnica conocida como estimación de la posición del camión . Por lo general, la estimación de la posición del camión proporcionará una estimación muy precisa, pero se desviará con el tiempo a medida que se acumulen pequeños errores.

En este ejemplo, se puede pensar que el filtro Kalman funciona en dos fases distintas: predicción y actualización. En la fase de predicción, la posición anterior del camión se modificará de acuerdo con las leyes físicas del movimiento (el modelo dinámico o de "transición de estado"). No solo se calculará una nueva estimación de la posición, sino que también se calculará una nueva covarianza. Tal vez la covarianza sea proporcional a la velocidad del camión porque tenemos más incertidumbre sobre la precisión de la estimación de la posición de estima a altas velocidades, pero estamos muy seguros de la estimación de la posición a bajas velocidades. A continuación, en la fase de actualización, se toma una medición de la posición del camión desde la unidad GPS. Junto con esta medición viene una cierta cantidad de incertidumbre, y su covarianza relativa a la de la predicción de la fase anterior determina cuánto afectará la nueva medición a la predicción actualizada. Idealmente, como las estimaciones de estima tienden a alejarse de la posición real, la medición GPS debería acercar la estimación de la posición a la posición real, pero no alterarla hasta el punto de volverse ruidosa y saltar rápidamente.

Descripción técnica y contexto

El filtro de Kalman es un filtro recursivo eficiente que estima el estado interno de un sistema dinámico lineal a partir de una serie de mediciones ruidosas . Se utiliza en una amplia gama de aplicaciones de ingeniería y econometría, desde radares y visión artificial hasta la estimación de modelos macroeconómicos estructurales [25] [26] , y es un tema importante en la teoría de control y la ingeniería de sistemas de control . Junto con el regulador lineal-cuadrático (LQR), el filtro de Kalman resuelve el problema de control lineal-cuadrático-gaussiano (LQG). El filtro de Kalman, el regulador lineal-cuadrático y el controlador lineal-cuadrático-gaussiano son soluciones a lo que posiblemente sean los problemas más fundamentales de la teoría de control.

En la mayoría de las aplicaciones, el estado interno es mucho mayor (tiene más grados de libertad ) que los pocos parámetros "observables" que se miden. Sin embargo, al combinar una serie de mediciones, el filtro de Kalman puede estimar el estado interno completo.

En la teoría de Dempster-Shafer , cada ecuación de estado u observación se considera un caso especial de una función de creencia lineal y el filtrado de Kalman es un caso especial de combinación de funciones de creencia lineales en un árbol de unión o árbol de Markov . Otros métodos incluyen el filtrado de creencias que utiliza actualizaciones bayesianas o evidenciales de las ecuaciones de estado.

En la actualidad existe una amplia variedad de filtros de Kalman: la formulación original de Kalman (ahora denominada filtro de Kalman "simple"), el filtro de Kalman-Bucy , el filtro "extendido" de Schmidt, el filtro de información y una variedad de filtros de "raíz cuadrada" desarrollados por Bierman, Thornton y muchos otros. Quizás el tipo de filtro de Kalman muy simple más comúnmente utilizado es el bucle de enganche de fase , que ahora es omnipresente en radios, especialmente radios de modulación de frecuencia (FM), televisores, receptores de comunicaciones por satélite , sistemas de comunicaciones del espacio exterior y casi cualquier otro equipo de comunicaciones electrónicas .

Modelo de sistema dinámico subyacente

El filtrado de Kalman se basa en sistemas dinámicos lineales discretizados en el dominio del tiempo. Se modelan en una cadena de Markov construida sobre operadores lineales perturbados por errores que pueden incluir ruido gaussiano . El estado del sistema de destino se refiere a la configuración del sistema de interés de verdad fundamental (aunque oculta), que se representa como un vector de números reales . En cada incremento de tiempo discreto , se aplica un operador lineal al estado para generar el nuevo estado, con algo de ruido mezclado y, opcionalmente, algo de información de los controles del sistema si se conocen. Luego, otro operador lineal mezclado con más ruido genera las salidas mensurables (es decir, la observación) del estado verdadero ("oculto"). El filtro de Kalman puede considerarse análogo al modelo oculto de Markov, con la diferencia de que las variables de estado ocultas tienen valores en un espacio continuo en lugar de un espacio de estado discreto como para el modelo oculto de Markov. Existe una fuerte analogía entre las ecuaciones de un filtro de Kalman y las del modelo oculto de Markov. En Roweis y Ghahramani (1999) [27] y Hamilton (1994), Capítulo 13, se ofrece una revisión de este y otros modelos. [28]

Para utilizar el filtro de Kalman para estimar el estado interno de un proceso dada únicamente una secuencia de observaciones ruidosas, se debe modelar el proceso de acuerdo con el siguiente marco. Esto implica especificar las matrices, para cada paso de tiempo k , siguientes:

Modelo subyacente al filtro de Kalman. Los cuadrados representan matrices. Las elipses representan distribuciones normales multivariadas (con la matriz de media y covarianzas incluidas). Los valores no incluidos son vectores . En el caso simple, las distintas matrices son constantes con el tiempo y, por lo tanto, no se utilizan los subíndices, pero el filtro de Kalman permite que cualquiera de ellas cambie en cada paso de tiempo.

El modelo de filtro de Kalman supone que el estado verdadero en el momento k evoluciona a partir del estado en ( k  − 1) de acuerdo con

dónde

En el instante k se realiza una observación (o medición) z k del estado verdadero x k de acuerdo con

dónde

Se supone que el estado inicial y los vectores de ruido en cada paso { x 0 , w 1 , ..., w k , v 1 , ... , v k } son mutuamente independientes .

Muchos sistemas dinámicos en tiempo real no se ajustan exactamente a este modelo. De hecho, la dinámica no modelada puede degradar seriamente el rendimiento del filtro, incluso cuando se supone que funciona con señales estocásticas desconocidas como entradas. La razón de esto es que el efecto de la dinámica no modelada depende de la entrada y, por lo tanto, puede llevar al algoritmo de estimación a la inestabilidad (diverge). Por otro lado, las señales de ruido blanco independientes no harán que el algoritmo diverja. El problema de distinguir entre el ruido de medición y la dinámica no modelada es difícil y se trata como un problema de teoría de control utilizando control robusto . [29] [30]

Detalles

El filtro de Kalman es un estimador recursivo . Esto significa que solo se necesitan el estado estimado del paso de tiempo anterior y la medición actual para calcular la estimación del estado actual. A diferencia de las técnicas de estimación por lotes, no se requiere un historial de observaciones o estimaciones. A continuación, la notación representa la estimación de un tiempo n de observaciones dadas hasta el tiempo mn inclusive .

El estado del filtro está representado por dos variables:

La estructura del algoritmo del filtro de Kalman se asemeja a la del filtro alfa beta . El filtro de Kalman se puede escribir como una sola ecuación; sin embargo, se suele conceptualizar como dos fases distintas: "Predecir" y "Actualizar". La fase de predicción utiliza la estimación del estado del paso de tiempo anterior para producir una estimación del estado en el paso de tiempo actual. Esta estimación del estado predicho también se conoce como estimación del estado a priori porque, aunque es una estimación del estado en el paso de tiempo actual, no incluye información de observación del paso de tiempo actual. En la fase de actualización, la innovación (el residuo previo al ajuste), es decir, la diferencia entre la predicción a priori actual y la información de observación actual, se multiplica por la ganancia de Kalman óptima y se combina con la estimación del estado anterior para refinar la estimación del estado. Esta estimación mejorada basada en la observación actual se denomina estimación del estado a posteriori .

Normalmente, las dos fases se alternan, con la predicción avanzando el estado hasta la siguiente observación programada y la actualización incorporando la observación. Sin embargo, esto no es necesario; si una observación no está disponible por alguna razón, se puede omitir la actualización y realizar múltiples procedimientos de predicción. Del mismo modo, si hay múltiples observaciones independientes disponibles al mismo tiempo, se pueden realizar múltiples procedimientos de actualización (normalmente con diferentes matrices de observación H k ). [31] [32]

Predecir

Actualizar

La fórmula para la estimación de covarianza actualizada ( a posteriori ) anterior es válida para la ganancia K k óptima que minimiza el error residual, en cuya forma se utiliza más ampliamente en las aplicaciones. La prueba de las fórmulas se encuentra en la sección de derivaciones , donde también se muestra la fórmula válida para cualquier K k .

Una forma más intuitiva de expresar la estimación del estado actualizado ( ) es:

Esta expresión nos recuerda a una interpolación lineal, para el caso entre [0,1]. En nuestro caso:

Esta expresión también se asemeja al paso de actualización del filtro alfa beta .

Invariantes

Si el modelo es preciso y los valores de y reflejan con precisión la distribución de los valores del estado inicial, entonces se conservan las siguientes invariantes:

donde es el valor esperado de . Es decir, todas las estimaciones tienen un error medio de cero.

También:

Por lo tanto, las matrices de covarianza reflejan con precisión la covarianza de las estimaciones.

Estimación de las covarianzas de ruido Qay Ra

La implementación práctica de un filtro de Kalman es a menudo difícil debido a la dificultad de obtener una buena estimación de las matrices de covarianza de ruido Q k y R k . Se han realizado investigaciones exhaustivas para estimar estas covarianzas a partir de los datos. Un método práctico para hacer esto es la técnica de mínimos cuadrados de autocovarianza (ALS) que utiliza las autocovarianzas con retraso temporal de los datos operativos de rutina para estimar las covarianzas. [33] [34] El código GNU Octave y Matlab utilizado para calcular las matrices de covarianza de ruido utilizando la técnica ALS está disponible en línea utilizando la Licencia Pública General de GNU . [35] Se ha propuesto el filtro Kalman de campo (FKF), un algoritmo bayesiano que permite la estimación simultánea del estado, los parámetros y la covarianza del ruido. [36] El algoritmo FKF tiene una formulación recursiva, una buena convergencia observada y una complejidad relativamente baja, lo que sugiere que el algoritmo FKF posiblemente sea una alternativa valiosa a los métodos de mínimos cuadrados de autocovarianza. Otro enfoque es el Filtro Kalman Optimizado ( OKF ), que considera las matrices de covarianza no como representantes del ruido, sino más bien, como parámetros destinados a lograr la estimación de estado más precisa. [37] Estos dos puntos de vista coinciden bajo los supuestos del KF, pero a menudo se contradicen entre sí en sistemas reales. Por lo tanto, la estimación de estado de OKF es más robusta a las imprecisiones del modelado.

Optimalidad y rendimiento

De la teoría se desprende que el filtro de Kalman proporciona una estimación óptima del estado en los casos en que a) el modelo coincide perfectamente con el sistema real, b) el ruido entrante es "blanco" (no correlacionado) y c) las covarianzas del ruido se conocen con exactitud. El ruido correlacionado también se puede tratar utilizando filtros de Kalman. [38] Durante las últimas décadas se han propuesto varios métodos para la estimación de la covarianza del ruido, incluido el ALS, mencionado en la sección anterior. De manera más general, si las suposiciones del modelo no coinciden perfectamente con el sistema real, entonces la estimación óptima del estado no se obtiene necesariamente estableciendo Q k y R k en las covarianzas del ruido. En cambio, en ese caso, los parámetros Q k y R k se pueden establecer para optimizar explícitamente la estimación del estado, [37] por ejemplo, utilizando el aprendizaje supervisado estándar .

Una vez establecidas las covarianzas, resulta útil evaluar el rendimiento del filtro, es decir, si es posible mejorar la calidad de la estimación del estado. Si el filtro de Kalman funciona de manera óptima, la secuencia de innovación (el error de predicción de salida) es un ruido blanco, por lo tanto, la propiedad de blancura de las innovaciones mide el rendimiento del filtro. Se pueden utilizar varios métodos diferentes para este propósito. [39] Si los términos de ruido se distribuyen de manera no gaussiana, se conocen en la literatura métodos para evaluar el rendimiento de la estimación del filtro, que utilizan desigualdades de probabilidad o teoría de muestras grandes. [40] [41]

Ejemplo de aplicación, técnica

  Verdad
  Proceso filtrado
  Observaciones

Consideremos un camión sobre raíles rectos y sin fricción. Inicialmente, el camión está parado en la posición 0, pero fuerzas aleatorias no controladas lo sacuden de un lado a otro. Medimos la posición del camión cada Δ t segundos, pero estas mediciones son imprecisas; queremos mantener un modelo de la posición y la velocidad del camión . Mostramos aquí cómo derivamos el modelo a partir del cual creamos nuestro filtro de Kalman.

Como son constantes, se descartan sus índices de tiempo.

La posición y la velocidad del camión se describen mediante el espacio de estados lineal.

donde es la velocidad, es decir, la derivada de la posición con respecto al tiempo.

Suponemos que entre los intervalos de tiempo ( k  − 1) y k , fuerzas no controladas provocan una aceleración constante de a k que se distribuye normalmente con media 0 y desviación estándar σ a . A partir de las leyes de movimiento de Newton concluimos que

(no hay término ya que no hay entradas de control conocidas. En cambio, una k es el efecto de una entrada desconocida y aplica ese efecto al vector de estado) donde

de modo que

dónde

La matriz no es de rango completo (es de rango uno si ). Por lo tanto, la distribución no es absolutamente continua y no tiene función de densidad de probabilidad . Otra forma de expresar esto, evitando distribuciones degeneradas explícitas, se da mediante

En cada fase temporal se realiza una medición ruidosa de la posición real del camión. Supongamos que el ruido de medición v k también se distribuye normalmente, con media 0 y desviación típica σ z .

dónde

y

Conocemos el estado inicial de arranque del camión con perfecta precisión, por lo que inicializamos

y para decirle al filtro que conocemos la posición y velocidad exactas, le damos una matriz de covarianza cero:

Si la posición inicial y la velocidad no se conocen perfectamente, la matriz de covarianza debe inicializarse con varianzas adecuadas en su diagonal:

El filtro preferirá entonces la información de las primeras mediciones sobre la información que ya existe en el modelo.

Forma asintótica

Para simplificar, supongamos que la entrada de control es . Entonces, el filtro de Kalman se puede escribir:

Una ecuación similar se cumple si incluimos una entrada de control distinta de cero. Las matrices de ganancia evolucionan independientemente de las mediciones . De lo anterior, las cuatro ecuaciones necesarias para actualizar la ganancia de Kalman son las siguientes:

Dado que las matrices de ganancia dependen únicamente del modelo y no de las mediciones, se pueden calcular sin conexión. La convergencia de las matrices de ganancia a una matriz asintótica se aplica a las condiciones establecidas en Walrand y Dimakis. [42] Las simulaciones establecen el número de pasos hasta la convergencia. Para el ejemplo del camión en movimiento descrito anteriormente, con . y , la simulación muestra convergencia en iteraciones.

Utilizando la ganancia asintótica y suponiendo que y son independientes de , el filtro de Kalman se convierte en un filtro lineal invariante en el tiempo :

La ganancia asintótica , si existe, se puede calcular resolviendo primero la siguiente ecuación de Riccati discreta para la covarianza del estado asintótico : [42]

Luego se calcula la ganancia asintótica como antes.

Además, una forma del filtro de Kalman asintótico más comúnmente utilizado en la teoría de control se da por

dónde

Esto conduce a un estimador de la forma

Derivaciones

El filtro de Kalman se puede derivar como un método de mínimos cuadrados generalizado que opera sobre datos previos. [43]

Derivando elposteriormenteEstimar la matriz de covarianza

Comenzando con nuestro invariante en la covarianza de error P k  |  k como se indicó anteriormente

sustituir en la definición de

y sustituir

y

y al recopilar los vectores de error obtenemos

Dado que el error de medición v k no está correlacionado con los otros términos, esto se convierte en

Por las propiedades de la covarianza vectorial esto se convierte en

lo cual, utilizando nuestro invariante en P k  |  k −1 y la definición de R k se convierte en

Esta fórmula (a veces conocida como la forma Joseph de la ecuación de actualización de covarianza) es válida para cualquier valor de K k . Resulta que si K k es la ganancia de Kalman óptima, esto se puede simplificar aún más como se muestra a continuación.

Derivación de la ganancia de Kalman

El filtro de Kalman es un estimador de error cuadrático medio mínimo . El error en la estimación del estado a posteriori es

Buscamos minimizar el valor esperado del cuadrado de la magnitud de este vector, . Esto es equivalente a minimizar la traza de la matriz de covarianza estimada a posteriori . Al expandir los términos en la ecuación anterior y recopilarlos, obtenemos:

La traza se minimiza cuando su derivada matricial con respecto a la matriz de ganancia es cero. Utilizando las reglas de la matriz de gradiente y la simetría de las matrices involucradas encontramos que

Resolviendo esto para K k obtenemos la ganancia de Kalman:

Esta ganancia, que se conoce como ganancia de Kalman óptima , es la que produce estimaciones del MMSE cuando se utiliza.

Simplificación de laposteriormentefórmula de covarianza de error

La fórmula utilizada para calcular la covarianza del error a posteriori se puede simplificar cuando la ganancia de Kalman es igual al valor óptimo obtenido anteriormente. Al multiplicar ambos lados de nuestra fórmula de ganancia de Kalman a la derecha por S k K k T , se deduce que

Volviendo a nuestra fórmula ampliada para la covarianza del error a posteriori ,

Encontramos que los dos últimos términos se cancelan, dando

Esta fórmula es computacionalmente más barata y por lo tanto casi siempre se utiliza en la práctica, pero solo es correcta para la ganancia óptima. Si la precisión aritmética es inusualmente baja y causa problemas con la estabilidad numérica , o si se utiliza deliberadamente una ganancia de Kalman no óptima, no se puede aplicar esta simplificación; se debe utilizar la fórmula de covarianza de error a posteriori que se derivó anteriormente (forma de Joseph).

Análisis de sensibilidad

Las ecuaciones de filtrado de Kalman proporcionan una estimación del estado y su covarianza de error de forma recursiva. La estimación y su calidad dependen de los parámetros del sistema y de las estadísticas de ruido que se introducen como entradas al estimador. Esta sección analiza el efecto de las incertidumbres en las entradas estadísticas al filtro. [44] En ausencia de estadísticas fiables o de los valores verdaderos de las matrices de covarianza de ruido y , la expresión

ya no proporciona la covarianza de error real. En otras palabras, . En la mayoría de las aplicaciones en tiempo real, las matrices de covarianza que se utilizan para diseñar el filtro de Kalman son diferentes de las matrices de covarianza de ruido reales (verdaderas). [ cita requerida ] Este análisis de sensibilidad describe el comportamiento de la covarianza de error de estimación cuando las covarianzas de ruido, así como las matrices del sistema y que se introducen como entradas al filtro son incorrectas. Por lo tanto, el análisis de sensibilidad describe la robustez (o sensibilidad) del estimador a entradas estadísticas y paramétricas mal especificadas al estimador.

Esta discusión se limita al análisis de sensibilidad de error para el caso de incertidumbres estadísticas. Aquí las covarianzas de ruido reales se denotan por y respectivamente, mientras que los valores de diseño utilizados en el estimador son y respectivamente. La covarianza de error real se denota por y tal como se calcula mediante el filtro de Kalman se conoce como la variable de Riccati. Cuando y , esto significa que . Al calcular la covarianza de error real utilizando , sustituyendo y utilizando el hecho de que y , se obtienen las siguientes ecuaciones recursivas para  :

y

Al calcular , por diseño el filtro supone implícitamente que y . Las expresiones recursivas para y son idénticas excepto por la presencia de y en lugar de los valores de diseño y respectivamente. Se han realizado investigaciones para analizar la robustez del sistema de filtro de Kalman. [45]

Forma factorizada

Un problema con el filtro de Kalman es su estabilidad numérica . Si la covarianza del ruido del proceso Q k es pequeña, el error de redondeo a menudo hace que un pequeño valor propio positivo de la matriz de covarianza de estado P se calcule como un número negativo. Esto hace que la representación numérica de P sea indefinida , mientras que su forma verdadera es positiva-definida .

Las matrices definidas positivas tienen la propiedad de tener una factorización en el producto de una matriz triangular inferior no singular S y su transpuesta  : P  =  S · S T . El factor S se puede calcular de manera eficiente utilizando el algoritmo de factorización de Cholesky . Se garantiza que esta forma de producto de la matriz de covarianza P es simétrica, y para todo 1 <= k <= n, el k-ésimo elemento diagonal P kk es igual a la norma euclidiana de la k-ésima fila de S , que es necesariamente positiva. Una forma equivalente, que evita muchas de las operaciones de raíz cuadrada involucradas en el algoritmo de factorización de Cholesky , pero conserva las propiedades numéricas deseables, es la forma de descomposición UD, P  =  U · D · U T , donde U es una matriz triangular unitaria (con diagonal unitaria) y D es una matriz diagonal.

Entre las dos, la factorización UD utiliza la misma cantidad de almacenamiento y algo menos de cálculo, y es la factorización triangular más comúnmente utilizada. (La literatura temprana sobre la eficiencia relativa es algo engañosa, ya que suponía que las raíces cuadradas consumían mucho más tiempo que las divisiones, [46] : 69  mientras que en las computadoras del siglo XXI son solo un poco más caras).

GJ Bierman y CL Thornton desarrollaron algoritmos eficientes para los pasos de predicción y actualización de Kalman en forma factorizada. [46] [47]

La descomposición L · D · L T de la matriz de covarianza de innovación S k es la base para otro tipo de filtro de raíz cuadrada numéricamente eficiente y robusto. [48] El algoritmo comienza con la descomposición LU tal como se implementa en el PAQUETE de Álgebra Lineal ( LAPACK ). Estos resultados se factorizan además en la estructura L · D · L T con métodos dados por Golub y Van Loan (algoritmo 4.1.2) para una matriz no singular simétrica. [49] Cualquier matriz de covarianza singular se pivotea de modo que la primera partición diagonal sea no singular y esté bien condicionada . El algoritmo de pivoteo debe retener cualquier porción de la matriz de covarianza de innovación que corresponda directamente a las variables de estado observadas H k · x k|k-1 que estén asociadas con observaciones auxiliares en y k . El filtro de raíz cuadrada l · d · l t requiere la ortogonalización del vector de observación. [47] [48] Esto se puede hacer con la raíz cuadrada inversa de la matriz de covarianza para las variables auxiliares utilizando el Método 2 en Higham (2002, p. 263). [50]

Forma paralela

El filtro de Kalman es eficiente para el procesamiento secuencial de datos en unidades centrales de procesamiento (CPU), pero en su forma original es ineficiente en arquitecturas paralelas como las unidades de procesamiento gráfico (GPU). Sin embargo, es posible expresar la rutina de actualización del filtro en términos de un operador asociativo utilizando la formulación de Särkkä y García-Fernández (2021). [51] La solución del filtro se puede recuperar mediante el uso de un algoritmo de suma de prefijos que se puede implementar de manera eficiente en la GPU. [52] Esto reduce la complejidad computacional de en el número de pasos de tiempo a .

Relación con la estimación bayesiana recursiva

El filtro de Kalman puede presentarse como una de las redes bayesianas dinámicas más simples . El filtro de Kalman calcula estimaciones de los valores verdaderos de los estados de forma recursiva a lo largo del tiempo utilizando mediciones entrantes y un modelo de proceso matemático. De manera similar, la estimación bayesiana recursiva calcula estimaciones de una función de densidad de probabilidad (PDF) desconocida de forma recursiva a lo largo del tiempo utilizando mediciones entrantes y un modelo de proceso matemático. [53]

En la estimación bayesiana recursiva, se supone que el estado real es un proceso de Markov no observado y las mediciones son los estados observados de un modelo de Markov oculto (HMM).

modelo de markov oculto
modelo de markov oculto

Debido al supuesto de Markov, el estado verdadero es condicionalmente independiente de todos los estados anteriores dado el estado inmediatamente anterior.

De manera similar, la medición en el k -ésimo paso de tiempo depende únicamente del estado actual y es condicionalmente independiente de todos los demás estados dado el estado actual.

Utilizando estos supuestos, la distribución de probabilidad sobre todos los estados del modelo oculto de Markov se puede escribir simplemente como:

Sin embargo, cuando se utiliza un filtro de Kalman para estimar el estado x , la distribución de probabilidad de interés es la asociada con los estados actuales condicionados a las mediciones hasta el intervalo de tiempo actual. Esto se logra marginando los estados anteriores y dividiendo por la probabilidad del conjunto de mediciones.

Esto da como resultado las fases de predicción y actualización del filtro de Kalman escritas de manera probabilística. La distribución de probabilidad asociada con el estado predicho es la suma (integral) de los productos de la distribución de probabilidad asociada con la transición del paso de tiempo ( k  − 1) al k -ésimo y la distribución de probabilidad asociada con el estado anterior, sobre todos los posibles .

La medición establecida hasta el momento t es

La distribución de probabilidad de la actualización es proporcional al producto de la probabilidad de la medición y el estado previsto.

El denominador

es un término de normalización.

Las funciones de densidad de probabilidad restantes son

Se supone de manera inductiva que la PDF en el paso de tiempo anterior es el estado y la covarianza estimados. Esto se justifica porque, como estimador óptimo, el filtro de Kalman hace el mejor uso de las mediciones, por lo tanto, la PDF para las mediciones dadas es la estimación del filtro de Kalman.

Probabilidad marginal

En relación con la interpretación bayesiana recursiva descrita anteriormente, el filtro de Kalman puede verse como un modelo generativo , es decir, un proceso para generar un flujo de observaciones aleatorias z = ( z 0 , z 1 , z 2 , ...). Específicamente, el proceso es

  1. Muestrear un estado oculto de la distribución previa gaussiana .
  2. Tome una muestra de observación del modelo de observación .
  3. Para , hacer
    1. Muestrear el siguiente estado oculto del modelo de transición
    2. Muestra de una observación del modelo de observación

Este proceso tiene una estructura idéntica al modelo oculto de Markov , excepto que el estado discreto y las observaciones se reemplazan con variables continuas muestreadas de distribuciones gaussianas.

En algunas aplicaciones, resulta útil calcular la probabilidad de que un filtro de Kalman con un conjunto determinado de parámetros (distribución previa, modelos de transición y observación, y entradas de control) genere una señal observada particular. Esta probabilidad se conoce como verosimilitud marginal porque integra ("marginaliza") los valores de las variables de estado ocultas, por lo que se puede calcular utilizando solo la señal observada. La verosimilitud marginal puede ser útil para evaluar diferentes opciones de parámetros o para comparar el filtro de Kalman con otros modelos utilizando la comparación de modelos bayesianos .

Es sencillo calcular la probabilidad marginal como un efecto secundario del cálculo del filtrado recursivo. Mediante la regla de la cadena , la probabilidad se puede factorizar como el producto de la probabilidad de cada observación dadas las observaciones anteriores,

,

y debido a que el filtro de Kalman describe un proceso de Markov, toda la información relevante de las observaciones anteriores está contenida en la estimación del estado actual. Por lo tanto, la probabilidad marginal está dada por

es decir, un producto de densidades gaussianas, cada una correspondiente a la densidad de una observación z k bajo la distribución de filtrado actual . Esto se puede calcular fácilmente como una actualización recursiva simple; sin embargo, para evitar el desbordamiento numérico , en una implementación práctica suele ser deseable calcular la verosimilitud marginal en su lugar. Adoptando la convención , esto se puede hacer a través de la regla de actualización recursiva

donde es la dimensión del vector de medición. [54]

Una aplicación importante en la que se utiliza dicha probabilidad (logarítmica) de las observaciones (dados los parámetros del filtro) es el seguimiento de múltiples objetivos. Por ejemplo, considere un escenario de seguimiento de objetos donde un flujo de observaciones es la entrada, sin embargo, se desconoce cuántos objetos hay en la escena (o se conoce la cantidad de objetos pero es mayor que uno). Para un escenario de este tipo, puede ser desconocido a priori qué observaciones/mediciones fueron generadas por qué objeto. Un rastreador de hipótesis múltiples (MHT) generalmente formará diferentes hipótesis de asociación de seguimiento, donde cada hipótesis puede considerarse como un filtro de Kalman (para el caso gaussiano lineal) con un conjunto específico de parámetros asociados con el objeto hipotético. Por lo tanto, es importante calcular la probabilidad de las observaciones para las diferentes hipótesis en consideración, de modo que se pueda encontrar la más probable.

Filtro de información

En los casos en que la dimensión del vector de observación y es mayor que la dimensión del vector de espacio de estados x , el filtro de información puede evitar la inversión de una matriz mayor en el cálculo de la ganancia de Kalman al precio de invertir una matriz menor en el paso de predicción, ahorrando así tiempo de cálculo. En el filtro de información, o filtro de covarianza inversa, la covarianza estimada y el estado estimado se reemplazan por la matriz de información y el vector de información respectivamente. Estos se definen como:

De manera similar, la covarianza y el estado previstos tienen formas de información equivalentes, definidas como:

y la covarianza de medición y el vector de medición, que se definen como:

La actualización de la información se convierte ahora en una suma trivial. [55]

La principal ventaja del filtro de información es que se pueden filtrar N mediciones en cada paso de tiempo simplemente sumando sus matrices y vectores de información.

Para predecir el filtro de información, la matriz y el vector de información se pueden convertir nuevamente a sus equivalentes en el espacio de estados o, alternativamente, se puede utilizar la predicción del espacio de información. [55]

Suavizado con retraso fijo

El suavizador de retardo fijo óptimo proporciona la estimación óptima de para un retardo fijo dado utilizando las mediciones de a . [56] Se puede derivar utilizando la teoría anterior a través de un estado aumentado, y la ecuación principal del filtro es la siguiente:

dónde:

y
donde y son la covarianza del error de predicción y las ganancias del filtro de Kalman estándar (es decir, ).

Si la covarianza del error de estimación se define de modo que

entonces tenemos que la mejora en la estimación de viene dada por:

Suavizadores de intervalo fijo

El suavizador de intervalo fijo óptimo proporciona la estimación óptima de ( ) utilizando las mediciones de un intervalo fijo a . Esto también se denomina "suavizado de Kalman". Hay varios algoritmos de suavizado de uso común.

Rauch–Tung–Striebel

El suavizador Rauch–Tung–Striebel (RTS) es un algoritmo eficiente de dos pasadas para el suavizado de intervalos fijos. [57]

El paso hacia adelante es igual que el algoritmo de filtro de Kalman regular. Estas estimaciones de estado a priori y a posteriori filtradas , y las covarianzas , se guardan para su uso en el paso hacia atrás (para retrodicción ).

En el paso hacia atrás, calculamos las estimaciones de estado suavizadas y las covarianzas . Comenzamos en el último paso de tiempo y avanzamos hacia atrás en el tiempo utilizando las siguientes ecuaciones recursivas:

dónde

es la estimación del estado a posteriori del paso de tiempo y es la estimación del estado a priori del paso de tiempo . La misma notación se aplica a la covarianza.

Suavizador Bryson-Frazier modificado

Una alternativa al algoritmo RTS es el suavizador de intervalo fijo Bryson-Frazier (MBF) modificado desarrollado por Bierman. [47] Este también utiliza un paso hacia atrás que procesa los datos guardados del paso hacia adelante del filtro Kalman. Las ecuaciones para el paso hacia atrás implican el cálculo recursivo de los datos que se utilizan en cada momento de observación para calcular el estado suavizado y la covarianza.

Las ecuaciones recursivas son

donde es la covarianza residual y . El estado suavizado y la covarianza se pueden encontrar mediante sustitución en las ecuaciones

o

Una ventaja importante del MBF es que no requiere encontrar la inversa de la matriz de covarianza.

Suavizado de varianza mínima

El suavizador de mínima varianza puede lograr el mejor rendimiento de error posible, siempre que los modelos sean lineales, sus parámetros y las estadísticas de ruido se conozcan con precisión. [58] Este suavizador es una generalización del espacio de estados que varía en el tiempo del filtro de Wiener no causal óptimo .

Los cálculos más suaves se realizan en dos pasadas. Los cálculos hacia adelante implican un predictor que avanza un paso y se dan por

El sistema anterior se conoce como factor inverso de Wiener-Hopf. La recursión hacia atrás es el adjunto del sistema hacia adelante anterior. El resultado del paso hacia atrás se puede calcular aplicando las ecuaciones hacia adelante sobre el resultado invertido en el tiempo y el invertido en el tiempo. En el caso de la estimación de salida, la estimación suavizada se da por

Tomando la parte causal de este suavizador de varianza mínima se obtiene

que es idéntico al filtro Kalman de varianza mínima. Las soluciones anteriores minimizan la varianza del error de estimación de salida. Nótese que la derivación del suavizador de Rauch–Tung–Striebel supone que las distribuciones subyacentes son gaussianas, mientras que las soluciones de varianza mínima no lo son. Los suavizadores óptimos para la estimación de estado y la estimación de entrada se pueden construir de manera similar.

En [59] [60] se describe una versión de tiempo continuo del suavizador anterior.

Se pueden emplear algoritmos de maximización de expectativas para calcular estimaciones aproximadas de máxima verosimilitud de parámetros desconocidos del espacio de estados dentro de filtros y suavizadores de mínima varianza. A menudo, las incertidumbres permanecen dentro de los supuestos del problema. Se puede diseñar un suavizador que acomode las incertidumbres agregando un término definido positivo a la ecuación de Riccati. [61]

En los casos en que los modelos son no lineales, las linealizaciones escalonadas pueden estar dentro del filtro de varianza mínima y recursiones más suaves ( filtrado de Kalman extendido ).

Filtros Kalman ponderados en frecuencia

En la década de 1930, Fletcher y Munson realizaron una investigación pionera sobre la percepción de sonidos a diferentes frecuencias. Su trabajo condujo a una forma estándar de ponderar los niveles de sonido medidos en las investigaciones sobre el ruido industrial y la pérdida auditiva. Desde entonces, las ponderaciones de frecuencia se han utilizado en diseños de filtros y controladores para gestionar el rendimiento dentro de las bandas de interés.

Por lo general, se utiliza una función de modelado de frecuencia para ponderar la potencia promedio de la densidad espectral de error en una banda de frecuencia específica. Sea , el error de estimación de salida que exhibe un filtro de Kalman convencional. Además, sea , una función de transferencia de ponderación de frecuencia causal. La solución óptima que minimiza la varianza de surge simplemente construyendo .

El diseño de sigue siendo una cuestión abierta. Una forma de proceder es identificar un sistema que genere el error de estimación y la configuración igual a la inversa de ese sistema. [62] Este procedimiento puede iterarse para obtener una mejora del error cuadrático medio a costa de un mayor orden de filtro. La misma técnica se puede aplicar a los suavizadores.

Filtros no lineales

El filtro de Kalman básico se limita a una suposición lineal. Sin embargo, los sistemas más complejos pueden ser no lineales . La no linealidad puede estar asociada con el modelo de proceso o con el modelo de observación o con ambos.

Las variantes más comunes de filtros de Kalman para sistemas no lineales son el filtro de Kalman extendido y el filtro de Kalman sin aroma. La idoneidad de qué filtro utilizar depende de los índices de no linealidad del proceso y del modelo de observación. [63]

Filtro Kalman extendido

En el filtro de Kalman extendido (EKF), los modelos de transición de estado y de observación no necesitan ser funciones lineales del estado, sino que pueden ser funciones no lineales. Estas funciones son de tipo diferenciable .

La función f se puede utilizar para calcular el estado predicho a partir de la estimación anterior y, de manera similar, la función h se puede utilizar para calcular la medida predicha a partir del estado predicho. Sin embargo, f y h no se pueden aplicar a la covarianza directamente. En su lugar, se calcula una matriz de derivadas parciales (la jacobiana ).

En cada paso temporal, el jacobiano se evalúa con los estados predichos actuales. Estas matrices se pueden utilizar en las ecuaciones del filtro de Kalman. Este proceso básicamente linealiza la función no lineal en torno a la estimación actual.

Filtro Kalman sin fragancia

Cuando los modelos de transición de estado y de observación (es decir, las funciones de predicción y actualización ) son altamente no lineales, el filtro de Kalman extendido puede dar un rendimiento particularmente pobre. [64] [65] Esto se debe a que la covarianza se propaga a través de la linealización del modelo no lineal subyacente. El filtro de Kalman sin aroma (UKF)  [64] utiliza una técnica de muestreo determinista conocida como transformación sin aroma (UT) para elegir un conjunto mínimo de puntos de muestra (llamados puntos sigma) alrededor de la media. Los puntos sigma se propagan luego a través de las funciones no lineales, a partir de las cuales se forma una nueva estimación de media y covarianza. El filtro resultante depende de cómo se calculan las estadísticas transformadas de la UT y qué conjunto de puntos sigma se utilizan. Debe notarse que siempre es posible construir nuevos UKF de manera consistente. [66] Para ciertos sistemas, el UKF resultante estima con mayor precisión la media y la covarianza verdaderas. [67] Esto se puede verificar con el muestreo de Monte Carlo o la expansión de la serie de Taylor de las estadísticas posteriores. Además, esta técnica elimina el requisito de calcular explícitamente jacobianos, lo que para funciones complejas puede ser una tarea difícil en sí misma (es decir, requerir derivadas complicadas si se hace analíticamente o ser computacionalmente costoso si se hace numéricamente), si no imposible (si esas funciones no son diferenciables).

Puntos sigma

Para un vector aleatorio , los puntos sigma son cualquier conjunto de vectores

atribuido a

  1. Para todos :
  1. para todos los pares .

Una elección sencilla de puntos sigma y pesos para el algoritmo UKF es

donde es la estimación media de . El vector es la columna j de donde . Normalmente, se obtiene mediante la descomposición de Cholesky de . Con cierto cuidado, las ecuaciones de filtro se pueden expresar de tal manera que se evalúen directamente sin cálculos intermedios de . Esto se conoce como el filtro de Kalman sin aroma de raíz cuadrada . [68]

El peso del valor medio, , puede elegirse arbitrariamente.

Otra parametrización popular (que generaliza lo anterior) es

y controlar la dispersión de los puntos sigma. está relacionada con la distribución de . Nótese que esto es una sobreparametrización en el sentido de que cualquiera de , y puede elegirse arbitrariamente.

Los valores apropiados dependen del problema en cuestión, pero una recomendación típica es , , y . [69] Si la distribución verdadera de es gaussiana, es óptima. [70]

Predecir

Al igual que con el EKF, la predicción del UKF se puede utilizar independientemente de la actualización del UKF, en combinación con una actualización lineal (o de hecho EKF), o viceversa.

Dadas las estimaciones de la media y la covarianza, y , se obtienen los puntos sigma como se describe en la sección anterior. Los puntos sigma se propagan a través de la función de transición f .

.

Los puntos sigma propagados se ponderan para producir la media y la covarianza previstas.

donde son los pesos de primer orden de los puntos sigma originales, y son los pesos de segundo orden. La matriz es la covarianza del ruido de transición, .

Actualizar

Dadas las estimaciones de predicción y , se calcula un nuevo conjunto de puntos sigma con pesos de primer orden y pesos de segundo orden correspondientes. [71] Estos puntos sigma se transforman a través de la función de medición .

.

Luego se calculan la media empírica y la covarianza de los puntos transformados.

donde es la matriz de covarianza del ruido de observación, . Además, también se necesita la matriz de covarianza cruzada

La ganancia de Kalman es

Las estimaciones actualizadas de media y covarianza son

Filtro de Kalman discriminativo

Cuando el modelo de observación es altamente no lineal y/o no gaussiano, puede resultar ventajoso aplicar la regla de Bayes y estimar

donde para funciones no lineales . Esto reemplaza la especificación generativa del filtro Kalman estándar con un modelo discriminativo para los estados latentes dadas las observaciones.

Bajo un modelo de estado estacionario

donde , si

Entonces, dada una nueva observación , se deduce que [72]

dónde

Nótese que esta aproximación debe ser definida positiva; en caso de que no lo sea,

Este enfoque resulta particularmente útil cuando la dimensionalidad de las observaciones es mucho mayor que la de los estados latentes [73] y se puede utilizar para construir filtros que sean particularmente robustos a las no estacionariedades en el modelo de observación. [74]

Filtro Kalman adaptativo

Los filtros Kalman adaptativos permiten adaptarse a dinámicas de procesos que no están modeladas en el modelo de proceso , lo que sucede, por ejemplo, en el contexto de un objetivo en maniobra cuando se emplea un filtro Kalman de velocidad constante (orden reducido) para el seguimiento. [75]

Filtro Kalman-Bucy

El filtrado de Kalman-Bucy (llamado así por Richard Snowden Bucy) es una versión de tiempo continuo del filtrado de Kalman. [76] [77]

Se basa en el modelo de espacio de estados.

donde y representan las intensidades de los dos términos de ruido blanco y , respectivamente.

El filtro consta de dos ecuaciones diferenciales, una para la estimación del estado y otra para la covarianza:

donde la ganancia de Kalman viene dada por

Nótese que en esta expresión la covarianza del ruido de observación representa al mismo tiempo la covarianza del error de predicción (o innovación ) ; estas covarianzas son iguales sólo en el caso de tiempo continuo. [78]

La distinción entre los pasos de predicción y actualización del filtrado de Kalman en tiempo discreto no existe en tiempo continuo.

La segunda ecuación diferencial, para la covarianza, es un ejemplo de ecuación de Riccati . Las generalizaciones no lineales de los filtros de Kalman-Bucy incluyen el filtro de Kalman extendido en el tiempo continuo.

Filtro híbrido Kalman

La mayoría de los sistemas físicos se representan como modelos de tiempo continuo, mientras que las mediciones de tiempo discreto se realizan con frecuencia para la estimación del estado a través de un procesador digital. Por lo tanto, el modelo del sistema y el modelo de medición se dan por

dónde

.

Inicializar

Predecir

Las ecuaciones de predicción se derivan de las del filtro Kalman de tiempo continuo sin actualización a partir de las mediciones, es decir, . El estado predicho y la covarianza se calculan respectivamente resolviendo un conjunto de ecuaciones diferenciales con el valor inicial igual a la estimación en el paso anterior.

Para el caso de sistemas lineales invariantes en el tiempo , la dinámica del tiempo continuo se puede discretizar exactamente en un sistema de tiempo discreto utilizando matrices exponenciales .

Actualizar

Las ecuaciones de actualización son idénticas a las del filtro de Kalman de tiempo discreto.

Variantes para la recuperación de señales dispersas

El filtro Kalman tradicional también se ha empleado para la recuperación de señales dispersas, posiblemente dinámicas, a partir de observaciones ruidosas. Trabajos recientes [79] [80] [81] utilizan nociones de la teoría de detección /muestreo comprimido, como la propiedad de isometría restringida y argumentos de recuperación probabilística relacionados, para estimar secuencialmente el estado disperso en sistemas intrínsecamente de baja dimensión.

Relación con los procesos gaussianos

Dado que los modelos de espacio de estados gaussianos lineales conducen a procesos gaussianos, los filtros de Kalman pueden verse como solucionadores secuenciales para la regresión de procesos gaussianos . [82]

Aplicaciones

Véase también

Referencias

  1. ^ Lacey, Tony. "Tutorial del capítulo 11: El filtro Kalman" (PDF) .
  2. ^ Stratonovich, RL (1959). Sistemas no lineales óptimos que provocan una separación de una señal con parámetros constantes del ruido . Radiofizika, 2:6, págs. 892–901.
  3. ^ Stratonovich, RL (1959). Sobre la teoría del filtrado no lineal óptimo de funciones aleatorias . Teoría de la probabilidad y sus aplicaciones, 4, págs. 223-225.
  4. ^ Stratonovich, RL (1960) Aplicación de la teoría de procesos de Markov al filtrado óptimo . Ingeniería de radio y física electrónica, 5:11, págs. 1–19.
  5. ^ Stratonovich, RL (1960). Procesos condicionales de Markov . Teoría de la probabilidad y sus aplicaciones, 5, págs. 156-178.
  6. ^ Stepanov, OA (15 de mayo de 2011). "Filtro de Kalman: pasado y presente. Una perspectiva desde Rusia. (Con motivo del 80º cumpleaños de Rudolf Emil Kalman)". Giroscopia y navegación . 2 (2): 105. doi :10.1134/S2075108711020076. S2CID  53120402.
  7. ^ Fauzi, Hilman; Batool, Uzma (15 July 2019). "A Three-bar Truss Design using Single-solution Simulated Kalman Filter Optimizer". Mekatronika. 1 (2): 98–102. doi:10.15282/mekatronika.v1i2.4991. S2CID 222355496.
  8. ^ Paul Zarchan; Howard Musoff (2000). Fundamentals of Kalman Filtering: A Practical Approach. American Institute of Aeronautics and Astronautics, Incorporated. ISBN 978-1-56347-455-2.
  9. ^ Lora-Millan, Julio S.; Hidalgo, Andres F.; Rocon, Eduardo (2021). "An IMUs-Based Extended Kalman Filter to Estimate Gait Lower Limb Sagittal Kinematics for the Control of Wearable Robotic Devices". IEEE Access. 9: 144540–144554. Bibcode:2021IEEEA...9n4540L. doi:10.1109/ACCESS.2021.3122160. hdl:10261/254265. ISSN 2169-3536. S2CID 239938971.
  10. ^ Kalita, Diana; Lyakhov, Pavel (December 2022). "Moving Object Detection Based on a Combination of Kalman Filter and Median Filtering". Big Data and Cognitive Computing. 6 (4): 142. doi:10.3390/bdcc6040142. ISSN 2504-2289.
  11. ^ Ghysels, Eric; Marcellino, Massimiliano (2018). Applied Economic Forecasting using Time Series Methods. New York, NY: Oxford University Press. p. 419. ISBN 978-0-19-062201-5. OCLC 1010658777.
  12. ^ Azzam, M. Abdullah; Batool, Uzma; Fauzi, Hilman (15 July 2019). "Design of an Helical Spring using Single-solution Simulated Kalman Filter Optimizer". Mekatronika. 1 (2): 93–97. doi:10.15282/mekatronika.v1i2.4990. S2CID 221855079.
  13. ^ Wolpert, Daniel; Ghahramani, Zoubin (2000). "Computational principles of movement neuroscience". Nature Neuroscience. 3: 1212–7. doi:10.1038/81497. PMID 11127840. S2CID 736756.
  14. ^ Kalman, R. E. (1960). "A New Approach to Linear Filtering and Prediction Problems". Journal of Basic Engineering. 82: 35–45. doi:10.1115/1.3662552. S2CID 1242324.
  15. ^ Humpherys, Jeffrey (2012). "A Fresh Look at the Kalman Filter". SIAM Review. 54 (4): 801–823. doi:10.1137/100799666.
  16. ^ Uhlmann, Jeffrey; Julier, Simon (2022). "Gaussianity and the Kalman Filter: A Simple Yet Complicated Relationship" (PDF). Journal de Ciencia e Ingeniería. 14 (1): 21–26. doi:10.46571/JCI.2022.1.2. S2CID 251143915. See Uhlmann and Julier for roughly a dozen instances of this misconception in the literature.
  17. ^ Li, Wangyan; Wang, Zidong; Wei, Guoliang; Ma, Lifeng; Hu, Jun; Ding, Derui (2015). "A Survey on Multisensor Fusion and Consensus Filtering for Sensor Networks". Discrete Dynamics in Nature and Society. 2015: 1–12. doi:10.1155/2015/683701. ISSN 1026-0226.
  18. ^ Li, Wangyan; Wang, Zidong; Ho, Daniel W. C.; Wei, Guoliang (2019). "On Boundedness of Error Covariances for Kalman Consensus Filtering Problems". IEEE Transactions on Automatic Control. 65 (6): 2654–2661. doi:10.1109/TAC.2019.2942826. ISSN 0018-9286. S2CID 204196474.
  19. ^ Lauritzen, S. L. (December 1981). "Time series analysis in 1880. A discussion of contributions made by T.N. Thiele". International Statistical Review. 49 (3): 319–331. doi:10.2307/1402616. JSTOR 1402616. He derives a recursive procedure for estimating the regression component and predicting the Brownian motion. The procedure is now known as Kalman filtering.
  20. ^ Lauritzen, S. L. (2002). Thiele: Pioneer in Statistics. New York: Oxford University Press. p. 41. ISBN 978-0-19-850972-1. He solves the problem of estimating the regression coefficients and predicting the values of the Brownian motion by the method of least squares and gives an elegant recursive procedure for carrying out the calculations. The procedure is nowadays known as Kalman filtering.
  21. ^ Grewal, Mohinder S.; Andrews, Angus P. (2015). "1". Kalman filtering: theory and practice using MATLAB (4th ed.). Hoboken, New Jersey: Wiley. pp. 16–18. ISBN 978-1-118-98498-7.
  22. ^ "Mohinder S. Grewal and Angus P. Andrews" (PDF). Archived from the original (PDF) on 2016-03-07. Retrieved 2015-04-23.
  23. ^ Jerrold H. Suddath; Robert H. Kidd; Arnold G. Reinhold (August 1967). A Linearized Error Analysis Of Onboard Primary Navigation Systems For The Apollo Lunar Module, NASA TN D-4027 (PDF). National Aeronautics and Space Administration. {{cite book}}: |work= ignored (help)
  24. ^ Gaylor, David; Lightsey, E. Glenn (2003). "GPS/INS Kalman Filter Design for Spacecraft Operating in the Proximity of International Space Station". AIAA Guidance, Navigation, and Control Conference and Exhibit. doi:10.2514/6.2003-5445. ISBN 978-1-62410-090-1.
  25. ^ Ingvar Strid; Karl Walentin (April 2009). "Block Kalman Filtering for Large-Scale DSGE Models". Computational Economics. 33 (3): 277–304. CiteSeerX 10.1.1.232.3790. doi:10.1007/s10614-008-9160-4. hdl:10419/81929. S2CID 3042206.
  26. ^ Martin Møller Andreasen (2008). "Non-linear DSGE Models, The Central Difference Kalman Filter, and The Mean Shifted Particle Filter".
  27. ^ Roweis, S; Ghahramani, Z (1999). "A unifying review of linear gaussian models" (PDF). Neural Computation. 11 (2): 305–45. doi:10.1162/089976699300016674. PMID 9950734. S2CID 2590898.
  28. ^ Hamilton, J. (1994), Time Series Analysis, Princeton University Press. Chapter 13, 'The Kalman Filter'
  29. ^ Ishihara, J.Y.; Terra, M.H.; Campos, J.C.T. (2006). "Robust Kalman Filter for Descriptor Systems". IEEE Transactions on Automatic Control. 51 (8): 1354. doi:10.1109/TAC.2006.878741. S2CID 12741796.
  30. ^ Terra, Marco H.; Cerri, Joao P.; Ishihara, Joao Y. (2014). "Optimal Robust Linear Quadratic Regulator for Systems Subject to Uncertainties". IEEE Transactions on Automatic Control. 59 (9): 2586–2591. doi:10.1109/TAC.2014.2309282. S2CID 8810105.
  31. ^ Kelly, Alonzo (1994). "A 3D state space formulation of a navigation Kalman filter for autonomous vehicles" (PDF). DTIC Document: 13. Archived (PDF) from the original on December 30, 2014. 2006 Corrected Version Archived 2017-01-10 at the Wayback Machine
  32. ^ Reid, Ian; Term, Hilary. "Estimation II" (PDF). www.robots.ox.ac.uk. Oxford University. Retrieved 6 August 2014.
  33. ^ Rajamani, Murali (October 2007). Data-based Techniques to Improve State Estimation in Model Predictive Control (PDF) (PhD Thesis). University of Wisconsin–Madison. Archived from the original (PDF) on 2016-03-04. Retrieved 2011-04-04.
  34. ^ Rajamani, Murali R.; Rawlings, James B. (2009). "Estimation of the disturbance structure from data using semidefinite programming and optimal weighting". Automatica. 45 (1): 142–148. doi:10.1016/j.automatica.2008.05.032. S2CID 5699674.
  35. ^ "Autocovariance Least-Squares Toolbox". Jbrwww.che.wisc.edu. Retrieved 2021-08-18.
  36. ^ Bania, P.; Baranowski, J. (12 December 2016). Field Kalman Filter and its approximation. IEEE 55th Conference on Decision and Control (CDC). Las Vegas, NV, USA: IEEE. pp. 2875–2880.
  37. ^ a b Greenberg, Ido; Yannay, Netanel; Mannor, Shie (2023-12-15). "Optimization or Architecture: How to Hack Kalman Filtering". Advances in Neural Information Processing Systems. 36: 50482–50505. arXiv:2310.00675.
  38. ^ Bar-Shalom, Yaakov; Li, X.-Rong; Kirubarajan, Thiagalingam (2001). Estimation with Applications to Tracking and Navigation. New York, USA: John Wiley & Sons, Inc. pp. 319 ff. doi:10.1002/0471221279. ISBN 0-471-41655-X.
  39. ^ Three optimality tests with numerical examples are described in Peter, Matisko (2012). "Optimality Tests and Adaptive Kalman Filter". 16th IFAC Symposium on System Identification. Vol. 45. pp. 1523–1528. doi:10.3182/20120711-3-BE-2027.00011. ISBN 978-3-902823-06-9. {{cite book}}: |journal= ignored (help)
  40. ^ Spall, James C. (1995). "The Kantorovich inequality for error analysis of the Kalman filter with unknown noise distributions". Automatica. 31 (10): 1513–1517. doi:10.1016/0005-1098(95)00069-9.
  41. ^ Maryak, J.L.; Spall, J.C.; Heydon, B.D. (2004). "Use of the Kalman Filter for Inference in State-Space Models with Unknown Noise Distributions". IEEE Transactions on Automatic Control. 49: 87–90. doi:10.1109/TAC.2003.821415. S2CID 21143516.
  42. ^ a b Walrand, Jean; Dimakis, Antonis (August 2006). Random processes in Systems -- Lecture Notes (PDF). pp. 69–70. Archived from the original (PDF) on 2019-05-07. Retrieved 2019-05-07.
  43. ^ Sant, Donald T. "Generalized least squares applied to time varying parameter models." Annals of Economic and Social Measurement, Volume 6, number 3. NBER, 1977. 301-314. Online Pdf
  44. ^ Anderson, Brian D. O.; Moore, John B. (1979). Optimal Filtering. New York: Prentice Hall. pp. 129–133. ISBN 978-0-13-638122-8.
  45. ^ Jingyang Lu. "False information injection attack on dynamic state estimation in multi-sensor systems", Fusion 2014
  46. ^ a b Thornton, Catherine L. (15 October 1976). Triangular Covariance Factorizations for Kalman Filtering (PhD). NASA. NASA Technical Memorandum 33-798.
  47. ^ a b c Bierman, G.J. (1977). "Factorization Methods for Discrete Sequential Estimation". Factorization Methods for Discrete Sequential Estimation. Bibcode:1977fmds.book.....B.
  48. ^ a b Bar-Shalom, Yaakov; Li, X. Rong; Kirubarajan, Thiagalingam (July 2001). Estimation with Applications to Tracking and Navigation. New York: John Wiley & Sons. pp. 308–317. ISBN 978-0-471-41655-5.
  49. ^ Golub, Gene H.; Van Loan, Charles F. (1996). Matrix Computations. Johns Hopkins Studies in the Mathematical Sciences (Third ed.). Baltimore, Maryland: Johns Hopkins University. p. 139. ISBN 978-0-8018-5414-9.
  50. ^ Higham, Nicholas J. (2002). Accuracy and Stability of Numerical Algorithms (Second ed.). Philadelphia, PA: Society for Industrial and Applied Mathematics. p. 680. ISBN 978-0-89871-521-7.
  51. ^ Särkkä, S.; Ángel F. García-Fernández (2021). "Temporal Parallelization of Bayesian Smoothers". IEEE Transactions on Automatic Control. 66 (1): 299–306. arXiv:1905.13002. doi:10.1109/TAC.2020.2976316. S2CID 213695560.
  52. ^ "Parallel Prefix Sum (Scan) with CUDA". developer.nvidia.com/. Retrieved 2020-02-21. The scan operation is a simple and powerful parallel primitive with a broad range of applications. In this chapter we have explained an efficient implementation of scan using CUDA, which achieves a significant speedup compared to a sequential implementation on a fast CPU, and compared to a parallel implementation in OpenGL on the same GPU. Due to the increasing power of commodity parallel processors such as GPUs, we expect to see data-parallel algorithms such as scan to increase in importance over the coming years.
  53. ^ Masreliez, C. Johan; Martin, R D (1977). "Robust Bayesian estimation for the linear model and robustifying the Kalman filter". IEEE Transactions on Automatic Control. 22 (3): 361–371. doi:10.1109/TAC.1977.1101538.
  54. ^ Lütkepohl, Helmut (1991). Introduction to Multiple Time Series Analysis. Heidelberg: Springer-Verlag Berlin. p. 435.
  55. ^ a b Gabriel T. Terejanu (2012-08-04). "Discrete Kalman Filter Tutorial" (PDF). Archived from the original (PDF) on 2020-08-17. Retrieved 2016-04-13.
  56. ^ Anderson, Brian D. O.; Moore, John B. (1979). Optimal Filtering. Englewood Cliffs, NJ: Prentice Hall, Inc. pp. 176–190. ISBN 978-0-13-638122-8.
  57. ^ Rauch, H.E.; Tung, F.; Striebel, C. T. (August 1965). "Maximum likelihood estimates of linear dynamic systems". AIAA Journal. 3 (8): 1445–1450. Bibcode:1965AIAAJ...3.1445R. doi:10.2514/3.3166.
  58. ^ Einicke, G.A. (March 2006). "Optimal and Robust Noncausal Filter Formulations". IEEE Transactions on Signal Processing. 54 (3): 1069–1077. Bibcode:2006ITSP...54.1069E. doi:10.1109/TSP.2005.863042. S2CID 15376718.
  59. ^ Einicke, G.A. (April 2007). "Asymptotic Optimality of the Minimum-Variance Fixed-Interval Smoother". IEEE Transactions on Signal Processing. 55 (4): 1543–1547. Bibcode:2007ITSP...55.1543E. doi:10.1109/TSP.2006.889402. S2CID 16218530.
  60. ^ Einicke, G.A.; Ralston, J.C.; Hargrave, C.O.; Reid, D.C.; Hainsworth, D.W. (December 2008). "Longwall Mining Automation. An Application of Minimum-Variance Smoothing". IEEE Control Systems Magazine. 28 (6): 28–37. doi:10.1109/MCS.2008.929281. S2CID 36072082.
  61. ^ Einicke, G.A. (December 2009). "Asymptotic Optimality of the Minimum-Variance Fixed-Interval Smoother". IEEE Transactions on Automatic Control. 54 (12): 2904–2908. Bibcode:2007ITSP...55.1543E. doi:10.1109/TSP.2006.889402. S2CID 16218530.
  62. ^ Einicke, G.A. (December 2014). "Iterative Frequency-Weighted Filtering and Smoothing Procedures". IEEE Signal Processing Letters. 21 (12): 1467–1470. Bibcode:2014ISPL...21.1467E. doi:10.1109/LSP.2014.2341641. S2CID 13569109.
  63. ^ Biswas, Sanat K.; Qiao, Li; Dempster, Andrew G. (2020-12-01). "A quantified approach of predicting suitability of using the Unscented Kalman Filter in a non-linear application". Automatica. 122: 109241. doi:10.1016/j.automatica.2020.109241. ISSN 0005-1098. S2CID 225028760.
  64. ^ a b Julier, Simon J.; Uhlmann, Jeffrey K. (2004). "Unscented filtering and nonlinear estimation". Proceedings of the IEEE. 92 (3): 401–422. doi:10.1109/JPROC.2003.823141. S2CID 9614092.
  65. ^ Julier, Simon J.; Uhlmann, Jeffrey K. (1997). "New extension of the Kalman filter to nonlinear systems" (PDF). In Kadar, Ivan (ed.). Signal Processing, Sensor Fusion, and Target Recognition VI. Proceedings of SPIE. Vol. 3. pp. 182–193. Bibcode:1997SPIE.3068..182J. CiteSeerX 10.1.1.5.2891. doi:10.1117/12.280797. S2CID 7937456. Retrieved 2008-05-03.
  66. ^ Menegaz, H. M. T.; Ishihara, J. Y.; Borges, G. A.; Vargas, A. N. (October 2015). "A Systematization of the Unscented Kalman Filter Theory". IEEE Transactions on Automatic Control. 60 (10): 2583–2598. doi:10.1109/tac.2015.2404511. hdl:20.500.11824/251. ISSN 0018-9286. S2CID 12606055.
  67. ^ Gustafsson, Fredrik; Hendeby, Gustaf (2012). "Some Relations Between Extended and Unscented Kalman Filters". IEEE Transactions on Signal Processing. 60 (2): 545–555. Bibcode:2012ITSP...60..545G. doi:10.1109/tsp.2011.2172431. S2CID 17876531.
  68. ^ Van der Merwe, R.; Wan, E.A. (2001). "The square-root unscented Kalman filter for state and parameter-estimation". 2001 IEEE International Conference on Acoustics, Speech, and Signal Processing. Proceedings (Cat. No.01CH37221). Vol. 6. pp. 3461–3464. doi:10.1109/ICASSP.2001.940586. ISBN 0-7803-7041-4. S2CID 7290857.
  69. ^ Bitzer, S. (2016). "The UKF exposed: How it works, when it works and when it's better to sample". doi:10.5281/zenodo.44386. {{cite journal}}: Cite journal requires |journal= (help)
  70. ^ Wan, E.A.; Van Der Merwe, R. (2000). "The unscented Kalman filter for nonlinear estimation" (PDF). Proceedings of the IEEE 2000 Adaptive Systems for Signal Processing, Communications, and Control Symposium (Cat. No.00EX373). p. 153. CiteSeerX 10.1.1.361.9373. doi:10.1109/ASSPCC.2000.882463. ISBN 978-0-7803-5800-3. S2CID 13992571. Archived from the original (PDF) on 2012-03-03. Retrieved 2010-01-31.
  71. ^ Sarkka, Simo (September 2007). "On Unscented Kalman Filtering for State Estimation of Continuous-Time Nonlinear Systems". IEEE Transactions on Automatic Control. 52 (9): 1631–1641. doi:10.1109/TAC.2007.904453.
  72. ^ a b Burkhart, Michael C.; Brandman, David M.; Franco, Brian; Hochberg, Leigh; Harrison, Matthew T. (2020). "The Discriminative Kalman Filter for Bayesian Filtering with Nonlinear and Nongaussian Observation Models". Neural Computation. 32 (5): 969–1017. doi:10.1162/neco_a_01275. PMC 8259355. PMID 32187000. S2CID 212748230. Retrieved 26 March 2021.
  73. ^ a b Burkhart, Michael C. (2019). A Discriminative Approach to Bayesian Filtering with Applications to Human Neural Decoding (Thesis). Providence, RI, USA: Brown University. doi:10.26300/nhfp-xv22.
  74. ^ a b Brandman, David M.; Burkhart, Michael C.; Kelemen, Jessica; Franco, Brian; Harrison, Matthew T.; Hochberg, Leigh R. (2018). "Robust Closed-Loop Control of a Cursor in a Person with Tetraplegia using Gaussian Process Regression". Neural Computation. 30 (11): 2986–3008. doi:10.1162/neco_a_01129. PMC 6685768. PMID 30216140. Retrieved 26 March 2021.
  75. ^ Bar-Shalom, Yaakov; Li, X.-Rong; Kirubarajan, Thiagalingam (2001). Estimation with Applications to Tracking and Navigation. New York, USA: John Wiley & Sons, Inc. pp. 421 ff. doi:10.1002/0471221279. ISBN 0-471-41655-X.
  76. ^ Bucy, R.S. and Joseph, P.D., Filtering for Stochastic Processes with Applications to Guidance, John Wiley & Sons, 1968; 2nd Edition, AMS Chelsea Publ., 2005. ISBN 0-8218-3782-6
  77. ^ Jazwinski, Andrew H., Stochastic processes and filtering theory, Academic Press, New York, 1970. ISBN 0-12-381550-9
  78. ^ Kailath, T. (1968). "An innovations approach to least-squares estimation--Part I: Linear filtering in additive white noise". IEEE Transactions on Automatic Control. 13 (6): 646–655. doi:10.1109/TAC.1968.1099025.
  79. ^ Vaswani, Namrata (2008). "Kalman filtered Compressed Sensing". 2008 15th IEEE International Conference on Image Processing. pp. 893–896. arXiv:0804.0819. doi:10.1109/ICIP.2008.4711899. ISBN 978-1-4244-1765-0. S2CID 9282476.
  80. ^ Carmi, Avishy; Gurfil, Pini; Kanevsky, Dimitri (2010). "Methods for sparse signal recovery using Kalman filtering with embedded pseudo-measurement norms and quasi-norms". IEEE Transactions on Signal Processing. 58 (4): 2405–2409. Bibcode:2010ITSP...58.2405C. doi:10.1109/TSP.2009.2038959. S2CID 10569233.
  81. ^ Zachariah, Dave; Chatterjee, Saikat; Jansson, Magnus (2012). "Dynamic Iterative Pursuit". IEEE Transactions on Signal Processing. 60 (9): 4967–4972. arXiv:1206.2496. Bibcode:2012ITSP...60.4967Z. doi:10.1109/TSP.2012.2203813. S2CID 18467024.
  82. ^ Särkkä, Simo; Hartikainen, Jouni; Svensson, Lennart; Sandblom, Fredrik (2015-04-22). "On the relation between Gaussian process quadratures and sigma-point methods". arXiv:1504.05994 [stat.ME].
  83. ^ Vasebi, Amir; Partovibakhsh, Maral; Bathaee, S. Mohammad Taghi (2007). "A novel combined battery model for state-of-charge estimation in lead-acid batteries based on extended Kalman filter for hybrid electric vehicle applications". Journal of Power Sources. 174 (1): 30–40. Bibcode:2007JPS...174...30V. doi:10.1016/j.jpowsour.2007.04.011.
  84. ^ Vasebi, A.; Bathaee, S.M.T.; Partovibakhsh, M. (2008). "Predicting state of charge of lead-acid batteries for hybrid electric vehicles by extended Kalman filter". Energy Conversion and Management. 49 (1): 75–82. Bibcode:2008ECM....49...75V. doi:10.1016/j.enconman.2007.05.017.
  85. ^ Fruhwirth, R. (1987). "Application of Kalman filtering to track and vertex fitting". Nuclear Instruments and Methods in Physics Research Section A. 262 (2–3): 444–450. Bibcode:1987NIMPA.262..444F. doi:10.1016/0168-9002(87)90887-4.
  86. ^ Harvey, Andrew C. (1994). "Applications of the Kalman filter in econometrics". In Bewley, Truman (ed.). Advances in Econometrics. New York: Cambridge University Press. pp. 285f. ISBN 978-0-521-46726-1.
  87. ^ Boulfelfel, D.; Rangayyan, R.M.; Hahn, L.J.; Kloiber, R.; Kuduvalli, G.R. (1994). "Two-dimensional restoration of single photon emission computed tomography images using the Kalman filter". IEEE Transactions on Medical Imaging. 13 (1): 102–109. doi:10.1109/42.276148. PMID 18218487.
  88. ^ Bock, Y.; Crowell, B.; Webb, F.; Kedar, S.; Clayton, R.; Miyahara, B. (2008). "Fusion of High-Rate GPS and Seismic Data: Applications to Early Warning Systems for Mitigation of Geological Hazards". AGU Fall Meeting Abstracts. 43: G43B–01. Bibcode:2008AGUFM.G43B..01B.
  89. ^ Wolpert, D. M.; Miall, R. C. (1996). "Forward Models for Physiological Motor Control". Neural Networks. 9 (8): 1265–1279. doi:10.1016/S0893-6080(96)00035-4. PMID 12662535.

Further reading

External links