Algoritmo que estima incógnitas a partir de una serie de mediciones a lo largo del tiempo
En estadística y teoría de control , el filtrado de Kalman (también conocido como estimación cuadrática lineal ) es un algoritmo que utiliza una serie de mediciones observadas a lo largo del tiempo, incluido el ruido estadístico y otras imprecisiones, para producir estimaciones de variables desconocidas que tienden a ser más precisas que las basadas en una sola medición, al estimar una distribución de probabilidad conjunta sobre las variables para cada paso de tiempo. El filtro se construye como un minimizador de error cuadrático medio, pero también se proporciona una derivación alternativa del filtro que muestra cómo se relaciona el filtro con las estadísticas de máxima verosimilitud. [1] El filtro recibe su nombre de Rudolf E. Kálmán .
El algoritmo funciona mediante un proceso de dos fases: una fase de predicción y una fase de actualización. En la fase de predicción, el filtro de Kalman produce estimaciones de las variables de estado actuales , incluidas sus incertidumbres. Una vez que se observa el resultado de la siguiente medición (necesariamente corrompido por algún error, incluido el ruido aleatorio), estas estimaciones se actualizan utilizando un promedio ponderado , y se otorga más peso a las estimaciones con mayor certeza. El algoritmo es recursivo . Puede operar en tiempo real , utilizando solo las mediciones de entrada actuales y el estado calculado previamente y su matriz de incertidumbre; no se requiere información pasada adicional.
La optimalidad del filtrado de Kalman supone que los errores tienen una distribución normal (gaussiana) . En palabras de Rudolf E. Kálmán : "Se hacen las siguientes suposiciones sobre los procesos aleatorios: los fenómenos aleatorios físicos pueden considerarse debidos a fuentes aleatorias primarias que excitan sistemas dinámicos. Se supone que las fuentes primarias son procesos aleatorios gaussianos independientes con media cero; los sistemas dinámicos serán lineales". [9] Sin embargo, independientemente de la gaussianidad, si se conocen las covarianzas de proceso y medición, entonces el filtro de Kalman es el mejor estimador lineal posible en el sentido de error cuadrático medio mínimo , [10] aunque puede haber mejores estimadores no lineales. Es un error común (perpetuado en la literatura) que el filtro de Kalman no se puede aplicar rigurosamente a menos que se suponga que todos los procesos de ruido son gaussianos. [11]
El método de filtrado recibe su nombre del emigrado húngaro Rudolf E. Kálmán , aunque Thorvald Nicolai Thiele [14] [15] y Peter Swerling desarrollaron un algoritmo similar anteriormente. Richard S. Bucy del Laboratorio de Física Aplicada de Johns Hopkins contribuyó a la teoría, lo que provocó que a veces se la conociera como filtrado de Kalman-Bucy. Kalman se inspiró para derivar el filtro de Kalman aplicando variables de estado al problema de filtrado de Wiener . [16] A Stanley F. Schmidt se le atribuye generalmente el desarrollo de la primera implementación de un filtro de Kalman. Se dio cuenta de que el filtro podía dividirse en dos partes distintas, con una parte para los períodos de tiempo entre las salidas de los sensores y otra parte para incorporar mediciones. [17] Fue durante una visita de Kálmán al Centro de Investigación Ames de la NASA que Schmidt vio la aplicabilidad de las ideas de Kálmán al problema no lineal de estimación de trayectoria para el programa Apolo, lo que resultó en su incorporación en la computadora de navegación Apolo . [18] : 16
Este filtro digital a veces se denomina filtro Stratonovich-Kalman-Bucy porque es un caso especial de un filtro no lineal más general desarrollado por el matemático soviético Ruslan Stratonovich . [19] [20] [21] [22] De hecho, algunas de las ecuaciones del filtro lineal de caso especial aparecieron en artículos de Stratonovich que se publicaron antes del verano de 1961, cuando Kalman se reunió con Stratonovich durante una conferencia en Moscú. [23]
Este filtrado de Kalman fue descrito por primera vez y desarrollado parcialmente en artículos técnicos por Swerling (1958), Kalman (1960) y Kalman y Bucy (1961).
El ordenador Apollo utilizaba 2k de memoria RAM de núcleo magnético y 36k de cable [...]. La CPU estaba construida a partir de circuitos integrados [...]. La velocidad de reloj era inferior a 100 kHz [...]. El hecho de que los ingenieros del MIT fueran capaces de incluir un software tan bueno (una de las primeras aplicaciones del filtro Kalman) en un ordenador tan pequeño es realmente notable.
— Entrevista con Jack Crenshaw, por Matthew Reed, TRS-80.org (2009) [1]
El filtrado de Kalman utiliza el modelo dinámico de un sistema (por ejemplo, las leyes físicas del movimiento), las entradas de control conocidas de ese sistema y múltiples mediciones secuenciales (por ejemplo, las de los sensores) para formar una estimación de las cantidades variables del sistema (su estado ) que sea mejor que la estimación obtenida utilizando solo una medición. Como tal, es un algoritmo común de fusión de sensores y datos .
Los datos ruidosos de los sensores, las aproximaciones en las ecuaciones que describen la evolución del sistema y los factores externos que no se tienen en cuenta limitan la posibilidad de determinar el estado del sistema. El filtro de Kalman se ocupa de manera eficaz de la incertidumbre debida a los datos ruidosos de los sensores y, en cierta medida, de los factores externos aleatorios. El filtro de Kalman produce una estimación del estado del sistema como un promedio del estado predicho del sistema y de la nueva medición utilizando un promedio ponderado . El propósito de los pesos es que los valores con una incertidumbre estimada mejor (es decir, menor) sean más "confiables". Los pesos se calculan a partir de la covarianza , una medida de la incertidumbre estimada de la predicción del estado del sistema. El resultado del promedio ponderado es una nueva estimación del estado que se encuentra entre el estado predicho y el medido, y tiene una incertidumbre estimada mejor que cualquiera de los dos por separado. Este proceso se repite en cada paso de tiempo, y la nueva estimación y su covarianza informan la predicción utilizada en la siguiente iteración. Esto significa que el filtro de Kalman funciona de forma recursiva y requiere sólo la última "mejor estimación", en lugar de todo el historial del estado de un sistema para calcular un nuevo estado.
La clasificación de certeza de las mediciones y la estimación del estado actual son consideraciones importantes. Es común analizar la respuesta del filtro en términos de la ganancia del filtro Kalman . La ganancia de Kalman es el peso que se le da a las mediciones y la estimación del estado actual, y se puede "ajustar" para lograr un rendimiento particular. Con una ganancia alta, el filtro otorga más peso a las mediciones más recientes y, por lo tanto, se ajusta a ellas de manera más sensible. Con una ganancia baja, el filtro se ajusta más a las predicciones del modelo. En los extremos, una ganancia alta (cercana a uno) dará como resultado una trayectoria estimada más irregular, mientras que una ganancia baja (cercana a cero) suavizará el ruido pero disminuirá la capacidad de respuesta.
Al realizar los cálculos reales para el filtro (como se explica a continuación), la estimación del estado y las covarianzas se codifican en matrices debido a las múltiples dimensiones involucradas en un único conjunto de cálculos. Esto permite una representación de relaciones lineales entre diferentes variables de estado (como posición, velocidad y aceleración) en cualquiera de los modelos de transición o covarianzas.
Ejemplo de aplicación
Como ejemplo de aplicación, considere el problema de determinar la ubicación precisa de un camión. El camión puede estar equipado con una unidad GPS que proporciona una estimación de la posición con una precisión de unos pocos metros. Es probable que la estimación del GPS sea ruidosa; las lecturas "saltan" rápidamente, aunque permanecen a unos pocos metros de la posición real. Además, dado que se espera que el camión siga las leyes de la física, su posición también se puede estimar integrando su velocidad a lo largo del tiempo, determinada mediante el seguimiento de las revoluciones de las ruedas y el ángulo del volante. Esta es una técnica conocida como estimación de la posición del camión . Por lo general, la estimación de la posición del camión proporcionará una estimación muy precisa, pero se desviará con el tiempo a medida que se acumulen pequeños errores.
En este ejemplo, se puede pensar que el filtro Kalman funciona en dos fases distintas: predicción y actualización. En la fase de predicción, la posición anterior del camión se modificará de acuerdo con las leyes físicas del movimiento (el modelo dinámico o de "transición de estado"). No solo se calculará una nueva estimación de la posición, sino que también se calculará una nueva covarianza. Tal vez la covarianza sea proporcional a la velocidad del camión porque tenemos más incertidumbre sobre la precisión de la estimación de la posición de estima a altas velocidades, pero estamos muy seguros de la estimación de la posición a bajas velocidades. A continuación, en la fase de actualización, se toma una medición de la posición del camión desde la unidad GPS. Junto con esta medición viene una cierta cantidad de incertidumbre, y su covarianza relativa a la de la predicción de la fase anterior determina cuánto afectará la nueva medición a la predicción actualizada. Idealmente, como las estimaciones de estima tienden a alejarse de la posición real, la medición GPS debería acercar la estimación de la posición a la posición real, pero no alterarla hasta el punto de volverse ruidosa y saltar rápidamente.
En la mayoría de las aplicaciones, el estado interno es mucho mayor (tiene más grados de libertad ) que los pocos parámetros "observables" que se miden. Sin embargo, al combinar una serie de mediciones, el filtro de Kalman puede estimar el estado interno completo.
En la teoría de Dempster-Shafer , cada ecuación de estado u observación se considera un caso especial de una función de creencia lineal y el filtrado de Kalman es un caso especial de combinación de funciones de creencia lineales en un árbol de unión o árbol de Markov . Otros métodos incluyen el filtrado de creencias que utiliza actualizaciones bayesianas o evidenciales de las ecuaciones de estado.
En la actualidad existe una amplia variedad de filtros de Kalman: la formulación original de Kalman (ahora denominada filtro de Kalman "simple"), el filtro de Kalman-Bucy , el filtro "extendido" de Schmidt, el filtro de información y una variedad de filtros de "raíz cuadrada" desarrollados por Bierman, Thornton y muchos otros. Quizás el tipo de filtro de Kalman muy simple más comúnmente utilizado es el bucle de enganche de fase , que ahora es omnipresente en radios, especialmente radios de modulación de frecuencia (FM), televisores, receptores de comunicaciones por satélite , sistemas de comunicaciones del espacio exterior y casi cualquier otro equipo de comunicaciones electrónicas .
Modelo de sistema dinámico subyacente
El filtrado de Kalman se basa en sistemas dinámicos lineales discretizados en el dominio del tiempo. Se modelan en una cadena de Markov construida sobre operadores lineales perturbados por errores que pueden incluir ruido gaussiano . El estado del sistema de destino se refiere a la configuración del sistema de interés de verdad fundamental (aunque oculta), que se representa como un vector de números reales . En cada incremento de tiempo discreto , se aplica un operador lineal al estado para generar el nuevo estado, con algo de ruido mezclado y, opcionalmente, algo de información de los controles del sistema si se conocen. Luego, otro operador lineal mezclado con más ruido genera las salidas mensurables (es decir, la observación) del estado verdadero ("oculto"). El filtro de Kalman puede considerarse análogo al modelo oculto de Markov, con la diferencia de que las variables de estado ocultas tienen valores en un espacio continuo en lugar de un espacio de estado discreto como en el caso del modelo oculto de Markov. Existe una fuerte analogía entre las ecuaciones de un filtro de Kalman y las del modelo oculto de Markov. En Roweis y Ghahramani (1999) [27] y Hamilton (1994), Capítulo 13, se ofrece una revisión de este y otros modelos. [28]
Para utilizar el filtro de Kalman para estimar el estado interno de un proceso dada únicamente una secuencia de observaciones ruidosas, se debe modelar el proceso de acuerdo con el siguiente marco. Esto implica especificar las matrices, para cada paso de tiempo k , siguientes:
En el instante k se realiza una observación (o medición) z k del estado verdadero x k de acuerdo con
dónde
H k es el modelo de observación, que mapea el espacio de estados verdaderos en el espacio observado y
v k es el ruido de observación, que se supone que es ruido blanco gaussiano de media cero con covarianza R k : .
Se supone que el estado inicial y los vectores de ruido en cada paso { x 0 , w 1 , ..., w k , v 1 , ... , v k } son mutuamente independientes .
Muchos sistemas dinámicos en tiempo real no se ajustan exactamente a este modelo. De hecho, la dinámica no modelada puede degradar seriamente el rendimiento del filtro, incluso cuando se supone que funciona con señales estocásticas desconocidas como entradas. La razón de esto es que el efecto de la dinámica no modelada depende de la entrada y, por lo tanto, puede llevar al algoritmo de estimación a la inestabilidad (divergencia). Por otro lado, las señales de ruido blanco independientes no harán que el algoritmo diverja. El problema de distinguir entre el ruido de medición y la dinámica no modelada es difícil y se trata como un problema de teoría de control utilizando control robusto . [29] [30]
Detalles
El filtro de Kalman es un estimador recursivo . Esto significa que solo se necesitan el estado estimado del paso de tiempo anterior y la medición actual para calcular la estimación del estado actual. A diferencia de las técnicas de estimación por lotes, no se requiere un historial de observaciones o estimaciones. A continuación, la notación representa la estimación de un tiempo n de observaciones dadas hasta el tiempo m ≤ n inclusive .
El estado del filtro está representado por dos variables:
, la estimación del estado a posteriori media en el tiempo k dadas las observaciones hasta el tiempo k inclusive ;
, la matriz de covarianza de estimación a posteriori (una medida de la precisión estimada de la estimación del estado).
La estructura del algoritmo del filtro de Kalman se asemeja a la del filtro alfa beta . El filtro de Kalman se puede escribir como una sola ecuación; sin embargo, se suele conceptualizar como dos fases distintas: "Predecir" y "Actualizar". La fase de predicción utiliza la estimación del estado del paso de tiempo anterior para producir una estimación del estado en el paso de tiempo actual. Esta estimación del estado predicho también se conoce como estimación del estado a priori porque, aunque es una estimación del estado en el paso de tiempo actual, no incluye información de observación del paso de tiempo actual. En la fase de actualización, la innovación (el residuo previo al ajuste), es decir, la diferencia entre la predicción a priori actual y la información de observación actual, se multiplica por la ganancia de Kalman óptima y se combina con la estimación del estado anterior para refinar la estimación del estado. Esta estimación mejorada basada en la observación actual se denomina estimación del estado a posteriori .
Normalmente, las dos fases se alternan, con la predicción avanzando el estado hasta la siguiente observación programada y la actualización incorporando la observación. Sin embargo, esto no es necesario; si una observación no está disponible por alguna razón, se puede omitir la actualización y realizar múltiples procedimientos de predicción. Del mismo modo, si hay múltiples observaciones independientes disponibles al mismo tiempo, se pueden realizar múltiples procedimientos de actualización (normalmente con diferentes matrices de observación H k ). [31] [32]
Predecir
Actualizar
La fórmula para la estimación de covarianza actualizada ( a posteriori ) anterior es válida para la ganancia K k óptima que minimiza el error residual, en cuya forma se utiliza más ampliamente en las aplicaciones. La prueba de las fórmulas se encuentra en la sección de derivaciones , donde también se muestra la fórmula válida para cualquier K k .
Una forma más intuitiva de expresar la estimación del estado actualizado ( ) es:
Esta expresión nos recuerda a una interpolación lineal, para el caso entre [0,1]. En nuestro caso:
es la matriz que toma valores desde (alto error en el sensor) hasta o una proyección (bajo error).
es el estado interno estimado a partir del modelo.
es el estado interno estimado a partir de la medición, asumiendo que no es singular.
Esta expresión también se asemeja al paso de actualización del filtro alfa beta .
Invariantes
Si el modelo es preciso y los valores de y reflejan con precisión la distribución de los valores del estado inicial, entonces se conservan las siguientes invariantes:
donde es el valor esperado de . Es decir, todas las estimaciones tienen un error medio de cero.
También:
Por lo tanto, las matrices de covarianza reflejan con precisión la covarianza de las estimaciones.
Estimación de las covarianzas de ruido Qay Ra
La implementación práctica de un filtro de Kalman es a menudo difícil debido a la dificultad de obtener una buena estimación de las matrices de covarianza de ruido Q k y R k . Se han realizado investigaciones exhaustivas para estimar estas covarianzas a partir de los datos. Un método práctico para hacer esto es la técnica de mínimos cuadrados de autocovarianza (ALS) que utiliza las autocovarianzas con retraso temporal de los datos operativos de rutina para estimar las covarianzas. [33] [34] El código GNU Octave y Matlab utilizado para calcular las matrices de covarianza de ruido utilizando la técnica ALS está disponible en línea utilizando la Licencia Pública General de GNU . [35] Se ha propuesto el filtro Kalman de campo (FKF), un algoritmo bayesiano que permite la estimación simultánea del estado, los parámetros y la covarianza del ruido. [36] El algoritmo FKF tiene una formulación recursiva, una buena convergencia observada y una complejidad relativamente baja, lo que sugiere que el algoritmo FKF posiblemente sea una alternativa valiosa a los métodos de mínimos cuadrados de autocovarianza. Otro enfoque es el Filtro Kalman Optimizado ( OKF ), que considera las matrices de covarianza no como representantes del ruido, sino más bien, como parámetros destinados a lograr la estimación de estado más precisa. [37] Estos dos puntos de vista coinciden bajo los supuestos del KF, pero a menudo se contradicen entre sí en sistemas reales. Por lo tanto, la estimación de estado de OKF es más robusta a las imprecisiones del modelado.
Optimalidad y rendimiento
De la teoría se desprende que el filtro de Kalman proporciona una estimación óptima del estado en los casos en que a) el modelo coincide perfectamente con el sistema real, b) el ruido entrante es "blanco" (no correlacionado) y c) las covarianzas del ruido se conocen con exactitud. El ruido correlacionado también se puede tratar utilizando filtros de Kalman. [38]
Durante las últimas décadas se han propuesto varios métodos para la estimación de la covarianza del ruido, incluido el ALS, mencionado en la sección anterior. De manera más general, si las suposiciones del modelo no coinciden perfectamente con el sistema real, entonces la estimación óptima del estado no se obtiene necesariamente estableciendo Q k y R k en las covarianzas del ruido. En cambio, en ese caso, los parámetros Q k y R k se pueden establecer para optimizar explícitamente la estimación del estado, [37] por ejemplo, utilizando el aprendizaje supervisado estándar .
Una vez establecidas las covarianzas, resulta útil evaluar el rendimiento del filtro, es decir, si es posible mejorar la calidad de la estimación del estado. Si el filtro de Kalman funciona de manera óptima, la secuencia de innovación (el error de predicción de salida) es un ruido blanco, por lo tanto, la propiedad de blancura de las innovaciones mide el rendimiento del filtro. Se pueden utilizar varios métodos diferentes para este propósito. [39] Si los términos de ruido se distribuyen de manera no gaussiana, se conocen en la literatura métodos para evaluar el rendimiento de la estimación del filtro, que utilizan desigualdades de probabilidad o teoría de muestras grandes. [40] [41]
Ejemplo de aplicación, técnica
Consideremos un camión sobre raíles rectos y sin fricción. Inicialmente, el camión está parado en la posición 0, pero fuerzas aleatorias no controladas lo sacuden de un lado a otro. Medimos la posición del camión cada Δ t segundos, pero estas mediciones son imprecisas; queremos mantener un modelo de la posición y la velocidad del camión . Mostramos aquí cómo derivamos el modelo a partir del cual creamos nuestro filtro de Kalman.
Como son constantes, se descartan sus índices de tiempo.
La posición y la velocidad del camión se describen mediante el espacio de estados lineal.
donde es la velocidad, es decir, la derivada de la posición con respecto al tiempo.
Suponemos que entre los intervalos de tiempo ( k − 1) y k , fuerzas no controladas provocan una aceleración constante de a k que se distribuye normalmente con media 0 y desviación estándar σ a . A partir de las leyes de movimiento de Newton concluimos que
(no hay término ya que no hay entradas de control conocidas. En cambio, una k es el efecto de una entrada desconocida y aplica ese efecto al vector de estado) donde
de modo que
dónde
La matriz no es de rango completo (es de rango uno si ). Por lo tanto, la distribución no es absolutamente continua y no tiene función de densidad de probabilidad . Otra forma de expresar esto, evitando distribuciones degeneradas explícitas, se da mediante
En cada fase temporal se realiza una medición ruidosa de la posición real del camión. Supongamos que el ruido de medición v k también se distribuye normalmente, con media 0 y desviación típica σ z .
dónde
y
Conocemos el estado inicial de arranque del camión con perfecta precisión, por lo que inicializamos
y para decirle al filtro que conocemos la posición y velocidad exactas, le damos una matriz de covarianza cero:
Si la posición inicial y la velocidad no se conocen perfectamente, la matriz de covarianza debe inicializarse con varianzas adecuadas en su diagonal:
El filtro preferirá entonces la información de las primeras mediciones sobre la información que ya existe en el modelo.
Forma asintótica
Para simplificar, supongamos que la entrada de control es . Entonces, el filtro de Kalman se puede escribir:
Una ecuación similar se cumple si incluimos una entrada de control distinta de cero. Las matrices de ganancia evolucionan independientemente de las mediciones . De lo anterior, las cuatro ecuaciones necesarias para actualizar la ganancia de Kalman son las siguientes:
Dado que las matrices de ganancia dependen únicamente del modelo y no de las mediciones, se pueden calcular sin conexión. La convergencia de las matrices de ganancia a una matriz asintótica se aplica a las condiciones establecidas en Walrand y Dimakis. [42] Las simulaciones establecen el número de pasos hasta la convergencia. Para el ejemplo del camión en movimiento descrito anteriormente, con . y , la simulación muestra convergencia en iteraciones.
Utilizando la ganancia asintótica y suponiendo que y son independientes de , el filtro de Kalman se convierte en un filtro lineal invariante en el tiempo :
La ganancia asintótica , si existe, se puede calcular resolviendo primero la siguiente ecuación de Riccati discreta para la covarianza del estado asintótico : [42]
Luego se calcula la ganancia asintótica como antes.
Además, una forma del filtro de Kalman asintótico más comúnmente utilizado en la teoría de control se da por
lo cual, utilizando nuestro invariante en P k | k −1 y la definición de R k se convierte en
Esta fórmula (a veces conocida como la forma Joseph de la ecuación de actualización de covarianza) es válida para cualquier valor de K k . Resulta que si K k es la ganancia de Kalman óptima, esto se puede simplificar aún más como se muestra a continuación.
Derivación de la ganancia de Kalman
El filtro de Kalman es un estimador de error cuadrático medio mínimo . El error en la estimación del estado a posteriori es
Buscamos minimizar el valor esperado del cuadrado de la magnitud de este vector, . Esto es equivalente a minimizar la traza de la matriz de covarianza estimada a posteriori . Al expandir los términos en la ecuación anterior y recopilarlos, obtenemos:
La traza se minimiza cuando su derivada matricial con respecto a la matriz de ganancia es cero. Utilizando las reglas de la matriz de gradiente y la simetría de las matrices involucradas encontramos que
Resolviendo esto para K k obtenemos la ganancia de Kalman:
Esta ganancia, que se conoce como ganancia de Kalman óptima , es la que produce estimaciones del MMSE cuando se utiliza.
Simplificación de laposteriormentefórmula de covarianza de error
La fórmula utilizada para calcular la covarianza del error a posteriori se puede simplificar cuando la ganancia de Kalman es igual al valor óptimo obtenido anteriormente. Al multiplicar ambos lados de nuestra fórmula de ganancia de Kalman a la derecha por S k K k T , se deduce que
Volviendo a nuestra fórmula ampliada para la covarianza del error a posteriori ,
Encontramos que los dos últimos términos se cancelan, dando
Esta fórmula es computacionalmente más barata y por lo tanto casi siempre se utiliza en la práctica, pero sólo es correcta para la ganancia óptima. Si la precisión aritmética es inusualmente baja y causa problemas con la estabilidad numérica , o si se utiliza deliberadamente una ganancia de Kalman no óptima, no se puede aplicar esta simplificación; se debe utilizar la fórmula de covarianza de error a posteriori que se derivó anteriormente (forma de Joseph).
Análisis de sensibilidad
Las ecuaciones de filtrado de Kalman proporcionan una estimación del estado y su covarianza de error de forma recursiva. La estimación y su calidad dependen de los parámetros del sistema y de las estadísticas de ruido que se introducen como entradas al estimador. Esta sección analiza el efecto de las incertidumbres en las entradas estadísticas al filtro. [44] En ausencia de estadísticas fiables o de los valores verdaderos de las matrices de covarianza de ruido y , la expresión
ya no proporciona la covarianza de error real. En otras palabras, . En la mayoría de las aplicaciones en tiempo real, las matrices de covarianza que se utilizan para diseñar el filtro de Kalman son diferentes de las matrices de covarianza de ruido reales (verdaderas). [ cita requerida ] Este análisis de sensibilidad describe el comportamiento de la covarianza de error de estimación cuando las covarianzas de ruido, así como las matrices del sistema y que se introducen como entradas al filtro son incorrectas. Por lo tanto, el análisis de sensibilidad describe la robustez (o sensibilidad) del estimador a entradas estadísticas y paramétricas mal especificadas al estimador.
Esta discusión se limita al análisis de sensibilidad de error para el caso de incertidumbres estadísticas. Aquí las covarianzas de ruido reales se denotan por y respectivamente, mientras que los valores de diseño utilizados en el estimador son y respectivamente. La covarianza de error real se denota por y tal como se calcula mediante el filtro de Kalman se conoce como la variable de Riccati. Cuando y , esto significa que . Al calcular la covarianza de error real utilizando , sustituyendo y utilizando el hecho de que y , se obtienen las siguientes ecuaciones recursivas para :
y
Al calcular , por diseño el filtro supone implícitamente que y . Las expresiones recursivas para y son idénticas excepto por la presencia de y en lugar de los valores de diseño y respectivamente. Se han realizado investigaciones para analizar la robustez del sistema de filtro de Kalman. [45]
Forma factorizada
Un problema con el filtro de Kalman es su estabilidad numérica . Si la covarianza del ruido del proceso Q k es pequeña, el error de redondeo a menudo hace que un pequeño valor propio positivo de la matriz de covarianza de estado P se calcule como un número negativo. Esto hace que la representación numérica de P sea indefinida , mientras que su forma verdadera es positiva-definida .
Las matrices definidas positivas tienen la propiedad de tener una factorización en el producto de una matriz triangular inferior no singular S y su transpuesta : P = S · S T . El factor S se puede calcular de manera eficiente utilizando el algoritmo de factorización de Cholesky . Se garantiza que esta forma de producto de la matriz de covarianza P es simétrica, y para todo 1 <= k <= n, el k-ésimo elemento diagonal P kk es igual a la norma euclidiana de la k-ésima fila de S , que es necesariamente positiva. Una forma equivalente, que evita muchas de las operaciones de raíz cuadrada involucradas en el algoritmo de factorización de Cholesky , pero conserva las propiedades numéricas deseables, es la forma de descomposición UD, P = U · D · U T , donde U es una matriz triangular unitaria (con diagonal unitaria) y D es una matriz diagonal.
Entre las dos, la factorización UD utiliza la misma cantidad de almacenamiento y algo menos de cálculo, y es la factorización triangular más comúnmente utilizada. (La literatura temprana sobre la eficiencia relativa es algo engañosa, ya que suponía que las raíces cuadradas consumían mucho más tiempo que las divisiones, [46] : 69 mientras que en las computadoras del siglo XXI son solo un poco más caras).
GJ Bierman y CL Thornton desarrollaron algoritmos eficientes para los pasos de predicción y actualización de Kalman en forma factorizada. [46] [47]
La descomposición L · D · L T de la matriz de covarianza de innovación S k es la base para otro tipo de filtro de raíz cuadrada numéricamente eficiente y robusto. [48] El algoritmo comienza con la descomposición LU tal como se implementa en el PAQUETE de Álgebra Lineal ( LAPACK ). Estos resultados se factorizan además en la estructura L · D · L T con métodos dados por Golub y Van Loan (algoritmo 4.1.2) para una matriz no singular simétrica. [49] Cualquier matriz de covarianza singular se pivotea de modo que la primera partición diagonal sea no singular y esté bien condicionada . El algoritmo de pivoteo debe retener cualquier porción de la matriz de covarianza de innovación que corresponda directamente a las variables de estado observadas H k · x k|k-1 que estén asociadas con observaciones auxiliares en y k . El filtro de raíz cuadrada l · d · l t requiere la ortogonalización del vector de observación. [47] [48] Esto se puede hacer con la raíz cuadrada inversa de la matriz de covarianza para las variables auxiliares utilizando el Método 2 en Higham (2002, p. 263). [50]
Forma paralela
El filtro Kalman es eficiente para el procesamiento secuencial de datos en unidades centrales de procesamiento (CPU), pero en su forma original es ineficiente en arquitecturas paralelas como las unidades de procesamiento gráfico (GPU). Sin embargo, es posible expresar la rutina de actualización del filtro en términos de un operador asociativo utilizando la formulación de Särkkä y García-Fernández (2021). [51] La solución del filtro se puede recuperar mediante el uso de un algoritmo de suma de prefijos que se puede implementar de manera eficiente en la GPU. [52] Esto reduce la complejidad computacional de en el número de pasos de tiempo a .
Relación con la estimación bayesiana recursiva
El filtro de Kalman puede presentarse como una de las redes bayesianas dinámicas más simples . El filtro de Kalman calcula estimaciones de los valores verdaderos de los estados de forma recursiva a lo largo del tiempo utilizando mediciones entrantes y un modelo de proceso matemático. De manera similar, la estimación bayesiana recursiva calcula estimaciones de una función de densidad de probabilidad (PDF) desconocida de forma recursiva a lo largo del tiempo utilizando mediciones entrantes y un modelo de proceso matemático. [53]
En la estimación bayesiana recursiva, se supone que el estado real es un proceso de Markov no observado y las mediciones son los estados observados de un modelo de Markov oculto (HMM).
Debido al supuesto de Markov, el estado verdadero es condicionalmente independiente de todos los estados anteriores dado el estado inmediatamente anterior.
De manera similar, la medición en el k -ésimo paso de tiempo depende únicamente del estado actual y es condicionalmente independiente de todos los demás estados dado el estado actual.
Utilizando estos supuestos, la distribución de probabilidad sobre todos los estados del modelo oculto de Markov se puede escribir simplemente como:
Sin embargo, cuando se utiliza un filtro de Kalman para estimar el estado x , la distribución de probabilidad de interés es la asociada con los estados actuales condicionados a las mediciones hasta el intervalo de tiempo actual. Esto se logra marginando los estados anteriores y dividiendo por la probabilidad del conjunto de mediciones.
Esto da como resultado las fases de predicción y actualización del filtro de Kalman escritas de manera probabilística. La distribución de probabilidad asociada con el estado predicho es la suma (integral) de los productos de la distribución de probabilidad asociada con la transición del paso de tiempo ( k − 1) al k -ésimo y la distribución de probabilidad asociada con el estado anterior, sobre todos los posibles .
La medición establecida hasta el momento t es
La distribución de probabilidad de la actualización es proporcional al producto de la probabilidad de la medición y el estado previsto.
El denominador
es un término de normalización.
Las funciones de densidad de probabilidad restantes son
Se supone de manera inductiva que la PDF en el paso de tiempo anterior es el estado y la covarianza estimados. Esto se justifica porque, como estimador óptimo, el filtro de Kalman hace el mejor uso de las mediciones, por lo tanto, la PDF para las mediciones dadas es la estimación del filtro de Kalman.
Probabilidad marginal
En relación con la interpretación bayesiana recursiva descrita anteriormente, el filtro de Kalman puede verse como un modelo generativo , es decir, un proceso para generar un flujo de observaciones aleatorias z = ( z 0 , z 1 , z 2 , ...). Específicamente, el proceso es
Muestrear un estado oculto de la distribución previa gaussiana .
Tome una muestra de observación del modelo de observación .
Para , hacer
Muestrear el siguiente estado oculto del modelo de transición
Muestra de una observación del modelo de observación
Este proceso tiene una estructura idéntica al modelo oculto de Markov , excepto que el estado discreto y las observaciones se reemplazan con variables continuas muestreadas de distribuciones gaussianas.
En algunas aplicaciones, resulta útil calcular la probabilidad de que un filtro de Kalman con un conjunto determinado de parámetros (distribución previa, modelos de transición y observación, y entradas de control) genere una señal observada particular. Esta probabilidad se conoce como verosimilitud marginal porque integra ("marginaliza") los valores de las variables de estado ocultas, por lo que se puede calcular utilizando solo la señal observada. La verosimilitud marginal puede ser útil para evaluar diferentes opciones de parámetros o para comparar el filtro de Kalman con otros modelos utilizando la comparación de modelos bayesianos .
Es sencillo calcular la probabilidad marginal como un efecto secundario del cálculo del filtrado recursivo. Mediante la regla de la cadena , la probabilidad se puede factorizar como el producto de la probabilidad de cada observación dadas las observaciones anteriores,
,
y debido a que el filtro de Kalman describe un proceso de Markov, toda la información relevante de las observaciones anteriores está contenida en la estimación del estado actual. Por lo tanto, la probabilidad marginal está dada por
es decir, un producto de densidades gaussianas, cada una correspondiente a la densidad de una observación z k bajo la distribución de filtrado actual . Esto se puede calcular fácilmente como una actualización recursiva simple; sin embargo, para evitar el desbordamiento numérico , en una implementación práctica suele ser deseable calcular la verosimilitud marginal en su lugar. Adoptando la convención , esto se puede hacer a través de la regla de actualización recursiva
donde es la dimensión del vector de medición. [54]
Una aplicación importante en la que se utiliza dicha probabilidad (logarítmica) de las observaciones (dados los parámetros del filtro) es el seguimiento de múltiples objetivos. Por ejemplo, considere un escenario de seguimiento de objetos donde un flujo de observaciones es la entrada, sin embargo, se desconoce cuántos objetos hay en la escena (o se conoce la cantidad de objetos pero es mayor que uno). Para un escenario de este tipo, puede ser desconocido a priori qué observaciones/mediciones fueron generadas por qué objeto. Un rastreador de hipótesis múltiples (MHT) generalmente formará diferentes hipótesis de asociación de seguimiento, donde cada hipótesis puede considerarse como un filtro de Kalman (para el caso gaussiano lineal) con un conjunto específico de parámetros asociados con el objeto hipotético. Por lo tanto, es importante calcular la probabilidad de las observaciones para las diferentes hipótesis en consideración, de modo que se pueda encontrar la más probable.
Filtro de información
En los casos en que la dimensión del vector de observación y es mayor que la dimensión del vector de espacio de estados x , el filtro de información puede evitar la inversión de una matriz más grande en el cálculo de ganancia de Kalman al precio de invertir una matriz más pequeña en el paso de predicción, ahorrando así tiempo de cálculo. Además, el filtro de información permite la inicialización de la información del sistema según , lo que no sería posible para el filtro de Kalman regular. [55] En el filtro de información, o filtro de covarianza inversa, la covarianza estimada y el estado estimado se reemplazan por la matriz de información y el vector de información respectivamente. Estos se definen como:
De manera similar, la covarianza y el estado previstos tienen formas de información equivalentes, definidas como:
y la covarianza de medición y el vector de medición, que se definen como:
La actualización de la información se convierte ahora en una suma trivial. [56]
La principal ventaja del filtro de información es que se pueden filtrar N mediciones en cada paso de tiempo simplemente sumando sus matrices y vectores de información.
Para predecir el filtro de información, la matriz y el vector de información se pueden convertir nuevamente a sus equivalentes en el espacio de estados o, alternativamente, se puede utilizar la predicción del espacio de información. [56]
Suavizado con retraso fijo
El suavizador de retardo fijo óptimo proporciona la estimación óptima de para un retardo fijo dado utilizando las mediciones de a . [57] Se puede derivar utilizando la teoría anterior a través de un estado aumentado, y la ecuación principal del filtro es la siguiente:
dónde:
se estima a través de un filtro de Kalman estándar;
es la innovación producida considerando la estimación del filtro Kalman estándar;
las diversas con son variables nuevas, es decir, no aparecen en el filtro de Kalman estándar;
Las ganancias se calculan mediante el siguiente esquema:
y
donde y son la covarianza del error de predicción y las ganancias del filtro de Kalman estándar (es decir, ).
Si la covarianza del error de estimación se define de modo que
entonces tenemos que la mejora en la estimación de viene dada por:
Suavizadores de intervalo fijo
El suavizador de intervalo fijo óptimo proporciona la estimación óptima de ( ) utilizando las mediciones de un intervalo fijo a . Esto también se denomina "suavizado de Kalman". Hay varios algoritmos de suavizado de uso común.
Rauch–Tung–Striebel
El suavizador Rauch–Tung–Striebel (RTS) es un algoritmo eficiente de dos pasadas para el suavizado de intervalos fijos. [58]
El pase hacia adelante es igual que el algoritmo de filtro de Kalman regular. Estas estimaciones de estado a priori y a posteriori filtradas , y las covarianzas , se guardan para su uso en el pase hacia atrás (para retrodicción ).
En el paso hacia atrás, calculamos las estimaciones de estado suavizadas y las covarianzas . Comenzamos en el último paso de tiempo y avanzamos hacia atrás en el tiempo utilizando las siguientes ecuaciones recursivas:
dónde
es la estimación del estado a posteriori del paso de tiempo y es la estimación del estado a priori del paso de tiempo . La misma notación se aplica a la covarianza.
Suavizador Bryson-Frazier modificado
Una alternativa al algoritmo RTS es el suavizador de intervalo fijo Bryson-Frazier (MBF) modificado desarrollado por Bierman. [47] Este también utiliza un paso hacia atrás que procesa los datos guardados del paso hacia adelante del filtro Kalman. Las ecuaciones para el paso hacia atrás implican el cálculo recursivo de los datos que se utilizan en cada momento de observación para calcular el estado suavizado y la covarianza.
Las ecuaciones recursivas son
donde es la covarianza residual y . El estado suavizado y la covarianza se pueden encontrar mediante sustitución en las ecuaciones
o
Una ventaja importante del MBF es que no requiere encontrar la inversa de la matriz de covarianza.
Suavizado de varianza mínima
El suavizador de mínima varianza puede lograr el mejor rendimiento de error posible, siempre que los modelos sean lineales, sus parámetros y las estadísticas de ruido se conozcan con precisión. [59] Este suavizador es una generalización del espacio de estados que varía en el tiempo del filtro de Wiener no causal óptimo .
Los cálculos más suaves se realizan en dos pasadas. Los cálculos hacia adelante implican un predictor que avanza un paso y se dan por
El sistema anterior se conoce como factor de Wiener-Hopf inverso. La recursión hacia atrás es el adjunto del sistema hacia adelante anterior. El resultado del paso hacia atrás se puede calcular aplicando las ecuaciones hacia adelante sobre el resultado invertido en el tiempo y el invertido en el tiempo. En el caso de la estimación de salida, la estimación suavizada se da por
Tomando la parte causal de este suavizador de varianza mínima se obtiene
que es idéntico al filtro Kalman de varianza mínima. Las soluciones anteriores minimizan la varianza del error de estimación de salida. Nótese que la derivación del suavizador de Rauch–Tung–Striebel supone que las distribuciones subyacentes son gaussianas, mientras que las soluciones de varianza mínima no lo son. Los suavizadores óptimos para la estimación de estado y la estimación de entrada se pueden construir de manera similar.
En [60] [61] se describe una versión de tiempo continuo del suavizador anterior.
Se pueden emplear algoritmos de maximización de expectativas para calcular estimaciones aproximadas de máxima verosimilitud de parámetros desconocidos del espacio de estados dentro de filtros y suavizadores de mínima varianza. A menudo, las incertidumbres permanecen dentro de los supuestos del problema. Se puede diseñar un suavizador que acomode las incertidumbres agregando un término definido positivo a la ecuación de Riccati. [62]
En los casos en que los modelos son no lineales, las linealizaciones escalonadas pueden estar dentro del filtro de varianza mínima y recursiones más suaves ( filtrado de Kalman extendido ).
Filtros Kalman ponderados en frecuencia
En la década de 1930, Fletcher y Munson realizaron una investigación pionera sobre la percepción de sonidos a diferentes frecuencias. Su trabajo condujo a una forma estándar de ponderar los niveles de sonido medidos en las investigaciones sobre el ruido industrial y la pérdida auditiva. Desde entonces, las ponderaciones de frecuencia se han utilizado en diseños de filtros y controladores para gestionar el rendimiento dentro de las bandas de interés.
Por lo general, se utiliza una función de modelado de frecuencia para ponderar la potencia promedio de la densidad espectral de error en una banda de frecuencia específica. Sea , el error de estimación de salida que exhibe un filtro de Kalman convencional. Además, sea , una función de transferencia de ponderación de frecuencia causal. La solución óptima que minimiza la varianza de surge simplemente construyendo .
El diseño de sigue siendo una cuestión abierta. Una forma de proceder es identificar un sistema que genere el error de estimación y la configuración igual a la inversa de ese sistema. [63] Este procedimiento puede repetirse para obtener una mejora del error cuadrático medio a costa de un mayor orden de filtro. La misma técnica puede aplicarse a los suavizadores.
Filtros no lineales
El filtro Kalman básico se limita a una suposición lineal. Sin embargo, los sistemas más complejos pueden ser no lineales . La no linealidad puede estar asociada con el modelo de proceso o con el modelo de observación o con ambos.
Las variantes más comunes de filtros de Kalman para sistemas no lineales son el filtro de Kalman extendido y el filtro de Kalman sin aroma. La idoneidad de qué filtro utilizar depende de los índices de no linealidad del proceso y del modelo de observación. [64]
Filtro Kalman extendido
En el filtro de Kalman extendido (EKF), los modelos de transición de estado y de observación no necesitan ser funciones lineales del estado, sino que pueden ser funciones no lineales. Estas funciones son de tipo diferenciable .
La función f se puede utilizar para calcular el estado predicho a partir de la estimación anterior y, de manera similar, la función h se puede utilizar para calcular la medida predicha a partir del estado predicho. Sin embargo, f y h no se pueden aplicar a la covarianza directamente. En su lugar, se calcula una matriz de derivadas parciales (la jacobiana ).
En cada paso temporal, el jacobiano se evalúa con los estados predichos actuales. Estas matrices se pueden utilizar en las ecuaciones del filtro de Kalman. Este proceso básicamente linealiza la función no lineal en torno a la estimación actual.
Filtro Kalman sin fragancia
Cuando los modelos de transición de estado y de observación (es decir, las funciones de predicción y actualización ) son altamente no lineales, el filtro de Kalman extendido puede dar un rendimiento particularmente pobre. [65] [66] Esto se debe a que la covarianza se propaga a través de la linealización del modelo no lineal subyacente. El filtro de Kalman sin aroma (UKF) [65] utiliza una técnica de muestreo determinista conocida como transformación sin aroma (UT) para elegir un conjunto mínimo de puntos de muestra (llamados puntos sigma) alrededor de la media. Los puntos sigma se propagan luego a través de las funciones no lineales, a partir de las cuales se forma una nueva estimación de media y covarianza. El filtro resultante depende de cómo se calculan las estadísticas transformadas de la UT y qué conjunto de puntos sigma se utilizan. Debe notarse que siempre es posible construir nuevos UKF de manera consistente. [67] Para ciertos sistemas, el UKF resultante estima con mayor precisión la media y la covarianza verdaderas. [68] Esto se puede verificar con el muestreo de Monte Carlo o la expansión de la serie de Taylor de las estadísticas posteriores. Además, esta técnica elimina el requisito de calcular explícitamente jacobianos, lo que para funciones complejas puede ser una tarea difícil en sí misma (es decir, requerir derivadas complicadas si se hace analíticamente o ser computacionalmente costoso si se hace numéricamente), si no imposible (si esas funciones no son diferenciables).
Puntos sigma
Para un vector aleatorio , los puntos sigma son cualquier conjunto de vectores
atribuido a
pesos de primer orden que cumplen
Para todos :
pesos de segundo orden que cumplen
para todos los pares .
Una elección sencilla de puntos sigma y pesos en el algoritmo UKF es
donde es la estimación media de . El vector es la columna j de donde . Normalmente, se obtiene mediante la descomposición de Cholesky de . Con cierto cuidado, las ecuaciones de filtro se pueden expresar de tal manera que se evalúen directamente sin cálculos intermedios de . Esto se conoce como el filtro de Kalman sin aroma de raíz cuadrada . [69]
El peso del valor medio, , se puede elegir arbitrariamente.
Otra parametrización popular (que generaliza lo anterior) es
y controlar la dispersión de los puntos sigma. está relacionada con la distribución de . Nótese que esto es una sobreparametrización en el sentido de que cualquiera de , y puede elegirse arbitrariamente.
Los valores apropiados dependen del problema en cuestión, pero una recomendación típica es , , y . [70] Si la distribución verdadera de es gaussiana, es óptima. [71]
Predecir
Al igual que con el EKF, la predicción del UKF se puede utilizar independientemente de la actualización del UKF, en combinación con una actualización lineal (o de hecho EKF), o viceversa.
Dadas las estimaciones de la media y la covarianza, y , se obtienen los puntos sigma como se describe en la sección anterior. Los puntos sigma se propagan a través de la función de transición f .
.
Los puntos sigma propagados se ponderan para producir la media y la covarianza previstas.
donde son los pesos de primer orden de los puntos sigma originales, y son los pesos de segundo orden. La matriz es la covarianza del ruido de transición, .
Actualizar
Dadas las estimaciones de predicción y , se calcula un nuevo conjunto de puntos sigma con pesos de primer orden y pesos de segundo orden correspondientes. [72] Estos puntos sigma se transforman a través de la función de medición .
.
Luego se calculan la media empírica y la covarianza de los puntos transformados.
donde es la matriz de covarianza del ruido de observación, . Además, también se necesita la matriz de covarianza cruzada
La ganancia de Kalman es
Las estimaciones actualizadas de media y covarianza son
Filtro de Kalman discriminativo
Cuando el modelo de observación es altamente no lineal y/o no gaussiano, puede resultar ventajoso aplicar la regla de Bayes y estimar
donde para funciones no lineales . Esto reemplaza la especificación generativa del filtro Kalman estándar con un modelo discriminativo para los estados latentes dadas las observaciones.
Entonces, dada una nueva observación , se deduce que [73]
dónde
Nótese que esta aproximación debe ser definida positiva; en caso de que no lo sea,
Este enfoque resulta particularmente útil cuando la dimensionalidad de las observaciones es mucho mayor que la de los estados latentes [74] y se puede utilizar para construir filtros que sean particularmente robustos a las no estacionariedades en el modelo de observación. [75]
Filtro Kalman adaptativo
Los filtros Kalman adaptativos permiten adaptarse a dinámicas de procesos que no están modeladas en el modelo de proceso , lo que sucede, por ejemplo, en el contexto de un objetivo en maniobra cuando se emplea un filtro Kalman de velocidad constante (orden reducido) para el seguimiento. [76]
Filtro Kalman-Bucy
El filtrado de Kalman-Bucy (llamado así por Richard Snowden Bucy) es una versión de tiempo continuo del filtrado de Kalman. [77] [78]
Se basa en el modelo de espacio de estados.
donde y representan las intensidades de los dos términos de ruido blanco y , respectivamente.
El filtro consta de dos ecuaciones diferenciales, una para la estimación del estado y otra para la covarianza:
donde la ganancia de Kalman está dada por
Nótese que en esta expresión la covarianza del ruido de observación representa al mismo tiempo la covarianza del error de predicción (o innovación ) ; estas covarianzas son iguales sólo en el caso de tiempo continuo. [79]
La distinción entre los pasos de predicción y actualización del filtrado de Kalman en tiempo discreto no existe en tiempo continuo.
La segunda ecuación diferencial, para la covarianza, es un ejemplo de ecuación de Riccati . Las generalizaciones no lineales de los filtros de Kalman-Bucy incluyen el filtro de Kalman extendido en el tiempo continuo.
Filtro híbrido Kalman
La mayoría de los sistemas físicos se representan como modelos de tiempo continuo, mientras que las mediciones de tiempo discreto se realizan con frecuencia para la estimación del estado a través de un procesador digital. Por lo tanto, el modelo del sistema y el modelo de medición se dan por
dónde
.
Inicializar
Predecir
Las ecuaciones de predicción se derivan de las del filtro Kalman de tiempo continuo sin actualización a partir de las mediciones, es decir, . El estado predicho y la covarianza se calculan respectivamente resolviendo un conjunto de ecuaciones diferenciales con el valor inicial igual a la estimación en el paso anterior.
Las ecuaciones de actualización son idénticas a las del filtro de Kalman de tiempo discreto.
Variantes para la recuperación de señales dispersas
El filtro Kalman tradicional también se ha empleado para la recuperación de señales dispersas, posiblemente dinámicas, a partir de observaciones ruidosas. Trabajos recientes [80] [81] [82] utilizan nociones de la teoría de detección /muestreo comprimido, como la propiedad de isometría restringida y argumentos de recuperación probabilística relacionados, para estimar secuencialmente el estado disperso en sistemas intrínsecamente de baja dimensión.
Relación con los procesos gaussianos
Dado que los modelos de espacio de estados gaussianos lineales conducen a procesos gaussianos, los filtros de Kalman pueden verse como solucionadores secuenciales para la regresión de procesos gaussianos . [83]
^ Lacey, Tony. "Tutorial del capítulo 11: El filtro Kalman" (PDF) .
^ Fauzi, Hilman; Batool, Uzma (15 de julio de 2019). "Un diseño de armadura de tres barras que utiliza un optimizador de filtro Kalman simulado de solución única". Mecatrónica . 1 (2): 98-102. doi : 10.15282/mekatronika.v1i2.4991 . S2CID 222355496.
^ Paul Zarchan; Howard Musoff (2000). Fundamentos del filtrado de Kalman: un enfoque práctico. Instituto Americano de Aeronáutica y Astronáutica, Incorporated. ISBN978-1-56347-455-2.
^ Lora-Millan, Julio S.; Hidalgo, Andres F.; Rocon, Eduardo (2021). "Un filtro de Kalman extendido basado en IMU para estimar la cinemática sagital de la marcha de las extremidades inferiores para el control de dispositivos robóticos portátiles". IEEE Access . 9 : 144540–144554. Bibcode :2021IEEEA...9n4540L. doi : 10.1109/ACCESS.2021.3122160 . hdl : 10261/254265 . ISSN 2169-3536. S2CID 239938971.
^ Kalita, Diana; Lyakhov, Pavel (diciembre de 2022). "Detección de objetos en movimiento basada en una combinación de filtro de Kalman y filtrado de mediana". Big Data y computación cognitiva . 6 (4): 142. doi : 10.3390/bdcc6040142 . ISSN 2504-2289.
^ Ghysels, Eric; Marcellino, Massimiliano (2018). Pronóstico económico aplicado mediante métodos de series temporales . Nueva York, NY: Oxford University Press. p. 419. ISBN978-0-19-062201-5.OCLC 1010658777 .
^ Azzam, M. Abdullah; Batool, Uzma; Fauzi, Hilman (15 de julio de 2019). "Diseño de un resorte helicoidal utilizando un optimizador de filtro Kalman simulado de solución única". Mecatrónica . 1 (2): 93–97. doi : 10.15282/mekatronika.v1i2.4990 . S2CID 221855079.
^ Wolpert, Daniel; Ghahramani, Zoubin (2000). "Principios computacionales de la neurociencia del movimiento". Nature Neuroscience . 3 : 1212–7. doi :10.1038/81497. PMID 11127840. S2CID 736756.
^ Kalman, RE (1960). "Un nuevo enfoque para problemas de filtrado y predicción lineal". Journal of Basic Engineering . 82 : 35–45. doi :10.1115/1.3662552. S2CID 1242324.
^ Humpherys, Jeffrey (2012). "Una nueva mirada al filtro Kalman". SIAM Review . 54 (4): 801–823. doi :10.1137/100799666.
^ Uhlmann, Jeffrey; Julier, Simon (2022). "Gaussianidad y el filtro de Kalman: una relación simple pero complicada" (PDF) . Revista de Ciencia e Ingeniería . 14 (1): 21–26. doi :10.46571/JCI.2022.1.2. S2CID 251143915.Véase Uhlmann y Julier para aproximadamente una docena de ejemplos de este concepto erróneo en la literatura.
^ Li, Wangyan; Wang, Zidong; Wei, Guoliang; Ma, Lifeng; Hu, Jun; Ding, Derui (2015). "Una encuesta sobre fusión multisensorial y filtrado de consenso para redes de sensores". Dinámica discreta en la naturaleza y la sociedad . 2015 : 1–12. doi : 10.1155/2015/683701 . ISSN 1026-0226.
^ Li, Wangyan; Wang, Zidong; Ho, Daniel WC; Wei, Guoliang (2019). "Sobre la acotación de las covarianzas de error para problemas de filtrado por consenso de Kalman". IEEE Transactions on Automatic Control . 65 (6): 2654–2661. doi :10.1109/TAC.2019.2942826. ISSN 0018-9286. S2CID 204196474.
^ Lauritzen, S. L. (diciembre de 1981). "Análisis de series temporales en 1880. Una discusión de las contribuciones realizadas por TN Thiele". International Statistical Review . 49 (3): 319–331. doi :10.2307/1402616. JSTOR 1402616. Deriva un procedimiento recursivo para estimar el componente de regresión y predecir el movimiento browniano. El procedimiento ahora se conoce como filtrado de Kalman.
^ Lauritzen, S. L. (2002). Thiele: pionero en estadística. Nueva York: Oxford University Press . pág. 41. ISBN978-0-19-850972-1Resuelve el problema de estimación de los coeficientes de regresión y predicción de los valores del movimiento browniano mediante el método de mínimos cuadrados y ofrece un elegante procedimiento recursivo para realizar los cálculos. El procedimiento se conoce actualmente como filtrado de Kalman .
^ Grewal, Mohinder S.; Andrews, Angus P. (2015). "1". Filtrado de Kalman: teoría y práctica con MATLAB (4.ª ed.). Hoboken, Nueva Jersey: Wiley. pp. 16–18. ISBN978-1-118-98498-7.
^ "Mohinder S. Grewal y Angus P. Andrews" (PDF) . Archivado desde el original (PDF) el 7 de marzo de 2016. Consultado el 23 de abril de 2015 .
^ Jerrold H. Suddath; Robert H. Kidd; Arnold G. Reinhold (agosto de 1967). Un análisis de errores linealizado de los sistemas de navegación primaria a bordo del módulo lunar Apolo, NASA TN D-4027 (PDF) . Administración Nacional de Aeronáutica y del Espacio.{{cite book}}: |work=ignorado ( ayuda )
^ Stratonovich, RL (1959). Sistemas no lineales óptimos que provocan una separación de una señal con parámetros constantes del ruido . Radiofizika, 2:6, págs. 892–901.
^ Stratonovich, RL (1959). Sobre la teoría del filtrado no lineal óptimo de funciones aleatorias . Teoría de la probabilidad y sus aplicaciones, 4, págs. 223-225.
^ Stratonovich, RL (1960) Aplicación de la teoría de procesos de Markov al filtrado óptimo . Ingeniería de radio y física electrónica, 5:11, págs. 1–19.
^ Stratonovich, RL (1960). Procesos condicionales de Markov . Teoría de la probabilidad y sus aplicaciones, 5, págs. 156-178.
^ Stepanov, OA (15 de mayo de 2011). "Filtro de Kalman: pasado y presente. Una perspectiva desde Rusia. (Con motivo del 80 cumpleaños de Rudolf Emil Kalman)". Giroscopia y navegación . 2 (2): 105. Bibcode :2011GyNav...2...99S. doi :10.1134/S2075108711020076. S2CID 53120402.
^ Gaylor, David; Lightsey, E. Glenn (2003). "Diseño de filtros Kalman GPS/INS para naves espaciales que operan en las proximidades de la Estación Espacial Internacional". Conferencia y exposición de guía, navegación y control de la AIAA . doi :10.2514/6.2003-5445. ISBN978-1-62410-090-1.
^ Ingvar Strid; Karl Walentin (abril de 2009). "Filtrado de Kalman en bloques para modelos DSGE a gran escala". Economía computacional . 33 (3): 277–304. CiteSeerX 10.1.1.232.3790 . doi :10.1007/s10614-008-9160-4. hdl :10419/81929. S2CID 3042206.
^ Martin Møller Andreasen (2008). "Modelos DSGE no lineales, el filtro de Kalman de diferencia central y el filtro de partículas con desplazamiento medio".
^ Roweis, S; Ghahramani, Z (1999). "Una revisión unificadora de los modelos gaussianos lineales" (PDF) . Neural Computation . 11 (2): 305–45. doi :10.1162/089976699300016674. PMID 9950734. S2CID 2590898.
^ Hamilton, J. (1994), Análisis de series temporales , Princeton University Press. Capítulo 13, "El filtro de Kalman"
^ Ishihara, JY; Terra, MH; Campos, JCT (2006). "Filtro Kalman robusto para sistemas descriptores". IEEE Transactions on Automatic Control . 51 (8): 1354. doi :10.1109/TAC.2006.878741. S2CID 12741796.
^ Terra, Marco H.; Cerri, Joao P.; Ishihara, Joao Y. (2014). "Regulador cuadrático lineal robusto óptimo para sistemas sujetos a incertidumbres". IEEE Transactions on Automatic Control . 59 (9): 2586–2591. doi :10.1109/TAC.2014.2309282. S2CID 8810105.
^ Kelly, Alonzo (1994). "Una formulación en espacio de estados 3D de un filtro Kalman de navegación para vehículos autónomos" (PDF) . Documento DTIC : 13. Archivado (PDF) desde el original el 30 de diciembre de 2014.Versión corregida de 2006 Archivado el 10 de enero de 2017 en Wayback Machine.
^ Reid, Ian; Term, Hilary. "Estimación II" (PDF) . www.robots.ox.ac.uk . Universidad de Oxford . Consultado el 6 de agosto de 2014 .
^ Rajamani, Murali (octubre de 2007). Técnicas basadas en datos para mejorar la estimación de estados en el control predictivo de modelos (PDF) (tesis doctoral). Universidad de Wisconsin-Madison. Archivado desde el original (PDF) el 4 de marzo de 2016. Consultado el 4 de abril de 2011 .
^ Rajamani, Murali R.; Rawlings, James B. (2009). "Estimación de la estructura de perturbación a partir de datos utilizando programación semidefinida y ponderación óptima". Automatica . 45 (1): 142–148. doi :10.1016/j.automatica.2008.05.032. S2CID 5699674.
^ "Caja de herramientas de mínimos cuadrados de autocovarianza". Jbrwww.che.wisc.edu . Consultado el 18 de agosto de 2021 .
^ Bania, P.; Baranowski, J. (12 de diciembre de 2016). Filtro de Kalman de campo y su aproximación. IEEE 55th Conference on Decision and Control (CDC). Las Vegas, NV, EE. UU.: IEEE. págs. 2875–2880.
^ ab Greenberg, Ido; Yannay, Netanel; Mannor, Shie (15 de diciembre de 2023). "Optimización o arquitectura: cómo hackear el filtrado de Kalman". Avances en sistemas de procesamiento de información neuronal . 36 : 50482–50505. arXiv : 2310.00675 .
^ Bar-Shalom, Yaakov; Li, X.-Rong; Kirubarajan, Thiagalingam (2001). Estimación con aplicaciones para el seguimiento y la navegación . Nueva York, EE. UU.: John Wiley & Sons, Inc., págs. 319 y siguientes. doi :10.1002/0471221279. ISBN.0-471-41655-X.
^ En Peter, Matisko (2012) se describen tres pruebas de optimalidad con ejemplos numéricos . "Optimality Tests and Adaptive Kalman Filter". 16.º Simposio IFAC sobre identificación de sistemas . Vol. 45. págs. 1523–1528. doi :10.3182/20120711-3-BE-2027.00011. ISBN .978-3-902823-06-9. {{cite book}}: |journal=ignorado ( ayuda )
^ Spall, James C. (1995). "La desigualdad de Kantorovich para el análisis de errores del filtro de Kalman con distribuciones de ruido desconocidas". Automatica . 31 (10): 1513–1517. doi :10.1016/0005-1098(95)00069-9.
^ Maryak, JL; Spall, JC; Heydon, BD (2004). "Uso del filtro Kalman para inferencia en modelos de espacio de estados con distribuciones de ruido desconocidas". IEEE Transactions on Automatic Control . 49 : 87–90. doi :10.1109/TAC.2003.821415. S2CID 21143516.
^ ab Walrand, Jean; Dimakis, Antonis (agosto de 2006). Procesos aleatorios en sistemas: notas de clase (PDF) . pp. 69–70. Archivado desde el original (PDF) el 7 de mayo de 2019. Consultado el 7 de mayo de 2019 .
^ Sant, Donald T. "Mínimos cuadrados generalizados aplicados a modelos de parámetros que varían con el tiempo". Annals of Economic and Social Measurement, volumen 6, número 3. NBER, 1977. 301-314. Pdf en línea
^ Jingyang Lu. "Ataque de inyección de información falsa en la estimación dinámica del estado en sistemas multisensoriales", Fusion 2014
^ ab Thornton, Catherine L. (15 de octubre de 1976). Factorizaciones de covarianza triangular para filtrado de Kalman (PhD). NASA . Memorándum técnico de la NASA 33-798.
^ abc Bierman, GJ (1977). "Métodos de factorización para estimación secuencial discreta". Métodos de factorización para estimación secuencial discreta . Código Bibliográfico :1977fmds.book.....B.
^ ab Bar-Shalom, Yaakov; Li, X. Rong; Kirubarajan, Thiagalingam (julio de 2001). Estimación con aplicaciones para el seguimiento y la navegación . Nueva York: John Wiley & Sons . págs. 308–317. ISBN.978-0-471-41655-5.
^ Golub, Gene H.; Van Loan, Charles F. (1996). Cálculos matriciales . Estudios de Johns Hopkins sobre las ciencias matemáticas (tercera edición). Baltimore, Maryland: Johns Hopkins University . pág. 139. ISBN.978-0-8018-5414-9.
^ Särkkä, S.; Ángel F. García-Fernández (2021). "Paralelización temporal de suavizadores bayesianos". IEEE Transactions on Automatic Control . 66 (1): 299–306. arXiv : 1905.13002 . doi :10.1109/TAC.2020.2976316. S2CID 213695560.
^ "Suma de prefijos paralelos (escaneo) con CUDA". developer.nvidia.com/ . Consultado el 21 de febrero de 2020 . La operación de escaneo es una primitiva paralela simple y poderosa con una amplia gama de aplicaciones. En este capítulo, hemos explicado una implementación eficiente del escaneo usando CUDA, que logra una aceleración significativa en comparación con una implementación secuencial en una CPU rápida y en comparación con una implementación paralela en OpenGL en la misma GPU. Debido a la creciente potencia de los procesadores paralelos básicos como las GPU, esperamos ver que los algoritmos de datos paralelos como el escaneo aumenten en importancia en los próximos años.
^ Masreliez, C. Johan; Martin, RD (1977). "Estimación bayesiana robusta para el modelo lineal y robustez del filtro de Kalman". IEEE Transactions on Automatic Control . 22 (3): 361–371. doi :10.1109/TAC.1977.1101538.
^ Lütkepohl, Helmut (1991). Introducción al análisis de series temporales múltiples . Heidelberg: Springer-Verlag Berlin. pág. 435.
^ Gustafsson, Fredrik (2018). Fusión de sensores estadísticos (Tercera ed.). Lund: Literatura estudiantil. págs. 160-162. ISBN978-91-44-12724-8.
^ por Gabriel T. Terejanu (4 de agosto de 2012). "Tutorial de filtro Kalman discreto" (PDF) . Archivado desde el original (PDF) el 17 de agosto de 2020. Consultado el 13 de abril de 2016 .
^ Anderson, Brian DO; Moore, John B. (1979). Filtrado óptimo . Englewood Cliffs, NJ: Prentice Hall, Inc., págs. 176-190. ISBN978-0-13-638122-8.
^ Rauch, HE; Tung, F.; Striebel, CT (agosto de 1965). "Estimaciones de máxima verosimilitud de sistemas dinámicos lineales". AIAA Journal . 3 (8): 1445–1450. Bibcode :1965AIAAJ...3.1445R. doi :10.2514/3.3166.
^ Einicke, GA (marzo de 2006). "Formulaciones de filtros no causales óptimas y robustas". IEEE Transactions on Signal Processing . 54 (3): 1069–1077. Bibcode :2006ITSP...54.1069E. doi :10.1109/TSP.2005.863042. S2CID 15376718.
^ Einicke, GA (abril de 2007). "Optimalidad asintótica del suavizador de intervalo fijo de varianza mínima". IEEE Transactions on Signal Processing . 55 (4): 1543–1547. Bibcode :2007ITSP...55.1543E. doi :10.1109/TSP.2006.889402. S2CID 16218530.
^ Einicke, GA; Ralston, JC; Hargrave, CO; Reid, DC; Hainsworth, DW (diciembre de 2008). "Automatización de minería de tajo largo. Una aplicación de suavizado de varianza mínima". Revista IEEE Control Systems . 28 (6): 28–37. doi :10.1109/MCS.2008.929281. S2CID 36072082.
^ Einicke, GA (diciembre de 2009). "Optimalidad asintótica del suavizador de intervalo fijo de varianza mínima". IEEE Transactions on Automatic Control . 54 (12): 2904–2908. Bibcode :2007ITSP...55.1543E. doi :10.1109/TSP.2006.889402. S2CID 16218530.
^ Einicke, GA (diciembre de 2014). "Procedimientos iterativos de filtrado y suavizado ponderados en frecuencia". IEEE Signal Processing Letters . 21 (12): 1467–1470. Bibcode :2014ISPL...21.1467E. doi :10.1109/LSP.2014.2341641. S2CID 13569109.
^ Biswas, Sanat K.; Qiao, Li; Dempster, Andrew G. (1 de diciembre de 2020). "Un enfoque cuantificado para predecir la idoneidad del uso del filtro Kalman sin aroma en una aplicación no lineal". Automatica . 122 : 109241. doi :10.1016/j.automatica.2020.109241. ISSN 0005-1098. S2CID 225028760.
^ ab Julier, Simon J.; Uhlmann, Jeffrey K. (2004). "Filtrado sin aroma y estimación no lineal". Actas del IEEE . 92 (3): 401–422. doi :10.1109/JPROC.2003.823141. S2CID 9614092.
^ Julier, Simon J.; Uhlmann, Jeffrey K. (1997). "Nueva extensión del filtro Kalman a sistemas no lineales" (PDF) . En Kadar, Ivan (ed.). Procesamiento de señales, fusión de sensores y reconocimiento de objetivos VI . Actas de SPIE. Vol. 3. págs. 182–193. Código Bibliográfico :1997SPIE.3068..182J. CiteSeerX 10.1.1.5.2891 . doi :10.1117/12.280797. S2CID 7937456 . Consultado el 2008-05-03 .
^ Menegaz, HMT; Ishihara, JY; Borges, GA; Vargas, AN (octubre de 2015). "Una sistematización de la teoría del filtro de Kalman sin perfume". Transacciones IEEE sobre control automático . 60 (10): 2583–2598. doi :10.1109/tac.2015.2404511. hdl : 20.500.11824/251 . ISSN 0018-9286. S2CID 12606055.
^ Gustafsson, Fredrik; Hendeby, Gustaf (2012). "Algunas relaciones entre filtros de Kalman extendidos y no perfumados". IEEE Transactions on Signal Processing . 60 (2): 545–555. Bibcode :2012ITSP...60..545G. doi :10.1109/tsp.2011.2172431. S2CID 17876531.
^ Van der Merwe, R.; Wan, EA (2001). "El filtro Kalman sin aroma de raíz cuadrada para estimación de estado y parámetro". 2001 IEEE International Conference on Acoustics, Speech, and Signal Processing. Actas (Cat. No.01CH37221) . Vol. 6. págs. 3461–3464. doi :10.1109/ICASSP.2001.940586. ISBN0-7803-7041-4.S2CID7290857 .
^ Bitzer, S. (2016). "El UKF al descubierto: cómo funciona, cuándo funciona y cuándo es mejor muestrear". doi :10.5281/zenodo.44386.{{cite journal}}: Requiere citar revista |journal=( ayuda )
^ Wan, EA; Van Der Merwe, R. (2000). "El filtro Kalman sin aroma para la estimación no lineal" (PDF) . Actas del Simposio IEEE 2000 sobre sistemas adaptativos para procesamiento de señales, comunicaciones y control (Cat. No.00EX373) . p. 153. CiteSeerX 10.1.1.361.9373 . doi :10.1109/ASSPCC.2000.882463. ISBN .978-0-7803-5800-3. S2CID 13992571. Archivado desde el original (PDF) el 3 de marzo de 2012. Consultado el 31 de enero de 2010 .
^ Sarkka, Simo (septiembre de 2007). "Sobre el filtrado de Kalman sin aroma para la estimación de estados de sistemas no lineales de tiempo continuo". IEEE Transactions on Automatic Control . 52 (9): 1631–1641. doi :10.1109/TAC.2007.904453.
^ ab Burkhart, Michael C.; Brandman, David M.; Franco, Brian; Hochberg, Leigh; Harrison, Matthew T. (2020). "El filtro de Kalman discriminativo para el filtrado bayesiano con modelos de observación no lineales y no gaussianos". Neural Computation . 32 (5): 969–1017. doi :10.1162/neco_a_01275. PMC 8259355 . PMID 32187000. S2CID 212748230 . Consultado el 26 de marzo de 2021 .
^ ab Burkhart, Michael C. (2019). Un enfoque discriminativo del filtrado bayesiano con aplicaciones a la decodificación neuronal humana (tesis). Providence, RI, EE. UU.: Universidad de Brown. doi :10.26300/nhfp-xv22.
^ ab Brandman, David M.; Burkhart, Michael C.; Kelemen, Jessica; Franco, Brian; Harrison, Matthew T.; Hochberg, Leigh R. (2018). "Control robusto de bucle cerrado de un cursor en una persona con tetraplejia mediante regresión de proceso gaussiano". Neural Computation . 30 (11): 2986–3008. doi :10.1162/neco_a_01129. PMC 6685768 . PMID 30216140 . Consultado el 26 de marzo de 2021 .
^ Bar-Shalom, Yaakov; Li, X.-Rong; Kirubarajan, Thiagalingam (2001). Estimación con aplicaciones para el seguimiento y la navegación . Nueva York, EE. UU.: John Wiley & Sons, Inc., págs. 421 y siguientes. doi :10.1002/0471221279. ISBN .0-471-41655-X.
^ Bucy, RS y Joseph, PD, Filtrado para procesos estocásticos con aplicaciones para orientación, John Wiley & Sons, 1968; 2.ª edición, AMS Chelsea Publ., 2005. ISBN 0-8218-3782-6
^ Jazwinski, Andrew H., Procesos estocásticos y teoría del filtrado, Academic Press, Nueva York, 1970. ISBN 0-12-381550-9
^ Kailath, T. (1968). "Un enfoque innovador para la estimación de mínimos cuadrados. Parte I: Filtrado lineal en ruido blanco aditivo". IEEE Transactions on Automatic Control . 13 (6): 646–655. doi :10.1109/TAC.1968.1099025.
^ Vaswani, Namrata (2008). "Detección comprimida con filtro de Kalman". 2008 15.ª Conferencia internacional IEEE sobre procesamiento de imágenes . págs. 893–896. arXiv : 0804.0819 . doi :10.1109/ICIP.2008.4711899. ISBN978-1-4244-1765-0.S2CID 9282476 .
^ Carmi, Avishy; Gurfil, Pini; Kanevsky, Dimitri (2010). "Métodos para la recuperación de señales dispersas utilizando el filtrado de Kalman con pseudonormas y cuasinormas de medición integradas". IEEE Transactions on Signal Processing . 58 (4): 2405–2409. Bibcode :2010ITSP...58.2405C. doi :10.1109/TSP.2009.2038959. S2CID 10569233.
^ Zachariah, Dave; Chatterjee, Saikat; Jansson, Magnus (2012). "Búsqueda iterativa dinámica". IEEE Transactions on Signal Processing . 60 (9): 4967–4972. arXiv : 1206.2496 . Código Bibliográfico :2012ITSP...60.4967Z. doi :10.1109/TSP.2012.2203813. S2CID 18467024.
^ Särkkä, Simo; Hartikainen, Jouni; Svensson, Lennart; Sandblom, Fredrik (22 de abril de 2015). "Sobre la relación entre las cuadraturas del proceso gaussiano y los métodos del punto sigma". arXiv : 1504.05994 [estad.ME].
^ Vasebi, Amir; Partovibakhsh, Maral; Bathaee, S. Mohammad Taghi (2007). "Un nuevo modelo de batería combinada para la estimación del estado de carga en baterías de plomo-ácido basado en un filtro Kalman extendido para aplicaciones de vehículos eléctricos híbridos". Journal of Power Sources . 174 (1): 30–40. Bibcode :2007JPS...174...30V. doi :10.1016/j.jpowsour.2007.04.011.
^ Vasebi, A.; Bathaee, SMT; Partovibakhsh, M. (2008). "Predicción del estado de carga de baterías de plomo-ácido para vehículos eléctricos híbridos mediante un filtro Kalman extendido". Conversión y gestión de energía . 49 (1): 75–82. Bibcode :2008ECM....49...75V. doi :10.1016/j.enconman.2007.05.017.
^ Fruhwirth, R. (1987). "Aplicación del filtrado de Kalman al ajuste de pistas y vértices". Instrumentos y métodos nucleares en la investigación en física Sección A . 262 (2–3): 444–450. Bibcode :1987NIMPA.262..444F. doi :10.1016/0168-9002(87)90887-4.
^ Harvey, Andrew C. (1994). "Aplicaciones del filtro de Kalman en econometría". En Bewley, Truman (ed.). Advances in Econometrics . Nueva York: Cambridge University Press. pp. 285f. ISBN978-0-521-46726-1.
^ Boulfelfel, D.; Rangayyan, RM; Hahn, LJ; Kloiber, R.; Kuduvalli, GR (1994). "Restauración bidimensional de imágenes de tomografía computarizada por emisión de fotón único utilizando el filtro Kalman". IEEE Transactions on Medical Imaging . 13 (1): 102–109. doi :10.1109/42.276148. PMID 18218487.
^ Bock, Y.; Crowell, B.; Webb, F.; Kedar, S.; Clayton, R.; Miyahara, B. (2008). "Fusión de GPS de alta velocidad y datos sísmicos: aplicaciones a sistemas de alerta temprana para la mitigación de riesgos geológicos". Resúmenes de la reunión de otoño de la AGU . 43 : G43B–01. Código Bibliográfico :2008AGUFM.G43B..01B.
^ Wolpert, DM; Miall, RC (1996). "Modelos avanzados para el control motor fisiológico". Redes neuronales . 9 (8): 1265–1279. doi :10.1016/S0893-6080(96)00035-4. PMID 12662535.
Lectura adicional
Einicke, GA (2019). Suavizado, filtrado y predicción: estimación del pasado, el presente y el futuro (2.ª ed.) . Amazon Prime Publishing. ISBN 978-0-6485115-0-2.
Jinya Su; Baibing Li; Wen-Hua Chen (2015). "Sobre la existencia, optimalidad y estabilidad asintótica del filtro de Kalman con entradas parcialmente observadas". Automatica . 53 : 149–154. doi : 10.1016/j.automatica.2014.12.044 .
Gelb, A. (1974). Estimación óptima aplicada . MIT Press.
Kalman, RE (1960). "Un nuevo enfoque para el filtrado lineal y los problemas de predicción" (PDF) . Journal of Basic Engineering . 82 (1): 35–45. doi :10.1115/1.3662552. S2CID 1242324. Archivado desde el original (PDF) el 29 de mayo de 2008 . Consultado el 3 de mayo de 2008 .
Kalman, RE; Bucy, RS (1961). "Nuevos resultados en filtrado lineal y teoría de predicción". Journal of Basic Engineering . 83 : 95–108. CiteSeerX 10.1.1.361.6851 . doi :10.1115/1.3658902. S2CID 8141345.
Harvey, AC (1990). Pronóstico, modelos estructurales de series temporales y el filtro de Kalman. Cambridge University Press. ISBN 978-0-521-40573-7.
Roweis, S.; Ghahramani, Z. (1999). "Una revisión unificadora de los modelos gaussianos lineales" (PDF) . Neural Computation . 11 (2): 305–345. doi :10.1162/089976699300016674. PMID 9950734. S2CID 2590898.
Simon, D. (2006). Estimación del estado óptimo: Kalman, H Infinity y enfoques no lineales. Wiley-Interscience. Archivado desde el original el 2010-12-30 . Consultado el 2006-07-05 .
Warwick, K . (1987). "Observadores óptimos para modelos ARMA". Revista Internacional de Control . 46 (5): 1493–1503. doi :10.1080/00207178708933989.
Bierman, GJ (1977). Métodos de factorización para estimación secuencial discreta . Vol. 128. Mineola, NY: Dover Publications. ISBN .978-0-486-44981-4. {{cite book}}: |journal=ignorado ( ayuda )
Bozic, SM (1994). Filtrado digital y de Kalman . Butterworth–Heinemann.
Haykin, S. (2002). Teoría del filtro adaptativo . Prentice Hall.
Liu, W.; Principe, JC y Haykin, S. (2010). Filtrado adaptativo de núcleo: una introducción completa . John Wiley.{{cite book}}: CS1 maint: multiple names: authors list (link)
Manolakis, DG (1999). Procesamiento de señales estadístico y adaptativo . Artech House.
Welch, Greg; Bishop, Gary (1997). "SCAAT: seguimiento incremental con información incompleta" (PDF) . SIGGRAPH '97 Actas de la 24.ª conferencia anual sobre gráficos por ordenador y técnicas interactivas . ACM Press/Addison-Wesley Publishing Co. pp. 333–344. doi :10.1145/258734.258876. ISBN 978-0-89791-896-1.S2CID 1512754 .
Jazwinski, Andrew H. (1970). Procesos estocásticos y filtrado . Matemáticas en la ciencia y la ingeniería. Nueva York: Academic Press . pág. 376. ISBN.978-0-12-381550-7.
Maybeck, Peter S. (1979). "Capítulo 1" (PDF) . Modelos estocásticos, estimación y control . Matemáticas en la ciencia y la ingeniería. Vol. 141–1. Nueva York: Academic Press . ISBN.978-0-12-480701-3.
Dunik, J.; Simandl M.; Straka O. (2009). "Métodos para estimar matrices de covarianza de ruido de estado y de medición: aspectos y comparación". 15.º Simposio IFAC sobre identificación de sistemas, 2009. Francia. págs. 372–377. doi :10.3182/20090706-3-FR-2004.00061. ISBN .978-3-902661-47-0.{{cite book}}: CS1 maint: location missing publisher (link)
Chui, Charles K.; Chen, Guanrong (2009). Filtrado de Kalman con aplicaciones en tiempo real . Springer Series in Information Sciences. Vol. 17 (4.ª ed.). Nueva York: Springer . pág. 229. ISBN.978-3-540-87848-3.
Spivey, Ben; Hedengren, JD y Edgar, TF (2010). "Estimación no lineal restringida para ensuciamiento de procesos industriales". Investigación química industrial y de ingeniería . 49 (17): 7824–7831. doi :10.1021/ie9018116.{{cite journal}}: CS1 maint: multiple names: authors list (link)
Un nuevo enfoque para los problemas de filtrado y predicción lineal, por RE Kalman, 1960
Filtros de Kalman y bayesianos en Python. Libro de texto de código abierto sobre filtrado de Kalman.
Cómo funciona un filtro Kalman, en imágenes. Ilumina el filtro Kalman con imágenes y colores
Filtro de Kalman-Bucy, una derivación del filtro de Kalman-Bucy
Videoconferencia del MIT sobre el filtro Kalman en YouTube
Filtro Kalman en Javascript. Biblioteca de filtros Kalman de código abierto para Node.js y el navegador web.
Introducción al filtro Kalman Archivado el 24 de febrero de 2021 en Wayback Machine , Curso SIGGRAPH 2001, Greg Welch y Gary Bishop
Página web del filtro Kalman, con numerosos enlaces
Explicación sencilla del filtro de Kalman: tutorial paso a paso del filtro de Kalman con ecuaciones
"Filtros Kalman utilizados en modelos meteorológicos" (PDF) . SIAM News . 36 (8). Octubre de 2003. Archivado desde el original (PDF) el 2011-05-17 . Consultado el 2007-01-27 .
Haseltine, Eric L.; Rawlings, James B. (2005). "Evaluación crítica del filtrado de Kalman extendido y la estimación de horizonte móvil". Investigación en química industrial e ingeniería . 44 (8): 2451. doi :10.1021/ie034308l.
Biblioteca de subrutinas de estimación de Gerald J. Bierman: corresponde al código de la monografía de investigación "Métodos de factorización para estimación secuencial discreta", publicada originalmente por Academic Press en 1977. Republicada por Dover.
Caja de herramientas de Matlab que implementa partes de la biblioteca de subrutinas de estimación de Gerald J. Bierman: factorización UD/UDU' y LD/LDL' con actualizaciones de tiempo y medición asociadas que conforman el filtro Kalman.
Caja de herramientas de Matlab de filtrado de Kalman aplicado a la localización y mapeo simultáneos: Vehículo en movimiento en 1D, 2D y 3D
El filtro de Kalman en la reproducción de espacios de Hilbert de núcleo Una introducción completa.
Código Matlab para estimar el modelo de tasa de interés de Cox-Ingersoll-Ross con el filtro de Kalman Archivado el 9 de febrero de 2014 en Wayback Machine : Corresponde al artículo "estimating and testing exponential-affine term structure models by kalman filter" publicado por Review of Quantitative Finance and Accounting en 1999.
Demostración en línea del filtro de Kalman. Demostración del filtro de Kalman (y otros métodos de asimilación de datos) mediante experimentos con gemelos.
kalman-filter.com. Información sobre el uso de los filtros de Kalman en diferentes ámbitos.
Botella, Guillermo; Martín h., José Antonio; Santos, Matilde; Meyer-Baese, Uwe (2011). "FPGA-Based Multimodal Embedded Sensor System Integrating Low- and Mid-Level Vision". Sensores . 11 (12): 1251–1259. Bibcode :2011Senso..11.8164B. doi : 10.3390/s110808164 . PMC 3231703 . PMID 22164069.
Ejemplos y procedimientos para utilizar filtros de Kalman con MATLAB Un tutorial sobre filtrado y estimación
Explicación del filtrado (estimación) en una hora, diez minutos, un minuto y una frase por Yu-Chi Ho
Simo Särkkä (2013). "Bayesian Filtering and Smoothing". Cambridge University Press. Texto completo disponible en la página web del autor https://users.aalto.fi/~ssarkka/.