Algoritmo de filtro adaptativo para procesamiento de señales digitales.
Los mínimos cuadrados recursivos ( RLS ) es un algoritmo de filtro adaptativo que encuentra de forma recursiva los coeficientes que minimizan una función de costo de mínimos cuadrados lineal ponderada relacionada con las señales de entrada. Este enfoque contrasta con otros algoritmos como los mínimos cuadrados medios (LMS) que tienen como objetivo reducir el error cuadrático medio . En la derivación del RLS las señales de entrada se consideran deterministas , mientras que para el LMS y algoritmos similares se consideran estocásticas . En comparación con la mayoría de sus competidores, el RLS muestra una convergencia extremadamente rápida. Sin embargo, este beneficio tiene el costo de una alta complejidad computacional.
Motivación
RLS fue descubierto por Gauss , pero no se utilizó o se ignoró hasta 1950, cuando Plackett redescubrió el trabajo original de Gauss de 1821. En general, el RLS se puede utilizar para resolver cualquier problema que pueda resolverse mediante filtros adaptativos . Por ejemplo, supongamos que una señal se transmite a través de un canal ruidoso y con eco que hace que se reciba como
donde representa ruido aditivo . La intención del filtro RLS es recuperar la señal deseada mediante el uso de un filtro FIR -tap :
¿Dónde está el vector de columna que contiene las muestras más recientes de ? La estimación de la señal deseada recuperada es
El objetivo es estimar los parámetros del filtro , y en cada momento nos referimos a la estimación actual como y a la estimación de mínimos cuadrados adaptada como . también es un vector de columna, como se muestra a continuación, y la transpuesta , es un vector de fila . El producto matricial (que es el producto escalar de y ) es un escalar. La estimación es "buena" si su magnitud es pequeña en algún sentido de mínimos cuadrados .
A medida que pasa el tiempo, se desea evitar rehacer completamente el algoritmo de mínimos cuadrados para encontrar la nueva estimación para , en términos de .
El beneficio del algoritmo RLS es que no es necesario invertir matrices, lo que ahorra costos computacionales. Otra ventaja es que proporciona intuición detrás de resultados como el filtro de Kalman .
Discusión
La idea detrás de los filtros RLS es minimizar una función de costo seleccionando adecuadamente los coeficientes del filtro y actualizando el filtro a medida que llegan nuevos datos. La señal de error y la señal deseada se definen en el siguiente diagrama de retroalimentación negativa :
El error depende implícitamente de los coeficientes de filtro a través de la estimación :
Por lo tanto , el hecho de que la función de error de mínimos cuadrados ponderados (la función de costos que deseamos minimizar) también dependa de los coeficientes del filtro:
¿Dónde está el "factor de olvido" que da exponencialmente menos peso a las muestras de errores más antiguas?
La función de costo se minimiza tomando las derivadas parciales de todas las entradas del vector de coeficientes y estableciendo los resultados en cero.
A continuación, reemplace con la definición de la señal de error.
Reorganizando la ecuación se obtiene
Esta forma se puede expresar en términos de matrices.
donde es la matriz de covarianza muestral ponderada para , y es la estimación equivalente para la covarianza cruzada entre y . Con base en esta expresión encontramos los coeficientes que minimizan la función de costos como
Este es el principal resultado de la discusión.
Eligiendo λ
Cuanto menor es, menor es la contribución de las muestras anteriores a la matriz de covarianza. Esto hace que el filtro sea más sensible a muestras recientes, lo que significa más fluctuaciones en los coeficientes del filtro. El caso se conoce como algoritmo RLS de ventana creciente . En la práctica, generalmente se elige entre 0,98 y 1. [1] Al utilizar la estimación de máxima verosimilitud de tipo II, se puede estimar el valor óptimo a partir de un conjunto de datos. [2]
Algoritmo recursivo
La discusión dio como resultado una única ecuación para determinar un vector de coeficientes que minimice la función de costos. En esta sección queremos derivar una solución recursiva de la forma
donde es un factor de corrección en el tiempo . Comenzamos la derivación del algoritmo recursivo expresando la covarianza cruzada en términos de
¿Dónde está el vector de datos dimensionales?
De manera similar expresamos en términos de por
Para generar el vector de coeficientes nos interesa la inversa de la matriz determinista de autocovarianza. Para esa tarea la identidad de la matriz de Woodbury resulta útil. Con
La identidad de la matriz de Woodbury sigue
Para alinearnos con la literatura estándar, definimos
donde el vector de ganancia es
Antes de continuar, es necesario adoptar otra forma.
Restando el segundo término del lado izquierdo se obtiene
Con la definición recursiva de la forma deseada sigue
Ahora estamos listos para completar la recursividad. Como se discutio
El segundo paso se deriva de la definición recursiva de . A continuación incorporamos la definición recursiva de junto con la forma alternativa de y obtenemos
Con llegamos a la ecuación de actualización.
¿Dónde
está el error a priori ? Compare esto con el error a posteriori ; el error calculado después de actualizar el filtro:
Eso significa que encontramos el factor de corrección.
Este resultado intuitivamente satisfactorio indica que el factor de corrección es directamente proporcional tanto al error como al vector de ganancia, que controla cuánta sensibilidad se desea, a través del factor de ponderación .
Resumen del algoritmo RLS
El algoritmo RLS para un filtro RLS de orden p se puede resumir como
La recursividad para sigue una ecuación algebraica de Riccati y, por lo tanto, traza paralelos con el filtro de Kalman . [3]
Filtro de mínimos cuadrados recursivo de celosía (LRLS)
El filtro adaptativo de mínimos cuadrados recursivo de celosía está relacionado con el RLS estándar, excepto que requiere menos operaciones aritméticas (orden N ). [4] Ofrece ventajas adicionales sobre los algoritmos LMS convencionales, como tasas de convergencia más rápidas, estructura modular e insensibilidad a las variaciones en la dispersión de valores propios de la matriz de correlación de entrada. El algoritmo LRLS descrito se basa en errores a posteriori e incluye la forma normalizada. La derivación es similar al algoritmo RLS estándar y se basa en la definición de . En el caso de la predicción directa, tenemos la señal de entrada como la muestra más actualizada. El caso de predicción hacia atrás es , donde i es el índice de la muestra en el pasado que queremos predecir y la señal de entrada es la muestra más reciente. [5]
Resumen de parámetros
- es el coeficiente de reflexión directa
- es el coeficiente de reflexión hacia atrás
- representa el error instantáneo de predicción directa a posteriori
- representa el error instantáneo de predicción hacia atrás a posteriori
- es el error mínimo de predicción hacia atrás por mínimos cuadrados
- es el error mínimo de predicción directa de mínimos cuadrados
- es un factor de conversión entre errores a priori y a posteriori
- son los coeficientes multiplicadores feedforward.
- es una pequeña constante positiva que puede ser 0,01
Resumen del algoritmo LRLS
El algoritmo para un filtro LRLS se puede resumir como
Filtro de mínimos cuadrados recursivo de celosía normalizada (NLRLS)
La forma normalizada de LRLS tiene menos recursiones y variables. Se puede calcular aplicando una normalización a las variables internas del algoritmo que mantendrá su magnitud limitada por uno. Generalmente, esto no se usa en aplicaciones en tiempo real debido a la cantidad de operaciones de división y raíz cuadrada que conllevan una alta carga computacional.
Resumen del algoritmo NLRLS
El algoritmo para un filtro NLRLS se puede resumir como
Ver también
Referencias
- Hayes, Monson H. (1996). "9.4: Mínimos cuadrados recursivos". Procesamiento y modelado estadístico de señales digitales . Wiley. pag. 541.ISBN 0-471-59431-8.
- Simon Haykin, Teoría del filtro adaptativo , Prentice Hall, 2002, ISBN 0-13-048434-2
- MHA Davis, RB Vinter, Control y modelado estocástico , Springer, 1985, ISBN 0-412-16200-8
- Weifeng Liu, Jose Principe y Simon Haykin, Filtrado adaptativo del kernel: una introducción completa , John Wiley, 2010, ISBN 0-470-44753-2
- RLPlackett, Algunos teoremas en mínimos cuadrados , Biometrika, 1950, 37, 149-157, ISSN 0006-3444
- CFGauss, Theoria combineis observeum erroribus minimis obnoxiae , 1821, Werke, 4. Göttinge
Notas
- ^ Emannual C. Ifeacor, Barrie W. Jervis. Procesamiento de señales digitales: un enfoque práctico, segunda edición. Indianápolis: Pearson Education Limited, 2002, pág. 718
- ^ Steven Van Vaerenbergh, Ignacio Santamaría, Miguel Lázaro-Gredilla "Estimación del factor de olvido en mínimos cuadrados recursivos del kernel", Taller internacional IEEE 2012 sobre aprendizaje automático para procesamiento de señales, 2012, consultado el 23 de junio de 2016.
- ^ Welch, Greg y Bishop, Gary "Una introducción al filtro de Kalman", Departamento de Ciencias de la Computación, Universidad de Carolina del Norte en Chapel Hill, 17 de septiembre de 1997, consultado el 19 de julio de 2011.
- ^ Diniz, Paulo SR, "Filtrado adaptativo: algoritmos e implementación práctica", Springer Nature Suiza AG 2020, Capítulo 7: Algoritmos RLS basados en celosía adaptativa. https://doi.org/10.1007/978-3-030-29057-3_7
- ^ Albu, Kadlec, Softley, Matousek, Hermanek, Coleman, Fagan "Implementación de celosía RLS (normalizada) en Virtex", Procesamiento de señales digitales, 2001, consultado el 24 de diciembre de 2011.