stringtranslate.com

Control lineal-cuadrático-gaussiano

En teoría del control , el problema de control lineal-cuadrático-gaussiano ( LQG ) es uno de los problemas de control óptimo más fundamentales y también puede operarse repetidamente para el control predictivo del modelo . Se trata de sistemas lineales impulsados ​​por ruido blanco gaussiano aditivo . El problema es determinar una ley de retroalimentación de producción que sea óptima en el sentido de minimizar el valor esperado de un criterio de costo cuadrático . Se supone que las mediciones de salida están corrompidas por el ruido gaussiano y que el estado inicial, igualmente, es un vector aleatorio gaussiano.

Bajo estos supuestos, se puede derivar un esquema de control óptimo dentro de la clase de leyes de control lineal mediante un argumento de compleción de cuadrados. [1] Esta ley de control, conocida como controlador LQG , es única y es simplemente una combinación de un filtro de Kalman (un estimador de estado lineal-cuadrático (LQE)) junto con un regulador lineal-cuadrático (LQR). El principio de separación establece que el estimador de estado y la retroalimentación de estado se pueden diseñar de forma independiente. El control LQG se aplica tanto a sistemas lineales invariantes en el tiempo como a sistemas lineales variables en el tiempo , y constituye una ley de control de retroalimentación dinámica lineal que se calcula e implementa fácilmente: el controlador LQG en sí es un sistema dinámico como el sistema que controla. Ambos sistemas tienen la misma dimensión estatal.

Una afirmación más profunda del principio de separación es que el controlador LQG sigue siendo óptimo en una clase más amplia de controladores posiblemente no lineales. Es decir, utilizar un esquema de control no lineal no mejorará el valor esperado de la función de costos. Esta versión del principio de separación es un caso especial del principio de separación del control estocástico que establece que incluso cuando las fuentes de ruido del proceso y de salida sean posiblemente martingalas no gaussianas , siempre que la dinámica del sistema sea lineal, el control óptimo se separa en un estimador de estado óptimo (que puede que ya no sea un filtro de Kalman) y un regulador LQR. [2] [3]

En la configuración LQG clásica, la implementación del controlador LQG puede ser problemática cuando la dimensión del estado del sistema es grande. El problema LQG de orden reducido (problema LQG de orden fijo) supera esto fijando a priori el número de estados del controlador LQG. Este problema es más difícil de resolver porque ya no es separable. Además, la solución ya no es única. A pesar de estos hechos, hay algoritmos numéricos disponibles [4] [5] [6] [7] para resolver las ecuaciones de proyección óptimas asociadas [8] [9] que constituyen condiciones necesarias y suficientes para un controlador LQG de orden reducido localmente óptimo. [4]

La optimización de LQG no garantiza automáticamente buenas propiedades de robustez. [10] La robusta estabilidad del sistema de circuito cerrado debe comprobarse por separado después de diseñar el controlador LQG. Para promover la robustez, algunos de los parámetros del sistema pueden asumirse como estocásticos en lugar de deterministas. El problema de control más difícil asociado conduce a un controlador óptimo similar del cual sólo los parámetros del controlador son diferentes. [5]

Es posible calcular el valor esperado de la función de costos para las ganancias óptimas, así como para cualquier otro conjunto de ganancias estables. [11]

El controlador LQG también se utiliza para controlar sistemas no lineales perturbados. [12]

Descripción matemática del problema y solución.

Tiempo continuo

Considere el sistema dinámico lineal de tiempo continuo.

donde representa el vector de variables de estado del sistema, el vector de entradas de control y el vector de salidas medidas disponibles para retroalimentación. Tanto el ruido blanco gaussiano aditivo del sistema como el ruido blanco gaussiano aditivo de medición afectan al sistema. Dado este sistema, el objetivo es encontrar el historial de entradas de control que en cada momento puede depender linealmente sólo de las mediciones pasadas, de modo que se minimice la siguiente función de costos:

donde denota el valor esperado . El tiempo final (horizonte) puede ser finito o infinito. Si el horizonte tiende al infinito, el primer término de la función de costos se vuelve insignificante e irrelevante para el problema. Además, para mantener los costos finitos, se debe considerar que la función de costos es .

El controlador LQG que resuelve el problema de control LQG se especifica mediante las siguientes ecuaciones:

La matriz se denomina ganancia de Kalman del filtro de Kalman asociado representado por la primera ecuación. En cada momento, este filtro genera estimaciones del estado utilizando las mediciones y entradas anteriores. La ganancia de Kalman se calcula a partir de las matrices , las dos matrices de intensidad asociadas a los ruidos blancos gaussianos y finalmente . Estas cinco matrices determinan la ganancia de Kalman a través de la siguiente ecuación diferencial matricial de Riccati asociada:

Dada la solución, la ganancia de Kalman es igual

La matriz se llama matriz de ganancia de retroalimentación . Esta matriz está determinada por las matrices y mediante la siguiente ecuación diferencial matricial de Riccati asociada:

Dada la solución, la ganancia de retroalimentación es igual

Observe la similitud de las dos ecuaciones diferenciales matriciales de Riccati, la primera avanza en el tiempo y la segunda retrocede en el tiempo. Esta similitud se llama dualidad . La primera ecuación diferencial matricial de Riccati resuelve el problema de estimación lineal-cuadrática (LQE). La segunda ecuación diferencial matricial de Riccati resuelve el problema del regulador lineal-cuadrático (LQR). Estos problemas son duales y juntos resuelven el problema de control lineal-cuadrático-gaussiano (LQG). Entonces, el problema LQG se divide en problemas LQE y LQR que se pueden resolver de forma independiente. Por lo tanto, el problema LQG se llama separable .

Cuando y las matrices de intensidad de ruido no dependen de y cuando tiende a infinito , el controlador LQG se convierte en un sistema dinámico invariante en el tiempo. En ese caso, la segunda ecuación diferencial matricial de Riccati puede reemplazarse por la ecuación algebraica de Riccati asociada .

Tiempo discreto

Dado que el problema de control LQG en tiempo discreto es similar al de tiempo continuo, la siguiente descripción se centra en las ecuaciones matemáticas.

Las ecuaciones del sistema lineal en tiempo discreto son

Aquí se representa el índice de tiempo discreto y se representan procesos de ruido blanco gaussiano de tiempo discreto con matrices de covarianza , respectivamente, y son independientes entre sí.

La función de costo cuadrática a minimizar es

El controlador LQG de tiempo discreto es

,

y corresponde a la estimación predictiva .

La ganancia de Kalman es igual

donde está determinado por la siguiente ecuación matricial en diferencias de Riccati que avanza en el tiempo:

La matriz de ganancia de retroalimentación es igual

donde está determinado por la siguiente ecuación matricial en diferencias de Riccati que se ejecuta hacia atrás en el tiempo:

Si todas las matrices en la formulación del problema son invariantes en el tiempo y si el horizonte tiende al infinito, el controlador LQG de tiempo discreto se vuelve invariante en el tiempo. En ese caso, las ecuaciones matriciales en diferencias de Riccati pueden reemplazarse por sus ecuaciones algebraicas de Riccati de tiempo discreto asociadas . Estos determinan el estimador lineal-cuadrático invariante en el tiempo y el regulador lineal-cuadrático invariante en el tiempo en tiempo discreto. Para mantener los costes finitos, en este caso hay que tener en cuenta .

Ver también

Referencias

  1. ^ Karl Johan Astrom (1970). Introducción a la teoría del control estocástico . vol. 58. Prensa académica. ISBN 0-486-44531-3.
  2. ^ Anders Lindquist (1973). "Sobre el control de retroalimentación de sistemas estocásticos lineales". Revista SIAM de Control . 11 (2): 323–343. doi :10.1137/0311025..
  3. ^ Tryphon T. Georgiou y Anders Lindquist (2013). "El principio de separación en control estocástico, Redux". Transacciones IEEE sobre control automático . 58 (10): 2481–2494. arXiv : 1103.3005 . doi :10.1109/TAC.2013.2259207. S2CID  12623187.
  4. ^ ab Van Willigenburg LG; De Koning WL (2000). "Algoritmos numéricos y cuestiones relativas a las ecuaciones de proyección óptimas en tiempo discreto". Revista europea de control . 6 (1): 93-100. doi :10.1016/s0947-3580(00)70917-4.Descarga de software asociado desde Matlab Central.
  5. ^ ab Van Willigenburg LG; De Koning WL (1999). "Compensadores óptimos de orden reducido para sistemas de tiempo discreto variables en el tiempo con parámetros deterministas y blancos". Automática . 35 : 129-138. doi :10.1016/S0005-1098(98)00138-1.Descarga de software asociado desde Matlab Central.
  6. ^ Zigic D.; Watson LT; Collins, por ejemplo; Haddad WM; Ying S. (1996). "Métodos de homotopía para resolver las ecuaciones de proyección óptimas para el problema del modelo de orden reducido H2". Revista Internacional de Control . 56 (1): 173-191. doi : 10.1080/00207179208934308.
  7. ^ Collins Jr., por ejemplo; Haddad WM; Ying S. (1996). "Un algoritmo de homotopía para compensación dinámica de orden reducido utilizando las ecuaciones de proyección óptimas de Hyland-Bernstein". Revista de orientación, control y dinámica . 19 (2): 407–417. doi :10.2514/3.21633.
  8. ^ Hyland DC; Bernstein DS (1984). "Las ecuaciones de proyección óptimas para compensación dinámica de orden fijo" (PDF) . Transacciones IEEE sobre control automático . AC-29 (11): 1034–1037. doi :10.1109/TAC.1984.1103418. hdl : 2027.42/57875 .
  9. ^ BernsteinDS; Davis LD; Hyland DC (1986). "Las ecuaciones de proyección óptimas para la estimación y el control del modelado en tiempo discreto de orden reducido" (PDF) . Revista de orientación, control y dinámica . 9 (3): 288–293. Código bibliográfico : 1986JGCD....9..288B. doi :10.2514/3.20105. hdl : 2027.42/57880 .
  10. ^ Verde, Michael; Limebeer, David JN (1995). Control lineal robusto. Acantilados de Englewood: Prentice Hall. pag. 27.ISBN 0-13-102278-4.
  11. ^ Matsakis, Demetrios (8 de marzo de 2019). "Los efectos de las estrategias de dirección proporcional sobre el comportamiento de los relojes controlados". Metrología . 56 (2): 025007. Código bibliográfico : 2019Metro..56b5007M. doi : 10.1088/1681-7575/ab0614 .
  12. ^ Athans M. (1971). "El papel y el uso del problema estocástico lineal-cuadrático-gaussiano en el diseño de sistemas de control". Transacciones IEEE sobre control automático . AC-16 (6): 529–552. doi :10.1109/TAC.1971.1099818.

Otras lecturas