stringtranslate.com

Optimización por suma de cuadrados

Un programa de optimización por suma de cuadrados es un problema de optimización con una función de costo lineal y un tipo particular de restricción en las variables de decisión. Estas restricciones son de la forma que cuando las variables de decisión se utilizan como coeficientes en ciertos polinomios , esos polinomios deben tener la propiedad polinomial SOS . Cuando se fija el grado máximo de los polinomios involucrados, la optimización por suma de cuadrados también se conoce como la jerarquía de relajaciones de Lasserre en programación semidefinida .

Las técnicas de optimización de suma de cuadrados se han aplicado en una variedad de áreas, incluida la teoría de control (en particular, para buscar funciones de Lyapunov polinomiales para sistemas dinámicos descritos por campos vectoriales polinomiales), las estadísticas, las finanzas y el aprendizaje automático. [1] [2] [3] [4]

Problema de optimización

Dado un vector y polinomios para , , un problema de optimización de suma de cuadrados se escribe como

Aquí, "SOS" representa la clase de polinomios de suma de cuadrados (SOS). Las cantidades son las variables de decisión. Los programas SOS se pueden convertir en programas semidefinidos (SDP) utilizando la dualidad del programa polinomial SOS y una relajación para la optimización polinomial restringida utilizando matrices semidefinidas positivas ; consulte la siguiente sección.

Problema dual: optimización polinómica restringida

Supongamos que tenemos un polinomio de variable , y que queremos minimizar este polinomio sobre un subconjunto . Supongamos además que las restricciones sobre el subconjunto se pueden codificar utilizando igualdades polinómicas de grado como máximo , cada una de la forma donde es un polinomio de grado como máximo . Un programa natural, aunque generalmente no convexo para este problema de optimización es el siguiente: sujeto a:

donde es el vector -dimensional con una entrada para cada monomio en de grado como máximo , de modo que para cada multiconjunto , es una matriz de coeficientes del polinomio que queremos minimizar, y es una matriz de coeficientes del polinomio que codifica la restricción -ésima en el subconjunto . El índice constante fijo adicional en nuestro espacio de búsqueda, , se agrega para la conveniencia de escribir los polinomios y en una representación matricial.

Este programa es generalmente no convexo, porque las restricciones ( 1 ) no son convexas. Una posible relajación convexa para este problema de minimización utiliza programación semidefinida para reemplazar la matriz de rango uno de variables con una matriz semidefinida positiva : indexamos cada monomio de tamaño como máximo por un multiconjunto de como máximo índices, . Para cada uno de esos monomios, creamos una variable en el programa y organizamos las variables para formar la matriz , donde es el conjunto de matrices reales cuyas filas y columnas se identifican con multiconjuntos de elementos de de tamaño como máximo . Luego escribimos el siguiente programa semidefinido en las variables : sujeto a:

donde nuevamente es la matriz de coeficientes del polinomio que queremos minimizar, y es la matriz de coeficientes del polinomio que codifica la -ésima restricción en el subconjunto .

La tercera restricción asegura que el valor de un monomio que aparece varias veces dentro de la matriz sea igual en toda la matriz, y se suma para respetar las simetrías presentes en la forma cuadrática .

Dualidad

Se puede tomar el dual del programa semidefinido anterior y obtener el siguiente programa: sujeto a:

Tenemos una variable correspondiente a la restricción (donde es la matriz con todas las entradas cero excepto la entrada indexada por ), una variable real para cada restricción polinómica y para cada grupo de multiconjuntos , tenemos una variable dual para la restricción de simetría . La restricción de semidefinición positiva asegura que es una suma de cuadrados de polinomios sobre : mediante una caracterización de matrices semidefinidas positivas, para cualquier matriz semidefinida positiva , podemos escribir para vectores . Por lo tanto, para cualquier ,

donde hemos identificado los vectores con los coeficientes de un polinomio de grado como máximo . Esto da una prueba de suma de cuadrados de que el valor sobre .

Lo anterior también puede extenderse a regiones definidas por desigualdades polinómicas.

Jerarquía de suma de cuadrados

La jerarquía de suma de cuadrados (jerarquía SOS), también conocida como jerarquía de Lasserre, es una jerarquía de relajaciones convexas de potencia creciente y costo computacional creciente. Para cada número natural, la relajación convexa correspondiente se conoce como el ésimo nivel o la -ésima ronda de la jerarquía SOS. La st ronda, cuando , corresponde a un programa semidefinido básico , o a una optimización de suma de cuadrados sobre polinomios de grado como máximo . Para ampliar el programa convexo básico en el st nivel de la jerarquía al -ésimo nivel, se agregan variables y restricciones adicionales al programa para que el programa considere polinomios de grado como máximo .

La jerarquía SOS deriva su nombre del hecho de que el valor de la función objetivo en el nivel -ésimo está acotado con una prueba de suma de cuadrados que utiliza polinomios de grado máximo a través del dual (ver "Dualidad" más arriba). En consecuencia, cualquier prueba de suma de cuadrados que utilice polinomios de grado máximo puede utilizarse para acotar el valor objetivo, lo que permite demostrar garantías sobre la rigidez de la relajación.

Junto con un teorema de Berg, esto implica además que, dadas suficientes rondas, la relajación se vuelve arbitrariamente estricta en cualquier intervalo fijo. El resultado de Berg [5] [6] establece que cada polinomio real no negativo dentro de un intervalo acotado puede aproximarse con precisión en ese intervalo con una suma de cuadrados de polinomios reales de grado suficientemente alto y, por lo tanto, si es el valor objetivo del polinomio como función del punto , si la desigualdad se cumple para todos en la región de interés, entonces debe haber una prueba de suma de cuadrados de este hecho. Al elegir que sea el mínimo de la función objetivo sobre la región factible, tenemos el resultado.

Costo computacional

Al optimizar sobre una función en variables, el nivel -ésimo de la jerarquía se puede escribir como un programa semidefinido sobre variables y se puede resolver en el tiempo utilizando el método del elipsoide .

Antecedentes de la suma de cuadrados

Un polinomio es una suma de cuadrados ( SOS ) si existen polinomios tales que . Por ejemplo, es una suma de cuadrados ya que donde Nótese que si es una suma de cuadrados entonces para todos . Hay descripciones detalladas de SOS de polinomios disponibles. [7] [8] [9]

Las formas cuadráticas se pueden expresar como donde es una matriz simétrica. De manera similar, los polinomios de grado ≤ 2 d se pueden expresar como donde el vector contiene todos los monomios de grado . Esto se conoce como la forma de matriz de Gram . Un hecho importante es que es SOS si y solo si existe una matriz simétrica y semidefinida positiva tal que . Esto proporciona una conexión entre los polinomios SOS y las matrices semidefinidas positivas.

Herramientas de software

Referencias

  1. ^ Suma de cuadrados: teoría y aplicaciones: curso breve de AMS, Suma de cuadrados: teoría y aplicaciones, 14 y 15 de enero de 2019, Baltimore, Maryland. Parrilo, Pablo A.; Thomas, Rekha R. Providence, Rhode Island: American Mathematical Society. 2020. ISBN 978-1-4704-5025-0.OCLC 1157604983  .{{cite book}}: CS1 maint: others (link)
  2. ^ Tan, W., Packard, A., 2004. "Búsqueda de funciones de control de Lyapunov mediante programación de sumas de cuadrados". En: Allerton Conf. on Comm., Control and Computing . págs. 210–219.
  3. ^ Tan, W., Topcu, U., Seiler, P., Balas, G., Packard, A., 2008. Alcance asistido por simulación y análisis de ganancia local para sistemas dinámicos no lineales. En: Proc. de la Conferencia IEEE sobre Decisión y Control. págs. 4097–4102.
  4. ^ A. Chakraborty, P. Seiler y G. Balas, "Susceptibilidad de los controladores de vuelo del F/A-18 al modo de caída de hojas: análisis no lineal", AIAA Journal of Guidance, Control, and Dynamics, vol. 34 núm. 1 (2011), págs. 73–85.
  5. ^ Berg, Christian (1987). Landau, Henry J. (ed.). "El problema del momento multidimensional y los semigrupos". Actas de simposios sobre matemáticas aplicadas . 37 : 110–124. doi :10.1090/psapm/037/921086. ISBN . 9780821801147.
  6. ^ Lasserre, J. (1 de enero de 2007). "Una aproximación de suma de cuadrados de polinomios no negativos". SIAM Review . 49 (4): 651–669. arXiv : math/0412398 . doi :10.1137/070693709. ISSN  0036-1445.
  7. ^ Parrilo, P., (2000) Programas semidefinidos estructurados y métodos de geometría semialgebraica en robustez y optimización . Tesis doctoral, California Institute of Technology.
  8. ^ Parrilo, P. (2003) "Relajaciones de programación semidefinida para problemas semialgebraicos". Mathematical Programming Ser. B 96 (2), 293–320.
  9. ^ Lasserre, J. (2001) "Optimización global con polinomios y el problema de los momentos". SIAM Journal on Optimization , 11 (3), 796{817.