stringtranslate.com

Optimizacion convexa

La optimización convexa es un subcampo de la optimización matemática que estudia el problema de minimizar funciones convexas sobre conjuntos convexos (o, de manera equivalente, maximizar funciones cóncavas sobre conjuntos convexos). Muchas clases de problemas de optimización convexa admiten algoritmos de tiempo polinomial, [1] mientras que la optimización matemática es, en general, NP-hard . [2] [3] [4]

Definición

forma abstracta

Un problema de optimización convexa se define por dos ingredientes: [5] [6]

El objetivo del problema es encontrar algún logro.

.

En general, existen tres opciones respecto a la existencia de una solución: [7] : cap.4 

Forma estándar

Un problema de optimización convexa está en forma estándar si se escribe como

donde: [7] : capítulo 4 

El conjunto factible del problema de optimización consta de todos los puntos que satisfacen las restricciones de desigualdad e igualdad. Este conjunto es convexo porque es convexo, los conjuntos de subniveles de funciones convexas son convexos, los conjuntos afines son convexos y la intersección de conjuntos convexos es convexa. [7] : capítulo 2 

Muchos problemas de optimización pueden formularse de manera equivalente en esta forma estándar. Por ejemplo, el problema de maximizar una función cóncava se puede reformular de manera equivalente como el problema de minimizar la función convexa . El problema de maximizar una función cóncava sobre un conjunto convexo se denomina comúnmente problema de optimización convexa. [8]

Forma de epígrafe (forma estándar con objetivo lineal)

En la forma estándar es posible suponer, sin pérdida de generalidad, que la función objetivo f es una función lineal . Esto se debe a que cualquier programa con un objetivo general se puede transformar en un programa con un objetivo lineal agregando una sola variable t y una sola restricción, de la siguiente manera: [9] : 1.4 

forma cónica

Todo programa convexo se puede presentar en forma cónica , lo que significa minimizar un objetivo lineal sobre la intersección de un plano afín y un cono convexo: [9] : 5.1 

donde K es un cono convexo puntiagudo cerrado , L es un subespacio lineal de R n y b es un vector en R n . Un programa lineal en forma estándar en el caso especial en el que K es el ortante no negativo de R n .

Eliminación de restricciones de igualdad lineal

Es posible convertir un programa convexo en forma estándar en un programa convexo sin restricciones de igualdad. [7] : 132  Denota las restricciones de igualdad h i ( x ) = 0 como Ax = b , donde A tiene n columnas. Si Ax = b es inviable, entonces, por supuesto, el problema original es inviable. De lo contrario, tiene alguna solución x 0 y el conjunto de todas las soluciones se puede presentar como: Fz + x 0 , donde z está en R k , k = n -rango( A ) y F es un n -por- k matriz. Sustituyendo x = Fz + x 0 en el problema original se obtiene:

donde las variables son z . Tenga en cuenta que hay menos variables de rango ( A ). Esto significa que, en principio, se puede restringir la atención a problemas de optimización convexos sin restricciones de igualdad. En la práctica, sin embargo, a menudo se prefiere conservar las restricciones de igualdad, ya que podrían hacer que algunos algoritmos sean más eficientes y también hacer que el problema sea más fácil de entender y analizar.

Casos especiales

Las siguientes clases de problemas son todos problemas de optimización convexa, o pueden reducirse a problemas de optimización convexa mediante transformaciones simples: [7] : capítulo 4  [10]

Una jerarquía de problemas de optimización convexa. (LP: programa lineal, QP: programa cuadrático, programa de cono de segundo orden SOCP, SDP: programa semidefinido, CP: programa de cono).

Otros casos especiales incluyen;

Propiedades

Las siguientes son propiedades útiles de los problemas de optimización convexa: [11] [7] : cap.4 

Estos resultados son utilizados por la teoría de la minimización convexa junto con nociones geométricas del análisis funcional (en espacios de Hilbert) como el teorema de proyección de Hilbert , el teorema del hiperplano de separación y el lema de Farkas . [ cita necesaria ]

Algoritmos

Problemas sin restricciones y con restricciones de igualdad

Los programas convexos más fáciles de resolver son los problemas sin restricciones o los problemas con restricciones únicamente de igualdad. Como todas las restricciones de igualdad son lineales, pueden eliminarse con álgebra lineal e integrarse en el objetivo, convirtiendo así un problema de igualdad restringida en uno sin restricciones.

En la clase de problemas sin restricciones (o con restricciones de igualdad), los más simples son aquellos en los que el objetivo es cuadrático . Para estos problemas, las condiciones KKT (que son necesarias para la optimización) son todas lineales, por lo que pueden resolverse analíticamente. [7] : capítulo 11 

Para problemas sin restricciones (o con restricciones de igualdad) con un objetivo convexo general que es dos veces diferenciable, se puede utilizar el método de Newton . Puede verse como una reducción de un problema convexo general sin restricciones a una secuencia de problemas cuadráticos. [7] : capítulo 11.  El método de Newton se puede combinar con la búsqueda de líneas para un tamaño de paso apropiado y se puede demostrar matemáticamente que converge rápidamente.

Otros algoritmos eficientes para la minimización sin restricciones son el descenso de gradiente (un caso especial de descenso más pronunciado ).

Problemas generales

Los problemas más desafiantes son aquellos que tienen restricciones de desigualdad. Una forma común de resolverlos es reducirlos a problemas sin restricciones agregando una función de barrera , que imponga las restricciones de desigualdad, a la función objetivo. Estos métodos se denominan métodos de puntos interiores . [7] : capítulo 11  Deben inicializarse encontrando un punto interior factible utilizando los llamados métodos de fase I , que encuentran un punto factible o muestran que no existe ninguno. Los métodos de la Fase I generalmente consisten en reducir la búsqueda en cuestión a un problema de optimización convexo más simple. [7] : capítulo 11 

Los problemas de optimización convexa también se pueden resolver mediante los siguientes métodos contemporáneos: [12]

Los métodos de subgradiente se pueden implementar de forma sencilla y por eso se utilizan ampliamente. [15] Los métodos de subgradiente dual son métodos de subgradiente aplicados a un problema dual . El método de deriva más penalización es similar al método de subgradiente dual, pero toma un promedio temporal de las variables primarias. [ cita necesaria ]

Multiplicadores de Lagrange

Considere un problema de minimización convexo dado en forma estándar mediante una función de costos y restricciones de desigualdad para . Entonces el dominio es:

La función lagrangiana para el problema es

Para cada punto que minimiza sobre , existen números reales llamados multiplicadores de Lagrange , que satisfacen estas condiciones simultáneamente:

  1. minimiza sobre todo
  2. con al menos uno
  3. (flacidez complementaria).

Si existe un "punto estrictamente factible", es decir, un punto que satisfaga

entonces la afirmación anterior puede reforzarse para exigir eso .

Por el contrario, si algo satisface (1)–(3) para escalares con entonces es seguro que se minimizará sobre .

Software

Existe un gran ecosistema de software para la optimización convexa. Este ecosistema tiene dos categorías principales: solucionadores por un lado y herramientas de modelado (o interfaces ) por otro.

Los solucionadores implementan los algoritmos ellos mismos y generalmente están escritos en C. Requieren que los usuarios especifiquen problemas de optimización en formatos muy específicos que pueden no ser naturales desde una perspectiva de modelado. Las herramientas de modelado son piezas de software independientes que permiten al usuario especificar una optimización en una sintaxis de nivel superior. Gestionan todas las transformaciones hacia y desde el modelo de alto nivel del usuario y el formato de entrada/salida del solucionador.

La siguiente tabla muestra una combinación de herramientas de modelado (como CVXPY y Convex.jl) y solucionadores (como CVXOPT y MOSEK). Esta tabla no es en modo alguno exhaustiva.

Aplicaciones

La optimización convexa se puede utilizar para modelar problemas en una amplia gama de disciplinas, como sistemas de control automático , estimación y procesamiento de señales , comunicaciones y redes, diseño de circuitos electrónicos , [7] : 17  análisis y modelado de datos, finanzas , estadística ( experimental óptimo). diseño ), [20] y optimización estructural , donde el concepto de aproximación ha demostrado ser eficiente. [7] [21] La optimización convexa se puede utilizar para modelar problemas en los siguientes campos:

Extensiones

Las extensiones de la optimización convexa incluyen la optimización de funciones biconvexas , pseudoconvexas y cuasiconvexas . Las extensiones de la teoría del análisis convexo y los métodos iterativos para resolver aproximadamente problemas de minimización no convexos ocurren en el campo de la convexidad generalizada , también conocido como análisis convexo abstracto. [ cita necesaria ]

Ver también

Notas

  1. ^ ab Nesterov y Nemirovskii 1994
  2. ^ Murty, Katta; Kabadi, Santosh (1987). "Algunos problemas NP-completos en programación cuadrática y no lineal". Programación Matemática . 39 (2): 117-129. doi :10.1007/BF02592948. hdl : 2027.42/6740 . S2CID  30500771.
  3. ^ Sahni, S. "Problemas relacionados con la computación", en SIAM Journal on Computing, 3, 262-279, 1974.
  4. ^ La programación cuadrática con un valor propio negativo es NP-duro, Panos M. Pardalos y Stephen A. Vavasis en Journal of Global Optimization , Volumen 1, Número 1, 1991, páginas 15-22.
  5. ^ Hiriart-Urruty, Jean-Baptiste; Lemaréchal, Claude (1996). Algoritmos de análisis y minimización convexos: Fundamentos. pag. 291.ISBN _ 9783540568506.
  6. ^ Ben-Tal, Aharon; Nemirovskiĭ, Arkadiĭ Semenovich (2001). Conferencias sobre optimización convexa moderna: análisis, algoritmos y aplicaciones de ingeniería. págs. 335–336. ISBN 9780898714913.
  7. ^ abcdefghijkl Boyd, Stephen; Vandenberghe, Lieven (2004). Optimización convexa (PDF) . Prensa de la Universidad de Cambridge . ISBN 978-0-521-83378-3. Consultado el 12 de abril de 2021 .
  8. ^ "Tipos de problemas de optimización: optimización convexa". 9 de enero de 2011.
  9. ^ ab Arkadi Nemirovsky (2004). Métodos de tiempo polinómico de puntos interiores en programación convexa.
  10. ^ Agrawal, Akshay; Verschueren, Robin; Diamante, Steven; Boyd, Stephen (2018). "Un sistema de reescritura para problemas de optimización convexa" (PDF) . Control y Decisión . 5 (1): 42–60. arXiv : 1709.04494 . doi :10.1080/23307706.2017.1397554. S2CID  67856259.
  11. ^ Rockafellar, R. Tyrrell (1993). "Multiplicadores de Lagrange y optimización" (PDF) . Revisión SIAM . 35 (2): 183–238. CiteSeerX 10.1.1.161.7209 . doi :10.1137/1035044. 
  12. ^ Para conocer los métodos de minimización convexa, consulte los volúmenes de Hiriart-Urruty y Lemaréchal (paquete) y los libros de texto de Ruszczyński , Bertsekas y Boyd y Vandenberghe (punto interior).
  13. ^ Nesterov, Yurii; Arkadii, Nemirovskii (1995). Algoritmos polinomiales de punto interior en programación convexa . Sociedad de Matemática Industrial y Aplicada. ISBN 978-0898715156.
  14. ^ Peng, Jiming; Roos, Cornelis; Terlaky, Tamás (2002). "Funciones autorreguladoras y nuevas direcciones de búsqueda para optimización lineal y semidefinida". Programación Matemática . 93 (1): 129-171. doi :10.1007/s101070200296. ISSN  0025-5610. S2CID  28882966.
  15. ^ "Optimización numérica". Serie Springer en Investigación de Operaciones e Ingeniería Financiera . 2006. doi :10.1007/978-0-387-40065-5.
  16. ^ abcdefghijklmnopqrstu vwxy Borchers, Brian. "Una descripción general del software para la optimización convexa" (PDF) . Archivado desde el original (PDF) el 18 de septiembre de 2017 . Consultado el 12 de abril de 2021 .
  17. ^ "Bienvenido a CVXPY 1.1 - documentación de CVXPY 1.1.11". www.cvxpy.org . Consultado el 12 de abril de 2021 .
  18. ^ Udell, Madeleine; Mohan, Karanveer; Zeng, David; Hong, Jenny; Diamante, Steven; Boyd, Stephen (17 de octubre de 2014). "Optimización convexa en Julia". arXiv : 1410.4821 [matemáticas.OC].
  19. ^ "Optimización convexa disciplinada - CVXR". www.cvxgrp.org . Consultado el 17 de junio de 2021 .
  20. ^ Chritensen/Klarbring, cap. 4.
  21. ^ Schmit, Luisiana; Fleury, C. 1980: Síntesis estructural combinando conceptos de aproximación y métodos duales . J.Amer. Inst. Aeronauta. Astronauta 18, 1252-1260
  22. ^ abcdeBoyd , Stephen; Diamante, Esteban; Zhang, Junzi; Agrawal, Akshay. "Aplicaciones de optimización convexa" (PDF) . Archivado (PDF) desde el original el 1 de octubre de 2015 . Consultado el 12 de abril de 2021 .
  23. ^ abc Malick, Jérôme (28 de septiembre de 2011). "Optimización convexa: aplicaciones, formulaciones, relajaciones" (PDF) . Archivado (PDF) desde el original el 12 de abril de 2021 . Consultado el 12 de abril de 2021 .
  24. ^ Ben Haim Y. y Elishakoff I., Modelos convexos de incertidumbre en mecánica aplicada, Elsevier Science Publishers, Amsterdam, 1990
  25. ^ Ahmad Bazzi, Dirk TM Slock y Lisa Meilhac. "Estimación del ángulo de llegada en línea en presencia de acoplamiento mutuo". 2016 Taller de procesamiento estadístico de señales (SSP) del IEEE. IEEE, 2016.

Referencias

enlaces externos