stringtranslate.com

Multiplicador de Lagrange

En optimización matemática , el método de los multiplicadores de Lagrange es una estrategia para encontrar los máximos y mínimos locales de una función sujeta a restricciones de ecuación (es decir, sujeta a la condición de que una o más ecuaciones deben satisfacerse exactamente por los valores elegidos de las variables ). [1] Lleva el nombre del matemático Joseph-Louis Lagrange .

Resumen y justificación

La idea básica es convertir un problema restringido en una forma tal que la prueba de la derivada de un problema sin restricciones todavía se pueda aplicar. La relación entre el gradiente de la función y los gradientes de las restricciones conduce de manera bastante natural a una reformulación del problema original, conocida como la función lagrangiana o lagrangiano. [2] En el caso general, el lagrangiano se define como para funciones ; se denomina multiplicador de Lagrange.

En casos simples, donde el producto interno se define como el producto escalar , el Lagrangiano es

El método puede resumirse de la siguiente manera: para encontrar el máximo o mínimo de una función sujeta a la restricción de igualdad , se encuentran los puntos estacionarios de considerados como una función de y el multiplicador de Lagrange . Esto significa que todas las derivadas parciales deben ser cero, incluida la derivada parcial con respecto a . [3]

 y 

o equivalentemente

 y 

La solución correspondiente a la optimización restringida original es siempre un punto de silla de la función lagrangiana, [4] [5] que puede identificarse entre los puntos estacionarios a partir de la definición de la matriz hessiana bordeada . [6]

La gran ventaja de este método es que permite resolver la optimización sin parametrización explícita en términos de las restricciones. Como resultado, el método de los multiplicadores de Lagrange se utiliza ampliamente para resolver problemas de optimización con restricciones desafiantes. Además, el método de los multiplicadores de Lagrange se generaliza mediante las condiciones de Karush-Kuhn-Tucker , que también pueden tener en cuenta restricciones de desigualdad de la forma para una constante dada .

Declaración

El siguiente se conoce como el teorema del multiplicador de Lagrange. [7]

Sea la función objetivo, sea la función de restricciones, ambas pertenecientes a (es decir, con derivadas primeras continuas). Sea una solución óptima al siguiente problema de optimización tal que, para la matriz de derivadas parciales , :

Entonces existe un multiplicador de Lagrange único tal que (Note que esto es algo bastante convencional donde claramente se trata como un vector de columna para asegurar que las dimensiones coincidan. Pero, también podríamos convertirlo simplemente en un vector de fila sin tomar la transposición).

El teorema del multiplicador de Lagrange establece que en cualquier máximo (o mínimo) local de la función evaluada bajo las restricciones de igualdad, si se aplica la calificación de restricción (explicada a continuación), entonces el gradiente de la función (en ese punto) se puede expresar como una combinación lineal de los gradientes de las restricciones (en ese punto), con los multiplicadores de Lagrange actuando como coeficientes . [8] Esto es equivalente a decir que cualquier dirección perpendicular a todos los gradientes de las restricciones también es perpendicular al gradiente de la función. O aún, decir que la derivada direccional de la función es 0 en cada dirección factible.

Restricción única

Figura 1: La curva roja muestra la restricción g ( x , y ) = c . Las curvas azules son contornos de f ( x , y ) . El punto donde la restricción roja toca tangencialmente un contorno azul es el máximo de f ( x , y ) a lo largo de la restricción, ya que d 1 > d 2 .

Para el caso de una sola restricción y solo dos variables de elección (como se ejemplifica en la Figura 1), considere el problema de optimización (A veces, una constante aditiva se muestra por separado en lugar de incluirse en , en cuyo caso la restricción se escribe como en la Figura 1). Suponemos que tanto y tienen primeras derivadas parciales continuas . Introducimos una nueva variable ( ) llamada multiplicador de Lagrange (o multiplicador indeterminado de Lagrange ) y estudiamos la función de Lagrange (o lagrangiano o expresión lagrangiana ) definida por donde el término puede sumarse o restarse. Si es un máximo de para el problema restringido original y entonces existe tal que ( ) es un punto estacionario para la función de Lagrange (los puntos estacionarios son aquellos puntos donde las primeras derivadas parciales de son cero). La suposición se llama calificación de restricción. Sin embargo, no todos los puntos estacionarios producen una solución del problema original, ya que el método de los multiplicadores de Lagrange produce solo una condición necesaria para la optimalidad en problemas restringidos. [9] [10] [11] [12] [13] También existen condiciones suficientes para un mínimo o máximo , pero si una solución candidata particular satisface las condiciones suficientes, solo se garantiza que esa solución sea la mejor localmente , es decir, es mejor que cualquier punto cercano permisible. El óptimo global se puede encontrar comparando los valores de la función objetivo original en los puntos que satisfacen las condiciones necesarias y localmente suficientes.

El método de los multiplicadores de Lagrange se basa en la intuición de que, en un máximo, f ( x , y ) no puede ser creciente en la dirección de ningún punto vecino que también tenga g = 0 . Si lo fuera, podríamos caminar a lo largo de g = 0 para llegar más alto, lo que significa que el punto de partida no era en realidad el máximo. Visto de esta manera, es un análogo exacto a comprobar si la derivada de una función sin restricciones es 0 , es decir, estamos verificando que la derivada direccional es 0 en cualquier dirección relevante (viable).

Podemos visualizar los contornos de f dados por f ( x , y ) = d para varios valores de d , y el contorno de g dado por g ( x , y ) = c .

Supongamos que caminamos a lo largo de la línea de contorno con g = c . Nos interesa encontrar puntos donde f casi no cambia a medida que caminamos, ya que estos puntos podrían ser máximos.

Hay dos formas en que esto podría suceder:

  1. Podríamos tocar una curva de nivel de f , ya que por definición f no cambia a medida que caminamos por sus curvas de nivel. Esto significaría que las tangentes a las curvas de nivel de f y g son paralelas aquí.
  2. Hemos alcanzado una parte de "nivel" de f , lo que significa que f no cambia en ninguna dirección.

Para comprobar la primera posibilidad (tocamos una curva de nivel de f ), observe que, dado que el gradiente de una función es perpendicular a las curvas de nivel, las tangentes a las curvas de nivel de f y g son paralelas si y solo si los gradientes de f y g son paralelos. Por lo tanto, queremos puntos ( x , y ) donde g ( x , y ) = c y para algún

donde son los gradientes respectivos. La constante es necesaria porque, aunque los dos vectores de gradiente son paralelos, las magnitudes de los vectores de gradiente generalmente no son iguales. Esta constante se denomina multiplicador de Lagrange (en algunas convenciones va precedida de un signo menos).

Tenga en cuenta que este método también resuelve la segunda posibilidad, que f es nivel: si f es nivel, entonces su gradiente es cero y el ajuste es una solución independientemente de .

Para incorporar estas condiciones en una ecuación, introducimos una función auxiliar y resolvemos

Obsérvese que esto equivale a resolver tres ecuaciones con tres incógnitas. Este es el método de los multiplicadores de Lagrange.

Nótese que implica que la derivada parcial de con respecto a es

Para resumir

El método se generaliza fácilmente a funciones sobre variables , lo que equivale a resolver n + 1 ecuaciones con n + 1 incógnitas.

Los extremos restringidos de f son puntos críticos del Lagrangiano , pero no son necesariamente extremos locales de (ver § Ejemplo 2 a continuación).

Se puede reformular el lagrangiano como hamiltoniano , en cuyo caso las soluciones son mínimos locales para el hamiltoniano. Esto se hace en la teoría de control óptimo , en la forma del principio del mínimo de Pontryagin .

El hecho de que las soluciones del método de los multiplicadores de Lagrange no sean necesariamente extremos del lagrangiano también plantea dificultades para la optimización numérica. Esto se puede solucionar minimizando la magnitud del gradiente del lagrangiano, ya que estos mínimos son los mismos que los ceros de la magnitud, como se ilustra en el Ejemplo 5: Optimización numérica.

Restricciones múltiples

Figura 2: Un paraboloide restringido a lo largo de dos líneas que se cruzan.
Figura 3: Mapa de contornos de la Figura 2.

El método de los multiplicadores de Lagrange se puede extender para resolver problemas con múltiples restricciones utilizando un argumento similar. Consideremos un paraboloide sujeto a dos restricciones de línea que se intersecan en un único punto. Como única solución factible, este punto es obviamente un extremo restringido. Sin embargo, el conjunto de niveles de claramente no es paralelo a ninguna restricción en el punto de intersección (ver Figura 3); en cambio, es una combinación lineal de los gradientes de las dos restricciones. En el caso de múltiples restricciones, eso será lo que buscaremos en general: El método de Lagrange busca puntos no en los que el gradiente de sea necesariamente un múltiplo del gradiente de cualquier restricción individual, sino en los que sea una combinación lineal de los gradientes de todas las restricciones.

Concretamente, supongamos que tenemos restricciones y caminamos a lo largo del conjunto de puntos que satisfacen Cada punto en el contorno de una función de restricción dada tiene un espacio de direcciones permitidas: el espacio de vectores perpendiculares a El conjunto de direcciones permitidas por todas las restricciones es, por lo tanto, el espacio de direcciones perpendiculares a todos los gradientes de las restricciones. Denotemos este espacio de movimientos permitidos por y denotemos el lapso de los gradientes de las restricciones por Entonces, el espacio de vectores perpendiculares a cada elemento de

Todavía nos interesa encontrar puntos donde no cambie a medida que caminamos, ya que estos puntos podrían ser extremos (restringidos). Por lo tanto, buscamos tal que cualquier dirección permisible de movimiento que se aleje de sea perpendicular a (de lo contrario, podríamos aumentar moviéndonos a lo largo de esa dirección permisible). En otras palabras, Por lo tanto, existen escalares tales que

Estos escalares son los multiplicadores de Lagrange. Ahora tenemos de ellos, uno para cada restricción.

Como antes, introducimos una función auxiliar y resolvemos , lo que equivale a resolver ecuaciones con incógnitas.

El supuesto de calificación de restricciones cuando hay múltiples restricciones es que los gradientes de restricciones en el punto relevante son linealmente independientes.

Formulación moderna mediante variedades diferenciables

El problema de encontrar los máximos y mínimos locales sujetos a restricciones se puede generalizar para encontrar máximos y mínimos locales en una variedad diferenciable [14]. En lo que sigue, no es necesario que sea un espacio euclidiano, o incluso una variedad riemanniana. Todas las apariencias del gradiente (que depende de la elección de la métrica riemanniana) se pueden reemplazar con la derivada exterior.

Restricción única

Sea una variedad suave de dimensión Supongamos que deseamos encontrar los puntos estacionarios de una función suave cuando se restringe a la subvariedad definida por donde es una función suave para la cual 0 es un valor regular .

Sean y las derivadas exteriores de y . La estacionariedad para la restricción en significa De manera equivalente, el núcleo contiene En otras palabras, y son 1-formas proporcionales. Para esto es necesario y suficiente que se cumpla el siguiente sistema de ecuaciones: donde denota el producto exterior . Los puntos estacionarios son las soluciones del sistema de ecuaciones anterior más la restricción Nótese que las ecuaciones no son independientes, ya que el lado izquierdo de la ecuación pertenece a la subvariedad de que consiste en elementos descomponibles .

En esta formulación, no es necesario encontrar explícitamente el multiplicador de Lagrange, un número tal que

Restricciones múltiples

Sea y como en la sección anterior respecto del caso de una única restricción. En lugar de la función descrita allí, ahora considere una función suave con funciones componentes para las cuales es un valor regular . Sea la subvariedad de definida por

es un punto estacionario de si y solo si contiene Por conveniencia sea y donde denota la función tangente o jacobiana ( puede identificarse canónicamente con ). El subespacio tiene dimensión menor que la de , es decir y pertenece a si y solo si pertenece a la imagen de Computacionalmente hablando, la condición es que pertenece al espacio fila de la matriz de o equivalentemente al espacio columna de la matriz de (la transpuesta). Si denota el producto exterior de las columnas de la matriz de la condición estacionaria para en se convierte Una vez más, en esta formulación no es necesario encontrar explícitamente los multiplicadores de Lagrange, los números tales que

Interpretación de los multiplicadores de Lagrange

En esta sección, modificamos las ecuaciones de restricción de la forma a la forma donde son m constantes reales que se consideran argumentos adicionales de la expresión lagrangiana .

A menudo, los multiplicadores de Lagrange tienen una interpretación como alguna cantidad de interés. Por ejemplo, parametrizando la línea de contorno de la restricción, es decir, si la expresión lagrangiana es entonces

Por lo tanto, λ k es la tasa de cambio de la cantidad que se está optimizando como una función del parámetro de restricción. Como ejemplos, en la mecánica de Lagrange las ecuaciones de movimiento se derivan al encontrar puntos estacionarios de la acción , la integral temporal de la diferencia entre la energía cinética y potencial. Por lo tanto, la fuerza sobre una partícula debido a un potencial escalar, F = −∇ V , puede interpretarse como un multiplicador de Lagrange que determina el cambio en la acción (transferencia de energía potencial a cinética) después de una variación en la trayectoria restringida de la partícula. En la teoría de control esto se formula en cambio como ecuaciones de coestado .

Además, por el teorema de la envolvente, el valor óptimo de un multiplicador de Lagrange tiene una interpretación como el efecto marginal de la constante de restricción correspondiente sobre el valor óptimo alcanzable de la función objetivo original: Si denotamos los valores en el óptimo con un asterisco ( ), entonces se puede demostrar que

Por ejemplo, en economía, el beneficio óptimo para un jugador se calcula sujeto a un espacio restringido de acciones, donde un multiplicador de Lagrange es el cambio en el valor óptimo de la función objetivo (beneficio) debido a la relajación de una restricción dada (por ejemplo, a través de un cambio en el ingreso); en tal contexto es el costo marginal de la restricción, y se lo conoce como el precio sombra . [15]

Condiciones suficientes

Las condiciones suficientes para un máximo o mínimo local restringido se pueden establecer en términos de una secuencia de menores principales (determinantes de submatrices justificadas en la parte superior izquierda) de la matriz hessiana bordeada de derivadas segundas de la expresión lagrangiana. [6] [16]

Ejemplos

Ejemplo 1

Ilustración del problema de optimización restringida  1

Supongamos que deseamos maximizar sujeto a la restricción El conjunto factible es el círculo unitario, y los conjuntos de nivel de f son líneas diagonales (con pendiente −1), por lo que podemos ver gráficamente que el máximo ocurre en y que el mínimo ocurre en

Para el método de los multiplicadores de Lagrange, la restricción es por tanto la función lagrangiana, es una función que es equivalente a cuando se establece en 0 .

Ahora podemos calcular el gradiente: y por lo tanto:

Tenga en cuenta que la última ecuación es la restricción original.

Las dos primeras ecuaciones dan Al sustituir en la última ecuación tenemos: por lo que lo que implica que los puntos estacionarios de son

Evaluando la función objetivo f en estos puntos obtenemos

Por lo tanto, el máximo restringido es y el mínimo restringido es .

Ejemplo 2

Ilustración del problema de optimización restringida  2

Ahora modificamos la función objetivo del Ejemplo  1 de modo que minimicemos en lugar de nuevamente a lo largo del círculo Ahora los conjuntos de nivel de siguen siendo líneas de pendiente −1, y los puntos en el círculo tangentes a estos conjuntos de nivel son nuevamente y Estos puntos de tangencia son máximos de

Por otra parte, los mínimos se dan en el nivel fijado para (ya que por su construcción no puede tomar valores negativos), en y donde las curvas de nivel de no son tangentes a la restricción. La condición que identifica correctamente los cuatro puntos como extremos; los mínimos se caracterizan en por y los máximos por

Ejemplo 3

Ilustración del problema de optimización restringida  3 .

Este ejemplo aborda cálculos más complicados, pero sigue siendo un problema de restricción única.

Supongamos que uno quiere encontrar los valores máximos de con la condición de que las coordenadas - y - se encuentren en el círculo alrededor del origen con radio Es decir, sujeto a la restricción

Como solo hay una única restricción, hay un único multiplicador, digamos

La restricción es idénticamente cero en el círculo de radio. Cualquier múltiplo de se puede agregar a dejando sin cambios la región de interés (en el círculo donde se satisface nuestra restricción original).

La aplicación del método del multiplicador de Lagrange ordinario da como resultado a partir del cual se puede calcular el gradiente: Y por lo tanto: (iii) es simplemente la restricción original. (i) implica o Si entonces por (iii) y en consecuencia de (ii). Si sustituyendo esto en (ii) se obtiene Sustituyendo esto en (iii) y resolviendo para da Por lo tanto, hay seis puntos críticos de

Evaluando el objetivo en estos puntos, se encuentra que

Por lo tanto, la función objetivo alcanza el máximo global (sujeto a las restricciones) en y el mínimo global en El punto es un mínimo local de y es un máximo local de como puede determinarse considerando la matriz hessiana de

Nótese que si bien es un punto crítico de no es un extremo local de Tenemos

Dado cualquier vecindario de uno, se puede elegir un positivo pequeño y un pequeño de cualquier signo para obtener valores mayores y menores que Esto también se puede ver en la matriz hessiana de evaluada en este punto (o de hecho en cualquiera de los puntos críticos), que es una matriz indefinida . Cada uno de los puntos críticos de es un punto de silla de [4]

Ejemplo 4 – Entropía

Supongamos que queremos encontrar la distribución de probabilidad discreta en los puntos con máxima entropía de información . Esto es lo mismo que decir que queremos encontrar la distribución de probabilidad menos estructurada en los puntos. En otras palabras, queremos maximizar la ecuación de entropía de Shannon :

Para que esto sea una distribución de probabilidad, la suma de las probabilidades en cada punto debe ser igual a 1, por lo que nuestra restricción es:

Utilizamos multiplicadores de Lagrange para encontrar el punto de máxima entropía, en todas las distribuciones de probabilidad discretas en Requerimos que: lo que da un sistema de n ecuaciones, tales que:

Realizando la diferenciación de estas n ecuaciones, obtenemos

Esto demuestra que todos son iguales (porque dependen solo de λ ). Al usar la restricción encontramos

Por lo tanto, la distribución uniforme es la distribución con mayor entropía, entre distribuciones en n puntos.

Ejemplo 5 – Optimización numérica

Los multiplicadores de Lagrange hacen que los puntos críticos se produzcan en los puntos de silla (Ejemplo  5 ).
La magnitud del gradiente se puede utilizar para forzar que los puntos críticos ocurran en mínimos locales (Ejemplo  5 ).

Los puntos críticos de los lagrangianos ocurren en puntos de silla , en lugar de máximos locales (o mínimos). [4] [17] Desafortunadamente, muchas técnicas de optimización numérica, como la escalada de colinas , el descenso de gradientes , algunos de los métodos cuasi-Newton , entre otros, están diseñados para encontrar máximos locales (o mínimos) y no puntos de silla. Por esta razón, uno debe modificar la formulación para asegurar que sea un problema de minimización (por ejemplo, al extremear el cuadrado del gradiente del lagrangiano como se muestra a continuación), o bien usar una técnica de optimización que encuentre puntos estacionarios (como el método de Newton sin una línea de búsqueda de extremos ) y no necesariamente extremos.

Como ejemplo simple, considere el problema de encontrar el valor de x que minimiza la restricción tal que (este problema es algo atípico porque solo hay dos valores que satisfacen esta restricción, pero es útil para fines ilustrativos porque la función sin restricciones correspondiente se puede visualizar en tres dimensiones).

Usando multiplicadores de Lagrange, este problema se puede convertir en un problema de optimización sin restricciones:

Los dos puntos críticos se producen en puntos de silla donde x = 1 y x = −1 .

Para resolver este problema con una técnica de optimización numérica, primero debemos transformar este problema de modo que los puntos críticos se produzcan en mínimos locales. Esto se hace calculando la magnitud del gradiente del problema de optimización sin restricciones.

Primero, calculamos la derivada parcial del problema sin restricciones con respecto a cada variable:

Si la función objetivo no es fácilmente diferenciable, el diferencial con respecto a cada variable se puede aproximar como donde es un valor pequeño.

A continuación, calculamos la magnitud del gradiente, que es la raíz cuadrada de la suma de los cuadrados de las derivadas parciales:

(Dado que la magnitud siempre es no negativa, optimizar sobre la magnitud al cuadrado es equivalente a optimizar sobre la magnitud. Por lo tanto, la "raíz cuadrada" puede omitirse de estas ecuaciones sin ninguna diferencia esperada en los resultados de la optimización).

Los puntos críticos de h ocurren en x = 1 y x = −1 , tal como en . Sin embargo, a diferencia de los puntos críticos en , los puntos críticos en h ocurren en mínimos locales, por lo que se pueden utilizar técnicas de optimización numérica para encontrarlos.

Aplicaciones

Teoría del control

En la teoría de control óptimo , los multiplicadores de Lagrange se interpretan como variables co-estado , y los multiplicadores de Lagrange se reformulan como la minimización del hamiltoniano , en el principio mínimo de Pontryagin .

Programación no lineal

El método del multiplicador de Lagrange tiene varias generalizaciones. En la programación no lineal existen varias reglas de multiplicación, por ejemplo, la regla del multiplicador de Carathéodory-John y la regla del multiplicador convexo, para las restricciones de desigualdad. [18]

Sistemas de energía

Los métodos basados ​​en multiplicadores de Lagrange tienen aplicaciones en sistemas de energía , por ejemplo en la colocación de recursos energéticos distribuidos (DER) y el deslastre de carga. [19]

Aprendizaje de refuerzo seguro

El método de multiplicadores de Lagrange se aplica a procesos de decisión de Markov restringidos. [20] Produce naturalmente algoritmos primal-duales basados ​​en gradientes en el aprendizaje de refuerzo seguro. [21]

Soluciones normalizadas

Considerando los problemas de EDP con restricciones, es decir, el estudio de las propiedades de las soluciones normalizadas, los multiplicadores de Lagrange juegan un papel importante.

Véase también

Referencias

  1. ^ Hoffmann, Laurence D.; Bradley, Gerald L. (2004). Cálculo para empresas, economía y ciencias sociales y biológicas (8.ª ed.). Págs. 575–588. ISBN 0-07-242432-X.
  2. ^ Beavis, Brian; Dobbs, Ian M. (1990). "Optimización estática". Optimización y teoría de la estabilidad para el análisis económico . Nueva York: Cambridge University Press. pág. 40. ISBN 0-521-33605-8.
  3. ^ Protter, Murray H .; Morrey, Charles B. Jr. (1985). Cálculo intermedio (2ª ed.). Nueva York, Nueva York: Springer. pag. 267.ISBN 0-387-96058-9.
  4. ^ abc Walsh, GR (1975). "Propiedad del punto de silla de la función lagrangiana". Métodos de optimización . Nueva York, NY: John Wiley & Sons. págs. 39–44. ISBN 0-471-91922-5.
  5. ^ Kalman, Dan (2009). "Nivelación con Lagrange: una visión alternativa de la optimización restringida". Revista de Matemáticas . 82 (3): 186–196. doi :10.1080/0025570X.2009.11953617. JSTOR  27765899. S2CID  121070192.
  6. ^ ab Silberberg, Eugenio; Suen, ala (2001). La estructura de la economía: un análisis matemático (tercera ed.). Boston: Irwin McGraw-Hill. págs. 134-141. ISBN 0-07-234352-4.
  7. ^ de la Fuente , Angel (2000). Métodos y modelos matemáticos para economistas . Cambridge: Cambridge University Press. p. 285. doi :10.1017/CBO9780511810756. ISBN 978-0-521-58512-5.
  8. ^ Luenberger, David G. (1969). Optimización por métodos de espacio vectorial . Nueva York: John Wiley & Sons. págs. 188-189.
  9. ^ Bertsekas, Dimitri P. (1999). Programación no lineal (segunda edición). Cambridge, MA: Athena Scientific. ISBN 1-886529-00-0.
  10. ^ Vapnyarskii, IB (2001) [1994], "Multiplicadores de Lagrange", Enciclopedia de Matemáticas , EMS Press.
  11. ^ Lasdon, Leon S. (2002) [1970]. Optimization Theory for Large Systems (reimpresión). Mineola, Nueva York, NY: Dover. ISBN 0-486-41999-1.Señor 1888251  .
  12. ^ Hiriart-Urruty, Jean-Baptiste; Lemaréchal, Claude (1993). "Capítulo XII: Dualidad abstracta para profesionales". Algoritmos de análisis y minimización convexos . Grundlehren der Mathematischen Wissenschaften [Principios fundamentales de las ciencias matemáticas]. vol. 306. Berlín, DE: Springer-Verlag. Págs. 136-193 (y comentarios bibliográficos págs. 334-335). ISBN 3-540-56852-2. MR  1295240. Volumen II: Teoría avanzada y métodos de haz.
  13. ^ Lemaréchal, Claude (15 a 19 de mayo de 2000). "Relajación lagrangiana". En Jünger, Michael; Naddef, Denis (eds.). Optimización combinatoria computacional: artículos de la escuela de primavera celebrada en Schloß Dagstuhl . Escuela de primavera celebrada en Schloß Dagstuhl del 15 al 19 de mayo de 2000 . Apuntes de conferencias sobre informática. vol. 2241. Berlín, DE: Springer-Verlag (publicado en 2001). págs. 112-156. doi :10.1007/3-540-45586-8_4. ISBN 3-540-42877-1.Señor 1900016.S2CID 9048698  . ​
  14. ^ Lafontaine, Jacques (2015). Introducción a las variedades diferenciales. Springer. pág. 70. ISBN 978-3-319-20735-3.
  15. ^ Dixit, Avinash K. (1990). "Precios sombra". Optimización en teoría económica (2.ª ed.). Nueva York: Oxford University Press. pp. 40–54. ISBN 0-19-877210-6.
  16. ^ Chiang, Alpha C. (1984). Métodos fundamentales de economía matemática (tercera edición). McGraw-Hill. pág. 386. ISBN 0-07-010813-7.
  17. ^ Heath, Michael T. (2005). Computación científica: una introducción. McGraw-Hill. pág. 203. ISBN 978-0-07-124489-3.
  18. ^ Pourciau, Bruce H. (1980). "Reglas modernas de multiplicación". American Mathematical Monthly . 87 (6): 433–452. doi :10.2307/2320250. JSTOR  2320250.
  19. ^ Gautam, Mukesh; Bhusal, Narayan; Benidris, Mohammed (2020). Un enfoque basado en la sensibilidad para el deslastre de carga adaptativo por subfrecuencia . Conferencia IEEE sobre energía y potencia de Texas (TPEC) de 2020. Instituto de Ingenieros Electrónicos y Eléctricos . págs. 1–5. doi :10.1109/TPEC48276.2020.9042569.
  20. ^ Altman, Eitan (2021). Procesos de decisión de Markov restringidos . Routledge .
  21. ^ Ding, Dongsheng; Zhang, Kaiqing; Jovanovic, Mihailo; Basar, Tamer (2020). Método primal-dual de gradiente de política natural para procesos de decisión de Markov restringidos . Avances en sistemas de procesamiento de información neuronal.

Lectura adicional

Enlaces externos

Exposición

Texto adicional y aplicaciones interactivas