stringtranslate.com

multiplicador de Lagrange

En optimización matemática , el método de los multiplicadores de Lagrange es una estrategia para encontrar los máximos y mínimos locales de una función sujeta a restricciones de ecuación (es decir, sujeta a la condición de que una o más ecuaciones deben satisfacerse exactamente con los valores elegidos de las variables) . ). [1] Lleva el nombre del matemático Joseph-Louis Lagrange .

Resumen y justificación

La idea básica es convertir un problema restringido en una forma tal que aún se pueda aplicar la prueba derivada de un problema no restringido. La relación entre el gradiente de la función y los gradientes de las restricciones conduce de forma bastante natural a una reformulación del problema original, conocido como función lagrangiana . [2] En el caso general, el lagrangiano se define como

para funciones ; se llama multiplicador de Lagrange.

En el caso simple, esto se simplifica a

El método se puede resumir de la siguiente manera: para encontrar el máximo o mínimo de una función sujeta a la restricción de igualdad , encontrar los puntos estacionarios de considerados en función de y el multiplicador de Lagrange . Esto significa que todas las derivadas parciales deben ser cero, incluida la derivada parcial con respecto a . [3]

y

o equivalente

y

La solución correspondiente a la optimización restringida original es siempre un punto de silla de la función lagrangiana, [4] [5] que puede identificarse entre los puntos estacionarios a partir de la precisión de la matriz de Hesse bordeada . [6]

La gran ventaja de este método es que permite resolver la optimización sin parametrización explícita en términos de restricciones. Como resultado, el método de los multiplicadores de Lagrange se utiliza ampliamente para resolver problemas desafiantes de optimización restringida. Además, el método de los multiplicadores de Lagrange se generaliza mediante las condiciones de Karush-Kuhn-Tucker , que también pueden tener en cuenta restricciones de desigualdad de la forma para una constante dada .

Declaración

Lo siguiente se conoce como teorema del multiplicador de Lagrange. [7]

Sea la función objetivo, sea la función de restricciones, ambas pertenecientes a (es decir, con primeras derivadas continuas). Sea una solución óptima al siguiente problema de optimización tal que, para la matriz de derivadas parciales ,:

Entonces existe un multiplicador de Lagrange único tal que (tenga en cuenta que esto es algo algo convencional que se trata claramente como un vector de columna para garantizar que las dimensiones coincidan. Pero también podríamos convertirlo solo en un vector de fila sin tomar la transposición) .

El teorema del multiplicador de Lagrange establece que en cualquier máximo (o mínimo) local de la función evaluada bajo las restricciones de igualdad, si se aplica la calificación de la restricción (explicada a continuación), entonces el gradiente de la función (en ese punto) se puede expresar como una combinación lineal. de los gradientes de las restricciones (en ese punto), con los multiplicadores de Lagrange actuando como coeficientes . [8] Esto equivale a decir que cualquier dirección perpendicular a todos los gradientes de las restricciones también es perpendicular al gradiente de la función. O aún, decir que la derivada direccional de la función es 0 en todas las direcciones factibles.

Restricción única

Figura 1: La curva roja muestra la restricción g ( x , y ) = c . Las curvas azules son contornos de f ( x , y ) . El punto donde la restricción roja toca tangencialmente un contorno azul es el máximo de f ( x , y ) a lo largo de la restricción, ya que d 1 > d 2 .

Para el caso de sólo una restricción y sólo dos variables de elección (como se ejemplifica en la Figura 1), considere el problema de optimización

(A veces, una constante aditiva se muestra por separado en lugar de incluirse en , en cuyo caso la restricción se escribe como en la Figura 1). Suponemos que ambos y tienen primeras derivadas parciales continuas . Introducimos una nueva variable ( ) llamada multiplicador de Lagrange (o multiplicador indeterminado de Lagrange ) y estudiamos la función de Lagrange (o expresión lagrangiana o lagrangiana ) definida por

donde el término puede sumarse o restarse. Si es un máximo de para el problema restringido original y entonces existe tal que ( ) es un punto estacionario para la función de Lagrange (los puntos estacionarios son aquellos puntos donde las primeras derivadas parciales de son cero). El supuesto se llama calificación de restricción. Sin embargo, no todos los puntos estacionarios producen una solución del problema original, ya que el método de los multiplicadores de Lagrange produce sólo una condición necesaria para la optimización en problemas restringidos. [9] [10] [11] [12] [13] También existen condiciones suficientes para un mínimo o un máximo , pero si una solución candidata en particular satisface las condiciones suficientes, sólo se garantiza que esa solución sea la mejor a nivel local : que es decir, es mejor que cualquier punto cercano permitido. El óptimo global se puede encontrar comparando los valores de la función objetivo original en los puntos que satisfacen las condiciones necesarias y localmente suficientes.

El método de los multiplicadores de Lagrange se basa en la intuición de que, como máximo, f ( x , y ) no puede aumentar en la dirección de ningún punto vecino que también tenga g = 0 . Si lo fuera, podríamos caminar a lo largo de g = 0 para llegar más alto, lo que significa que el punto de partida no era en realidad el máximo. Visto de esta manera, es un análogo exacto de probar si la derivada de una función no restringida es 0 , es decir, estamos verificando que la derivada direccional es 0 en cualquier dirección relevante (viable).

Podemos visualizar los contornos de f dado por f ( x , y ) = d para varios valores de d , y el contorno de g dado por g ( x , y ) = c .

Supongamos que caminamos a lo largo de la línea de contorno con g = c . Estamos interesados ​​en encontrar puntos donde f casi no cambia mientras caminamos, ya que estos puntos podrían ser máximos.

Hay dos maneras en que esto podría suceder:

  1. Podríamos tocar una curva de nivel de f , ya que por definición f no cambia mientras caminamos por sus curvas de nivel. Esto significaría que las tangentes a las curvas de nivel de f y g son paralelas aquí.
  2. Hemos alcanzado una parte de "nivel" de f , lo que significa que f no cambia en ninguna dirección.

Para comprobar la primera posibilidad (tocamos una curva de nivel de f ), observe que dado que el gradiente de una función es perpendicular a las curvas de nivel, las tangentes a las curvas de nivel de f y g son paralelas si y sólo si los gradientes de f y g son paralelos. Por lo tanto queremos puntos ( x , y ) donde g ( x , y ) = c y

para algunos

dónde

son los gradientes respectivos. La constante es necesaria porque, aunque los dos vectores gradiente son paralelos, las magnitudes de los vectores gradiente generalmente no son iguales. Esta constante se llama multiplicador de Lagrange. (En algunas convenciones va precedido de un signo menos).

Observe que este método también resuelve la segunda posibilidad, que f sea nivel: si f es nivel, entonces su gradiente es cero y la configuración es una solución independientemente de .

Para incorporar estas condiciones en una ecuación, introducimos una función auxiliar

y resolver

Tenga en cuenta que esto equivale a resolver tres ecuaciones con tres incógnitas. Este es el método de los multiplicadores de Lagrange.

Tenga en cuenta que implica que la derivada parcial de con respecto a es

Para resumir

El método se generaliza fácilmente a funciones sobre variables.

lo que equivale a resolver n + 1 ecuaciones en n + 1 incógnitas.

Los extremos restringidos de f son puntos críticos del Lagrangiano , pero no son necesariamente extremos locales de (ver Ejemplo 2 a continuación).

Se puede reformular el lagrangiano como hamiltoniano , en cuyo caso las soluciones son mínimos locales para el hamiltoniano. Esto se hace en la teoría del control óptimo , en la forma del principio mínimo de Pontryagin .

El hecho de que las soluciones del método de los multiplicadores de Lagrange no sean necesariamente extremos del Lagrangiano, también plantea dificultades para la optimización numérica. Esto se puede solucionar minimizando la magnitud del gradiente del Lagrangiano, ya que estos mínimos son iguales a los ceros de la magnitud, como se ilustra en el Ejemplo 5: Optimización numérica.

Múltiples restricciones

Figura 2: Un paraboloide limitado a lo largo de dos líneas que se cruzan.
Figura 3: Mapa de contorno de la Figura 2.

El método de los multiplicadores de Lagrange se puede ampliar para resolver problemas con múltiples restricciones utilizando un argumento similar. Considere un paraboloide sujeto a dos restricciones lineales que se cruzan en un solo punto. Como única solución factible, este punto es obviamente un extremo restringido. Sin embargo, el conjunto de niveles claramente no es paralelo a ninguna de las restricciones en el punto de intersección (ver Figura 3); en cambio, es una combinación lineal de los gradientes de las dos restricciones. En el caso de restricciones múltiples, eso será lo que buscamos en general: el método de Lagrange busca puntos no en los que el gradiente de sea necesariamente múltiplo del gradiente de una sola restricción, sino en los que sea una combinación lineal de todas las restricciones. gradientes.

Concretamente, supongamos que tenemos restricciones y caminamos a lo largo del conjunto de puntos que satisfacen. Cada punto en el contorno de una función de restricción dada tiene un espacio de direcciones permitidas: el espacio de vectores perpendiculares a El conjunto de direcciones permitidas por todas las restricciones es, por tanto, el espacio de direcciones perpendiculares a todos los gradientes de las restricciones. Denota este espacio de movimientos permitidos por y denota el lapso de los gradientes de las restricciones por Entonces el espacio de vectores perpendiculares a cada elemento de

Todavía estamos interesados ​​en encontrar puntos donde no cambie mientras caminamos, ya que estos puntos podrían ser extremos (restringidos). Por lo tanto, buscamos tal que cualquier dirección permitida de movimiento que se aleje sea perpendicular a (de lo contrario, podríamos aumentar moviéndonos a lo largo de esa dirección permitida). En otras palabras, existen escalares tales que

Estos escalares son los multiplicadores de Lagrange. Ahora tenemos varios de ellos, uno para cada limitación.

Como antes, introducimos una función auxiliar.

y resolver

lo que equivale a resolver ecuaciones con incógnitas.

El supuesto de calificación de restricciones cuando hay múltiples restricciones es que los gradientes de restricciones en el punto relevante son linealmente independientes.

Formulación moderna a través de variedades diferenciables.

El problema de encontrar máximos y mínimos locales sujetos a restricciones se puede generalizar a encontrar máximos y mínimos locales en una variedad diferenciable [14] En lo que sigue, no es necesario que sea un espacio euclidiano, o incluso una variedad de Riemann. Todas las apariencias del gradiente (que depende de la elección de la métrica de Riemann) se pueden reemplazar con la derivada exterior.

Restricción única

Sea una variedad suave de dimensión Supongamos que deseamos encontrar los puntos estacionarios de una función suave cuando se restringe a la subvariedad definida por donde hay una función suave para la cual 0 es un valor regular .

Sean y las derivadas exteriores de y . Estacionariedad para la restricción en significa Equivalentemente, el núcleo contiene En otras palabras, y son formas 1 proporcionales. Para ello es necesario y suficiente que se cumpla el siguiente sistema de ecuaciones:

donde denota el producto exterior . Los puntos estacionarios son las soluciones del sistema de ecuaciones anterior más la restricción. Tenga en cuenta que las ecuaciones no son independientes, ya que el lado izquierdo de la ecuación pertenece a la subvariedad de elementos descomponibles .

En esta formulación, no es necesario encontrar explícitamente el multiplicador de Lagrange, un número tal que

Múltiples restricciones

Sea y sea como en la sección anterior con respecto al caso de una restricción única. En lugar de la función descrita allí, considere ahora una función suave con funciones componentes para las cuales es un valor regular . Sea la subvariedad de definida por

es un punto estacionario de si y solo si contiene Por conveniencia, let y donde denota el mapa tangente o jacobiano El subespacio tiene una dimensión menor que la de , es decir, y pertenece a si y solo si pertenece a la imagen de Computacionalmente hablando, la condición es que pertenece al espacio de filas de la matriz de o equivalentemente al espacio de columnas de la matriz de (la transpuesta). Si denota el producto exterior de las columnas de la matriz de la condición estacionaria para at se convierte en

Una vez más, en esta formulación no es necesario encontrar explícitamente los multiplicadores de Lagrange, los números tales que

Interpretación de los multiplicadores de Lagrange

En esta sección, modificamos las ecuaciones de restricción de la forma a la forma donde hay m constantes reales que se consideran argumentos adicionales de la expresión lagrangiana .

A menudo, los multiplicadores de Lagrange se interpretan como una cantidad de interés. Por ejemplo, al parametrizar la línea de contorno de la restricción, es decir, si la expresión lagrangiana es

entonces

Entonces, λ k es la tasa de cambio de la cantidad que se optimiza en función del parámetro de restricción. Como ejemplo, en la mecánica lagrangiana las ecuaciones de movimiento se derivan encontrando puntos estacionarios de la acción , la integral de tiempo de la diferencia entre energía cinética y potencial. Así, la fuerza sobre una partícula debida a un potencial escalar, F = −∇ V , puede interpretarse como un multiplicador de Lagrange que determina el cambio de acción (transferencia de potencial a energía cinética) tras una variación en la trayectoria restringida de la partícula. En la teoría del control, esto se formula como ecuaciones de costos .

Además, según el teorema de la envolvente, el valor óptimo de un multiplicador de Lagrange se interpreta como el efecto marginal de la constante de restricción correspondiente sobre el valor óptimo alcanzable de la función objetivo original: si denotamos los valores óptimos con una estrella ( ), entonces se puede demostrar que

Por ejemplo, en economía, el beneficio óptimo para un jugador se calcula sujeto a un espacio de acciones restringido, donde un multiplicador de Lagrange es el cambio en el valor óptimo de la función objetivo (beneficio) debido a la relajación de una restricción determinada (por ejemplo, a través de un cambio en los ingresos); en tal contexto es el costo marginal de la restricción y se lo conoce como precio sombra . [15]

Condiciones suficientes

Se pueden establecer condiciones suficientes para un máximo o mínimo local restringido en términos de una secuencia de menores principales (determinantes de submatrices justificadas en la parte superior izquierda) de la matriz hessiana bordeada de segundas derivadas de la expresión lagrangiana. [6] [16]

Ejemplos

Ejemplo 1

Ilustración del problema de optimización restringida  1

Supongamos que deseamos maximizar sujeto a la restricción. El conjunto factible es el círculo unitario, y los conjuntos de niveles de f son líneas diagonales (con pendiente −1), por lo que podemos ver gráficamente que el máximo ocurre en y que el mínimo ocurre en

Para el método de los multiplicadores de Lagrange, la restricción es

de ahí la función lagrangiana,

es una función que es equivalente a cuando se establece en 0 .

Ahora podemos calcular el gradiente:

y por lo tanto:

Observe que la última ecuación es la restricción original.

Las dos primeras ecuaciones producen

Sustituyendo en la última ecuación tenemos:

entonces

lo que implica que los puntos estacionarios de son

La evaluación de la función objetivo f en estos puntos produce

Por tanto, el máximo restringido es y el mínimo restringido es .

Ejemplo 2

Ilustración del problema de optimización restringida  2

Ahora modificamos la función objetivo del Ejemplo  1 para minimizar en lugar de hacerlo nuevamente a lo largo del círculo. Ahora los conjuntos de niveles de siguen siendo líneas de pendiente −1, y los puntos en el círculo tangentes a estos conjuntos de niveles son nuevamente y Estos puntos de tangencia son máximos de

Por otro lado, los mínimos ocurren en el nivel establecido para (ya que por su construcción no pueden tomar valores negativos), en y donde las curvas de nivel de no son tangentes a la restricción. La condición que identifica correctamente los cuatro puntos como extremos; los mínimos se caracterizan por y los máximos por

Ejemplo 3

Ilustración del problema de optimización restringida  3 .

Este ejemplo trata de cálculos más arduos, pero sigue siendo un problema de restricción única.

Supongamos que uno quiere encontrar los valores máximos de

con la condición de que las coordenadas - y - se encuentren en el círculo alrededor del origen con radio. Es decir, sujeto a la restricción

Como hay una sola restricción, hay un único multiplicador, digamos

La restricción es idénticamente cero en el círculo de radio. Se puede sumar cualquier múltiplo de para dejar sin cambios en la región de interés (en el círculo donde se satisface nuestra restricción original).

Aplicando el método del multiplicador ordinario de Lagrange se obtiene

a partir del cual se puede calcular el gradiente:

Y por lo tanto:

(iii) es solo la restricción original. (i) implica o Si luego por (iii) y en consecuencia de (ii). Si sustituir esto en (ii) produce Sustituir esto en (iii) y resolver para da Por lo tanto, hay seis puntos críticos de

Al evaluar el objetivo en estos puntos, se encuentra que

Por lo tanto, la función objetivo alcanza el máximo global (sujeto a las restricciones) en y el mínimo global en El punto es un mínimo local de y es un máximo local de como puede determinarse considerando la matriz de Hesse de

Tenga en cuenta que si bien es un punto crítico, no es un extremo local de Tenemos

Dada cualquier vecindad de uno, se puede elegir un pequeño positivo y un pequeño de cualquier signo para obtener valores mayores y menores que Esto también se puede ver en la matriz de Hesse de evaluado en este punto (o de hecho en cualquiera de los puntos críticos), que es una matriz indefinida . Cada uno de los puntos críticos de es un punto de silla de [4]

Ejemplo 4

entropía

Supongamos que deseamos encontrar la distribución de probabilidad discreta en los puntos con entropía de información máxima . Esto es lo mismo que decir que deseamos encontrar la distribución de probabilidad menos estructurada en los puntos. En otras palabras, deseamos maximizar la ecuación de entropía de Shannon :

Para que esto sea una distribución de probabilidad, la suma de las probabilidades en cada punto debe ser igual a 1, por lo que nuestra restricción es:

Usamos multiplicadores de Lagrange para encontrar el punto de máxima entropía, en todas las distribuciones de probabilidad discretas. Requerimos que:

lo que da un sistema de n ecuaciones, tal que:

Llevando a cabo la diferenciación de estas n ecuaciones, obtenemos

Esto muestra que todos son iguales (porque dependen únicamente de λ ). Usando la restricción

encontramos

Por tanto, la distribución uniforme es la distribución con mayor entropía, entre distribuciones en n puntos.

Ejemplo 5

Optimización numérica
Los multiplicadores de Lagrange hacen que los puntos críticos ocurran en los puntos de silla (Ejemplo  5 ).
La magnitud del gradiente se puede utilizar para forzar que los puntos críticos ocurran en mínimos locales (Ejemplo  5 ).

Los puntos críticos de los lagrangianos ocurren en puntos de silla , en lugar de en máximos (o mínimos) locales. [4] [17] Desafortunadamente, muchas técnicas de optimización numérica, como la escalada de colinas , el descenso de gradientes y algunos de los métodos cuasi-Newton , entre otros, están diseñadas para encontrar máximos (o mínimos) locales y no puntos silla. Por esta razón, se debe modificar la formulación para garantizar que sea un problema de minimización (por ejemplo, extremando el cuadrado del gradiente del Lagrangiano como se muestra a continuación) o utilizar una técnica de optimización que encuentre puntos estacionarios (como el método de Newton). sin un extremo buscando línea de búsqueda ) y no necesariamente extremos.

Como ejemplo simple, considere el problema de encontrar el valor de x que minimice la restricción de manera que (Este problema es algo atípico porque sólo hay dos valores que satisfacen esta restricción, pero es útil con fines ilustrativos porque la función no restringida correspondiente puede ser visualizado en tres dimensiones.)

Usando multiplicadores de Lagrange, este problema se puede convertir en un problema de optimización sin restricciones:

Los dos puntos críticos ocurren en los puntos de silla donde x = 1 y x = −1 .

Para resolver este problema con una técnica de optimización numérica, primero debemos transformar este problema de manera que los puntos críticos ocurran en mínimos locales. Esto se hace calculando la magnitud del gradiente del problema de optimización sin restricciones.

Primero, calculamos la derivada parcial del problema sin restricciones con respecto a cada variable:

Si la función objetivo no es fácilmente diferenciable, el diferencial con respecto a cada variable se puede aproximar como

donde es un valor pequeño.

A continuación, calculamos la magnitud del gradiente, que es la raíz cuadrada de la suma de los cuadrados de las derivadas parciales:

(Dado que la magnitud siempre es no negativa, optimizar sobre la magnitud al cuadrado es equivalente a optimizar sobre la magnitud. Por lo tanto, la "raíz cuadrada" puede omitirse de estas ecuaciones sin que se espere una diferencia en los resultados de la optimización).

Los puntos críticos de h ocurren en x = 1 y x = −1 , tal como en Sin embargo, a diferencia de los puntos críticos en , los puntos críticos en h ocurren en mínimos locales, por lo que se pueden usar técnicas de optimización numérica para encontrarlos.

Aplicaciones

Teoría del control

En la teoría del control óptimo , los multiplicadores de Lagrange se interpretan como variables de coste , y los multiplicadores de Lagrange se reformulan como la minimización del hamiltoniano , en el principio mínimo de Pontryagin .

Programación no lineal

El método del multiplicador de Lagrange tiene varias generalizaciones. En programación no lineal existen varias reglas multiplicadoras, por ejemplo, la regla multiplicadora de Carathéodory-John y la regla multiplicadora convexa, para restricciones de desigualdad. [18]

Sistemas de poder

Los métodos basados ​​en multiplicadores de Lagrange tienen aplicaciones en sistemas de energía , por ejemplo, en la colocación de recursos de energía distribuida (DER) y el deslastre de carga. [19]

Aprendizaje por refuerzo seguro

El método de los multiplicadores de Lagrange se aplica a procesos de decisión de Markov restringidos. [20] Produce naturalmente algoritmos duales primarios basados ​​en gradientes en el aprendizaje por refuerzo seguro. [21]

Ver también

Referencias

  1. ^ Hoffmann, Laurence D.; Bradley, Gerald L. (2004). Cálculo para negocios, economía y ciencias sociales y biológicas (8ª ed.). págs. 575–588. ISBN 0-07-242432-X.
  2. ^ Beavis, Brian; Dobbs, Ian M. (1990). "Optimización estática". Teoría de la Optimización y Estabilidad para el Análisis Económico . Nueva York: Cambridge University Press. pag. 40.ISBN _ 0-521-33605-8.
  3. ^ Protter, Murray H .; Morrey, Charles B. Jr. (1985). Cálculo intermedio (2ª ed.). Nueva York, Nueva York: Springer. pag. 267.ISBN _ 0-387-96058-9.
  4. ^ abc Walsh, GR (1975). "Propiedad del punto de silla de la función lagrangiana". Métodos de optimización . Nueva York, Nueva York: John Wiley & Sons. págs. 39–44. ISBN 0-471-91922-5.
  5. ^ Kalman, Dan (2009). "Nivelación con Lagrange: una visión alternativa de optimización restringida". Revista Matemáticas . 82 (3): 186–196. doi :10.1080/0025570X.2009.11953617. JSTOR  27765899. S2CID  121070192.
  6. ^ ab Silberberg, Eugenio; Suen, ala (2001). La estructura de la economía: un análisis matemático (tercera ed.). Boston: Irwin McGraw-Hill. págs. 134-141. ISBN 0-07-234352-4.
  7. de la Fuente , Ángel (2000). Métodos y modelos matemáticos para economistas . Cambridge: Prensa de la Universidad de Cambridge. pag. 285. doi : 10.1017/CBO9780511810756. ISBN 978-0-521-58512-5.
  8. ^ Luenberger, David G. (1969). Optimización por métodos de espacio vectorial . Nueva York: John Wiley & Sons. págs. 188-189.
  9. ^ Bertsekas, Dimitri P. (1999). Programación no lineal (Segunda ed.). Cambridge, MA: Athena Científica. ISBN 1-886529-00-0.
  10. ^ Vapnyarskii, IB (2001) [1994], "Multiplicadores de Lagrange", Enciclopedia de Matemáticas , EMS Press.
  11. ^ Lasdon, León S. (2002) [1970]. Teoría de la optimización para sistemas grandes (reimpresión ed.). Mineola, Nueva York, Nueva York: Dover. ISBN 0-486-41999-1. SEÑOR  1888251.
  12. ^ Hiriart-Urruty, Jean-Baptiste; Lemaréchal, Claude (1993). "Capítulo XII: Dualidad abstracta para profesionales". Algoritmos de análisis y minimización convexos . Grundlehren der Mathematischen Wissenschaften [Principios fundamentales de las ciencias matemáticas]. vol. 306. Berlín, DE: Springer-Verlag. págs. 136-193 (y comentarios bibliográficos págs. 334-335). ISBN 3-540-56852-2. MR  1295240. Volumen II: Teoría avanzada y métodos de paquetes.
  13. ^ Lemaréchal, Claude (15 a 19 de mayo de 2000). "Relajación lagrangiana". En Jünger, Michael; Naddef, Denis (eds.). Optimización combinatoria computacional: artículos de la escuela de primavera celebrada en Schloß Dagstuhl . Escuela de primavera celebrada en Schloß Dagstuhl del 15 al 19 de mayo de 2000 . Apuntes de conferencias sobre informática. vol. 2241. Berlín, DE: Springer-Verlag (publicado en 2001). págs. 112-156. doi :10.1007/3-540-45586-8_4. ISBN 3-540-42877-1. SEÑOR  1900016. S2CID  9048698.
  14. ^ Lafontaine, Jacques (2015). Introducción a las variedades diferenciales. Saltador. pag. 70.ISBN _ 978-3-319-20735-3.
  15. ^ Dixit, Avinash K. (1990). "Precios sombra". Optimización en teoría económica (2ª ed.). Nueva York: Oxford University Press. págs. 40–54. ISBN 0-19-877210-6.
  16. ^ Chiang, Alfa C. (1984). Métodos fundamentales de la economía matemática (Tercera ed.). McGraw-Hill. pag. 386.ISBN _ 0-07-010813-7.
  17. ^ Salud, Michael T. (2005). Computación científica: una encuesta introductoria. McGraw-Hill. pag. 203.ISBN _ 978-0-07-124489-3.
  18. ^ Pourciau, Bruce H. (1980). "Reglas multiplicadoras modernas". Mensual Matemático Estadounidense . 87 (6): 433–452. doi :10.2307/2320250. JSTOR  2320250.
  19. ^ Gautam, Mukesh; Bhusal, Narayan; Benidris, Mohammed (2020). "Un enfoque basado en la sensibilidad para el deslastre de carga adaptativo de baja frecuencia ". Conferencia de Energía y Energía del IEEE Texas 2020 (TPEC). Instituto de Ingenieros Electrónicos y Eléctricos . págs. 1 a 5. doi :10.1109/TPEC48276.2020.9042569.
  20. ^ Altman, Eitan (2021). "Procesos de decisión de Markov restringidos ". Rutledge .
  21. ^ Ding, Dongsheng; Zhang, Kaiqing; Jovanovic, Mihailo; Basar, domador (2020). "Método primal-dual del gradiente de política natural para procesos de decisión de Markov restringidos ". Avances en los sistemas de procesamiento de información neuronal.

Otras lecturas

enlaces externos

Exposición
Texto adicional y subprogramas interactivos