stringtranslate.com

condiciones de lobo

En el problema de minimización sin restricciones , las condiciones de Wolfe son un conjunto de desigualdades para realizar una búsqueda lineal inexacta , especialmente en métodos cuasi-Newton , publicado por primera vez por Philip Wolfe en 1969. [1] [2]

En estos métodos la idea es encontrar

suaves

Las búsquedas de líneas inexactas proporcionan una manera eficiente de calcular una longitud de paso aceptable que reduce la función objetivo "suficientemente", en lugar de minimizar la función objetivo exactamente. Un algoritmo de búsqueda de líneas puede utilizar las condiciones de Wolfe como requisito para cualquier conjetura , antes de encontrar una nueva dirección de búsqueda .

Regla de Armijo y curvatura.

Se dice que la longitud de un paso satisface las condiciones de Wolfe , restringidas a la dirección , si se cumplen las dos desigualdades siguientes:

con . (Al examinar la condición (ii), recuerde que para garantizar que sea una dirección de descenso, tenemos , como en el caso del descenso de gradiente , donde , o Newton-Raphson , donde con definida positiva.)

Por lo general, se elige que sea bastante pequeño, mientras que es mucho más grande; Nocedal y Wright dan valores de ejemplo de y para los métodos de Newton o cuasi-Newton y para el método de gradiente conjugado no lineal . [3] La desigualdad i) se conoce como regla de Armijo [4] y ii) como condición de curvatura ; i) garantiza que la longitud del paso disminuye "suficientemente", y ii) garantiza que la pendiente se ha reducido lo suficiente. Las condiciones i) y ii) pueden interpretarse como que proporcionan respectivamente un límite superior e inferior para los valores de longitud de paso admisibles.

Fuerte condición de Wolfe en la curvatura.

Denota una función univariada restringida a la dirección como . Las condiciones de Wolfe pueden dar como resultado un valor para la longitud del paso que no se acerca a un minimizador de . Si modificamos la condición de curvatura a lo siguiente,

entonces i) y iii) juntos forman las llamadas condiciones de Wolfe fuertes y obligan a estar cerca de un punto crítico de .

Razón fundamental

La razón principal para imponer las condiciones de Wolfe en un algoritmo de optimización es asegurar la convergencia del gradiente a cero. En particular, si el coseno del ángulo entre y el gradiente,

Una motivación adicional, en el caso de un método cuasi-Newton , es que si , donde la matriz se actualiza mediante la fórmula BFGS o DFP , entonces si es definida positiva ii) implica que también es definida positiva.

Comentarios

Las condiciones de Wolfe son más complicadas que la condición de Armijo, y un algoritmo de descenso de gradiente basado en la condición de Armijo tiene una mejor garantía teórica que uno basado en las condiciones de Wolfe (consulte las secciones sobre "Límite superior para las tasas de aprendizaje" y "Garantía teórica" ​​en la línea de retroceso artículo de búsqueda ).

Ver también

Referencias

  1. ^ Wolfe, P. (1969). "Condiciones de convergencia para métodos de ascenso". Revisión SIAM . 11 (2): 226–235. doi :10.1137/1011036. JSTOR  2028111.
  2. ^ Wolfe, P. (1971). "Condiciones de convergencia para métodos de ascenso. II: Algunas correcciones". Revisión SIAM . 13 (2): 185–188. doi :10.1137/1013035. JSTOR  2028821.
  3. ^ Nocedal, Jorge ; Wright, Stephen (1999). Optimización numérica. pag. 38.
  4. ^ Armijo, Larry (1966). "Minimización de funciones que tienen primeras derivadas parciales continuas de Lipschitz". Pacífico J. Matemáticas . 16 (1): 1–3. doi : 10.2140/pjm.1966.16.1 .

Otras lecturas