stringtranslate.com

Descenso de gradiente

Descenso de gradiente en 2D

El descenso de gradiente es un método de optimización matemática sin restricciones . Es un algoritmo iterativo de primer orden para minimizar una función multivariable diferenciable .

La idea es dar pasos repetidos en la dirección opuesta del gradiente (o gradiente aproximado) de la función en el punto actual, porque esta es la dirección del descenso más pronunciado. Por el contrario, dar pasos en la dirección del gradiente conducirá a una trayectoria que maximiza esa función; el procedimiento se conoce entonces como ascenso de gradiente . Es particularmente útil en el aprendizaje automático para minimizar la función de costo o pérdida. [1] El descenso de gradiente no debe confundirse con los algoritmos de búsqueda local , aunque ambos son métodos iterativos para la optimización .

El descenso de gradiente generalmente se atribuye a Augustin-Louis Cauchy , quien lo sugirió por primera vez en 1847. [2] Jacques Hadamard propuso de forma independiente un método similar en 1907. [3] [4] Sus propiedades de convergencia para problemas de optimización no lineal fueron estudiadas por primera vez por Haskell Curry en 1944, [5] y el método se fue estudiando y utilizando cada vez más en las décadas siguientes. [6] [7]

Una extensión simple del descenso de gradiente, el descenso de gradiente estocástico , sirve como el algoritmo más básico utilizado para entrenar la mayoría de las redes profundas en la actualidad.

Descripción

Ilustración del descenso de gradiente en una serie de conjuntos de niveles

El descenso de gradiente se basa en la observación de que si la función multivariable está definida y es diferenciable en un entorno de un punto , entonces decrece más rápidamente si se va desde en la dirección del gradiente negativo de en . De ello se deduce que, si

para un tamaño de paso o una tasa de aprendizaje suficientemente pequeños , entonces . En otras palabras, el término se resta de porque queremos movernos en contra del gradiente, hacia el mínimo local. Con esta observación en mente, uno comienza con una estimación de un mínimo local de , y considera la secuencia tal que

Tenemos una secuencia monótona

Por lo tanto, es de esperar que la secuencia converja al mínimo local deseado. Tenga en cuenta que el valor del tamaño del paso puede cambiar en cada iteración.

Es posible garantizar la convergencia a un mínimo local bajo ciertos supuestos sobre la función (por ejemplo, convexa y Lipschitz ) y elecciones particulares de . Estas incluyen la secuencia

como en el método de Barzilai-Borwein , [8] [9] o una secuencia que satisface las condiciones de Wolfe (que se pueden encontrar mediante búsqueda lineal ). Cuando la función es convexa , todos los mínimos locales también son mínimos globales, por lo que en este caso el descenso del gradiente puede converger a la solución global.

Este proceso se ilustra en la imagen adyacente. Aquí, se supone que está definida en el plano y que su gráfica tiene forma de cuenco . Las curvas azules son las curvas de nivel , es decir, las regiones en las que el valor de es constante. Una flecha roja que se origina en un punto muestra la dirección del gradiente negativo en ese punto. Observe que el gradiente (negativo) en un punto es ortogonal a la línea de contorno que pasa por ese punto. Vemos que el descenso del gradiente nos lleva al fondo del cuenco, es decir, al punto donde el valor de la función es mínimo.

Una analogía para comprender el descenso del gradiente

Niebla en las montañas

La intuición básica detrás del descenso de gradiente se puede ilustrar con un escenario hipotético. Las personas están atrapadas en las montañas y están tratando de bajar (es decir, tratando de encontrar el mínimo global). Hay una niebla espesa, por lo que la visibilidad es extremadamente baja. Por lo tanto, el camino hacia abajo de la montaña no es visible, por lo que deben usar información local para encontrar el mínimo. Pueden usar el método de descenso de gradiente, que implica observar la inclinación de la colina en su posición actual y luego proceder en la dirección con el descenso más pronunciado (es decir, cuesta abajo). Si estuvieran tratando de encontrar la cima de la montaña (es decir, el máximo), entonces procederían en la dirección del ascenso más pronunciado (es decir, cuesta arriba). Usando este método, eventualmente encontrarían su camino hacia abajo de la montaña o posiblemente se quedarían atrapados en algún agujero (es decir, mínimo local o punto de silla de montar ), como un lago de montaña. Sin embargo, supongamos también que la inclinación de la colina no es inmediatamente obvia con una simple observación, sino que requiere un instrumento sofisticado para medir, que las personas tienen en ese momento. Se necesita bastante tiempo para medir la inclinación de la colina con el instrumento, por lo que deben minimizar el uso del instrumento si quieren bajar de la montaña antes del atardecer. La dificultad es entonces elegir la frecuencia con la que deben medir la inclinación de la colina para no salirse del camino.

En esta analogía, las personas representan el algoritmo y el camino que siguen al descender la montaña representa la secuencia de ajustes de parámetros que explorará el algoritmo. La inclinación de la colina representa la pendiente de la función en ese punto. El instrumento utilizado para medir la inclinación es la diferenciación . La dirección en la que eligen viajar se alinea con el gradiente de la función en ese punto. La cantidad de tiempo que viajan antes de tomar otra medida es el tamaño del paso. Si saltan de un acantilado en la niebla, habrán optimizado su camino de descenso.

Elección del tamaño del paso y dirección de descenso

Dado que el uso de un tamaño de paso demasiado pequeño ralentizaría la convergencia y uno demasiado grande provocaría un exceso de velocidad y divergencia, encontrar un buen ajuste es un problema práctico importante. Philip Wolfe también abogó por utilizar "elecciones inteligentes de la dirección [de descenso]" en la práctica. [10] Si bien el uso de una dirección que se desvíe de la dirección de descenso más pronunciada puede parecer contraintuitivo, la idea es que la pendiente más pequeña se puede compensar al mantenerse a lo largo de una distancia mucho más larga.

Para razonar sobre esto matemáticamente, considere una dirección y un tamaño de paso y considere la actualización más general:

.

Encontrar buenos ajustes de y requiere algo de reflexión. En primer lugar, nos gustaría que la dirección de actualización apunte cuesta abajo. Matemáticamente, dejando que denote el ángulo entre y , esto requiere que Para decir más, necesitamos más información sobre la función objetivo que estamos optimizando. Bajo el supuesto bastante débil de que es continuamente diferenciable, podemos demostrar que: [11]

Esta desigualdad implica que la cantidad en la que podemos estar seguros de que la función disminuye depende de un equilibrio entre los dos términos entre corchetes. El primer término entre corchetes mide el ángulo entre la dirección de descenso y el gradiente negativo. El segundo término mide la rapidez con la que cambia el gradiente a lo largo de la dirección de descenso.

En principio, la desigualdad ( 1 ) se podría optimizar sobre y para elegir un tamaño de paso y una dirección óptimos. El problema es que evaluar el segundo término entre corchetes requiere evaluar , y las evaluaciones de gradiente adicionales son generalmente costosas e indeseables. Algunas formas de solucionar este problema son:

Generalmente, siguiendo una de las recetas anteriores, se puede garantizar la convergencia a un mínimo local. Cuando la función es convexa , todos los mínimos locales son también mínimos globales, por lo que en este caso el descenso del gradiente puede converger a la solución global.

Solución de un sistema lineal

El algoritmo de descenso más pronunciado aplicado al filtro de Wiener [12]

El descenso de gradiente se puede utilizar para resolver un sistema de ecuaciones lineales.

reformulado como un problema de minimización cuadrática. Si la matriz del sistema es simétrica real y definida positiva , una función objetivo se define como la función cuadrática, con minimización de

de modo que

Para una matriz real general , los mínimos cuadrados lineales definen

En los mínimos cuadrados lineales tradicionales para números reales y se utiliza la norma euclidiana , en cuyo caso

La minimización de la búsqueda de línea , que consiste en encontrar el tamaño de paso localmente óptimo en cada iteración, se puede realizar analíticamente para funciones cuadráticas, y se conocen fórmulas explícitas para el tamaño localmente óptimo. [6] [13]

Por ejemplo, para una matriz real simétrica y definida positiva , un algoritmo simple puede ser el siguiente: [6]

Para evitar multiplicar por dos veces por iteración, observamos que implica , lo que da el algoritmo tradicional, [14]

El método rara vez se utiliza para resolver ecuaciones lineales, siendo el método del gradiente conjugado una de las alternativas más populares. El número de iteraciones del descenso del gradiente es comúnmente proporcional al número de condición espectral de la matriz del sistema (la relación entre los valores propios máximos y mínimos de ) , mientras que la convergencia del método del gradiente conjugado normalmente se determina mediante una raíz cuadrada del número de condición, es decir, es mucho más rápido. Ambos métodos pueden beneficiarse del preacondicionamiento , donde el descenso del gradiente puede requerir menos suposiciones sobre el preacondicionador. [14]

Solución de un sistema no lineal

El descenso de gradiente también se puede utilizar para resolver un sistema de ecuaciones no lineales . A continuación, se muestra un ejemplo que muestra cómo utilizar el descenso de gradiente para resolver tres variables desconocidas, x 1 , x 2 y x 3 . Este ejemplo muestra una iteración del descenso de gradiente.

Consideremos el sistema de ecuaciones no lineales

Introduzcamos la función asociada

dónde

Ahora se podría definir la función objetivo

que intentaremos minimizar. Como estimación inicial, utilicemos

Sabemos que

donde la matriz jacobiana está dada por

Calculamos:

De este modo

y

Una animación que muestra las primeras 83 iteraciones del descenso de gradiente aplicadas a este ejemplo. Las superficies son isosuperficies de la estimación actual y las flechas muestran la dirección del descenso. Debido a un tamaño de paso pequeño y constante, la convergencia es lenta.

Ahora, se debe encontrar un adecuado tal que

Esto se puede hacer con cualquiera de los diversos algoritmos de búsqueda de línea . También se puede simplemente adivinar cuál da

Al evaluar la función objetivo en este valor, se obtiene

La disminución del valor del siguiente paso

es una disminución considerable de la función objetivo. Los pasos posteriores reducirían aún más su valor hasta que se encontrara una solución aproximada para el sistema.

Comentarios

El descenso de gradiente funciona en espacios de cualquier número de dimensiones, incluso en aquellos de dimensión infinita. En este último caso, el espacio de búsqueda es típicamente un espacio de funciones y se calcula la derivada de Fréchet de la función que se va a minimizar para determinar la dirección del descenso. [7]

El hecho de que el descenso de gradiente funcione en cualquier número de dimensiones (al menos un número finito) se puede considerar una consecuencia de la desigualdad de Cauchy-Schwarz , es decir, la magnitud del producto interno (punto) de dos vectores de cualquier dimensión se maximiza cuando son colineales . En el caso del descenso de gradiente, esto ocurriría cuando el vector de ajustes de la variable independiente es proporcional al vector de gradiente de las derivadas parciales.

El descenso del gradiente puede requerir muchas iteraciones para calcular un mínimo local con la precisión requerida , si la curvatura en diferentes direcciones es muy diferente para la función dada. Para tales funciones, el preacondicionamiento , que cambia la geometría del espacio para dar forma a los conjuntos de niveles de función como círculos concéntricos , soluciona la convergencia lenta. Sin embargo, construir y aplicar el preacondicionamiento puede ser costoso desde el punto de vista computacional.

El descenso de gradiente se puede combinar con una búsqueda lineal , encontrando el tamaño de paso óptimo localmente en cada iteración. Realizar la búsqueda lineal puede llevar mucho tiempo. Por el contrario, usar un tamaño de paso fijo pequeño puede generar una convergencia deficiente, y un tamaño de paso grande puede generar divergencia. No obstante, se pueden alternar tamaños de paso pequeños y grandes para mejorar la tasa de convergencia. [15] [16]

Los métodos basados ​​en el método de Newton y la inversión del hessiano utilizando técnicas de gradiente conjugado pueden ser mejores alternativas. [17] [18] Generalmente, tales métodos convergen en menos iteraciones, pero el costo de cada iteración es mayor. Un ejemplo es el método BFGS que consiste en calcular en cada paso una matriz por la cual se multiplica el vector de gradiente para ir en una dirección "mejor", combinado con un algoritmo de búsqueda de línea más sofisticado , para encontrar el "mejor" valor de Para problemas extremadamente grandes, donde dominan los problemas de memoria de la computadora, se debe utilizar un método de memoria limitada como L-BFGS en lugar de BFGS o el descenso más pronunciado.

Si bien a veces es posible sustituir el descenso de gradiente por un algoritmo de búsqueda local , el descenso de gradiente no pertenece a la misma familia: si bien es un método iterativo para la optimización local , se basa en el gradiente de una función objetivo en lugar de una exploración explícita de un espacio de soluciones .

El descenso de gradiente puede verse como la aplicación del método de Euler para resolver ecuaciones diferenciales ordinarias a un flujo de gradiente . A su vez, esta ecuación puede derivarse como un controlador óptimo [19] para el sistema de control con dado en forma de retroalimentación .

Modificaciones

El descenso de gradiente puede converger a un mínimo local y desacelerarse en las proximidades de un punto de silla . Incluso en el caso de la minimización cuadrática sin restricciones, el descenso de gradiente desarrolla un patrón en zigzag de iteraciones subsiguientes a medida que avanzan las iteraciones, lo que da como resultado una convergencia lenta. Se han propuesto múltiples modificaciones del descenso de gradiente para abordar estas deficiencias.

Métodos de gradiente rápido

Yurii Nesterov ha propuesto [20] una modificación simple que permite una convergencia más rápida para problemas convexos y desde entonces se ha generalizado aún más. Para problemas suaves sin restricciones, el método se llama método de gradiente rápido (FGM) o método de gradiente acelerado (AGM). Específicamente, si la función diferenciable es convexa y es Lipschitz , y no se supone que es fuertemente convexa , entonces el error en el valor objetivo generado en cada paso por el método de descenso de gradiente estará limitado por . Usando la técnica de aceleración de Nesterov, el error disminuye en . [21] [22] Se sabe que la tasa de disminución de la función de costo es óptima para los métodos de optimización de primer orden. Sin embargo, existe la oportunidad de mejorar el algoritmo reduciendo el factor constante. El método de gradiente optimizado (OGM) [23] reduce esa constante por un factor de dos y es un método de primer orden óptimo para problemas a gran escala. [24]

Para problemas restringidos o no suaves, el FGM de Nesterov se denomina método de gradiente proximal rápido (FPGM), una aceleración del método de gradiente proximal .

Impulso obola pesadamétodo

En un intento por romper el patrón en zigzag del descenso del gradiente, el método del momento o de la bola pesada utiliza un término de momento en analogía con una bola pesada que se desliza sobre la superficie de los valores de la función que se está minimizando, [6] o con el movimiento de masa en la dinámica newtoniana a través de un medio viscoso en un campo de fuerza conservativo . [25] El descenso del gradiente con momento recuerda la actualización de la solución en cada iteración y determina la siguiente actualización como una combinación lineal del gradiente y la actualización anterior. Para la minimización cuadrática sin restricciones, un límite teórico de la tasa de convergencia del método de la bola pesada es asintóticamente el mismo que el del método del gradiente conjugado óptimo . [6]

Esta técnica se utiliza en el descenso de gradiente estocástico y como una extensión de los algoritmos de retropropagación utilizados para entrenar redes neuronales artificiales . [26] [27] En la dirección de actualización, el descenso de gradiente estocástico agrega una propiedad estocástica. Los pesos se pueden utilizar para calcular las derivadas.

Extensiones

El descenso de gradiente se puede extender para manejar restricciones mediante la inclusión de una proyección sobre el conjunto de restricciones. Este método solo es factible cuando la proyección se puede calcular de manera eficiente en una computadora. Bajo supuestos adecuados, este método converge. Este método es un caso específico del algoritmo de avance-retroceso para inclusiones monótonas (que incluye programación convexa y desigualdades variacionales ). [28]

El descenso de gradiente es un caso especial de descenso de espejo que utiliza la distancia euclidiana al cuadrado como la divergencia de Bregman dada . [29]

Propiedades teóricas

Las propiedades del descenso de gradiente dependen de las propiedades de la función objetivo y de la variante del descenso de gradiente utilizada (por ejemplo, si se utiliza un paso de búsqueda lineal ). Las suposiciones realizadas afectan la tasa de convergencia y otras propiedades que se pueden demostrar para el descenso de gradiente. [30] Por ejemplo, si se supone que el objetivo es fuertemente convexo y suave en Lipschitz , entonces el descenso de gradiente converge linealmente con un tamaño de paso fijo. [1] Las suposiciones más laxas conducen a garantías de convergencia más débiles o requieren una selección de tamaño de paso más sofisticada. [30]

Véase también

Referencias

  1. ^ ab Boyd, Stephen; Vandenberghe, Lieven (8 de marzo de 2004). Optimización convexa. Cambridge University Press. ISBN 978-0-521-83378-3.
  2. ^ Lemaréchal, C. (2012). "Cauchy y el método del gradiente" (PDF) . Doc Math Extra : 251–254. Archivado desde el original (PDF) el 2018-12-29 . Consultado el 2020-01-26 .
  3. ^ Hadamard, Jacques (1908). "Mémoire sur le problème d'analyse relatif à l'équilibre des plaques élastiques encastrées". Mémoires présentés par divers savants éstrangers à l'Académie des Sciences de l'Institut de France . 33 .
  4. ^ Courant, R. (1943). "Métodos variacionales para la solución de problemas de equilibrio y vibraciones". Boletín de la Sociedad Matemática Americana . 49 (1): 1–23. doi : 10.1090/S0002-9904-1943-07818-4 .
  5. ^ Curry, Haskell B. (1944). "El método del descenso más pronunciado para problemas de minimización no lineal". Quart. Appl. Math . 2 (3): 258–261. doi : 10.1090/qam/10667 .
  6. ^ abcde Polyak, Boris (1987). Introducción a la optimización.
  7. ^ ab Akilov, GP; Kantorovich, LV (1982). Análisis funcional (2.ª ed.). Pergamon Press. ISBN 0-08-023036-9.
  8. ^ Barzilai, Jonathan; Borwein, Jonathan M. (1988). "Métodos de gradiente de tamaño de paso de dos puntos". IMA Journal of Numerical Analysis . 8 (1): 141–148. doi :10.1093/imanum/8.1.141.
  9. ^ Fletcher, R. (2005). "Sobre el método Barzilai–Borwein". En Qi, L.; Teo, K.; Yang, X. (eds.). Optimización y control con aplicaciones . Optimización aplicada. Vol. 96. Boston: Springer. págs. 235–256. ISBN . 0-387-24254-6.
  10. ^ Wolfe, Philip (abril de 1969). "Condiciones de convergencia para métodos de ascenso". SIAM Review . 11 (2): 226–235. doi :10.1137/1011036.
  11. ^ Bernstein, Jeremy; Vahdat, Arash; Yue, Yisong; Liu, Ming-Yu (12 de junio de 2020). "Sobre la distancia entre dos redes neuronales y la estabilidad del aprendizaje". arXiv : 2002.03432 [cs.LG].
  12. ^ Haykin, Simon S. Teoría del filtro adaptativo. Pearson Education India, 2008. - págs. 108-142, 217-242
  13. ^ Saad, Yousef (2003). Métodos iterativos para sistemas lineales dispersos (2.ª ed.). Filadelfia, Pensilvania: Society for Industrial and Applied Mathematics. pp. 195. ISBN 978-0-89871-534-7.
  14. ^ ab Bouwmeester, Henricus; Dougherty, Andrew; Knyazev, Andrew V. (2015). "Preacondicionamiento no simétrico para métodos de gradiente conjugado y descenso más pronunciado". Procedia Computer Science . 51 : 276–285. arXiv : 1212.6680 . doi : 10.1016/j.procs.2015.05.241 .
  15. ^ Altschuler, Jason (Jason M.) (2018). Avaricia, cobertura y aceleración en optimización convexa (Tesis). Instituto Tecnológico de Massachusetts.
  16. ^ Parshall, Allison (11 de agosto de 2023). «Los pasos gigantes arriesgados pueden resolver los problemas de optimización más rápidamente». Revista Quanta . Consultado el 11 de agosto de 2023 .
  17. ^ Press, WH ; Teukolsky, SA ; Vetterling, WT; Flannery, BP (1992). Recetas numéricas en C: el arte de la computación científica (2.ª ed.). Nueva York: Cambridge University Press . ISBN 0-521-43108-5.
  18. ^ Strutz, T. (2016). Ajuste de datos e incertidumbre: una introducción práctica a los mínimos cuadrados ponderados y más allá (2.ª ed.). Springer Vieweg. ISBN 978-3-658-11455-8.
  19. ^ Ross, IM (julio de 2019). "Una teoría de control óptima para optimización no lineal". Revista de Matemática Computacional y Aplicada . 354 : 39–51. doi : 10.1016/j.cam.2018.12.044 . S2CID  127649426.
  20. ^ Nesterov, Yurii (2004). Lecciones introductorias sobre optimización convexa: un curso básico . Springer. ISBN 1-4020-7553-7.
  21. ^ Vandenberghe, Lieven (2019). "Métodos de gradiente rápido" (PDF) . Apuntes de conferencias para EE236C en UCLA .
  22. ^ Walkington, Noel J. (2023). "Método de Nesterov para optimización convexa". SIAM Review . 65 (2): 539–562. doi :10.1137/21M1390037. ISSN  0036-1445.
  23. ^ Kim, D.; Fessler, JA (2016). "Métodos optimizados de primer orden para la minimización convexa suave". Programación matemática . 151 (1–2): 81–107. arXiv : 1406.5468 . doi :10.1007/s10107-015-0949-3. PMC 5067109 . PMID  27765996. S2CID  207055414. 
  24. ^ Drori, Yoel (2017). "La complejidad basada en información exacta de la minimización convexa suave". Journal of Complexity . 39 : 1–16. arXiv : 1606.01424 . doi :10.1016/j.jco.2016.11.001. S2CID  205861966.
  25. ^ Qian, Ning (enero de 1999). "Sobre el término momentum en algoritmos de aprendizaje de descenso de gradiente". Redes neuronales . 12 (1): 145–151. CiteSeerX 10.1.1.57.5612 . doi :10.1016/S0893-6080(98)00116-6. PMID  12662723. S2CID  2783597. 
  26. ^ "Momentum and Learning Rate Adaptation" (Adaptación del ritmo de aprendizaje y del impulso). Universidad de Willamette . Consultado el 17 de octubre de 2014 .
  27. ^ Geoffrey Hinton ; Nitish Srivastava; Kevin Swersky. "El método del momento". Coursera . Consultado el 2 de octubre de 2018 .Parte de una serie de conferencias para el curso en línea de Coursera Redes neuronales para aprendizaje automático Archivado el 31 de diciembre de 2016 en Wayback Machine .
  28. ^ Combettes, PL; Pesquet, J.-C. (2011). "Métodos de división proximal en el procesamiento de señales". En Bauschke, HH; Burachik, RS ; Combettes, PL; Elser, V.; Luke, DR; Wolkowicz, H. (eds.). Algoritmos de punto fijo para problemas inversos en ciencia e ingeniería . Nueva York: Springer. págs. 185–212. arXiv : 0912.3522 . ISBN 978-1-4419-9568-1.
  29. ^ "Algoritmo de descenso del espejo".
  30. ^ ab Bubeck, S. (2014). Teoría de optimización convexa para aprendizaje automático. ArXiv, abs/1405.4980.

Lectura adicional

Enlaces externos