stringtranslate.com

Función de Rosenbrock

Gráfica de la función Rosenbrock de dos variables. Aquí , y el valor mínimo de cero está en .

En optimización matemática , la función de Rosenbrock es una función no convexa , introducida por Howard H. Rosenbrock en 1960, que se utiliza como un problema de prueba de rendimiento para algoritmos de optimización . [1] También se conoce como valle de Rosenbrock o función banana de Rosenbrock .

El mínimo global se encuentra dentro de un valle plano, angosto y alargado con forma de parábola . Encontrar el valle es trivial, pero converger hacia el mínimo global es difícil.

La función está definida por

Tiene un mínimo global en , donde . Por lo general, estos parámetros se establecen de manera que y . Solo en el caso trivial en el que la función es simétrica y el mínimo está en el origen.

Generalizaciones multidimensionales

Comúnmente se encuentran dos variantes:

Animación de la función de Rosenbrock de tres variables. [2]

Uno es la suma de problemas de Rosenbrock 2D desacoplados, y se define solo para s pares :

[3]

Esta variante tiene soluciones previsiblemente sencillas.

Una segunda variante, más compleja, es

[4]

tiene exactamente un mínimo para (en ) y exactamente dos mínimos para —el mínimo global en y un mínimo local cerca de . Este resultado se obtiene al establecer el gradiente de la función igual a cero, notando que la ecuación resultante es una función racional de . Para pequeños, los polinomios se pueden determinar exactamente y el teorema de Sturm se puede usar para determinar el número de raíces reales , mientras que las raíces se pueden acotar en la región de . [5] Para mayores, este método falla debido al tamaño de los coeficientes involucrados.

Puntos estacionarios

Muchos de los puntos estacionarios de la función muestran un patrón regular cuando se grafican. [5] Esta estructura se puede aprovechar para localizarlos.

Raíces de Rosenbrock que presentan estructuras jorobadas

Ejemplos de optimización

Función de Rosenbrock Nelder-Mead
Método de Nelder-Mead aplicado a la función de Rosenbrock

La función de Rosenbrock se puede optimizar de manera eficiente adaptando el sistema de coordenadas apropiado sin utilizar ninguna información de gradiente y sin construir modelos de aproximación local (a diferencia de muchos optimizadores sin derivadas). La siguiente figura ilustra un ejemplo de optimización de la función de Rosenbrock bidimensional mediante descenso de coordenadas adaptativo desde el punto de partida . La solución con el valor de la función se puede encontrar después de 325 evaluaciones de la función.

Utilizando el método de Nelder-Mead , partiendo de un símplex inicial regular, se obtiene un mínimo con el valor de la función después de 185 evaluaciones de la misma. La siguiente figura visualiza la evolución del algoritmo.

Véase también

Referencias

  1. ^ Rosenbrock, HH (1960). "Un método automático para hallar el valor máximo o mínimo de una función". The Computer Journal . 3 (3): 175–184. doi : 10.1093/comjnl/3.3.175 . ISSN  0010-4620.
  2. ^ Simionescu, PA (2014). Herramientas de simulación y gráficos asistidos por computadora para usuarios de AutoCAD (1.ª ed.). Boca Raton, FL: CRC Press. ISBN 978-1-4822-5290-3.
  3. ^ Dixon, LCW; Mills, DJ (1994). "Efecto de los errores de redondeo en el método de métrica variable". Journal of Optimization Theory and Applications . 80 : 175–179. doi :10.1007/BF02196600.
  4. ^ "Función de Rosenbrock generalizada" . Consultado el 16 de septiembre de 2008 .
  5. ^ ab Kok, Schalk; Sandrock, Carl (2009). "Localización y caracterización de los puntos estacionarios de la función Rosenbrock extendida". Computación evolutiva . 17 (3): 437–53. doi :10.1162/evco.2009.17.3.437. hdl : 2263/13845 . PMID  19708775.

Enlaces externos