stringtranslate.com

Aproximación estocástica

Los métodos de aproximación estocástica son una familia de métodos iterativos que se utilizan normalmente para problemas de búsqueda de raíces o para problemas de optimización . Las reglas de actualización recursivas de los métodos de aproximación estocástica se pueden utilizar, entre otras cosas, para resolver sistemas lineales cuando los datos recopilados están corrompidos por el ruido, o para aproximar valores extremos de funciones que no se pueden calcular directamente, sino que sólo se estiman mediante observaciones ruidosas.

En pocas palabras, los algoritmos de aproximación estocástica tratan con una función de la forma que es el valor esperado de una función que depende de una variable aleatoria . El objetivo es recuperar propiedades de dicha función sin evaluarla directamente. En cambio, los algoritmos de aproximación estocástica utilizan muestras aleatorias para aproximar eficientemente propiedades como ceros o extremos.

Recientemente, las aproximaciones estocásticas han encontrado amplias aplicaciones en los campos de la estadística y el aprendizaje automático, especialmente en entornos con big data . Estas aplicaciones van desde métodos y algoritmos de optimización estocástica hasta formas en línea del algoritmo EM , aprendizaje por refuerzo mediante diferencias temporales y aprendizaje profundo , entre otros. [1] Los algoritmos de aproximación estocástica también se han utilizado en las ciencias sociales para describir dinámicas colectivas: el juego ficticio en la teoría del aprendizaje y los algoritmos de consenso se pueden estudiar utilizando su teoría. [2]

Los algoritmos más antiguos y prototípicos de este tipo son los algoritmos de Robbins-Monro y Kiefer-Wolfowitz, introducidos respectivamente en 1951 y 1952.

Algoritmo de Robbins-Monro

El algoritmo Robbins-Monro, introducido en 1951 por Herbert Robbins y Sutton Monro , [3] presentó una metodología para resolver un problema de búsqueda de raíces, donde la función se representa como un valor esperado. Supongamos que tenemos una función y una constante tal que la ecuación tiene una raíz única en . Se supone que si bien no podemos observar directamente la función , podemos obtener medidas de la variable aleatoria donde . La estructura del algoritmo es generar iteraciones de la forma:

Aquí hay una secuencia de tamaños de pasos positivos. Robbins y Monro demostraron [3] , el teorema 2 que converge en (y por tanto también en probabilidad) a , y Blum [4] demostró más tarde que la convergencia es en realidad con probabilidad uno, siempre que:

Una secuencia particular de pasos que satisface estas condiciones, sugerida por Robbins-Monro, tiene la forma: , para . Son posibles otras series, pero para promediar el ruido en , se debe cumplir la condición anterior.

Resultados de complejidad

  1. Si es dos veces continuamente diferenciable, y fuertemente convexo, y el minimizador de pertenece al interior de , entonces el algoritmo de Robbins-Monro logrará la tasa de convergencia asintóticamente óptima, con respecto a la función objetivo, siendo , donde es el valor mínimo de sobre . [5] [6]
  2. Por el contrario, en el caso convexo general, donde carecemos del supuesto de suavidad y de convexidad fuerte, Nemirovski y Yudin [7] han demostrado que la tasa de convergencia asintóticamente óptima, con respecto a los valores de la función objetivo, es . También han demostrado que esta tasa no se puede mejorar.

Desarrollos posteriores y promedio Polyak-Ruppert

Si bien el algoritmo de Robbins-Monro es teóricamente capaz de lograr resultados bajo el supuesto de diferenciabilidad dos veces continua y una fuerte convexidad, puede funcionar bastante mal tras su implementación. Esto se debe principalmente al hecho de que el algoritmo es muy sensible a la elección de la secuencia del tamaño de paso, y la supuesta política de tamaño de paso asintóticamente óptima puede ser bastante perjudicial al principio. [6] [8]

Chung (1954) [9] y Fabian (1968) [10] demostraron que alcanzaríamos una tasa de convergencia óptima con (o ). Lai y Robbins [11] [12] diseñaron procedimientos adaptativos para estimar aquellos que tengan una varianza asintótica mínima. Sin embargo, la aplicación de estos métodos óptimos requiere mucha información a priori que es difícil de obtener en la mayoría de las situaciones. Para superar este déficit, Polyak (1991) [13] y Ruppert (1988) [14] desarrollaron de forma independiente un nuevo algoritmo óptimo basado en la idea de promediar las trayectorias. Polyak y Juditsky [15] también presentaron un método para acelerar Robbins-Monro para problemas de búsqueda de raíces lineales y no lineales mediante el uso de pasos más largos y el promedio de las iteraciones. El algoritmo tendría la siguiente estructura:

A1)

Por lo tanto, la secuencia con satisface esta restricción, pero no, de ahí los pasos más largos. Según los supuestos descritos en el algoritmo de Robbins-Monro, la modificación resultante dará como resultado la misma tasa de convergencia asintóticamente óptima pero con una política de tamaño de paso más sólida. [15] Antes de esto, Nemirovski y Yudin [16] ya habían propuesto la idea de utilizar pasos más largos y promediar las iteraciones para los casos de resolución del problema de optimización estocástica con objetivos convexos continuos y para problemas de punto de silla convexo-cóncavo. Se observó que estos algoritmos alcanzaban la tasa no asintótica .

En el Capítulo 11 de Kushner y Yin [17] se da un resultado más general al definir el tiempo interpolado , el proceso interpolado y el proceso normalizado interpolado como

Con el supuesto A1) y el siguiente A2)

A2) Existe una matriz de Hurwitz y una matriz simétrica y definida positiva tal que converge débilmente a , donde está la estatisolución a

satisfecho y definir . Luego para cada uno ,

El éxito de la idea de promediar se debe a la separación de escalas de tiempo de la secuencia original y la secuencia promediada , siendo la escala de tiempo de la primera más rápida.

Aplicación en optimización estocástica.

Supongamos que queremos resolver el siguiente problema de optimización estocástica

Aquí hay un estimador insesgado de . Si depende de , en general no existe una forma natural de generar un resultado aleatorio que sea un estimador insesgado del gradiente. En algunos casos especiales, cuando se aplican los métodos IPA o de razón de verosimilitud, se puede obtener un estimador de gradiente insesgado . Si se ve como un proceso aleatorio subyacente "fundamental" que se genera independientemente de y bajo algunas condiciones de regularización para operaciones de intercambio integral-derivada, de modo que , entonces da la estimación insesgada del gradiente fundamental. Sin embargo, para algunas aplicaciones tenemos que usar métodos de diferencias finitas en los que tiene una expectativa condicional cercana pero no exactamente igual.

Luego definimos una recursividad de manera análoga al Método de Newton en el algoritmo determinista:

Convergencia del algoritmo

El siguiente resultado proporciona condiciones suficientes para que el algoritmo converja: [18]

C1)

C2)

C3)

C4)

C5)

Luego converge a casi con seguridad.

A continuación se ofrecen algunas explicaciones intuitivas sobre estas condiciones. Supongamos que se trata de variables aleatorias uniformemente acotadas. Si C2) no se cumple, es decir , entonces

Ejemplo (donde el método del gradiente estocástico es apropiado) [8]

Supongamos que , donde es diferenciable y es una variable aleatoria independiente de . Entonces depende de la media de y el método del gradiente estocástico sería apropiado en este problema. Podemos elegir

Algoritmo de Kiefer-Wolfowitz

El algoritmo de Kiefer-Wolfowitz fue introducido en 1952 por Jacob Wolfowitz y Jack Kiefer , [19] y fue motivado por la publicación del algoritmo de Robbins-Monro. Sin embargo, el algoritmo se presentó como un método que estimaría estocásticamente el máximo de una función.

Sea una función que tenga un máximo en el punto . Se supone que se desconoce; sin embargo, se pueden hacer ciertas observaciones en cualquier momento . La estructura del algoritmo sigue un método similar a un gradiente, y las iteraciones se generan como

donde y son independientes. En cada paso, el gradiente de se aproxima de manera similar a un método de diferencia central con . Entonces, la secuencia especifica la secuencia de anchos de diferencias finitas utilizadas para la aproximación del gradiente, mientras que la secuencia especifica una secuencia de tamaños de pasos positivos tomados en esa dirección.

Kiefer y Wolfowitz demostraron que, si se cumplen ciertas condiciones de regularidad, entonces convergerá con una probabilidad como , y posteriormente Blum [4] en 1954 demostró que converge con casi seguridad, siempre que:

Una elección adecuada de secuencias, recomendada por Kiefer y Wolfowitz, sería y .

Desarrollos posteriores y cuestiones importantes

  1. El algoritmo de Kiefer Wolfowitz requiere que para cada cálculo de gradiente, se deben simular al menos valores de parámetros diferentes para cada iteración del algoritmo, donde es la dimensión del espacio de búsqueda. Esto significa que cuando es grande, el algoritmo de Kiefer-Wolfowitz requerirá un esfuerzo computacional sustancial por iteración, lo que conducirá a una convergencia lenta.
    1. Para abordar este problema, Spall propuso el uso de perturbaciones simultáneas para estimar el gradiente. Este método requeriría sólo dos simulaciones por iteración, independientemente de la dimensión . [20]
  2. En las condiciones requeridas para la convergencia, puede ser difícil encontrar la capacidad de especificar un conjunto compacto predeterminado que cumpla con una convexidad (o concavidad) fuerte y contenga la solución única. Con respecto a las aplicaciones del mundo real, si el dominio es bastante grande, estas suposiciones pueden ser bastante restrictivas y poco realistas.

Nuevos desarrollos

Ha surgido una extensa literatura teórica en torno a estos algoritmos, relativa a las condiciones de convergencia, tasas de convergencia, generalizaciones multivariadas y de otro tipo, elección adecuada del tamaño de paso, posibles modelos de ruido, etc. [21] [22] Estos métodos también se aplican en la teoría del control , en cuyo caso la función desconocida que deseamos optimizar o encontrar el cero puede variar en el tiempo. En este caso, el tamaño del paso no debe converger a cero sino que debe elegirse de manera que siga la función. [21] , 2ª ed., capítulo 3

C. Johan Masreliez y R. Douglas Martin fueron los primeros en aplicar la aproximación estocástica a la estimación robusta . [23]

La principal herramienta para analizar algoritmos de aproximaciones estocásticas (incluidos los algoritmos de Robbins-Monro y Kiefer-Wolfowitz) es un teorema de Aryeh Dvoretzky publicado en 1956. [24]

Ver también

Referencias

  1. ^ Toulis, Panos; Airoldi, Edoardo (2015). "Estrategias de estimación escalables basadas en aproximaciones estocásticas: resultados clásicos y nuevos conocimientos". Estadística y Computación . 25 (4): 781–795. doi :10.1007/s11222-015-9560-y. PMC  4484776 . PMID  26139959.
  2. ^ Le Ny, Jerome. "Introducción a los algoritmos de aproximación estocástica" (PDF) . Politécnica de Montreal . Notas didácticas . Consultado el 16 de noviembre de 2016 .
  3. ^ ab Robbins, H .; Monro, S. (1951). "Un método de aproximación estocástica". Los anales de la estadística matemática . 22 (3): 400. doi : 10.1214/aoms/1177729586 .
  4. ^ ab Blum, Julius R. (1 de junio de 1954). "Métodos de aproximación que convergen con la probabilidad uno". Los anales de la estadística matemática . 25 (2): 382–386. doi : 10.1214/aoms/1177728794 . ISSN  0003-4851.
  5. ^ Sacos, J. (1958). "Distribución asintótica de procedimientos de aproximación estocástica". Los anales de la estadística matemática . 29 (2): 373–405. doi : 10.1214/aoms/1177706619 . JSTOR  2237335.
  6. ^ ab Nemirovski, A .; Juditsky, A.; Lan, G.; Shapiro, A. (2009). "Enfoque robusto de aproximación estocástica a la programación estocástica". Revista SIAM sobre Optimización . 19 (4): 1574. doi : 10.1137/070704277.
  7. ^ Complejidad del problema y eficiencia del método en la optimización, A. Nemirovski y D. Yudin, Wiley -Intersci. Ser. Matemáticas discretas 15 John Wiley Nueva York (1983).
  8. ^ ab Introducción a la búsqueda y optimización estocástica: estimación, simulación y control, JC Spall, John Wiley Hoboken, Nueva Jersey , (2003).
  9. ^ Chung, KL (1 de septiembre de 1954). "Sobre un método de aproximación estocástica". Los anales de la estadística matemática . 25 (3): 463–483. doi : 10.1214/aoms/1177728716 . ISSN  0003-4851.
  10. ^ Fabián, Václav (1 de agosto de 1968). "Sobre la normalidad asintótica en la aproximación estocástica". Los anales de la estadística matemática . 39 (4): 1327-1332. doi : 10.1214/aoms/1177698258 . ISSN  0003-4851.
  11. ^ Lai, TL; Robbins, Herbert (1 de noviembre de 1979). "Diseño adaptativo y aproximación estocástica". Los anales de la estadística . 7 (6): 1196-1221. doi : 10.1214/aos/1176344840 . ISSN  0090-5364.
  12. ^ Lai, Tze Leung; Robbins, Herbert (1 de septiembre de 1981). "Consistencia y eficiencia asintótica de estimaciones de pendientes en esquemas de aproximación estocástica". Zeitschrift für Wahrscheinlichkeitstheorie und Verwandte Gebiete . 56 (3): 329–360. doi : 10.1007/BF00536178 . ISSN  0044-3719. S2CID  122109044.
  13. ^ Polyak, BT (1991). "Nuevos procedimientos de tipo de aproximación estocástica. (En ruso)". Automatización y Control Remoto . 7 (7).
  14. ^ Ruppert, David (1988). Estimadores eficientes de un proceso de Robbins-Monro que converge lentamente (Informe técnico 781). Escuela de Investigación de Operaciones e Ingeniería Industrial de la Universidad de Cornell.
  15. ^ ab Polyak, BT; Juditsky, AB (1992). "Aceleración de la aproximación estocástica mediante promediación". Revista SIAM de Control y Optimización . 30 (4): 838. doi : 10.1137/0330046.
  16. ^ Sobre la convergencia de Cezari del método de descenso más pronunciado para aproximar puntos silla de funciones cóncavas-convexas, A. Nemirovski y D. Yudin, Dokl. Akád. Nauk SSR 2939 , (1978 (ruso)), Matemáticas soviéticas. Dokl. 19 (1978 (inglés)).
  17. ^ Kushner, Harold; George Yin, G. (17 de julio de 2003). Aproximación estocástica y algoritmos recursivos y | Harold Kushner | Saltador. www.springer.com. ISBN 9780387008943. Consultado el 16 de mayo de 2016 .
  18. ^ Bouleau, N.; Lepingle, D. (1994). Métodos Numéricos para Procesos Estocásticos. Nueva York: John Wiley. ISBN 9780471546412.
  19. ^ Kiefer, J.; Wolfowitz, J. (1952). "Estimación estocástica del máximo de una función de regresión". Los anales de la estadística matemática . 23 (3): 462. doi : 10.1214/aoms/1177729392 .
  20. ^ Spall, JC (2000). "Aproximación estocástica adaptativa por el método de perturbación simultánea". Transacciones IEEE sobre control automático . 45 (10): 1839–1853. doi :10.1109/TAC.2000.880982.
  21. ^ ab Kushner, HJ ; Yin, GG (1997). Algoritmos y aplicaciones de aproximación estocástica . doi :10.1007/978-1-4899-2696-8. ISBN 978-1-4899-2698-2.
  22. ^ Aproximación estocástica y estimación recursiva , Mikhail Borisovich Nevel'son y Rafail Zalmanovich Has'minskiĭ, traducido por el Programa de Traducciones Científicas de Israel y B. Silver, Providence, RI: American Mathematical Society, 1973, 1976. ISBN 0-8218-1597- 0
  23. ^ Martín, R.; Masreliez, C. (1975). "Estimación robusta mediante aproximación estocástica". Transacciones IEEE sobre teoría de la información . 21 (3): 263. doi :10.1109/TIT.1975.1055386.
  24. ^ Dvoretzky, Aryeh (1956). "Sobre aproximación estocástica". En Neyman, Jerzy (ed.). Actas del tercer simposio de Berkeley sobre estadística matemática y probabilidad, 1954-1955, vol. I . Prensa de la Universidad de California. págs. 39–55. SEÑOR  0084911.