stringtranslate.com

Distribución de probabilidad de puntos extremos de un proceso estocástico de Wiener

En la teoría matemática de la probabilidad, el proceso de Wiener , llamado así por Norbert Wiener , es un proceso estocástico utilizado para modelar diversos fenómenos, incluidos el movimiento browniano y las fluctuaciones en los mercados financieros. Una fórmula para la distribución de probabilidad condicional del extremo del proceso de Wiener y un esbozo de su prueba aparecen en el trabajo de H. J. Kusher (apéndice 3, página 106) publicado en 1964. [1] Una prueba constructiva detallada aparece en el trabajo de Dario Ballabio en 1978. [2] Este resultado se desarrolló dentro de un proyecto de investigación sobre algoritmos de optimización bayesianos .

En algunos problemas de optimización global se desconoce la definición analítica de la función objetivo y sólo es posible obtener valores en puntos fijos. Existen funciones objetivo en las que el coste de una evaluación es muy elevado, por ejemplo cuando la evaluación es el resultado de un experimento o de una medición especialmente onerosa. En estos casos, la búsqueda del extremo global (máximo o mínimo) puede llevarse a cabo mediante una metodología denominada " optimización bayesiana ", que tiende a obtener a priori el mejor resultado posible con un número predeterminado de evaluaciones. En resumen se supone que fuera de los puntos en los que ya ha sido evaluada, la función objetivo tiene un patrón que puede ser representado por un proceso estocástico con características apropiadas. El proceso estocástico se toma como modelo de la función objetivo, suponiendo que la distribución de probabilidad de sus extremos da la mejor indicación sobre los extremos de la función objetivo. En el caso más simple de la optimización unidimensional, dado que la función objetivo ha sido evaluada en un número de puntos, se plantea el problema de elegir en cuál de los intervalos así identificados es más apropiado invertir en una evaluación posterior. Si se elige un proceso estocástico de Wiener como modelo para la función objetivo, es posible calcular la distribución de probabilidad de los puntos extremos del modelo dentro de cada intervalo, condicionada por los valores conocidos en los límites del intervalo. La comparación de las distribuciones obtenidas proporciona un criterio para seleccionar el intervalo en el que se debe iterar el proceso. El valor de probabilidad de haber identificado el intervalo en el que cae el punto extremo global de la función objetivo puede usarse como criterio de parada. La optimización bayesiana no es un método eficiente para la búsqueda precisa de extremos locales por lo que, una vez que se ha restringido el rango de búsqueda, dependiendo de las características del problema, se puede utilizar un método de optimización local específico.

Proposición

Sea un proceso estocástico de Wiener en un intervalo con valor inicial

Por definición del proceso de Wiener , los incrementos tienen una distribución normal:

Dejar

sea ​​la función de distribución de probabilidad acumulada del valor mínimo de la función en el intervalo condicionado por el valor

Se demuestra que: [1] [3] [nota 1]

Prueba constructiva

El caso es una consecuencia inmediata de la definición mínima, en lo sucesivo se asumirá siempre y también se excluirá el caso extremo.

Supongamos que se define en un número finito de puntos .

Sea variando el entero α una sucesión de conjuntos tales que α y α un conjunto denso en ,

Por lo tanto, cada vecindad de cada punto en contiene un elemento de uno de los conjuntos .

Sea un número real positivo tal que

Sea el evento definido como: .

Habiendo excluido el caso extremo , seguramente es .

Sean los eventos definidos como: y sea el primer k entre los que definen .

Puesto que es evidente . Ahora se demostrará la ecuación (2.1) .

(2.1)

Por la definición de eventos, , por lo tanto . Ahora se verificará la relación, por lo tanto se demostrará (2.1) .

La definición de , la continuidad de y la hipótesis implican, por el teorema del valor intermedio , .

Por la continuidad de y la hipótesis que en ella hay denso se deduce que tal que para ello debe ser ,

por lo tanto lo que implica (2.1) .

(2.2)

(2.2) se deduce de (2.1) , considerando que implica que la secuencia de probabilidades es monótona no decreciente y por lo tanto converge a su supremo . La definición de eventos implica y (2.2) implica .

En lo sucesivo se asumirá siempre que , por lo que está bien definido.

(2.3)

De hecho, por definición es , entonces .

De manera similar, dado que por definición es , (2.4) es válida:

(2.4)

(2.5)

Lo anterior se explica por el hecho de que la variable aleatoria tiene una densidad de probabilidad simétrica respecto de su media que es cero.

Aplicando en secuencia las relaciones (2.3) , (2.5) y (2.4) obtenemos (2.6)  :

(2.6)

Con el mismo procedimiento empleado para obtener (2.3) , (2.4) y (2.5) aprovechando esta vez la relación obtenemos (2.7) :

(2.7)

Aplicando en secuencia (2.6) y ( 2.7) obtenemos:

(2.8)

De , considerando la continuidad de y el teorema del valor intermedio obtenemos ,

lo que implica .

Reemplazando lo anterior en (2.8) y pasando a los límites: y para , el evento converge a

(2.9)

, sustituyendo con en (2.9) obtenemos la relación equivalente:

(2.10)

Aplicación del teorema de Bayes al evento conjunto

(2.11)

Sea: De las definiciones anteriores se deduce:

(2.12)

Sustituyendo (2.12) en (2.11) , obtenemos el equivalente:

(2.13)

Sustituyendo (2.9) y (2.10) en (2.13):

(2.14)

Se puede observar que en el segundo miembro de (2.14) aparece la distribución de probabilidad de la variable aleatoria , normal con media y varianza .

Las realizaciones y de la variable aleatoria coinciden respectivamente con las densidades de probabilidad:

(2.15)

(2.16)

Sustituyendo (2.15) y (2.16) en (2.14) y tomando el límite para la tesis se demuestra:

Bibliografía

Véase también

Notas

  1. ^ El teorema, tal como se establece y se muestra para el caso del mínimo del proceso de Wiener, también se aplica al máximo.

Referencias

  1. ^ ab HJ Kushner, "Un nuevo método para localizar el punto máximo de una curva multipico arbitraria en presencia de ruido", J. Basic Eng 86(1), 97–106 (01 de marzo de 1964).
  2. ^ Dario Ballabio, "Una nuova classe di algoritmi stocastici per l'ottimizzazione globale" (Una nueva clase de algoritmos estocásticos para la optimización global), Universidad de Milán, Instituto de Matemáticas, tesis doctoral presentada el 12 de julio de 1978, págs. 29-33 .
  3. ^ János D. Pintér, Optimización global en acción: optimización continua y de Lipschitz, 1996 Springer Science & Business Media , página 57.