stringtranslate.com

Inclinación exponencial

La inclinación exponencial (ET), la torsión exponencial o el cambio exponencial de medida (ECM) es una técnica de cambio de distribución utilizada en muchas partes de las matemáticas. Las diferentes inclinaciones exponenciales de una variable aleatoria se conocen como familia exponencial natural de .

La inclinación exponencial se utiliza en la estimación de Monte Carlo para la simulación de eventos raros y, en particular, para el muestreo de rechazo e importancia . En finanzas matemáticas [1] La inclinación exponencial también se conoce como inclinación de Esscher (o transformada de Esscher ) y, a menudo, se combina con la aproximación indirecta de Edgeworth y se utiliza en contextos como la fijación de precios de futuros de seguros. [2]

La formalización más temprana de la inclinación exponencial a menudo se atribuye a Esscher [3] y su uso en muestreo de importancia se atribuye a David Siegmund . [4]

Descripción general

Dada una variable aleatoria con distribución de probabilidad , densidad y función generadora de momento (MGF) , la medida inclinada exponencialmente se define de la siguiente manera:

¿Dónde se define la función generadora acumulativa (CGF) como

Llamamos

la densidad inclinada de . Satisface .

La inclinación exponencial de un vector aleatorio tiene una definición análoga:

dónde .

Ejemplo

La medida inclinada exponencialmente en muchos casos tiene la misma forma paramétrica que la de . Los ejemplos unidimensionales incluyen la distribución normal, la distribución exponencial, la distribución binomial y la distribución de Poisson.

Por ejemplo, en el caso de la distribución normal, la densidad inclinada es la densidad. La siguiente tabla proporciona más ejemplos de densidad inclinada.

Sin embargo, para algunas distribuciones, la distribución inclinada exponencialmente no pertenece a la misma familia paramétrica que . Un ejemplo de esto es la distribución de Pareto con , donde está bien definida pero no es una distribución estándar. En tales ejemplos, la generación de variables aleatorias puede no siempre ser sencilla. [7]

En mecánica estadística, la energía de un sistema en equilibrio con un baño térmico tiene la distribución de Boltzmann :, donde es la temperatura inversa . La inclinación exponencial corresponde entonces a un cambio de temperatura: .

De manera similar, la energía y el número de partículas de un sistema en equilibrio con un baño de calor y partículas tiene la gran distribución canónica : , donde es el potencial químico . La inclinación exponencial corresponde entonces a un cambio tanto de la temperatura como del potencial químico.

Ventajas

En muchos casos, la distribución inclinada pertenece a la misma familia paramétrica que la original. Esto es particularmente cierto cuando la densidad original pertenece a la familia de distribución exponencial . Esto simplifica la generación de variables aleatorias durante las simulaciones de Monte-Carlo. La inclinación exponencial puede seguir siendo útil si este no es el caso, aunque la normalización debe ser posible y es posible que se necesiten algoritmos de muestreo adicionales.

Además, existe una relación simple entre el CGF original y el inclinado,

Podemos ver esto observando que

De este modo,

.

Claramente, esta relación permite un fácil cálculo del CGF de la distribución inclinada y, por tanto, de los momentos de la distribución. Además, da como resultado una forma simple de razón de verosimilitud. Específicamente,

.

Propiedades

Esto significa que el -ésimo acumulante del inclinado es . En particular, la expectativa de la distribución inclinada es
.
La varianza de la distribución inclinada es
.
entre la distribución inclinada y la distribución original de .
.

Aplicaciones

Simulación de eventos raros

La inclinación exponencial de , suponiendo que exista, proporciona una familia de distribuciones que pueden usarse como distribuciones de propuesta para muestreo de aceptación-rechazo o distribuciones de importancia para muestreo de importancia . Una aplicación común es el muestreo de una distribución condicional a una subregión del dominio, es decir . Con una elección adecuada de , el muestreo de puede reducir significativamente la cantidad requerida de muestreo o la varianza de un estimador.

Aproximación del punto de silla

El método de aproximación del punto de silla es una metodología de aproximación de densidad que se utiliza a menudo para la distribución de sumas y promedios de variables aleatorias independientes e idénticamente distribuidas que emplea series de Edgeworth , pero que generalmente funciona mejor en valores extremos. De la definición de familia exponencial natural, se deduce que

.

Aplicando la expansión de Edgeworth para , tenemos

¿Dónde está la densidad normal estándar de

,
,

y son los polinomios de Hermite .

Al considerar valores de progresivamente más alejados del centro de la distribución, los términos se vuelven ilimitados. Sin embargo, para cada valor de , podemos elegir tal que

Este valor de se conoce como punto de silla y la expansión anterior siempre se evalúa según la expectativa de la distribución inclinada. Esta elección de conduce a la representación final de la aproximación dada por

[8] [9]

Muestreo de rechazo

Utilizando la distribución inclinada como propuesta, el algoritmo de muestreo de rechazo prescribe el muestreo y la aceptación con probabilidad.

dónde

Es decir, se genera una variable aleatoria distribuida uniformemente y se acepta la muestra de si

Muestreo de importancia

Aplicando la distribución inclinada exponencialmente como distribución de importancia se obtiene la ecuación

,

dónde

es la función de probabilidad. Entonces, se toma una muestra para estimar la probabilidad bajo la distribución de importancia y luego se multiplica por la razón de verosimilitud. Además, tenemos la varianza dada por

.

Ejemplo

Supongamos independientes e idénticamente distribuidos de modo que . Para estimar , podemos emplear un muestreo de importancia tomando

.

La constante se puede reescribir como si fuera alguna otra constante . Entonces,

,

donde denota lo definido por la ecuación del punto de silla

.

Procesos estocásticos

Dada la inclinación de un VD normal, es intuitivo que la inclinación exponencial de , un movimiento browniano con deriva y varianza , es un movimiento browniano con deriva y varianza . Por lo tanto, cualquier movimiento browniano con deriva hacia abajo puede considerarse como un movimiento browniano sin deriva hacia abajo . Para observar esto, considere el proceso . . El término de razón de verosimilitud, es una martingala y comúnmente se denota como . Por tanto, un movimiento browniano con proceso de deriva (así como muchos otros procesos continuos adaptados a la filtración browniana) es una -martingala. [10] [11]

Ecuaciones diferenciales estocásticas

Lo anterior lleva a la representación alternativa de la ecuación diferencial estocástica : , donde = . La fórmula de Girsanov establece la razón de verosimilitud . Por lo tanto, la fórmula de Girsanov se puede utilizar para implementar un muestreo de importancia para ciertas SDE.

La inclinación también puede ser útil para simular un proceso mediante muestreo de rechazo del SDE . Podemos centrarnos en el SDE ya que sabemos que se puede escribir . Como se indicó anteriormente, un movimiento browniano con deriva puede inclinarse hacia un movimiento browniano sin deriva. Por eso elegimos . La razón de verosimilitud . Esta relación de probabilidad se denotará . Para garantizar que se trata de una verdadera razón de probabilidad, se debe demostrar que . Suponiendo que se cumpla esta condición, se puede demostrar que . Entonces, el muestreo de rechazo prescribe que se toma una muestra de un movimiento browniano estándar y se acepta con probabilidad .

Elección del parámetro de inclinación

algoritmo de siegmund

Supongamos iid X con distribución de cola ligera y . Para estimar dónde , cuándo es grande y, por tanto, pequeño, el algoritmo utiliza inclinación exponencial para derivar la distribución de importancia. El algoritmo se utiliza en muchos aspectos, como pruebas secuenciales, [12] tiempos de espera de cola G/G/1 y se utiliza como probabilidad de ruina final en la teoría de la ruina . En este contexto, es lógico asegurar que . El criterio , donde está st logra esto. El algoritmo de Siegmund utiliza , si existe, donde se define de la siguiente manera: . Se ha demostrado que es el único parámetro de inclinación que produce un error relativo acotado ( ). [13]

Algoritmos de caja negra

Sólo podemos ver la entrada y salida de una caja negra, sin conocer su estructura. El algoritmo debe utilizar sólo información mínima sobre su estructura. Cuando generamos números aleatorios, es posible que la salida no esté dentro de la misma clase paramétrica común, como distribuciones normales o exponenciales. Se puede utilizar una forma automatizada para realizar ECM. Sean iidrv con distribución ; por simplicidad asumimos . Definir , donde ,. . . son uniformes independientes (0, 1). Un tiempo de parada aleatorio para , . . . Entonces hay un tiempo de parada frente a la filtración . . . Sea además una clase de distribuciones con y definida por . Definimos un algoritmo de caja negra para ECM para la clase de distribuciones dada y dada como un par de un tiempo de parada aleatorio y un rv medible tal que se distribuye según for any . Formalmente, escribimos esto como para todos . En otras palabras, las reglas del juego son que el algoritmo puede usar valores simulados y uniformes adicionales para producir un rv a partir de . [14]

Ver también

Referencias

  1. ^ HU Gerber y ESW Shiu (1994). "El precio de las opciones de Esscher se transforma". Transacciones de la Sociedad de Actuarios . 46 : 99-191.
  2. ^ Cruz, Marcelo (2015). Aspectos Fundamentales del Riesgo Operacional y Análisis de Seguros . Wiley. págs. 784–796. ISBN 978-1-118-11839-9.
  3. ^ Mayordomo, Ronald (2007). Aproximaciones de Saddlepoint con aplicaciones . Prensa de la Universidad de Cambridge. págs.156. ISBN 9780521872508.
  4. ^ Siegmund, D. (1976). "Importancia del muestreo en el estudio Monte Carlo de pruebas secuenciales". Los anales de la estadística . 4 (4): 673–684. doi : 10.1214/aos/1176343541 .
  5. ^ Asmussen Soren y Glynn Peter (2007). Simulación estocástica . Saltador. pag. 130.ISBN 978-0-387-30679-7.
  6. ^ Fuh, Cheng-Der; Teng, Huei-Wen; Wang, Ren-Her (2013). "Muestreo de importancia eficiente para simulación de eventos raros con aplicaciones". {{cite journal}}: Citar diario requiere |journal=( ayuda )
  7. ^ Asmussen, Soren y Glynn, Peter (2007). Simulación estocástica. Saltador. págs. 164-167. ISBN 978-0-387-30679-7 
  8. ^ Mayordomo, Ronald (2007). Aproximaciones de Saddlepoint con aplicaciones . Prensa de la Universidad de Cambridge. págs. 156-157. ISBN 9780521872508.
  9. ^ Seeber, GUH (1992). Avances en GLIM y Modelización Estadística . Saltador. págs. 195-200. ISBN 978-0-387-97873-4.
  10. ^ Asmussen Soren y Glynn Peter (2007). Simulación estocástica . Saltador. pag. 407.ISBN 978-0-387-30679-7.
  11. ^ Steele, J. Michael (2001). Cálculo estocástico y aplicaciones financieras . Saltador. págs. 213–229. ISBN 978-1-4419-2862-7.
  12. ^ D. Siegmund (1985) Análisis secuencial. Springer-Verlag
  13. ^ Asmussen Soren y Glynn Peter, Peter (2007). Simulación estocástica . Saltador. págs. 164-167. ISBN 978-0-387-30679-7.
  14. ^ Asmussen, Soren y Glynn, Peter (2007). Simulación estocástica. Saltador. págs. 416–420. ISBN 978-0-387-30679-7