stringtranslate.com

Ecuación de Wald

En teoría de la probabilidad , la ecuación de Wald , la identidad de Wald [1] o el lema de Wald [2] es una identidad importante que simplifica el cálculo del valor esperado de la suma de un número aleatorio de cantidades aleatorias. En su forma más simple, relaciona la esperanza de una suma de un número aleatorio de variables aleatorias independientes, idénticamente distribuidas y de media finita con el número esperado de términos en la suma y la esperanza común de las variables aleatorias bajo la condición de que el número de términos en la suma sea independiente de los sumandos.

La ecuación recibe su nombre del matemático Abraham Wald . La ecuación de Blackwell-Girshick proporciona una identidad para el segundo momento . [3]

Versión básica

Sea ( X n ) n una secuencia de variables aleatorias independientes, idénticamente distribuidas y de valor real, y sea N ≥ 0 una variable aleatoria de valor entero que es independiente de la secuencia ( X n ) n . Supongamos que N y X n tienen esperanzas finitas. Entonces

Ejemplo

Lanza un dado de seis caras . Toma el número del dado (llámalo N ) y lanza esa cantidad de dados de seis caras para obtener los números X 1 , . . . , X N , y suma sus valores. Según la ecuación de Wald, el valor resultante en promedio es

Versión general

Sea ( X n ) n una secuencia infinita de variables aleatorias de valor real y sea N una variable aleatoria de valor entero no negativo.

Supongamos que:

1 . ( X n ) n son todas variables aleatorias integrables (de media finita),
2 . E[ X n 1 { Nn } ] = E[ X n ] P( Nn ) para cada número natural n , y
3. la serie infinita satisface

Luego las sumas aleatorias

son integrables y

Si además,

4 . ( X n ) n todos tienen la misma expectativa, y
5. N tiene expectativa finita ,

entonces

Observación: Generalmente, el nombre ecuación de Wald se refiere a esta última igualdad.

Discusión de supuestos

Claramente, el supuesto ( 1 ) es necesario para formular el supuesto ( 2 ) y la ecuación de Wald. El supuesto ( 2 ) controla la cantidad de dependencia permitida entre la secuencia ( Xn ) n∈ y el número N de términos; véase el contraejemplo a continuación para la necesidad . Nótese que el supuesto ( 2 ) se satisface cuando N es un tiempo de detención para una secuencia de variables aleatorias independientes ( Xn ) n∈ . [ cita requerida ] El supuesto ( 3 ) es de naturaleza más técnica, implica convergencia absoluta y , por lo tanto, permite el reordenamiento arbitrario de una serie infinita en la prueba.

Si se cumple el supuesto ( 5 ), entonces el supuesto ( 3 ) puede reforzarse a la condición más simple

6 . existe una constante real C tal que E[| X n | 1 { Nn } ] ≤ C P( Nn ) para todos los números naturales n .

De hecho, utilizando el supuesto ( 6 ),

y la última serie es igual a la esperanza de N  [ Prueba ] , que es finita por el supuesto ( 5 ). Por lo tanto, ( 5 ) y ( 6 ) implican el supuesto ( 3 ).

Supongamos además de ( 1 ) y ( 5 ) que

7 . N es independiente de la secuencia ( X n ) n y
8 . existe una constante C tal que E[| X n |] ≤ C para todos los números naturales n .

Entonces se cumplen todos los supuestos ( 1 ), ( 2 ), ( 5 ) y ( 6 ), y por tanto también ( 3 ). En particular, se cumplen las condiciones ( 4 ) y ( 8 ) si

9. las variables aleatorias ( X n ) n tienen todas la misma distribución.

Nótese que las variables aleatorias de la secuencia ( X n ) n no necesitan ser independientes.

El punto interesante es admitir cierta dependencia entre el número aleatorio N de términos y la secuencia ( X n ) n . Una versión estándar es suponer ( 1 ), ( 5 ), ( 8 ) y la existencia de una filtración ( F n ) n0 tal que

10 . N es un tiempo de parada con respecto a la filtración, y
11 . X n y F n –1 son independientes para cada n .

Entonces ( 10 ) implica que el evento { Nn } = { Nn – 1} c está en F n –1 , por lo tanto por ( 11 ) independiente de X n . Esto implica ( 2 ), y junto con ( 8 ) implica ( 6 ).

Por conveniencia (ver la prueba a continuación usando el teorema de detención opcional) y para especificar la relación de la secuencia ( X n ) n y la filtración ( F n ) n0 , a menudo se impone la siguiente suposición adicional:

12 . la secuencia ( X n ) n está adaptada a la filtración ( F n ) n , lo que significa que X n es F n -medible para cada n .

Nótese que ( 11 ) y ( 12 ) juntas implican que las variables aleatorias ( X n ) n son independientes.

Solicitud

Una aplicación en la ciencia actuarial es cuando se considera que el monto total de la reclamación sigue un proceso de Poisson compuesto.

dentro de un período de tiempo determinado, digamos un año, que surge de un número aleatorio N de reclamaciones de seguros individuales, cuyos tamaños se describen por las variables aleatorias ( X n ) n . Bajo los supuestos anteriores, la ecuación de Wald se puede utilizar para calcular el monto total esperado de la reclamación cuando se dispone de información sobre el número promedio de reclamaciones por año y el tamaño promedio de las reclamaciones. Bajo supuestos más sólidos y con más información sobre las distribuciones subyacentes, la recursión de Panjer se puede utilizar para calcular la distribución de S N .

Ejemplos

Ejemplo con términos dependientes

Sea N una variable aleatoria integrable de valor 0 , que es independiente de la variable aleatoria integrable de valor real Z con E[ Z ] = 0 . Defina X n = (–1) n Z para todo n . Entonces se satisfacen los supuestos ( 1 ), ( 5 ), ( 7 ) y ( 8 ) con C  := E[| Z |] , por lo tanto también ( 2 ) y ( 6 ), y se aplica la ecuación de Wald. Si la distribución de Z no es simétrica, entonces ( 9 ) no se cumple. Nótese que, cuando Z no es casi seguramente igual a la variable aleatoria cero, entonces ( 11 ) y ( 12 ) no pueden cumplirse simultáneamente para ninguna filtración ( F n ) n , porque Z no puede ser independiente de sí mismo ya que E[ Z 2 ] = (E[ Z ]) 2 = 0 es imposible.

Ejemplo donde el número de términos depende de la secuencia

Sea ( X n ) n una secuencia de variables aleatorias independientes, simétricas y con valores {–1, +1 }. Para cada n sea F n la σ-álgebra generada por X 1 , . . . , X n y definamos N = n cuando X n es la primera variable aleatoria que toma el valor +1 . Nótese que P( N = n ) = 1/2 n , por lo tanto E[ N ] < ∞ por la prueba de razón . Los supuestos ( 1 ), ( 5 ) y ( 9 ), por lo tanto ( 4 ) y ( 8 ) con C = 1 , ( 10 ), ( 11 ) y ( 12 ) se cumplen, por lo tanto también ( 2 ) y ( 6 ) y se aplica la ecuación de Wald. Sin embargo, ( 7 ) no se cumple, porque N se define en términos de la secuencia ( X n ) n . Intuitivamente, se podría esperar que E[ S N ] > 0 en este ejemplo, porque la suma se detiene justo después de un uno, lo que aparentemente crea un sesgo positivo. Sin embargo, la ecuación de Wald muestra que esta intuición es engañosa.

Contraejemplos

Un contraejemplo que ilustra la necesidad de la suposición (2)

Consideremos una secuencia ( X n ) n de variables aleatorias iid (Variables aleatorias independientes e idénticamente distribuidas), que toman cada uno de los dos valores 0 y 1 con probabilidad  1/2 (en realidad, solo se necesita X 1 en lo siguiente). Defina N = 1 – X 1 . Entonces S N es idénticamente igual a cero, por lo tanto E[ S N ] = 0 , pero E[ X 1 ] = 1/2 y E[ N ] = 1/2 y por lo tanto la ecuación de Wald no se cumple. De hecho,se cumplen los supuestos ( 1 ), ( 3 ), ( 4 ) y ( 5 ), sin embargo, la ecuación en el supuesto ( 2 ) se cumple para todos los n excepto para n = 1 . [ cita requerida ]

Un contraejemplo que ilustra la necesidad de la suposición (3)

Muy similar al segundo ejemplo anterior, sea ( X n ) n una secuencia de variables aleatorias independientes y simétricas, donde X n toma cada uno de los valores 2 n y –2 n con probabilidad  1/2 . Sea N el primer n tal que X n = 2 n . Entonces, como antes, N tiene esperanza finita, por lo tanto se cumple la suposición ( 5 ). Como E[ X n ] = 0 para todo n , se cumplen las suposiciones ( 1 ) y ( 4 ). Sin embargo, como S N = 1 casi con seguridad, la ecuación de Wald no se cumple.

Dado que N es un tiempo de parada con respecto a la filtración generada por ( X n ) n , se cumple la suposición ( 2 ), véase más arriba. Por lo tanto, solo la suposición ( 3 ) puede fallar y, de hecho, dado que

y por lo tanto P( Nn ) = 1/2 n –1 para cada n , se sigue que

Una prueba que utiliza el teorema de detención opcional

Supongamos ( 1 ), ( 5 ), ( 8 ), ( 10 ), ( 11 ) y ( 12 ). Utilizando el supuesto ( 1 ), definamos la secuencia de variables aleatorias

El supuesto ( 11 ) implica que la esperanza condicional de X n dado F n –1 es igual a E[ X n ] casi con seguridad para cada n , por lo tanto ( M n ) n0 es una martingala con respecto a la filtración ( F n ) n0 por el supuesto ( 12 ). Los supuestos ( 5 ), ( 8 ) y ( 10 ) aseguran que podemos aplicar el teorema de detención opcional , por lo tanto M N = S NT N es integrable y

Debido al supuesto ( 8 ),

y debido al supuesto ( 5 ) este límite superior es integrable. Por lo tanto, podemos agregar la esperanza de T N a ambos lados de la ecuación ( 13 ) y obtener por linealidad

Observación: Tenga en cuenta que esta prueba no cubre el ejemplo anterior con términos dependientes.

Prueba general

Esta prueba utiliza únicamente los teoremas de convergencia monótona y dominada de Lebesgue . Demostramos la afirmación tal como se indica más arriba en tres pasos.

Paso 1: Integrabilidad de la suma aleatoriaS.N.​

Primero demostramos que la suma aleatoria S N es integrable. Definimos las sumas parciales

Como N toma sus valores en 0 y como S 0 = 0 , se deduce que

El teorema de convergencia monótona de Lebesgue implica que

Por la desigualdad triangular,

Utilizando esta estimación superior y cambiando el orden de suma (lo cual está permitido porque todos los términos son no negativos), obtenemos

donde la segunda desigualdad se deduce utilizando el teorema de convergencia monótona. Por el supuesto ( 3 ), la secuencia infinita en el lado derecho de ( 15 ) converge, por lo tanto, S N es integrable.

Paso 2: Integrabilidad de la suma aleatoriaT.N.​

Ahora demostramos que la suma aleatoria T N es integrable. Definamos las sumas parciales

de números reales. Como N toma sus valores en 0 y como T 0 = 0 , se sigue que

Al igual que en el paso 1, el teorema de convergencia monótona de Lebesgue implica que

Por la desigualdad triangular,

Utilizando esta estimación superior y cambiando el orden de suma (lo cual está permitido porque todos los términos son no negativos), obtenemos

Por supuesto ( 2 ),

Sustituyendo esto en ( 17 ) obtenemos

que es finito por el supuesto ( 3 ), por lo tanto T N es integrable.

Paso 3: Prueba de identidad

Para demostrar la ecuación de Wald, básicamente repetimos los mismos pasos sin el valor absoluto, haciendo uso de la integrabilidad de las sumas aleatorias S N y T N para demostrar que tienen la misma expectativa.

Utilizando el teorema de convergencia dominada con variable aleatoria dominante | S N | y la definición de la suma parcial S i dada en ( 14 ), se deduce que

Debido a la convergencia absoluta demostrada en ( 15 ) anteriormente utilizando el supuesto ( 3 ), podemos reorganizar la suma y obtener que

donde utilizamos el supuesto ( 1 ) y el teorema de convergencia dominada con variable aleatoria dominante | X n | para la segunda igualdad. Debido al supuesto ( 2 ) y la σ-aditividad de la medida de probabilidad,

Sustituyendo este resultado en la ecuación anterior, reordenando la suma (lo cual está permitido debido a la convergencia absoluta, ver ( 15 ) arriba), usando la linealidad de la expectativa y la definición de la suma parcial T i de las expectativas dada en ( 16 ),

Al utilizar nuevamente la convergencia dominada con la variable aleatoria dominante | T N | ,

Si se cumplen los supuestos ( 4 ) y ( 5 ), entonces por linealidad de la expectativa,

Con esto finaliza la prueba.

Generalizaciones adicionales

Véase también

Notas

  1. ^ Janssen, Jacques; Manca, Raimondo (2006). "Teoría de la renovación". Procesos semimarkovianos aplicados . Springer. pp. 45–104. doi :10.1007/0-387-29548-8_2. ISBN . 0-387-29547-X.
  2. ^ Thomas Bruss, F.; Robertson, J. B. (1991). "'Lema de Wald' para sumas de estadísticas de orden de variables aleatorias iid". Avances en probabilidad aplicada . 23 (3): 612–623. doi :10.2307/1427625. JSTOR  1427625. S2CID  120678340.
  3. ^ Blackwell, D.; Girshick, MA (1946). "Sobre funciones de secuencias de vectores aleatorios independientes con aplicaciones al problema del 'paseo aleatorio' en k dimensiones". Ann. Math. Statist . 17 (3): 310–317. doi : 10.1214/aoms/1177730943 .

Referencias

Enlaces externos