En teoría de la probabilidad , la ecuación de Wald , la identidad de Wald [1] o el lema de Wald [2] es una identidad importante que simplifica el cálculo del valor esperado de la suma de un número aleatorio de cantidades aleatorias. En su forma más simple, relaciona la esperanza de una suma de un número aleatorio de variables aleatorias independientes, idénticamente distribuidas y de media finita con el número esperado de términos en la suma y la esperanza común de las variables aleatorias bajo la condición de que el número de términos en la suma sea independiente de los sumandos.
La ecuación recibe su nombre del matemático Abraham Wald . La ecuación de Blackwell-Girshick proporciona una identidad para el segundo momento . [3]
Sea ( X n ) n ∈ una secuencia de variables aleatorias independientes, idénticamente distribuidas y de valor real, y sea N ≥ 0 una variable aleatoria de valor entero que es independiente de la secuencia ( X n ) n ∈ . Supongamos que N y X n tienen esperanzas finitas. Entonces
Lanza un dado de seis caras . Toma el número del dado (llámalo N ) y lanza esa cantidad de dados de seis caras para obtener los números X 1 , . . . , X N , y suma sus valores. Según la ecuación de Wald, el valor resultante en promedio es
Sea ( X n ) n ∈ una secuencia infinita de variables aleatorias de valor real y sea N una variable aleatoria de valor entero no negativo.
Supongamos que:
Luego las sumas aleatorias
son integrables y
Si además,
entonces
Observación: Generalmente, el nombre ecuación de Wald se refiere a esta última igualdad.
Claramente, el supuesto ( 1 ) es necesario para formular el supuesto ( 2 ) y la ecuación de Wald. El supuesto ( 2 ) controla la cantidad de dependencia permitida entre la secuencia ( Xn ) n∈ y el número N de términos; véase el contraejemplo a continuación para la necesidad . Nótese que el supuesto ( 2 ) se satisface cuando N es un tiempo de detención para una secuencia de variables aleatorias independientes ( Xn ) n∈ . [ cita requerida ] El supuesto ( 3 ) es de naturaleza más técnica, implica convergencia absoluta y , por lo tanto, permite el reordenamiento arbitrario de una serie infinita en la prueba.
Si se cumple el supuesto ( 5 ), entonces el supuesto ( 3 ) puede reforzarse a la condición más simple
De hecho, utilizando el supuesto ( 6 ),
y la última serie es igual a la esperanza de N [ Prueba ] , que es finita por el supuesto ( 5 ). Por lo tanto, ( 5 ) y ( 6 ) implican el supuesto ( 3 ).
Supongamos además de ( 1 ) y ( 5 ) que
Entonces se cumplen todos los supuestos ( 1 ), ( 2 ), ( 5 ) y ( 6 ), y por tanto también ( 3 ). En particular, se cumplen las condiciones ( 4 ) y ( 8 ) si
Nótese que las variables aleatorias de la secuencia ( X n ) n ∈ no necesitan ser independientes.
El punto interesante es admitir cierta dependencia entre el número aleatorio N de términos y la secuencia ( X n ) n ∈ . Una versión estándar es suponer ( 1 ), ( 5 ), ( 8 ) y la existencia de una filtración ( F n ) n ∈ 0 tal que
Entonces ( 10 ) implica que el evento { N ≥ n } = { N ≤ n – 1} c está en F n –1 , por lo tanto por ( 11 ) independiente de X n . Esto implica ( 2 ), y junto con ( 8 ) implica ( 6 ).
Por conveniencia (ver la prueba a continuación usando el teorema de detención opcional) y para especificar la relación de la secuencia ( X n ) n ∈ y la filtración ( F n ) n ∈ 0 , a menudo se impone la siguiente suposición adicional:
Nótese que ( 11 ) y ( 12 ) juntas implican que las variables aleatorias ( X n ) n ∈ son independientes.
Una aplicación en la ciencia actuarial es cuando se considera que el monto total de la reclamación sigue un proceso de Poisson compuesto.
dentro de un período de tiempo determinado, digamos un año, que surge de un número aleatorio N de reclamaciones de seguros individuales, cuyos tamaños se describen por las variables aleatorias ( X n ) n ∈ . Bajo los supuestos anteriores, la ecuación de Wald se puede utilizar para calcular el monto total esperado de la reclamación cuando se dispone de información sobre el número promedio de reclamaciones por año y el tamaño promedio de las reclamaciones. Bajo supuestos más sólidos y con más información sobre las distribuciones subyacentes, la recursión de Panjer se puede utilizar para calcular la distribución de S N .
Sea N una variable aleatoria integrable de valor 0 , que es independiente de la variable aleatoria integrable de valor real Z con E[ Z ] = 0 . Defina X n = (–1) n Z para todo n ∈ . Entonces se satisfacen los supuestos ( 1 ), ( 5 ), ( 7 ) y ( 8 ) con C := E[| Z |] , por lo tanto también ( 2 ) y ( 6 ), y se aplica la ecuación de Wald. Si la distribución de Z no es simétrica, entonces ( 9 ) no se cumple. Nótese que, cuando Z no es casi seguramente igual a la variable aleatoria cero, entonces ( 11 ) y ( 12 ) no pueden cumplirse simultáneamente para ninguna filtración ( F n ) n ∈ , porque Z no puede ser independiente de sí mismo ya que E[ Z 2 ] = (E[ Z ]) 2 = 0 es imposible.
Sea ( X n ) n ∈ una secuencia de variables aleatorias independientes, simétricas y con valores {–1, +1 }. Para cada n ∈ sea F n la σ-álgebra generada por X 1 , . . . , X n y definamos N = n cuando X n es la primera variable aleatoria que toma el valor +1 . Nótese que P( N = n ) = 1/2 n , por lo tanto E[ N ] < ∞ por la prueba de razón . Los supuestos ( 1 ), ( 5 ) y ( 9 ), por lo tanto ( 4 ) y ( 8 ) con C = 1 , ( 10 ), ( 11 ) y ( 12 ) se cumplen, por lo tanto también ( 2 ) y ( 6 ) y se aplica la ecuación de Wald. Sin embargo, ( 7 ) no se cumple, porque N se define en términos de la secuencia ( X n ) n ∈ . Intuitivamente, se podría esperar que E[ S N ] > 0 en este ejemplo, porque la suma se detiene justo después de un uno, lo que aparentemente crea un sesgo positivo. Sin embargo, la ecuación de Wald muestra que esta intuición es engañosa.
Consideremos una secuencia ( X n ) n ∈ de variables aleatorias iid (Variables aleatorias independientes e idénticamente distribuidas), que toman cada uno de los dos valores 0 y 1 con probabilidad 1/2 (en realidad, solo se necesita X 1 en lo siguiente). Defina N = 1 – X 1 . Entonces S N es idénticamente igual a cero, por lo tanto E[ S N ] = 0 , pero E[ X 1 ] = 1/2 y E[ N ] = 1/2 y por lo tanto la ecuación de Wald no se cumple. De hecho,se cumplen los supuestos ( 1 ), ( 3 ), ( 4 ) y ( 5 ), sin embargo, la ecuación en el supuesto ( 2 ) se cumple para todos los n ∈ excepto para n = 1 . [ cita requerida ]
Muy similar al segundo ejemplo anterior, sea ( X n ) n ∈ una secuencia de variables aleatorias independientes y simétricas, donde X n toma cada uno de los valores 2 n y –2 n con probabilidad 1/2 . Sea N el primer n ∈ tal que X n = 2 n . Entonces, como antes, N tiene esperanza finita, por lo tanto se cumple la suposición ( 5 ). Como E[ X n ] = 0 para todo n ∈ , se cumplen las suposiciones ( 1 ) y ( 4 ). Sin embargo, como S N = 1 casi con seguridad, la ecuación de Wald no se cumple.
Dado que N es un tiempo de parada con respecto a la filtración generada por ( X n ) n ∈ , se cumple la suposición ( 2 ), véase más arriba. Por lo tanto, solo la suposición ( 3 ) puede fallar y, de hecho, dado que
y por lo tanto P( N ≥ n ) = 1/2 n –1 para cada n ∈ , se sigue que
Supongamos ( 1 ), ( 5 ), ( 8 ), ( 10 ), ( 11 ) y ( 12 ). Utilizando el supuesto ( 1 ), definamos la secuencia de variables aleatorias .
El supuesto ( 11 ) implica que la esperanza condicional de X n dado F n –1 es igual a E[ X n ] casi con seguridad para cada n ∈ , por lo tanto ( M n ) n ∈ 0 es una martingala con respecto a la filtración ( F n ) n ∈ 0 por el supuesto ( 12 ). Los supuestos ( 5 ), ( 8 ) y ( 10 ) aseguran que podemos aplicar el teorema de detención opcional , por lo tanto M N = S N – T N es integrable y
Debido al supuesto ( 8 ),
y debido al supuesto ( 5 ) este límite superior es integrable. Por lo tanto, podemos agregar la esperanza de T N a ambos lados de la ecuación ( 13 ) y obtener por linealidad
Observación: Tenga en cuenta que esta prueba no cubre el ejemplo anterior con términos dependientes.
Esta prueba utiliza únicamente los teoremas de convergencia monótona y dominada de Lebesgue . Demostramos la afirmación tal como se indica más arriba en tres pasos.
Primero demostramos que la suma aleatoria S N es integrable. Definimos las sumas parciales
Como N toma sus valores en 0 y como S 0 = 0 , se deduce que
El teorema de convergencia monótona de Lebesgue implica que
Por la desigualdad triangular,
Utilizando esta estimación superior y cambiando el orden de suma (lo cual está permitido porque todos los términos son no negativos), obtenemos
donde la segunda desigualdad se deduce utilizando el teorema de convergencia monótona. Por el supuesto ( 3 ), la secuencia infinita en el lado derecho de ( 15 ) converge, por lo tanto, S N es integrable.
Ahora demostramos que la suma aleatoria T N es integrable. Definamos las sumas parciales
de números reales. Como N toma sus valores en 0 y como T 0 = 0 , se sigue que
Al igual que en el paso 1, el teorema de convergencia monótona de Lebesgue implica que
Por la desigualdad triangular,
Utilizando esta estimación superior y cambiando el orden de suma (lo cual está permitido porque todos los términos son no negativos), obtenemos
Por supuesto ( 2 ),
Sustituyendo esto en ( 17 ) obtenemos
que es finito por el supuesto ( 3 ), por lo tanto T N es integrable.
Para demostrar la ecuación de Wald, básicamente repetimos los mismos pasos sin el valor absoluto, haciendo uso de la integrabilidad de las sumas aleatorias S N y T N para demostrar que tienen la misma expectativa.
Utilizando el teorema de convergencia dominada con variable aleatoria dominante | S N | y la definición de la suma parcial S i dada en ( 14 ), se deduce que
Debido a la convergencia absoluta demostrada en ( 15 ) anteriormente utilizando el supuesto ( 3 ), podemos reorganizar la suma y obtener que
donde utilizamos el supuesto ( 1 ) y el teorema de convergencia dominada con variable aleatoria dominante | X n | para la segunda igualdad. Debido al supuesto ( 2 ) y la σ-aditividad de la medida de probabilidad,
Sustituyendo este resultado en la ecuación anterior, reordenando la suma (lo cual está permitido debido a la convergencia absoluta, ver ( 15 ) arriba), usando la linealidad de la expectativa y la definición de la suma parcial T i de las expectativas dada en ( 16 ),
Al utilizar nuevamente la convergencia dominada con la variable aleatoria dominante | T N | ,
Si se cumplen los supuestos ( 4 ) y ( 5 ), entonces por linealidad de la expectativa,
Con esto finaliza la prueba.