stringtranslate.com

Pruebas de convergencia de variables aleatorias

Este artículo es complementario de “ Convergencia de variables aleatorias ” y proporciona pruebas para resultados seleccionados.

Se establecerán varios resultados utilizando el lema del acrónimo : Una secuencia { X n } converge en distribución a X si y solo si se cumple alguna de las siguientes condiciones:

  1. para todas las funciones continuas y acotadas ;
  2. para todas las funciones de Lipschitz acotadas ;
  3. para todos los conjuntos cerrados ;

La convergencia casi seguramente implica convergencia en probabilidad.

Demostración: Si converge con casi seguridad, significa que el conjunto de puntos tiene medida cero. Ahora fijemos y consideremos una secuencia de conjuntos

Esta secuencia de conjuntos es decreciente ( ) hacia el conjunto

Las probabilidades de esta secuencia también son decrecientes, por lo que ; ahora demostraremos que este número es igual a cero. Ahora bien, para cualquier punto fuera de tenemos , lo que implica que para todos para algún . En particular, para tal el punto no estará en , y por lo tanto no estará en . Por lo tanto, y por lo tanto .

Finalmente, por continuidad desde arriba,

lo que por definición significa que converge en probabilidad a .

La convergencia en probabilidad no implica una convergencia casi segura en el caso discreto

Si X n son variables aleatorias independientes que asumen el valor uno con probabilidad 1/ n y cero en caso contrario, entonces X n converge a cero en probabilidad, pero no con casi seguridad. Esto se puede verificar utilizando los lemas de Borel-Cantelli .

La convergencia en probabilidad implica convergencia en distribución

Prueba para el caso de variables aleatorias escalares

Lema. Sean X , Y variables aleatorias, sea a un número real y ε > 0. Entonces

Prueba del lema:

Prueba más breve del lema:

Tenemos

porque si y , entonces . Por lo tanto, por el límite de unión,

Demostración del teorema: Recordemos que para demostrar la convergencia en una distribución, se debe demostrar que la sucesión de funciones de distribución acumulativas converge a F X en cada punto donde F X es continua. Sea a un punto de este tipo. Para cada ε > 0, debido al lema anterior, tenemos:

Entonces, tenemos

Tomando el límite cuando n → ∞, obtenemos:

donde F X ( a ) = Pr( Xa ) es la función de distribución acumulativa de X . Esta función es continua en a por suposición, y por lo tanto tanto F X ( a −ε) como F X ( a +ε) convergen a F X ( a ) cuando ε → 0 + . Tomando este límite, obtenemos

lo que significa que { X n } converge a X en la distribución.

Prueba para el caso genérico

La implicación se sigue para cuando X n es un vector aleatorio al utilizar esta propiedad que se demuestra más adelante en esta página y al tomar X n = X en el enunciado de esa propiedad.

La convergencia en la distribución hacia una constante implica convergencia en probabilidad

siempre que c sea una constante.

Demostración: Fijemos ε > 0. Sea B ε ( c ) la esfera abierta de radio ε alrededor del punto c , y B ε ( c ) c su complemento. Entonces

Por el lema del compendio (parte C), si X n converge en distribución a c , entonces el limsup de la última probabilidad debe ser menor o igual que Pr( cB ε ( c ) c ), que obviamente es igual a cero. Por lo tanto,

lo que por definición significa que X n converge a c en probabilidad.

La convergencia en probabilidad a una secuencia que converge en distribución implica convergencia a la misma distribución.

Demostración: Probaremos este teorema usando el lema del acrónimo, parte B. Como se requiere en ese lema, considere cualquier función acotada f (es decir, | f ( x )| ≤ M ) que también sea Lipschitz:

Tome algún ε > 0 y mayorice la expresión |E[ f ( Y n )] − E[ f ( X n )]| como

(aquí 1 {...} denota la función indicadora ; la expectativa de la función indicadora es igual a la probabilidad del evento correspondiente). Por lo tanto,

Si tomamos el límite en esta expresión como n  → ∞, el segundo término tenderá a cero ya que { Y n −X n } converge a cero en probabilidad; y el tercer término también convergerá a cero, por el lema del acrónimo y el hecho de que X n converge a X en distribución. Por lo tanto

Como ε es arbitrario, concluimos que el límite debe ser de hecho igual a cero, y por lo tanto E[ f ( Y n )] → E[ f ( X )], lo que nuevamente por el lema del acrónimo implica que { Y n } converge a X en la distribución. QED.

La convergencia de una secuencia en distribución y otra a una constante implica convergencia conjunta en distribución

siempre que c sea una constante.

Prueba: Probaremos esta afirmación usando el lema del acrónimo, parte A.

Primero queremos demostrar que ( X n , c ) converge en distribución a ( X , c ). Por el lema del compendio esto será cierto si podemos demostrar que E[ f ( X n , c )] → E[ f ( X , c )] para cualquier función continua acotada f ( x , y ). Sea f entonces dicha función continua acotada arbitraria. Ahora consideremos la función de una sola variable g ( x ) := f ( x , c ). Obviamente esta también será acotada y continua, y por lo tanto por el lema del compendio para la secuencia { X n } que converge en distribución a X , tendremos que E[ g ( X n )] → E[ g ( X )]. Sin embargo, la última expresión es equivalente a “E[ f ( X n , c )] → E[ f ( X , c )]”, y por lo tanto ahora sabemos que ( X n , c ) converge en distribución a ( X , c ).

En segundo lugar, consideremos |( X n , Y n ) − ( X n , c )| = | Y nc |. Esta expresión converge en probabilidad a cero porque Y n converge en probabilidad a c . Así, hemos demostrado dos hechos:

Por la propiedad demostrada anteriormente, estos dos hechos implican que ( X n , Y n ) convergen en distribución a ( X , c ).

La convergencia de dos secuencias en probabilidad implica convergencia conjunta en probabilidad

Prueba:

donde el último paso se sigue por el principio del palomar y la subaditividad de la medida de probabilidad. Cada una de las probabilidades del lado derecho converge a cero cuando n → ∞ por definición de la convergencia de { X n } y { Y n } en probabilidad a X e Y respectivamente. Tomando el límite concluimos que el lado izquierdo también converge a cero, y por lo tanto la secuencia {( X n , Y n )} converge en probabilidad a {( X , Y )}.

Véase también

Referencias