stringtranslate.com

La desigualdad de Hoeffding

En teoría de la probabilidad , la desigualdad de Hoeffding proporciona un límite superior a la probabilidad de que la suma de variables aleatorias independientes acotadas se desvíe de su valor esperado en más de una determinada cantidad. La desigualdad de Hoeffding fue probada por Wassily Hoeffding en 1963. [1]

La desigualdad de Hoeffding es un caso especial de la desigualdad de Azuma-Hoeffding y la desigualdad de McDiarmid . Es similar al límite de Chernoff , pero tiende a ser menos nítido, en particular cuando la varianza de las variables aleatorias es pequeña. [2] Es similar, pero incomparable, a una de las desigualdades de Bernstein .

Declaración

Sean X 1 , ..., X n variables aleatorias independientes tales que casi con seguridad . Considere la suma de estas variables aleatorias,

Entonces el teorema de Hoeffding establece que, para todo t > 0 , [3]

Aquí E[ S n ] es el valor esperado de S n .

Obsérvese que las desigualdades también se cumplen cuando los X i se han obtenido mediante muestreo sin reemplazo; en este caso las variables aleatorias ya no son independientes. Una prueba de esta afirmación se puede encontrar en el artículo de Hoeffding. Para límites ligeramente mejores en el caso del muestreo sin reemplazo, véase, por ejemplo, el artículo de Serfling (1974).

Ejemplo

Supongamos y para todos yo . Esto puede ocurrir cuando X i son variables aleatorias independientes de Bernoulli , aunque no es necesario que estén distribuidas de manera idéntica. Entonces obtenemos la desigualdad [4]

o equivalente,

para todos . Esta es una versión del límite aditivo de Chernoff que es más general, ya que permite variables aleatorias que toman valores entre cero y uno, pero también más débil, ya que el límite de Chernoff proporciona un mejor límite de cola cuando las variables aleatorias tienen una varianza pequeña.

Caso general de variables aleatorias acotadas desde arriba

La desigualdad de Hoeffding se puede extender al caso de variables aleatorias acotadas desde arriba. [5]

Sean X 1 , ..., X n variables aleatorias independientes tales que y casi con seguridad . Denotamos por

La desigualdad de Hoeffding para variables aleatorias acotadas a partir de arriba establece que para todos ,

En particular, si para todos , entonces para todos ,

Caso general de variables aleatorias subgaussianas

La prueba de la desigualdad de Hoeffding se puede generalizar a cualquier distribución subgaussiana . Recuerde que una variable aleatoria X se llama subgaussiana, [6] si

para algunos c>0. Para cualquier variable acotada X , para alguna T suficientemente grande . Entonces, para todos , así se obtienen rendimientos.

para . Entonces toda variable acotada es subgaussiana.

Para una variable aleatoria X , la siguiente norma es finita si y sólo si X es subgaussiana:

Entonces, sean X 1 , ..., X n variables aleatorias subgaussianas independientes de media cero, la versión general de la desigualdad de Hoeffding establece que:

donde c > 0 es una constante absoluta. [7]

Prueba

La prueba de la desigualdad de Hoeffding se sigue de manera similar a las desigualdades de concentración como los límites de Chernoff . [8] La principal diferencia es el uso del lema de Hoeffding :

Supongamos que X es una variable aleatoria real tal que casi con seguridad . Entonces

Usando este lema, podemos demostrar la desigualdad de Hoeffding. Como en el enunciado del teorema, supongamos que X 1 , ..., X n son n variables aleatorias independientes tales que casi con seguridad para todo i , y sea .

Entonces para s , t > 0 , la desigualdad de Markov y la independencia de Xi implica :

Este límite superior es el mejor para el valor de s minimizando el valor dentro del exponencial. Esto se puede hacer fácilmente optimizando una cuadrática, dando

Al escribir el límite anterior para este valor de s , obtenemos el límite deseado:

Uso

Intervalos de confianza

La desigualdad de Hoeffding se puede utilizar para derivar intervalos de confianza . Consideramos una moneda que muestra cara con probabilidad p y cruz con probabilidad 1 − p . Lanzamos la moneda n veces, generando n muestras (que son variables aleatorias iid de Bernoulli ). El número esperado de veces que la moneda sale cara es pn . Además, la probabilidad de que la moneda salga cara al menos k veces se puede cuantificar exactamente mediante la siguiente expresión:

donde H ( n ) es el número de caras en n lanzamientos de moneda.

Cuando k = ( p + ε ) n para algún ε > 0 , la desigualdad de Hoeffding limita esta probabilidad por un término que es exponencialmente pequeño en ε 2 n :

Dado que este límite se cumple en ambos lados de la media, la desigualdad de Hoeffding implica que el número de caras que vemos se concentra alrededor de su media, con una cola exponencialmente pequeña.

Pensando en la media "observada", esta probabilidad se puede interpretar como el nivel de significancia (probabilidad de cometer un error) para un intervalo de confianza de tamaño 2 ɛ :

Encontrar n para el signo de desigualdad opuesto en lo anterior, es decir, n que viola la desigualdad pero no la igualdad anterior, nos da:

Por lo tanto, requerimos al menos muestras para adquirir un intervalo de confianza - .

Por tanto, el coste de adquirir el intervalo de confianza es sublineal en términos de nivel de confianza y cuadrático en términos de precisión. Tenga en cuenta que existen métodos más eficientes para estimar un intervalo de confianza .

Ver también

Notas

  1. ^ Höffding (1963)
  2. ^ Vershynin (2018, pág.19)
  3. ^ Hoeffding (1963, teorema 2)
  4. ^ Hoeffding (1963, teorema 1)
  5. ^ Fan, Grama y Liu (2015, Corolario 2.7)
  6. ^ Kahane (1960)
  7. ^ Vershynin (2018, teorema 2.6.2)
  8. ^ Boucheron (2013)

Referencias