stringtranslate.com

Desigualdad de concentración

En la teoría de la probabilidad , las desigualdades de concentración proporcionan límites matemáticos a la probabilidad de que una variable aleatoria se desvíe de algún valor (normalmente, su valor esperado ).

La ley de los grandes números de la teoría de probabilidad clásica establece que las sumas de variables aleatorias independientes, en condiciones suaves, se concentran alrededor de su expectativa con una alta probabilidad. Estas sumas son los ejemplos más básicos de variables aleatorias concentradas alrededor de su media .

Las desigualdades de concentración se pueden ordenar según la cantidad de información sobre la variable aleatoria que se necesita para utilizarlas. [ cita necesaria ]

La desigualdad de Markov

Sea una variable aleatoria que no sea negativa ( casi con seguridad ). Entonces, para cada constante ,

Tenga en cuenta la siguiente extensión de la desigualdad de Markov: si es una función estrictamente creciente y no negativa, entonces

La desigualdad de Chebyshev

La desigualdad de Chebyshev requiere la siguiente información sobre una variable aleatoria :

Entonces, para cada constante ,

o equivalente,

¿Dónde está la desviación estándar de ?

La desigualdad de Chebyshev puede verse como un caso especial de la desigualdad generalizada de Markov aplicada a la variable aleatoria con .

Desigualdad de Vysochanskij-Petunin

Sea X una variable aleatoria con distribución unimodal, media μ y varianza finita distinta de cero σ 2 . Entonces, para cualquier

(Para una prueba relativamente elemental, consulte, por ejemplo, [1] ).

Desigualdad unilateral de Vysochanskij-Petunin

Para una variable aleatoria unimodal y , la desigualdad unilateral de Vysochanskij-Petunin [2] se cumple de la siguiente manera:

Desigualdad de Paley-Zygmund

A diferencia de las desigualdades de concentración más utilizadas, la desigualdad de Paley-Zygmund proporciona un límite inferior a la probabilidad de desviación.

La desigualdad de Cantelli

La desigualdad de Gauss

Límites de Chernoff

El límite genérico de Chernoff [3] : 63–65  requiere la función generadora de momento de , definida como Siempre existe, pero puede ser infinita. De la desigualdad de Markov, para cada :

y para cada :

Existen varios límites de Chernoff para diferentes distribuciones y diferentes valores del parámetro . Véase [4] : ​​5–7  para una recopilación de más desigualdades de concentración.

Límites de sumas de variables acotadas independientes

Sean variables aleatorias independientes tales que, para todo i :

casi seguramente .

Sea su suma, su valor esperado y su varianza:

A menudo resulta interesante acotar la diferencia entre la suma y su valor esperado. Se pueden utilizar varias desigualdades.

1. La desigualdad de Hoeffding dice que:

2. La variable aleatoria es un caso especial de martingala y . Por lo tanto, la forma general de la desigualdad de Azuma también se puede utilizar y produce un límite similar:

Esta es una generalización de Hoeffding ya que puede manejar otros tipos de martingalas, así como supermartingalas y submartingalas . Véase Fan et al. (2015). [5] Tenga en cuenta que si se utiliza la forma más simple de la desigualdad de Azuma, el exponente en el límite es peor por un factor de 4.

3. La función de suma, , es un caso especial de una función de n variables. Esta función cambia de forma acotada: si se cambia la variable i , el valor de f cambia como máximo . Por lo tanto, la desigualdad de McDiarmid también se puede utilizar y produce un límite similar:

Esta es una generalización diferente de Hoeffding, ya que puede manejar otras funciones además de la función de suma, siempre que cambien de forma acotada.

4. La desigualdad de Bennett ofrece cierta mejora con respecto a la de Hoeffding cuando las varianzas de los sumandos son pequeñas en comparación con sus límites casi seguros C. Dice que:

dónde

5. La primera de las desigualdades de Bernstein dice que:

Esta es una generalización de Hoeffding, ya que puede manejar variables aleatorias no solo con un límite casi seguro sino también con un límite casi seguro y un límite de varianza.

6. Los límites de Chernoff tienen una forma particularmente simple en el caso de la suma de variables independientes, ya que .

Por ejemplo, [6] supongamos que las variables satisfacen , para . Entonces tenemos una desigualdad de cola más baja:

Si satisface , tenemos la desigualdad de la cola superior:

Si son iid y es la varianza de , una versión típica de la desigualdad de Chernoff es:

7. Se pueden encontrar límites similares en: Distribución de Rademacher#Límites en sumas

Desigualdad de Efron-Stein

La desigualdad de Efron-Stein (o desigualdad de influencia, o MG ligada a la varianza) limita la varianza de una función general.

Supongamos que , son independientes y tienen la misma distribución para todos .

deja entonces

Se puede encontrar una prueba, por ejemplo, en. [7]

Desigualdad de Bretagnolle-Huber-Carol

La desigualdad de Bretagnolle-Huber-Carol limita la diferencia entre un vector de variables aleatorias distribuidas multinomialmente y un vector de valores esperados. [8] [9] Una prueba simple aparece en [10] (Sección del Apéndice).

Si un vector aleatorio tiene una distribución multinomial con parámetros y satisface entonces

Esta desigualdad se utiliza para limitar la distancia de variación total .

Desigualdad de Mason y van Zwet

La desigualdad de Mason y van Zwet [11] para vectores aleatorios multinomiales implica una ligera modificación del estadístico chi-cuadrado clásico.

Sea el vector aleatorio una distribución multinomial con parámetros y tales que para Entonces para cada y existen constantes tales que para todos y satisfactorias y tenemos

Desigualdad de Dvoretzky-Kiefer-Wolfowitz

La desigualdad de Dvoretzky-Kiefer-Wolfowitz limita la diferencia entre la función de distribución acumulativa real y empírica .

Dado un número natural , sean variables aleatorias independientes de valor real e idénticamente distribuidas con función de distribución acumulativa F (·). Denotemos la función de distribución empírica asociada definida por

También lo es la probabilidad de que una sola variable aleatoria sea menor que y el número promedio de variables aleatorias que son menores que .

Entonces

Desigualdades anticoncentración

Las desigualdades anticoncentración , por otro lado, proporcionan un límite superior sobre cuánto puede concentrarse una variable aleatoria alrededor de una cantidad.

Por ejemplo, Rao y Yehudayoff [12] muestran que existe algo tal que, para la mayoría de las direcciones del hipercubo , lo siguiente es cierto: [ se necesita aclaración ]

donde se extrae uniformemente de un subconjunto de tamaño suficientemente grande.

Estas desigualdades son importantes en varios campos, incluida la complejidad de la comunicación ( por ejemplo , en las pruebas del problema de Hamming [13] ) y la teoría de grafos . [14]

Se puede obtener una desigualdad anticoncentración interesante para sumas ponderadas de variables aleatorias independientes de Rademacher utilizando las desigualdades de Paley-Zygmund y Khintchine . [15]

Referencias

  1. ^ Pukelsheim, F., 1994. La regla de las tres sigma. The American Statistician, 48 (2), págs. 88–91
  2. ^ Mercadier, Mathieu; Strobel, Frank (16 de noviembre de 2021). "Una desigualdad unilateral de Vysochanskii-Petunin con aplicaciones financieras". Revista europea de investigación operativa . 295 (1): 374–377. doi :10.1016/j.ejor.2021.02.041. ISSN  0377-2217.
  3. ^ Mitzenmacher, Michael; Upfal, Eli (2005). Probabilidad y Computación: Algoritmos Aleatorios y Análisis Probabilístico. Prensa de la Universidad de Cambridge. ISBN 0-521-83540-2.
  4. ^ Slagle, NP (2012). "Cien estadísticas y desigualdades de probabilidad". arXiv : 2102.07234 .
  5. ^ Ventilador, X.; Grama, I.; Liu, Q. (2015). "Desigualdades exponenciales para martingalas con aplicaciones". Revista Electrónica de Probabilidad . 20 . Electrón. J. Probab. 20: 1–22. arXiv : 1311.6273 . doi :10.1214/EJP.v20-3496.
  6. ^ Chung, ventilador ; Lu, Linyuan (2010). «Viejas y nuevas desigualdades de concentración» (PDF) . Redes y gráficos complejos . Sociedad Matemática Estadounidense . Consultado el 14 de agosto de 2018 .
  7. ^ Boucheron, St{\'e}phane; Lugosi, G{\'a}bor; Bousquet, Olivier (2004). "Desigualdades de concentración". Conferencias avanzadas sobre aprendizaje automático: Escuelas de verano de ML 2003, Canberra, Australia, 2 al 14 de febrero de 2003, T{\"u}bingen, Alemania, 4 al 16 de agosto de 2003, Conferencias revisadas . Springer: 208–240.
  8. ^ Bretagnolle, Jean; Huber-Carol, Catherine (1978). Lois empiriques et Distance de Prokhorov. Apuntes de conferencias de matemáticas. vol. 649, págs. 332–341. doi :10.1007/BFb0064609. ISBN 978-3-540-08761-8.
  9. ^ van der Vaart, AW; Wellner, JA (1996). Convergencia débil y procesos empíricos: con aplicaciones a la estadística . Medios de ciencia y negocios de Springer.
  10. ^ Yuto Ushioda; Masato Tanaka; Tomomi Matsui (2022). "Métodos de Monte Carlo para el índice de potencia Shapley-Shubik". Juegos . 13 (3): 44. arXiv : 2101.02841 . doi : 10.3390/g13030044 .
  11. ^ Masón, David M.; Willem R. Van Zwet (1987). "Un refinamiento de la desigualdad del KMT para el proceso empírico uniforme". Los anales de la probabilidad . 15 (3): 871–884. doi : 10.1214/aop/1176992070 .
  12. ^ Rao, Anup; Yehudayoff, Amir (2018). "Anticoncentración en la mayoría de direcciones". Coloquio Electrónico sobre Complejidad Computacional.
  13. ^ Sherstov, Alexander A. (2012). "La complejidad de la comunicación de la distancia Gap Hamming". Teoría de la Computación .
  14. ^ Mateo Kwan; Benny Sudakov; Tuan Tran (2018). "Anticoncentración para estadísticas de subgrafos". Revista de la Sociedad Matemática de Londres . 99 (3): 757–777. arXiv : 1807.05202 . Código Bib : 2018arXiv180705202K. doi :10.1112/jlms.12192. S2CID  54065186.
  15. ^ Veraar, Mark (2009). "Sobre las desigualdades de Khintchine con un peso". arXiv : 0909.2586v1 [matemáticas.PR].

enlaces externos