En teoría de probabilidad , la desigualdad de Kolmogorov es una denominada " desigualdad máxima " que establece un límite para la probabilidad de que las sumas parciales de una colección finita de variables aleatorias independientes excedan un límite específico.
Enunciado de la desigualdad
Sean X 1 , ..., X n : Ω → R variables aleatorias independientes definidas en un espacio de probabilidad común (Ω, F , Pr), con valor esperado E[ X k ] = 0 y varianza Var[ X k ] < +∞ para k = 1, ..., n . Entonces, para cada λ > 0,
donde S k = X 1 + ... + X k .
La conveniencia de este resultado es que podemos limitar la desviación del peor caso de una caminata aleatoria en cualquier punto del tiempo utilizando su valor al final del intervalo de tiempo.
Prueba
El siguiente argumento emplea martingalas discretas . Como se argumentó en la discusión de la desigualdad de martingala de Doob , la secuencia es una martingala. Defina de la siguiente manera. Sea , y
Para todos . Entonces también es una martingala.
Para cualquier martingala con , tenemos que
Aplicando este resultado a la martingala , tenemos
donde la primera desigualdad se sigue de la desigualdad de Chebyshev .
Esta desigualdad fue generalizada por Hájek y Rényi en 1955.
Véase también
Referencias
- Billingsley, Patrick (1995). Probabilidad y medida . Nueva York: John Wiley & Sons, Inc. ISBN 0-471-00710-2.(Teorema 22.4)
- Feller, William (1968) [1950]. Introducción a la teoría de la probabilidad y sus aplicaciones, vol. 1 (tercera edición). Nueva York: John Wiley & Sons, Inc. xviii+509. ISBN 0-471-25708-7.
- Kahane, Jean-Pierre (1985) [1968]. Algunas series aleatorias de funciones (Segunda ed.). Cambridge: Cambridge University Press. pág. 29-30.
Este artículo incorpora material de la desigualdad de Kolmogorov en PlanetMath , que se encuentra bajo la licencia Creative Commons Attribution/Share-Alike License .