En teoría de la probabilidad , el teorema de Donsker (también conocido como principio de invariancia de Donsker o teorema del límite central funcional ), llamado así por Monroe D. Donsker , es una extensión funcional del teorema del límite central para funciones de distribución empírica. Específicamente, el teorema establece que una versión apropiadamente centrada y escalada de la función de distribución empírica converge a un proceso gaussiano .
Sea una secuencia de variables aleatorias independientes e idénticamente distribuidas (iid) con media 0 y varianza 1. Sea . El proceso estocástico se conoce como paseo aleatorio . Defina el paseo aleatorio reescalado de forma difusa (proceso de suma parcial) mediante
El teorema del límite central afirma que converge en distribución a una variable aleatoria gaussiana estándar como . El principio de invariancia de Donsker [1] [2] extiende esta convergencia a toda la función . Más precisamente, en su forma moderna, el principio de invariancia de Donsker establece que: Como variables aleatorias que toman valores en el espacio de Skorokhod , la función aleatoria converge en distribución a un movimiento browniano estándar como
Sea F n la función de distribución empírica de la secuencia de variables aleatorias iid con función de distribución F. Defina la versión centrada y escalada de F n mediante
indexado por x ∈ R . Por el teorema clásico del límite central , para x fijo , la variable aleatoria G n ( x ) converge en distribución a una variable aleatoria gaussiana (normal) G ( x ) con media cero y varianza F ( x )(1 − F ( x )) a medida que el tamaño de la muestra n crece.
Teorema (Donsker, Skorokhod, Kolmogorov) La secuencia de G n ( x ), como elementos aleatorios del espacio de Skorokhod , converge en distribución a un proceso gaussiano G con media cero y covarianza dada por
El proceso G ( x ) se puede escribir como B ( F ( x )) donde B es un puente browniano estándar en el intervalo unitario.
Para distribuciones de probabilidad continuas, se reduce al caso en que la distribución es uniforme mediante la transformada inversa .
Dada cualquier secuencia finita de tiempos , tenemos que se distribuye como una distribución binomial con media y varianza .
De manera similar, la distribución conjunta de es una distribución multinomial. Ahora bien, la aproximación del límite central para distribuciones multinomiales muestra que converge en la distribución a un proceso gaussiano con matriz de covarianza con entradas , que es precisamente la matriz de covarianza para el puente browniano.
Kolmogorov (1933) demostró que cuando F es continua , el supremo y el supremo del valor absoluto convergen en distribución a las leyes de los mismos funcionales del puente browniano B ( t ), véase la prueba de Kolmogorov-Smirnov . En 1949, Doob preguntó si la convergencia en distribución se mantenía para funcionales más generales, formulando así un problema de convergencia débil de funciones aleatorias en un espacio de funciones adecuado . [3]
En 1952, Donsker formuló y demostró (no del todo correctamente) [4] una extensión general del enfoque heurístico de Doob-Kolmogorov. En el artículo original, Donsker demostró que la convergencia en la ley de G n al puente browniano se cumple para distribuciones uniformes [0,1] con respecto a la convergencia uniforme en t sobre el intervalo [0,1]. [2]
Sin embargo, la formulación de Donsker no era del todo correcta debido al problema de la mensurabilidad de los funcionales de los procesos discontinuos. En 1956, Skorokhod y Kolmogorov definieron una métrica separable d , llamada métrica de Skorokhod , en el espacio de funciones càdlàg en [0,1], de modo que la convergencia para d a una función continua es equivalente a la convergencia para la norma sup , y demostraron que G n converge en la ley en el puente browniano.
Más tarde, Dudley reformuló el resultado de Donsker para evitar el problema de la mensurabilidad y la necesidad de la métrica de Skorokhod. Se puede demostrar [4] que existen X i , iid uniformes en [0,1] y una secuencia de puentes brownianos muestrales continuos B n , tales que
es medible y converge en probabilidad a 0. Una versión mejorada de este resultado, que proporciona más detalles sobre la tasa de convergencia, es la aproximación de Komlós–Major–Tusnády .