stringtranslate.com

Transformación de Khmaladze

En estadística , la transformación de Khmaladze es una herramienta matemática utilizada para construir pruebas de bondad de ajuste convenientes para funciones de distribución hipotéticas . Más precisamente, supongamos que se generan observaciones aleatorias iid , posiblemente multidimensionales, a partir de una distribución de probabilidad desconocida . Un problema clásico en estadística es decidir qué tan bien una función de distribución hipotética dada , o una familia paramétrica hipotética dada de funciones de distribución , se ajusta al conjunto de observaciones. La transformación de Khmaladze nos permite construir pruebas de bondad de ajuste con propiedades deseables. Lleva el nombre de Estate V. Khmaladze .

Considere la secuencia de funciones de distribución empíricas basadas en una secuencia de variables aleatorias iid, , a medida que n aumenta. Suponga que es la función de distribución hipotética de cada . Para comprobar si la elección de es correcta o no, los estadísticos utilizan la diferencia normalizada,

Este , como proceso aleatorio en , se llama proceso empírico . Se utilizan varias funciones de como estadísticas de prueba. El cambio de la variable , se transforma en el llamado proceso empírico uniforme . Este último es un proceso empírico basado en variables aleatorias independientes , que se distribuyen uniformemente en si las s tienen de hecho una función de distribución .

Este hecho fue descubierto y utilizado por primera vez por Kolmogorov (1933), Wald y Wolfowitz (1936) y Smirnov (1937) y, especialmente después de Doob (1949) y Anderson y Darling (1952), [1] condujo a la regla estándar de elegir estadísticas de prueba basadas en . Es decir, las estadísticas de prueba se definen (que posiblemente dependen de lo que se está probando) de tal manera que existe otra estadística derivada del proceso empírico uniforme, tal que . Algunos ejemplos son

y

Para todas estas funciones, su distribución nula (bajo la hipótesis ) no depende de , y puede calcularse una vez y luego usarse para probar cualquier .

Sin embargo, rara vez es necesario comprobar una hipótesis simple, cuando se da una hipótesis fija. Mucho más a menudo, es necesario verificar hipótesis paramétricas , donde la hipótesis depende de algunos parámetros que la hipótesis no especifica y que deben estimarse a partir de la propia muestra.

Aunque los estimadores , más comúnmente convergen al valor verdadero de , se descubrió que el proceso empírico paramétrico, [2] [3] o estimado

difiere significativamente de y que el proceso transformado , tiene una distribución para la cual la distribución límite, como , depende de la forma paramétrica de y del estimador particular y, en general, dentro de una familia paramétrica , del valor de .

Desde mediados de la década de 1950 hasta finales de la década de 1980, se realizó mucho trabajo para aclarar la situación y comprender la naturaleza del proceso .

En 1981, [4] y luego en 1987 y 1993, [5] Khmaladze sugirió reemplazar el proceso empírico paramétrico únicamente por su parte martingala .

donde es el compensador de . Entonces se establecieron las siguientes propiedades de :

es el del movimiento browniano estándar en , es decir, es nuevamente estándar e independiente de la elección de .

Durante mucho tiempo, la transformación, aunque conocida, no se utilizó. Más tarde, el trabajo de investigadores como Koenker , Stute, Bai , Koul, Koening y otros la popularizaron en la econometría y otros campos de la estadística. [ cita requerida ]

Véase también

Referencias

  1. ^ Anderson, TW; Darling, DA (1952). "Teoría asintótica de ciertos criterios de "bondad de ajuste" basados ​​en procesos estocásticos". Anales de estadística matemática . 23 (2): 193–212. doi : 10.1214/aoms/1177729437 .
  2. ^ Kac, M.; Kiefer, J.; Wolfowitz, J. (1955). "Sobre pruebas de normalidad y otras pruebas de bondad de ajuste basadas en métodos de distancia". Anales de estadística matemática . 26 (2): 189–211. doi : 10.1214/aoms/1177728538 . JSTOR  2236876.
  3. ^ Gikhman (1954) [ cita completa necesaria ]
  4. ^ Khmaladze, EV (1981). "Enfoque Martingala en la teoría de pruebas de bondad de ajuste". Teoría de la probabilidad y sus aplicaciones . 26 (2): 240–257. doi :10.1137/1126027.
  5. ^ Khmaladze, EV (1993). "Problemas de bondad de ajuste y escaneo de martingalas de innovación". Anales de Estadística . 21 (2): 798–829. doi : 10.1214/aos/1176349152 . JSTOR  2242262.

Lectura adicional