Prueba estadística
La prueba de Anderson-Darling es una prueba estadística para determinar si una muestra dada de datos proviene de una distribución de probabilidad dada . En su forma básica, la prueba supone que no hay parámetros que estimar en la distribución que se está probando, en cuyo caso la prueba y su conjunto de valores críticos no tienen distribución. Sin embargo, la prueba se usa con más frecuencia en contextos en los que se está probando una familia de distribuciones, en cuyo caso es necesario estimar los parámetros de esa familia y tener esto en cuenta al ajustar el estadístico de prueba o sus valores críticos. Cuando se aplica para probar si una distribución normal describe adecuadamente un conjunto de datos, es una de las herramientas estadísticas más poderosas para detectar la mayoría de las desviaciones de la normalidad . [1] [2] Las pruebas de Anderson-Darling de K muestras están disponibles para probar si varias colecciones de observaciones pueden modelarse como provenientes de una sola población, donde no es necesario especificar la función de distribución .
Además de su uso como prueba de ajuste para distribuciones, se puede utilizar en la estimación de parámetros como base para una forma de procedimiento de estimación de distancia mínima .
La prueba lleva el nombre de Theodore Wilbur Anderson (1918-2016) y Donald A. Darling (1915-2014), quienes la inventaron en 1952. [3]
La prueba de muestra única
Las estadísticas de Anderson-Darling y Cramér-von Mises pertenecen a la clase de estadísticas EDF cuadráticas (pruebas basadas en la función de distribución empírica ). [2] Si la distribución hipotética es , y la función de distribución acumulativa empírica (muestral) es , entonces las estadísticas EDF cuadráticas miden la distancia entre y mediante
donde es el número de elementos en la muestra, y es una función de ponderación. Cuando la función de ponderación es , el estadístico es el estadístico Cramér–von Mises . La prueba de Anderson–Darling (1954) [4] se basa en la distancia
que se obtiene cuando la función de peso es . Por lo tanto, en comparación con la distancia Cramér–von Mises , la distancia Anderson–Darling otorga más peso a las observaciones en las colas de la distribución.
Estadística de prueba básica
La prueba de Anderson-Darling evalúa si una muestra proviene de una distribución específica. Aprovecha el hecho de que, cuando se da una distribución subyacente hipotética y se supone que los datos surgen de esta distribución, se puede suponer que la función de distribución acumulativa (CDF) de los datos sigue una distribución uniforme . Luego, se puede probar la uniformidad de los datos con una prueba de distancia (Shapiro 1980). La fórmula para la estadística de prueba para evaluar si los datos (nótese que los datos deben ordenarse) provienen de una CDF es
dónde
La estadística de prueba puede entonces compararse con los valores críticos de la distribución teórica. En este caso, no se estiman parámetros en relación con la función de distribución acumulativa .
Pruebas para familias de distribuciones
Esencialmente, la misma estadística de prueba se puede utilizar en la prueba de ajuste de una familia de distribuciones, pero luego debe compararse con los valores críticos apropiados para esa familia de distribuciones teóricas y que dependen también del método utilizado para la estimación de parámetros.
Prueba de normalidad
Las pruebas empíricas han demostrado [5] que la prueba de Anderson-Darling no es tan buena como la prueba de Shapiro-Wilk , pero es mejor que otras pruebas. Stephens [1] ha demostrado ser una de las mejores estadísticas de funciones de distribución empíricas para detectar la mayoría de las desviaciones de la normalidad.
El cálculo difiere según lo que se conoce sobre la distribución: [6]
- Caso 0: Se conocen tanto la media como la varianza .
- Caso 1: Se conoce la varianza , pero se desconoce la media.
- Caso 2: Se conoce la media , pero se desconoce la varianza .
- Caso 3: Tanto la media como la varianza son desconocidas.
Las n observaciones, , para , de la variable deben ordenarse de manera que y la notación en lo siguiente supone que X i representa las observaciones ordenadas. Sea
Los valores se estandarizan para crear nuevos valores , dados por
Con la CDF normal estándar , se calcula utilizando
Una expresión alternativa en la que sólo se trata una única observación en cada paso de la suma es:
Se puede calcular una estadística modificada utilizando
Si o supera un valor crítico dado, entonces se rechaza la hipótesis de normalidad con un cierto nivel de significación. Los valores críticos se dan en la tabla siguiente para valores de . [1] [7]
Nota 1: Si = 0 o cualquier (0 o 1) entonces no se puede calcular y no está definido.
Nota 2: La fórmula de ajuste anterior se tomó de Shorack y Wellner (1986, pág. 239). Se debe tener cuidado al hacer comparaciones entre distintas fuentes, ya que a menudo no se indica la fórmula de ajuste específica.
Nota 3: Stephens [1] señala que la prueba mejora cuando los parámetros se calculan a partir de los datos, incluso si se conocen.
Nota 4: Marsaglia y Marsaglia [7] proporcionan un resultado más preciso para el caso 0 al 85% y 99%.
Como alternativa, para el caso 3 anterior (tanto la media como la varianza son desconocidas), D'Agostino (1986) [6] en la Tabla 4.7 en la pág. 123 y en las páginas 372-373 da la estadística ajustada:
y se rechaza la normalidad si excede 0,631, 0,754, 0,884, 1,047 o 1,159 con niveles de significación del 10%, 5%, 2,5%, 1% y 0,5%, respectivamente; el procedimiento es válido para un tamaño de muestra de al menos n=8. Las fórmulas para calcular los valores p para otros valores de se dan en la Tabla 4.9 en la pág. 127 del mismo libro.
Pruebas para otras distribuciones
Anteriormente, se supuso que la variable estaba siendo probada para una distribución normal. Se puede probar cualquier otra familia de distribuciones, pero la prueba para cada familia se implementa utilizando una modificación diferente de la estadística de prueba básica y esto se refiere a valores críticos específicos para esa familia de distribuciones. Las modificaciones de la estadística y las tablas de valores críticos son dadas por Stephens (1986) [2] para las distribuciones exponencial, de valores extremos, Weibull, gamma, logística, Cauchy y von Mises. Las pruebas para la distribución log-normal (de dos parámetros) se pueden implementar transformando los datos utilizando un logaritmo y utilizando la prueba anterior para normalidad. Los detalles para las modificaciones requeridas a la estadística de prueba y para los valores críticos para la distribución normal y la distribución exponencial han sido publicados por Pearson & Hartley (1972, Tabla 54). Los detalles para estas distribuciones, con la adición de la distribución de Gumbel , también son dados por Shorack & Wellner (1986, p239). Stephens (1979) proporciona detalles sobre la distribución logística . Se puede obtener una prueba para la distribución Weibull (de dos parámetros) aprovechando el hecho de que el logaritmo de una variable Weibull tiene una distribución Gumbel .
No paramétricoa-pruebas de muestra
Fritz Scholz y Michael A. Stephens (1987) analizan una prueba, basada en la medida de acuerdo entre distribuciones de Anderson-Darling, para determinar si una cantidad de muestras aleatorias con tamaños de muestra posiblemente diferentes pueden haber surgido de la misma distribución, cuando esta distribución no está especificada. [8] El paquete R kSamples y el paquete Python Scipy implementan esta prueba de rango para comparar k muestras entre varias otras pruebas de rango similares. [9] [10]
Para las muestras, la estadística se puede calcular de la siguiente manera bajo el supuesto de que la función de distribución de la muestra -ésima es continua.
dónde
- es el número de observaciones en la muestra -ésima
- es el número total de observaciones en todas las muestras
- es la muestra ordenada agrupada
- es el número de observaciones en la muestra -ésima que no son mayores que . [8]
Véase también
Referencias
- ^ abcd Stephens, MA (1974). "Estadísticas EDF para bondad de ajuste y algunas comparaciones". Revista de la Asociación Estadounidense de Estadística . 69 (347): 730–737. doi :10.2307/2286009. JSTOR 2286009.
- ^ abc MA Stephens (1986). "Pruebas basadas en estadísticas EDF". En D'Agostino, RB; Stephens, MA (eds.). Técnicas de bondad de ajuste . Nueva York: Marcel Dekker. ISBN 0-8247-7487-6.
- ^ Anderson, TW ; Darling, DA (1952). "Teoría asintótica de ciertos criterios de "bondad de ajuste" basados en procesos estocásticos". Anales de estadística matemática . 23 (2): 193–212. doi : 10.1214/aoms/1177729437 .
- ^ Anderson, TW; Darling, DA (1954). "Una prueba de bondad de ajuste". Revista de la Asociación Estadounidense de Estadística . 49 (268): 765–769. doi :10.2307/2281537. JSTOR 2281537.
- ^ Razali, Nornadiah; Wah, Yap Bee (2011). "Comparaciones de potencia de las pruebas de Shapiro–Wilk, Kolmogorov–Smirnov, Lilliefors y Anderson–Darling". Revista de modelado estadístico y análisis . 2 (1): 21–33.
- ^ de Ralph B. D'Agostino (1986). "Pruebas para la distribución normal". En D'Agostino, RB; Stephens, MA (eds.). Técnicas de bondad de ajuste . Nueva York: Marcel Dekker. ISBN 0-8247-7487-6.
- ^ ab Marsaglia, G. (2004). "Evaluación de la distribución Anderson-Darling". Revista de software estadístico . 9 (2): 730–737. CiteSeerX 10.1.1.686.1363 . doi : 10.18637/jss.v009.i02 .
- ^ ab Scholz, FW; Stephens, MA (1987). "Pruebas Anderson-Darling para muestras K". Revista de la Asociación Estadounidense de Estadística . 82 (399): 918–924. doi :10.1080/01621459.1987.10478517.
- ^ "kSamples: Pruebas de rango de K-muestras y sus combinaciones". Proyecto R .
- ^ "La prueba de Anderson-Darling para k-muestras. Paquete Scipy".
Lectura adicional
- Corder, GW, Foreman, DI (2009). Estadísticas no paramétricas para no estadísticos: un enfoque paso a paso Wiley, ISBN 978-0-470-45461-9
- Mehta, S. (2014) Temas de estadística ISBN 978-1499273533
- Pearson ES, Hartley, HO (Editores) (1972) Tablas Biometrika para Estadísticos , Volumen II. CUP. ISBN 0-521-06937-8 .
- Shapiro, SS (1980) Cómo probar la normalidad y otros supuestos distributivos. En: Referencias básicas de la ASQC en control de calidad: técnicas estadísticas 3, págs. 1–78.
- Shorack, GR , Wellner, JA (1986) Procesos empíricos con aplicaciones a la estadística , Wiley. ISBN 0-471-86725-X .
- Stephens, MA (1979) Prueba de ajuste para la distribución logística basada en la función de distribución empírica , Biometrika, 66(3), 591–5.
Enlaces externos
- Manual de estadísticas del NIST de EE. UU.