stringtranslate.com

Prueba de Brown-Forsythe

La prueba de Brown-Forsythe es una prueba estadística para la igualdad de varianzas de grupo basada en la realización de un análisis de varianza (ANOVA) sobre una transformación de la variable de respuesta . Cuando se realiza un ANOVA de una vía , se supone que las muestras se han extraído de distribuciones con varianza igual . Si esta suposición no es válida, la prueba F resultante no es válida. La estadística de la prueba de Brown-Forsythe es la estadística F resultante de un análisis de varianza unidireccional ordinario sobre las desviaciones absolutas de los datos de los grupos o tratamientos con respecto a sus medianas individuales. [1]

Transformación

La variable de respuesta transformada se construye para medir la dispersión en cada grupo. Sea

donde es la mediana del grupo j . La estadística de prueba de Brown–Forsythe es la estadística F del modelo de un ANOVA de una vía en z ij :

donde p es el número de grupos, n j es el número de observaciones en el grupo j y N es el número total de observaciones. También son las medias de grupo de y es la media general de . Este estadístico F sigue la distribución F con grados de libertad y bajo la hipótesis nula.

Si las varianzas son realmente heterogéneas, se pueden utilizar técnicas que lo permitan (como el ANOVA unidireccional de Welch) en lugar del ANOVA habitual.

Good, observando que las desviaciones son linealmente dependientes, ha modificado la prueba para eliminar las desviaciones redundantes. [2]

Comparación con la prueba de Levene

La prueba de Levene utiliza la media en lugar de la mediana. Aunque la elección óptima depende de la distribución subyacente, se recomienda la definición basada en la mediana como la opción que proporciona una buena robustez frente a muchos tipos de datos no normales a la vez que conserva un buen poder estadístico . [3] Si uno tiene conocimiento de la distribución subyacente de los datos, esto puede indicar el uso de una de las otras opciones. Brown y Forsythe [4] realizaron estudios de Monte Carlo que indicaron que el uso de la media recortada funcionó mejor cuando los datos subyacentes seguían una distribución de Cauchy (una distribución de cola pesada ) y la mediana funcionó mejor cuando los datos subyacentes seguían una distribución χ 2 con cuatro grados de libertad (una distribución marcadamente sesgada ). El uso de la media proporcionó la mejor potencia para distribuciones simétricas de cola moderada. O'Brien probó varias formas de utilizar el análisis de varianza tradicional para probar la heterogeneidad de la dispersión en diseños factoriales con tamaños de muestra iguales o desiguales. Los pseudovalores jackknife de s 2 y las desviaciones absolutas de la mediana de la celda demuestran ser robustos y relativamente potentes. [5]

Véase también

Referencias

  1. ^ "Función plot.hov | Documentación de R". www.rdocumentation.org . DataCamp.
  2. ^ Good, PI (2005). Pruebas de hipótesis permutativas, paramétricas y bootstrap (3.ª ed.). Nueva York: Springer.
  3. ^ Derrick, B; Ruck, A; Toher, D; White, P (2018). "Pruebas de igualdad de varianzas entre dos muestras que contienen observaciones pareadas y observaciones independientes" (PDF) . Revista de métodos cuantitativos aplicados . 13 (2): 36–47.
  4. ^ Brown, Morton B.; Forsythe, Alan B. (1974). "Pruebas robustas para la igualdad de varianzas". Revista de la Asociación Estadounidense de Estadística . 69 (346): 364–367. doi :10.1080/01621459.1974.10482955. JSTOR  2285659.
  5. ^ O'Brien, RG (1978). "Técnicas robustas para probar la heterogeneidad de los efectos de la varianza en diseños factoriales". Psychometrika . 43 (3): 327–342. doi :10.1007/BF02293643.

Enlaces externos

Dominio público Este artículo incorpora material de dominio público del Instituto Nacional de Estándares y Tecnología.