stringtranslate.com

Prueba de Friedman

La prueba de Friedman es una prueba estadística no paramétrica desarrollada por Milton Friedman . [1] [2] [3] Similar al ANOVA paramétrico de medidas repetidas , se utiliza para detectar diferencias en los tratamientos a lo largo de múltiples intentos de prueba. El procedimiento implica clasificar cada fila (o bloque ) en conjunto, y luego considerar los valores de los rangos por columnas. Aplicable a diseños de bloques completos , es por lo tanto un caso especial de la prueba de Durbin .

Ejemplos clásicos de uso son:

La prueba de Friedman se utiliza para el análisis de varianza por rangos de medidas repetidas de una vía. En su uso de rangos es similar al análisis de varianza por rangos de Kruskal-Wallis de una vía .

La prueba de Friedman está ampliamente respaldada por muchos paquetes de software estadístico .

Método

  1. Dados los datos , es decir, una matriz con filas (los bloques ), columnas (los tratamientos ) y una sola observación en la intersección de cada bloque y tratamiento, calcule los rangos dentro de cada bloque. Si hay valores empatados, asigne a cada valor empatado el promedio de los rangos que se habrían asignado sin empates. Reemplace los datos con una nueva matriz donde la entrada sea el rango de dentro del bloque .
  2. Encuentra los valores
  3. La estadística de prueba se obtiene mediante . Nótese que el valor de does debe ajustarse para los valores empatados en los datos. [4]
  4. Finalmente, cuando o es grande (es decir, o ), la distribución de probabilidad de puede aproximarse mediante la de una distribución de chi-cuadrado . En este caso, el valor p viene dado por . Si o es pequeño, la aproximación a chi-cuadrado se vuelve deficiente y el valor p debe obtenerse a partir de tablas de especialmente preparadas para la prueba de Friedman. Si el valor p es significativo , se realizarían pruebas de comparaciones múltiples post-hoc apropiadas.

Pruebas relacionadas

Análisis post hoc

Las pruebas post-hoc fueron propuestas por Schaich y Hamerle (1984) [6] así como por Conover (1971, 1980) [7] para decidir qué grupos son significativamente diferentes entre sí, basándose en las diferencias de rango medio de los grupos. Estos procedimientos se detallan en Bortz, Lienert y Boehnke (2000, p. 275). [8] Eisinga, Heskes, Pelzer y Te Grotenhuis (2017) [9] proporcionan una prueba exacta para la comparación por pares de sumas de rangos de Friedman, implementada en R. La prueba exacta cs de Eisinga ofrece una mejora sustancial sobre las pruebas aproximadas disponibles, especialmente si el número de grupos ( ) es grande y el número de bloques ( ) es pequeño.

No todos los paquetes estadísticos admiten el análisis post-hoc para la prueba de Friedman, pero existe código aportado por los usuarios que proporciona estas funciones (por ejemplo, en SPSS [ 10] y en R [11] ) . Además, hay un paquete especializado disponible en R que contiene numerosos métodos no paramétricos para el análisis post-hoc después de Friedman [12] .

Referencias

  1. ^ Friedman, Milton (diciembre de 1937). "El uso de rangos para evitar el supuesto de normalidad implícito en el análisis de varianza". Journal of the American Statistical Association . 32 (200): 675–701. doi :10.1080/01621459.1937.10503522. JSTOR  2279372.
  2. ^ Friedman, Milton (marzo de 1939). "Una corrección: el uso de rangos para evitar el supuesto de normalidad implícito en el análisis de varianza". Journal of the American Statistical Association . 34 (205): 109. doi :10.1080/01621459.1939.10502372. JSTOR  2279169.
  3. ^ Friedman, Milton (marzo de 1940). "Una comparación de pruebas alternativas de significación para el problema de m rankings". Anales de estadística matemática . 11 (1): 86–92. doi : 10.1214/aoms/1177731944 . JSTOR  2235971.
  4. ^ "PRUEBA DE FRIEDMAN en el gráfico de datos del NIST". 20 de agosto de 2018.
  5. ^ Wittkowski, Knut M. (1988). "Estadísticas de tipo Friedman y comparaciones múltiples consistentes para diseños no balanceados con datos faltantes". Revista de la Asociación Estadounidense de Estadística . 83 (404): 1163–1170. CiteSeerX 10.1.1.533.1948 . doi :10.1080/01621459.1988.10478715. JSTOR  2290150. 
  6. ^ Schaich, E. y Hamerle, A. (1984). Verteilungsfreie statistische Prüfverfahren. Berlín: Springer. ISBN 3-540-13776-9
  7. ^ Conover, WJ (1971, 1980). Estadística no paramétrica práctica. Nueva York: Wiley. ISBN 0-471-16851-3
  8. ^ Bortz, J., Lienert, G. y Boehnke, K. (2000). Verteilungsfreie Methoden in der Biostatistik. Berlín: Springer. ISBN 3-540-67590-6
  9. ^ Eisinga, R.; Heskes, T.; Pelzer, B.; Te Grotenhuis, M. (2017). "Valores p exactos para la comparación por pares de sumas de rangos de Friedman, con aplicación a la comparación de clasificadores". BMC Bioinformatics . 18 (1): 68. doi : 10.1186/s12859-017-1486-2 . PMC 5267387 . PMID  28122501. 
  10. ^ "Comparaciones post-hoc para la prueba de Friedman". Archivado desde el original el 2012-11-03 . Consultado el 2010-02-22 .
  11. ^ "Análisis post hoc para la prueba de Friedman (código R)". 22 de febrero de 2010.
  12. ^ "PMCMRplus: Calcular comparaciones múltiples por pares de sumas de rangos medios ampliadas". 17 de agosto de 2022.

Lectura adicional