stringtranslate.com

El método de Scheffé

En estadística , el método de Scheffé , llamado así por el estadístico estadounidense Henry Scheffé , es un método para ajustar los niveles de significación en un análisis de regresión lineal para tener en cuenta comparaciones múltiples . Es particularmente útil en el análisis de varianza (un caso especial de análisis de regresión) y en la construcción de bandas de confianza simultáneas para regresiones que involucran funciones de base .

El método de Scheffé es un procedimiento de comparación múltiple de un solo paso que se aplica al conjunto de estimaciones de todos los contrastes posibles entre las medias de los niveles de los factores, no solo a las diferencias por pares consideradas por el método de Tukey-Kramer . Funciona con principios similares a los del procedimiento Working-Hotelling para estimar las respuestas medias en regresión, que se aplica al conjunto de todos los niveles de factores posibles.

El método

Sean las medias de alguna variable en poblaciones disjuntas.

Un contraste arbitrario se define por

dónde

Si son todos iguales entre sí, entonces todos los contrastes entre ellos son 0. En caso contrario, algunos contrastes difieren de 0 .

Técnicamente, hay una cantidad infinita de contrastes. El coeficiente de confianza simultáneo es exactamente , independientemente de que los tamaños de muestra a nivel de factor sean iguales o desiguales. (Por lo general, solo interesa un número finito de comparaciones. En este caso, el método de Scheffé suele ser bastante conservador y la tasa de error a nivel de familia (tasa de error experimental) generalmente será mucho menor que .) [1] [2]

Estimamos por

para la cual la varianza estimada es

dónde

Se puede demostrar que la probabilidad es que todos los límites de confianza del tipo

son simultáneamente correctas, donde como es habitual es el tamaño de toda la población. Norman R. Draper y Harry Smith, en su 'Análisis de regresión aplicado' (ver referencias), indican que debería estar en la ecuación en lugar de . El error con es el resultado de no tener en cuenta el efecto adicional del término constante en muchas regresiones. Que el resultado basado en es incorrecto se ve fácilmente considerando , como en una regresión lineal simple estándar. Esa fórmula se reduciría entonces a una con la distribución habitual , que es apropiada para predecir/estimar para un valor único de la variable independiente, no para construir una banda de confianza para un rango de valores del valor independiente. También tenga en cuenta que la fórmula es para tratar con los valores medios para un rango de valores independientes, no para comparar con valores individuales como los valores de datos observados individuales. [3]

Denotando la significación de Scheffé en una tabla

Con frecuencia, se utilizan letras en subíndice para indicar qué valores son significativamente diferentes utilizando el método Scheffé. Por ejemplo, cuando se presentan en una tabla los valores medios de las variables que se han analizado utilizando un ANOVA , se les asigna un subíndice de letra diferente según un contraste de Scheffé. Los valores que no son significativamente diferentes según el contraste de Scheffé post-hoc tendrán el mismo subíndice y los valores que son significativamente diferentes tendrán subíndices diferentes (es decir, 15 a , 17 a , 34 b significaría que la primera y la segunda variables difieren de la tercera variable pero no entre sí porque a ambas se les asigna el subíndice "a"). [ cita requerida ]

Comparación con el método de Tukey-Kramer

Si solo se debe realizar un número fijo de comparaciones por pares, el método de Tukey-Kramer dará como resultado un intervalo de confianza más preciso. En el caso general en que muchos o todos los contrastes puedan ser de interés, el método de Scheffé es más apropiado y dará intervalos de confianza más estrechos en el caso de un gran número de comparaciones.

Referencias

  1. ^ Maxwell, Scott E.; Delaney, Harold D. (2004). Diseño de experimentos y análisis de datos: una comparación de modelos . Lawrence Erlbaum Associates. págs. 217-218. ISBN 0-8058-3718-3.
  2. ^ Milliken, George A.; Johnson, Dallas E. (1993). Análisis de datos desordenados . CRC Press. págs. 35-36. ISBN 0-412-99081-4.
  3. ^ Draper, Norman R; Smith, Harry (1998). Análisis de regresión aplicada (2.ª ed.). John Wiley and Sons, Inc., pág. 93. ISBN 9780471170822.

Enlaces externos

Dominio público Este artículo incorpora material de dominio público del Instituto Nacional de Estándares y Tecnología.