stringtranslate.com

Análisis de varianza de una sola vía

En estadística , el análisis de varianza unidireccional (o ANOVA unidireccional ) es una técnica para comparar si las medias de dos o más muestras son significativamente diferentes (usando la distribución F ). Esta técnica de análisis de varianza requiere una variable de respuesta numérica "Y" y una única variable explicativa "X", por lo tanto "unidireccional". [1]

El ANOVA prueba la hipótesis nula , que establece que las muestras de todos los grupos se extraen de poblaciones con los mismos valores medios. Para ello, se hacen dos estimaciones de la varianza poblacional. Estas estimaciones se basan en varios supuestos (ver más abajo). El ANOVA produce una estadística F, la relación entre la varianza calculada entre las medias y la varianza dentro de las muestras. Si las medias del grupo se extraen de poblaciones con los mismos valores medios, la varianza entre las medias del grupo debe ser menor que la varianza de las muestras, siguiendo el teorema del límite central . Por lo tanto, una proporción más alta implica que las muestras se tomaron de poblaciones con valores medios diferentes. [1]

Sin embargo, normalmente se utiliza el ANOVA unidireccional para probar diferencias entre al menos tres grupos, ya que el caso de dos grupos puede cubrirse mediante una prueba t (Gosset, 1908). Cuando sólo hay dos medias para comparar, la prueba t y la prueba F son equivalentes; la relación entre ANOVA y t viene dada por F  =  t 2 . Una extensión del ANOVA unidireccional es el análisis de varianza bidireccional que examina la influencia de dos variables independientes categóricas diferentes en una variable dependiente.

Suposiciones

Los resultados de un ANOVA unidireccional pueden considerarse confiables siempre que se cumplan los siguientes supuestos:

Si los datos son ordinales , se debe utilizar una alternativa no paramétrica a esta prueba, como el análisis de varianza unidireccional de Kruskal-Wallis . Si no se sabe que las varianzas sean iguales, se puede utilizar una generalización de la prueba t de Welch para 2 muestras. [2]

Desviaciones de la normalidad poblacional

ANOVA es un procedimiento relativamente sólido con respecto a violaciones del supuesto de normalidad. [3]

El ANOVA unidireccional se puede generalizar a los diseños factorial y multivariado, así como al análisis de covarianza. [ se necesita aclaración ]

A menudo se afirma en la literatura popular que ninguna de estas pruebas F es sólida cuando existen violaciones graves del supuesto de que cada población sigue la distribución normal , particularmente para niveles alfa pequeños y diseños desequilibrados. [4] Además, también se afirma que si se viola el supuesto subyacente de homocedasticidad , las propiedades del error de tipo I degeneran mucho más severamente. [5]

Sin embargo, esta es una idea errónea, basada en trabajos realizados en la década de 1950 y antes. La primera investigación exhaustiva del tema mediante simulación de Monte Carlo fue Donaldson (1966). [6] Demostró que bajo las desviaciones habituales (sesgo positivo, varianzas desiguales) "la prueba F es conservadora", por lo que es menos probable de lo que debería ser encontrar que una variable es significativa. Sin embargo, a medida que aumenta el tamaño de la muestra o el número de células, "las curvas de potencia parecen converger a las basadas en la distribución normal". Tiku (1971) encontró que "el poder de la teoría no normal de F difiere del poder de la teoría normal por un término de corrección que disminuye drásticamente al aumentar el tamaño de la muestra". [7] El problema de la no normalidad, especialmente en muestras grandes, es mucho menos grave de lo que sugerirían los artículos populares.

La opinión actual es que "los estudios de Montecarlo se utilizaron ampliamente con pruebas basadas en la distribución normal para determinar cuán sensibles son a las violaciones del supuesto de distribución normal de las variables analizadas en la población. La conclusión general de estos estudios es que la Las consecuencias de tales violaciones son menos graves de lo que se pensaba anteriormente. Aunque estas conclusiones no deberían disuadir por completo a nadie de preocuparse por el supuesto de normalidad, han aumentado la popularidad general de las pruebas estadísticas dependientes de la distribución en todas las áreas de la investigación. [8]

Para alternativas no paramétricas en el diseño factorial, consulte Sawilowsky. [9] Para obtener más información, consulte ANOVA sobre rangos .

El caso de efectos fijos, experimento totalmente aleatorio, datos desequilibrados

El modelo

El modelo lineal normal describe grupos de tratamiento con distribuciones de probabilidad que son curvas idénticas en forma de campana (normales) con medias diferentes. Por lo tanto, ajustar los modelos requiere sólo las medias de cada grupo de tratamiento y un cálculo de la varianza (se utiliza una varianza promedio dentro de los grupos de tratamiento). Los cálculos de las medias y la varianza se realizan como parte de la prueba de hipótesis.

Los modelos lineales normales comúnmente utilizados para un experimento completamente aleatorio son: [10]

(el modelo de medios)

o

(el modelo de efectos)

dónde

es un índice sobre unidades experimentales
es un índice sobre los grupos de tratamiento
es el número de unidades experimentales en el j-ésimo grupo de tratamiento
es el número total de unidades experimentales
son observaciones
es la media de las observaciones para el j-ésimo grupo de tratamiento
es la gran media de las observaciones
es el efecto del tratamiento j, una desviación de la media general
, son errores aleatorios de media cero distribuidos normalmente.

El índice sobre las unidades experimentales se puede interpretar de varias maneras. En algunos experimentos, la misma unidad experimental se somete a una variedad de tratamientos; puede apuntar a una unidad en particular. En otros, cada grupo de tratamiento tiene un conjunto distinto de unidades experimentales; puede ser simplemente un índice en la -ésima lista.

Los datos y resúmenes estadísticos de los datos.

Una forma de organizar las observaciones experimentales es con grupos en columnas:

Comparación del modelo con resúmenes: y . La gran media y la gran varianza se calculan a partir de las sumas generales, no de las medias y varianzas grupales.

La prueba de hipótesis

Dadas las estadísticas resumidas, los cálculos de la prueba de hipótesis se muestran en forma de tabla. Si bien se muestran dos columnas de SS por su valor explicativo, solo se requiere una columna para mostrar los resultados.

es la estimación de la varianza correspondiente al modelo.

Resumen del análisis

El análisis ANOVA central consta de una serie de cálculos. Los datos se recopilan en forma de tabla. Entonces

Si el experimento está balanceado, todos los términos son iguales, por lo que las ecuaciones SS se simplifican.

En un experimento más complejo, donde las unidades experimentales (o efectos ambientales) no son homogéneas, también se utilizan estadísticas de filas en el análisis. El modelo incluye términos que dependen de . La determinación de los términos adicionales reduce el número de grados de libertad disponibles.

Ejemplo

Consideremos un experimento para estudiar el efecto de tres niveles diferentes de un factor sobre una respuesta (por ejemplo, tres niveles de un fertilizante sobre el crecimiento de las plantas). Si tuviéramos 6 observaciones para cada nivel, podríamos escribir el resultado del experimento en una tabla como esta, donde a 1 , a 2 y a 3 son los tres niveles del factor que se está estudiando.

La hipótesis nula, denominada H 0 , para la prueba F general de este experimento sería que los tres niveles del factor producen la misma respuesta, en promedio. Para calcular la relación F :

Paso 1: Calcula la media dentro de cada grupo:

Paso 2: Calcular la media general:

donde a es el número de grupos.

Paso 3: Calcule la suma de diferencias al cuadrado "entre grupos":

donde n es el número de valores de datos por grupo.

Los grados de libertad entre grupos son uno menos que el número de grupos.

entonces el valor cuadrático medio entre grupos es

Paso 4: Calcule la suma de cuadrados "dentro del grupo". Comience centrando los datos en cada grupo.

La suma de cuadrados dentro del grupo es la suma de los cuadrados de los 18 valores de esta tabla.

Los grados de libertad dentro del grupo son

Por tanto, el valor cuadrático medio dentro del grupo es

Paso 5: La relación F es

El valor crítico es el número que debe exceder la estadística de prueba para rechazar la prueba. En este caso, F crit (2,15) = 3,68 en α = 0,05. Dado que F =9,3 > 3,68, los resultados son significativos al nivel de significancia del 5%. No se aceptaría la hipótesis nula y se concluiría que existe evidencia sólida de que los valores esperados en los tres grupos difieren. El valor p para esta prueba es 0,002.

Después de realizar la prueba F , es común realizar algún análisis "post-hoc" de las medias del grupo. En este caso, las medias de los dos primeros grupos difieren en 4 unidades, las medias del primer y tercer grupo difieren en 5 unidades, y las medias del segundo y tercer grupo difieren en solo 1 unidad. El error estándar de cada una de estas diferencias es . Por lo tanto, el primer grupo es muy diferente de los otros grupos, ya que la diferencia de medias es más de 3 veces el error estándar, por lo que podemos estar muy seguros de que la media poblacional del primer grupo difiere de las medias poblacionales de los otros grupos. Sin embargo, no hay evidencia de que el segundo y tercer grupo tengan medias poblacionales diferentes entre sí, ya que su diferencia de medias de una unidad es comparable al error estándar.

Nota F ( xy ) denota una función de distribución acumulativa de distribución F con x grados de libertad en el numerador e y grados de libertad en el denominador.

Ver también

Notas

  1. ^ ab Howell, David (2002). Métodos estadísticos para la psicología. Duxbury. págs. 324–325. ISBN 0-534-37770-X.
  2. ^ Welch, BL (1951). "Sobre la comparación de varios valores medios: un enfoque alternativo". Biometrika . 38 (3/4): 330–336. doi :10.2307/2332579. JSTOR  2332579.
  3. ^ Kirk, RE (1995). Diseño experimental: procedimientos para las ciencias del comportamiento (3 ed.). Pacific Grove, California, Estados Unidos: Brooks/Cole.
  4. ^ Blair, RC (1981). "Una reacción a las 'Consecuencias del incumplimiento de los supuestos subyacentes al análisis de varianza y covarianza de efectos fijos'.". Revista de Investigación Educativa . 51 (4): 499–507. doi :10.3102/00346543051004499.
  5. ^ Randolf, EA; Barcikowski, RS (1989). "Tasa de error tipo I cuando se utilizan valores reales del estudio como parámetros poblacionales en un estudio de Monte Carlo". Documento presentado en la 11ª Reunión Anual de la Asociación de Investigación Educativa del Medio Oeste, Chicago .
  6. ^ Donaldson, Theodore S. (1966). "Poder de la prueba F para distribuciones no normales y variaciones de error desiguales". Documento preparado para el Proyecto RAND de la Fuerza Aérea de los Estados Unidos .
  7. ^ Tikú, ML (1971). "Función de potencia de la prueba F en situaciones no normales". Revista de la Asociación Estadounidense de Estadística . 66 (336): 913–916. doi :10.1080/01621459.1971.10482371.
  8. ^ "Introducción a los conceptos estadísticos". Archivado desde el original el 4 de diciembre de 2018 . Consultado el 22 de septiembre de 2016 .
  9. ^ Sawilowsky, S. (1990). "Pruebas no paramétricas de interacción en diseño experimental". Revista de Investigación Educativa . 60 (1): 91-126. doi :10.3102/00346543060001091.
  10. ^ Montgomery, Douglas C. (2001). Diseño y análisis de experimentos (5ª ed.). Nueva York: Wiley. pag. Sección 3–2. ISBN 9780471316497.
  11. ^ Moore, David S.; McCabe, George P. (2003). Introducción a la práctica de la estadística (4ª ed.). WH Freeman & Co. pág. 764.ISBN 0716796570.
  12. ^ Winkler, Robert L.; Hays, William L. (1975). Estadística: probabilidad, inferencia y decisión (2ª ed.). Nueva York: Holt, Rinehart y Winston. pag. 761.

Otras lecturas