stringtranslate.com

Análisis multivariado de varianza.

La imagen de arriba muestra una comparación visual entre el análisis de varianza multivariado (MANOVA) y el análisis de varianza univariado (ANOVA). En MANOVA, los investigadores examinan las diferencias de grupo de una variable independiente singular a través de múltiples variables de resultado, mientras que en un ANOVA, los investigadores examinan las diferencias de grupo de, a veces, múltiples variables independientes en una variable de resultado singular. En el ejemplo proporcionado, los niveles del IV podrían incluir la escuela secundaria, la universidad y la escuela de posgrado. Los resultados de un MANOVA pueden decirnos si un individuo que completó la escuela de posgrado mostró una mayor satisfacción con la vida Y el trabajo que un individuo que completó solo la escuela secundaria o la universidad. Los resultados de un ANOVA sólo pueden brindarnos esta información sobre la satisfacción con la vida. El análisis de las diferencias grupales a través de múltiples variables de resultados a menudo proporciona información más precisa, ya que una relación pura entre solo X y solo Y rara vez existe en la naturaleza.

En estadística , el análisis de varianza multivariado ( MANOVA ) es un procedimiento para comparar medias muestrales multivariadas . Como procedimiento multivariado, se utiliza cuando hay dos o más variables dependientes , [1] y, a menudo, va seguido de pruebas de significancia que involucran variables dependientes individuales por separado. [2]

Sin relación con la imagen, las variables dependientes pueden ser k puntuaciones de satisfacción con la vida medidas en puntos de tiempo secuenciales y p puntuaciones de satisfacción en el trabajo medidas en puntos de tiempo secuenciales. En este caso existen k+p variables dependientes cuya combinación lineal sigue una distribución normal multivariada, homogeneidad de matriz de varianza-covarianza multivariada y relación lineal, sin multicolinealidad y cada una sin valores atípicos.

Modelo

Supongamos observaciones -dimensionales, donde la 'ésima observación se asigna al grupo y se distribuye alrededor del centro del grupo con ruido gaussiano multivariado :

matriz de covarianzahipótesis nula

Relación con ANOVA

MANOVA es una forma generalizada de análisis de varianza univariado (ANOVA), [1] aunque, a diferencia del ANOVA univariado , utiliza la covarianza entre variables de resultado para probar la significación estadística de las diferencias de medias.

Mientras que en el análisis de varianza univariado aparecen sumas de cuadrados , en el análisis de varianza multivariado aparecen ciertas matrices definidas positivas . Las entradas diagonales son los mismos tipos de sumas de cuadrados que aparecen en ANOVA univariado. Las entradas fuera de la diagonal son sumas correspondientes de productos. Bajo supuestos de normalidad sobre las distribuciones de error , la contraparte de la suma de cuadrados debida al error tiene una distribución Wishart .


Evaluación de la hipótesis

Primero, defina las siguientes matrices:

Entonces la matriz es una generalización de la suma de cuadrados explicada por el grupo, y es una generalización de la suma de cuadrados residual . [3] [4] Tenga en cuenta que, alternativamente, también se podría hablar de covarianzas cuando las matrices mencionadas anteriormente se escalan en 1/(n-1), ya que las estadísticas de prueba posteriores no cambian al multiplicar y por la misma constante distinta de cero.

Las estadísticas más comunes [3] [5] son ​​resúmenes basados ​​en las raíces (o valores propios) de la matriz.

Continúa la discusión sobre los méritos de cada uno, [1] aunque la raíz más importante conduce sólo a un límite de importancia que generalmente no tiene interés práctico. Una complicación adicional es que, excepto para la raíz mayor de Roy, la distribución de estas estadísticas bajo la hipótesis nula no es sencilla y sólo puede aproximarse excepto en unos pocos casos de baja dimensión. En [7] se derivó un algoritmo para la distribución de la raíz más grande de Roy bajo la hipótesis nula , mientras que la distribución bajo la alternativa se estudia en [8] .

La aproximación más conocida de la lambda de Wilks fue obtenida por CR Rao .

En el caso de dos grupos, todas las estadísticas son equivalentes y la prueba se reduce al T-cuadrado de Hotelling .

Introducción de covariables (MANCOVA)

También se puede probar si existe un efecto de grupo después de ajustar las covariables. Para esto, siga el procedimiento anterior pero sustitúyalo por las predicciones del modelo lineal general , que contiene el grupo y las covariables, y sustitúyalo por las predicciones del modelo lineal general que contiene solo las covariables (y una intersección). Luego , la suma de cuadrados adicional se explica sumando la información de agrupación y es la suma de cuadrados residual del modelo que contiene la agrupación y las covariables. [4]

Tenga en cuenta que en el caso de datos desequilibrados, el orden de adición de las covariables es importante.

Correlación de variables dependientes

Esta es una representación gráfica de la relación requerida entre las variables de resultado en un análisis de varianza multivariado. Parte del análisis implica la creación de una variable compuesta, contra la cual se analizan las diferencias de grupo de la variable independiente. Las variables compuestas, como pueden ser múltiples, son diferentes combinaciones de las variables de resultado. Luego, el análisis determina qué combinación muestra las mayores diferencias de grupo para la variable independiente. Luego se utiliza un análisis discriminante descriptivo como prueba post hoc para determinar cuál es la composición de esa variable compuesta que crea las mayores diferencias grupales.
Esta es una representación visual simple del efecto de dos variables dependientes altamente correlacionadas dentro de un MANOVA. Si dos (o más) variables dependientes están altamente correlacionadas, las posibilidades de que ocurra un error de tipo I se reducen, pero la compensación es que el poder de la prueba MANOVA también se reduce.

El poder de MANOVA se ve afectado por las correlaciones de las variables dependientes y por los tamaños del efecto asociados con esas variables. Por ejemplo, cuando hay dos grupos y dos variables dependientes, el poder de MANOVA es más bajo cuando la correlación es igual a la relación entre el tamaño del efecto estandarizado más pequeño y el más grande. [9]

Ver también

Referencias

  1. ^ abc Warne, RT (2014). "Una introducción al análisis de varianza multivariado (MANOVA) para científicos del comportamiento". Evaluación práctica, investigación y evaluación . 19 (17): 1–10.
  2. ^ Stevens, JP (2002). Estadística multivariada aplicada a las ciencias sociales. Mahwah, Nueva Jersey: Lawrence Erblaum.
  3. ^ ab Anderson, TW (1994). Introducción al análisis estadístico multivariado . Wiley.
  4. ^ ab Krzanowski, WJ (1988). Principios del análisis multivariado. La perspectiva de un usuario . Prensa de la Universidad de Oxford.
  5. ^ UCLA: Servicios de tecnología académica, Grupo de consultoría estadística. "Resultado anotado de Stata: MANOVA" . Consultado el 10 de febrero de 2024 .
  6. ^ "Conceptos básicos de MANOVA - Estadísticas reales utilizando Excel". www.estadísticas-real.com . Consultado el 5 de abril de 2018 .
  7. ^ Chiani, M. (2016), "Distribución de la raíz más grande de una matriz para la prueba de Roy en análisis de varianza multivariado", Journal of Multivariate Analysis , 143 : 467–471, arXiv : 1401.3987v3 , doi : 10.1016/j. jmva.2015.10.007, S2CID  37620291
  8. ^ IM Johnstone, B. Nadler "La prueba de raíz más grande de Roy bajo alternativas de rango uno" preimpresión de arXiv arXiv:1310.6581 (2013)
  9. ^ Frane, Andrés (2015). "Control de errores de potencia y tipo I para comparaciones univariadas en diseños multivariados de dos grupos". Investigación conductual multivariada . 50 (2): 233–247. doi :10.1080/00273171.2014.968836. PMID  26609880. S2CID  1532673.

enlaces externos