El análisis multivariado de covarianza ( MANCOVA ) es una extensión de los métodos de análisis de covarianza ( ANCOVA ) para cubrir casos en los que hay más de una variable dependiente y donde se requiere el control de variables independientes continuas concomitantes ( covariables ). El beneficio más destacado del diseño MANCOVA sobre el MANOVA simple es la "factorización" del ruido o error introducido por la covariante. [1] Una versión multivariada comúnmente utilizada del estadístico F ANOVA es la Lambda de Wilks (Λ), que representa la relación entre la varianza del error (o covarianza) y la varianza del efecto (o covarianza). [1]
De manera similar a todas las pruebas de la familia ANOVA , el objetivo principal de MANCOVA es probar diferencias significativas entre las medias de los grupos. [1] El proceso de caracterizar una covariable en una fuente de datos permite reducir la magnitud del término de error, representado en el diseño MANCOVA como error MS . Posteriormente, la Lambda de Wilks en general se hará más grande y será más probable que se caracterice como significativa. [1] Esto otorga al investigador más poder estadístico para detectar diferencias dentro de los datos. El aspecto multivariado del MANCOVA permite la caracterización de diferencias en las medias grupales con respecto a una combinación lineal de múltiples variables dependientes, mientras se controlan simultáneamente las covariables.
Situación de ejemplo en la que MANCOVA es apropiado: supongamos que un científico está interesado en probar dos nuevos medicamentos para determinar sus efectos sobre las puntuaciones de depresión y ansiedad. Supongamos también que el científico tiene información relativa a la respuesta general a los fármacos de cada paciente; tener en cuenta esta covariable otorgará a la prueba una mayor sensibilidad para determinar los efectos de cada fármaco en ambas variables dependientes.
Se deben cumplir ciertos supuestos para que MANCOVA se utilice adecuadamente:
Inspirado en ANOVA , MANOVA se basa en una generalización de la suma de cuadrados explicada por el modelo y la inversa de la suma de cuadrados no explicada por el modelo . Las estadísticas [6] [7] más comunes son resúmenes basados en las raíces (o valores propios ) de la matriz .
En estadística, una covariable representa una fuente de variación que no ha sido controlada en el experimento y se cree que afecta a la variable dependiente. [8] El objetivo de técnicas como ANCOVA es eliminar los efectos de dicha variación incontrolada, con el fin de aumentar el poder estadístico y garantizar una medición precisa de la verdadera relación entre las variables independientes y dependientes. [8]
Un ejemplo lo proporciona el análisis de la tendencia del nivel del mar realizado por Woodworth (1987). Aquí la variable dependiente (y la variable de mayor interés) fue el nivel medio anual del mar en un lugar determinado para el cual se disponía de una serie de valores anuales. La principal variable independiente fue el "tiempo". Se utilizó una "covariable" que consta de valores anuales de la presión atmosférica media anual al nivel del mar. Los resultados mostraron que la inclusión de la covariable permitió obtener mejores estimaciones de la tendencia en función del tiempo, en comparación con los análisis que omitieron la covariable.