En estadística y análisis de regresión , la moderación (también conocida como modificación del efecto ) ocurre cuando la relación entre dos variables depende de una tercera variable. La tercera variable se conoce como variable moderadora (o modificadora de efecto ) o simplemente moderadora (o modificadora ). [1] [2] El efecto de una variable moderadora se caracteriza estadísticamente como una interacción ; [1] es decir, una variable categórica (por ejemplo, sexo, etnia, clase) o continua (por ejemplo, edad, nivel de recompensa) que está asociada con la dirección y/o magnitud de la relación entre variables dependientes e independientes . Específicamente dentro de un marco de análisis correlacional , un moderador es una tercera variable que afecta la correlación de orden cero entre otras dos variables, o el valor de la pendiente de la variable dependiente sobre la variable independiente. En términos de análisis de varianza (ANOVA), un efecto moderador básico se puede representar como una interacción entre una variable independiente focal y un factor que especifica las condiciones apropiadas para su operación. [3]
El análisis de moderación en las ciencias del comportamiento implica el uso de análisis de regresión múltiple lineal o modelado causal . [1] Para cuantificar el efecto de una variable moderadora en análisis de regresión múltiple, haciendo una regresión de la variable aleatoria Y sobre X , se agrega un término adicional al modelo. Este término es la interacción entre X y la variable moderadora propuesta. [1]
Así, para una respuesta Y y dos variables x 1 y una variable moderadora x 2 ,:
En este caso, el papel de x 2 como variable moderadora se logra evaluando b 3 , la estimación del parámetro para el término de interacción. [1] Véase regresión lineal para un análisis de la evaluación estadística de estimaciones de parámetros en análisis de regresión.
En el análisis de regresión moderado, se calcula un nuevo predictor de interacción ( ). Sin embargo, el nuevo término de interacción puede estar correlacionado con los dos términos de efectos principales utilizados para calcularlo. Éste es el problema de la multicolinealidad en la regresión moderada. La multicolinealidad tiende a hacer que los coeficientes se estimen con errores estándar más altos y, por tanto, con mayor incertidumbre.
Centrar la media (restar las puntuaciones brutas de la media) puede reducir la multicolinealidad, lo que da como resultado coeficientes de regresión más interpretables. [4] [5] Sin embargo, no afecta el ajuste general del modelo.
Al igual que el análisis simple del efecto principal en ANOVA, en el sondeo post-hoc de interacciones en regresión, estamos examinando la pendiente simple de una variable independiente en los valores específicos de la otra variable independiente. A continuación se muestra un ejemplo de sondeo de interacciones bidireccionales. A continuación, la ecuación de regresión con dos variables A y B y un término de interacción A*B,
será considerado. [6]
Si ambas variables independientes son variables categóricas, podemos analizar los resultados de la regresión para una variable independiente en un nivel específico de la otra variable independiente. Por ejemplo, supongamos que tanto A como B son variables únicas codificadas (0,1), y que A representa el origen étnico (0 = americanos europeos, 1 = asiáticos orientales) y B representa la condición en el estudio (0 = control, 1 = experimental). Luego, el efecto de interacción muestra si el efecto de la condición sobre la variable dependiente Y es diferente para los estadounidenses de origen europeo y los asiáticos orientales y si el efecto del estatus étnico es diferente para las dos condiciones. El coeficiente de A muestra el efecto étnico en Y para la condición de control, mientras que el coeficiente de B muestra el efecto de imponer la condición experimental a los participantes europeo-americanos.
Para comprobar si hay alguna diferencia significativa entre los estadounidenses de origen europeo y los asiáticos orientales en la condición experimental, simplemente podemos ejecutar el análisis con la variable de condición codificada de forma inversa (0 = experimental, 1 = control), de modo que el coeficiente de etnicidad represente el efecto étnico sobre Y en la condición experimental. De manera similar, si queremos ver si el tratamiento tiene un efecto para los participantes de Asia oriental, podemos codificar de manera inversa la variable étnica (0 = asiáticos orientales, 1 = americanos europeos).
Si la primera variable independiente es una variable categórica (por ejemplo, género) y la segunda es una variable continua (por ejemplo, puntuaciones en la Escala de Satisfacción con la Vida (SWLS)), entonces b 1 representa la diferencia en la variable dependiente entre hombres y mujeres cuando la vida la satisfacción es cero. Sin embargo, una puntuación de cero en la Escala de Satisfacción con la Vida no tiene sentido ya que el rango de la puntuación es de 7 a 35. Aquí es donde entra en juego el centrado. Si restamos la media de la puntuación SWLS para la muestra de la puntuación de cada participante, la La media de la puntuación SWLS centrada resultante es cero. Cuando se vuelve a realizar el análisis, b 1 ahora representa la diferencia entre hombres y mujeres en el nivel medio de la puntuación SWLS de la muestra.
Cohen y cols. (2003) recomendaron utilizar lo siguiente para probar el efecto simple del género en la variable dependiente ( Y ) en tres niveles de la variable independiente continua: alto (una desviación estándar por encima de la media), moderado (en la media) y bajo ( una desviación estándar por debajo de la media). [7] Si las puntuaciones de la variable continua no están estandarizadas, uno puede simplemente calcular estos tres valores sumando o restando una desviación estándar de las puntuaciones originales; Si las puntuaciones de la variable continua están estandarizadas, se pueden calcular los tres valores de la siguiente manera: alto = la puntuación estandarizada menos 1, moderado (media = 0), bajo = la puntuación estandarizada más 1. Luego se pueden explorar los efectos del género. en la variable dependiente ( Y ) en niveles alto, moderado y bajo de la puntuación SWLS. Al igual que con dos variables independientes categóricas, b 2 representa el efecto de la puntuación SWLS en la variable dependiente para las mujeres. Al codificar de manera inversa la variable de género, se puede obtener el efecto de la puntuación SWLS en la variable dependiente de los hombres.
Cuando se tratan variables categóricas como grupos étnicos y tratamientos experimentales como variables independientes en regresión moderada, es necesario codificar las variables de modo que cada variable de código represente una configuración específica de la variable categórica. Hay tres formas básicas de codificación: codificación de variables ficticias, codificación de efectos y codificación de contraste. A continuación se muestra una introducción a estos sistemas de codificación. [8] [9]
La codificación ficticia se utiliza cuando se tiene un grupo de referencia o una condición en particular (por ejemplo, un grupo de control en el experimento) que se va a comparar con cada uno de los otros grupos experimentales. En este caso, el intercepto es la media del grupo de referencia y cada uno de los coeficientes de regresión no estandarizados es la diferencia en la variable dependiente entre uno de los grupos de tratamiento y la media del grupo de referencia (o grupo de control). Este sistema de codificación es similar al análisis ANOVA y es apropiado cuando los investigadores tienen un grupo de referencia específico y quieren comparar cada uno de los demás grupos con él.
La codificación de efectos se utiliza cuando no se tiene un grupo de comparación o control particular y no se tienen contrastes ortogonales planificados. La intersección es la gran media (la media de todas las condiciones). El coeficiente de regresión es la diferencia entre la media de un grupo y la media de todas las medias del grupo (por ejemplo, la media del grupo A menos la media de todos los grupos). Este sistema de codificación es apropiado cuando los grupos representan categorías naturales.
La codificación de contraste se utiliza cuando se tiene una serie de contrastes ortogonales o comparaciones de grupos que se van a investigar. En este caso, la intersección es la media no ponderada de las medias de los grupos individuales. El coeficiente de regresión no estandarizado representa la diferencia entre la media no ponderada de las medias de un grupo (A) y la media no ponderada de otro grupo (B), donde A y B son dos conjuntos de grupos en contraste. Este sistema de codificación es apropiado cuando los investigadores tienen una hipótesis a priori sobre las diferencias específicas entre las medias del grupo.
Si ambas variables independientes son continuas, es útil para la interpretación centrar o estandarizar las variables independientes , X y Z. (Centrar implica restar la puntuación media general de la muestra de la puntuación original; la estandarización hace lo mismo y luego se divide por la desviación estándar general de la muestra). Al centrar o estandarizar las variables independientes, el coeficiente de X o Z se puede interpretar como el efecto de esa variable en Y al nivel medio de la otra variable independiente. [10]
Para probar el efecto de interacción, suele ser útil representar gráficamente el efecto de X sobre Y en valores altos y bajos de Z (algunas personas prefieren representar también gráficamente el efecto en valores moderados de Z , pero esto no es necesario). A menudo se eligen para esto valores de Z que están una desviación estándar por encima y por debajo de la media, pero se puede utilizar cualquier valor sensato (y en algunos casos hay valores más significativos para elegir). La gráfica generalmente se dibuja evaluando los valores de Y para los valores altos y bajos de X y Z , y creando dos líneas para representar el efecto de X sobre Y en los dos valores de Z. A veces esto se complementa con un simple análisis de pendiente, que determina si el efecto de X sobre Y es estadísticamente significativo para valores particulares de Z. Una técnica común para el análisis de pendientes simples es el enfoque de Johnson-Neyman. [11] Existen varias herramientas basadas en Internet para ayudar a los investigadores a trazar e interpretar dichas interacciones bidireccionales. [12]
Los principios para las interacciones bidireccionales se aplican cuando queremos explorar interacciones tripartitas o de nivel superior. Por ejemplo, si tenemos una interacción de tres vías entre A , B y C , la ecuación de regresión será la siguiente:
Vale la pena señalar que la confiabilidad de los términos de orden superior depende de la confiabilidad de los términos de orden inferior. Por ejemplo, si la confiabilidad de la variable A es 0,70, la confiabilidad de la variable B es 0,80 y su correlación es r = 0,2, entonces la confiabilidad de la variable de interacción A * B es . [13] En este caso, la baja confiabilidad del término de interacción conduce a un poder bajo; por lo tanto, es posible que no podamos encontrar los efectos de interacción entre A y B que realmente existen. La solución a este problema es utilizar medidas altamente confiables para cada variable independiente.
Otra advertencia para interpretar los efectos de la interacción es que cuando la variable A y la variable B están altamente correlacionadas, entonces el término A * B estará altamente correlacionado con la variable omitida A 2 ; en consecuencia, lo que parece ser un efecto de moderación significativo podría ser en realidad un efecto no lineal significativo de A solo. Si este es el caso, vale la pena probar un modelo de regresión no lineal agregando términos no lineales en variables individuales al análisis de regresión moderado para ver si las interacciones siguen siendo significativas. Si el efecto de interacción A * B sigue siendo significativo, estaremos más seguros al decir que efectivamente existe un efecto de moderación; sin embargo, si el efecto de interacción ya no es significativo después de agregar el término no lineal, estaremos menos seguros de la existencia de un efecto de moderación y se preferirá el modelo no lineal porque es más parsimonioso.
Los análisis de regresión moderados también tienden a incluir variables adicionales, que se conceptualizan como covariables sin interés. Sin embargo, la presencia de estas covariables puede inducir efectos espurios cuando (1) la covariable ( C ) está correlacionada con una de las principales variables de interés (por ejemplo, la variable A o B ), o (2) cuando la covariable misma es un moderador. de la correlación entre A o B con Y . [14] [15] [16] La solución es incluir términos de interacción adicionales en el modelo, para la interacción entre cada factor de confusión y las variables primarias de la siguiente manera:
{{cite book}}
: Mantenimiento CS1: varios nombres: lista de autores ( enlace )