stringtranslate.com

Moderación (estadísticas)

En estadística y análisis de regresión , la moderación (también conocida como modificación del efecto ) ocurre cuando la relación entre dos variables depende de una tercera variable. La tercera variable se conoce como variable moderadora (o modificadora de efecto ) o simplemente moderadora (o modificadora ). [1] [2] El efecto de una variable moderadora se caracteriza estadísticamente como una interacción ; [1] es decir, una variable categórica (por ejemplo, sexo, etnia, clase) o continua (por ejemplo, edad, nivel de recompensa) que está asociada con la dirección y/o magnitud de la relación entre variables dependientes e independientes . Específicamente dentro de un marco de análisis correlacional , un moderador es una tercera variable que afecta la correlación de orden cero entre otras dos variables, o el valor de la pendiente de la variable dependiente sobre la variable independiente. En términos de análisis de varianza (ANOVA), un efecto moderador básico se puede representar como una interacción entre una variable independiente focal y un factor que especifica las condiciones apropiadas para su operación. [3]

Ejemplo

Diagrama conceptual de un modelo de moderación simple en el que el efecto del antecedente focal (X) sobre el resultado (Y) está influenciado o depende de un moderador (W).
Un diagrama estadístico de un modelo de moderación simple.

El análisis de moderación en las ciencias del comportamiento implica el uso de análisis de regresión múltiple lineal o modelado causal . [1] Para cuantificar el efecto de una variable moderadora en análisis de regresión múltiple, haciendo una regresión de la variable aleatoria Y sobre X , se agrega un término adicional al modelo. Este término es la interacción entre X y la variable moderadora propuesta. [1]

Así, para una respuesta Y y dos variables x 1 y una variable moderadora x 2 ,:

En este caso, el papel de x 2 como variable moderadora se logra evaluando b 3 , la estimación del parámetro para el término de interacción. [1] Véase regresión lineal para un análisis de la evaluación estadística de estimaciones de parámetros en análisis de regresión.

Multicolinealidad en regresión moderada.

En el análisis de regresión moderado, se calcula un nuevo predictor de interacción ( ). Sin embargo, el nuevo término de interacción puede estar correlacionado con los dos términos de efectos principales utilizados para calcularlo. Éste es el problema de la multicolinealidad en la regresión moderada. La multicolinealidad tiende a hacer que los coeficientes se estimen con errores estándar más altos y, por tanto, con mayor incertidumbre.

Centrar la media (restar las puntuaciones brutas de la media) puede reducir la multicolinealidad, lo que da como resultado coeficientes de regresión más interpretables. [4] [5] Sin embargo, no afecta el ajuste general del modelo.

Sondeo post hoc de interacciones

Al igual que el análisis simple del efecto principal en ANOVA, en el sondeo post-hoc de interacciones en regresión, estamos examinando la pendiente simple de una variable independiente en los valores específicos de la otra variable independiente. A continuación se muestra un ejemplo de sondeo de interacciones bidireccionales. A continuación, la ecuación de regresión con dos variables A y B y un término de interacción A*B,

será considerado. [6]

Dos variables independientes categóricas

Si ambas variables independientes son variables categóricas, podemos analizar los resultados de la regresión para una variable independiente en un nivel específico de la otra variable independiente. Por ejemplo, supongamos que tanto A como B son variables únicas codificadas (0,1), y que A representa el origen étnico (0 = americanos europeos, 1 = asiáticos orientales) y B representa la condición en el estudio (0 = control, 1 = experimental). Luego, el efecto de interacción muestra si el efecto de la condición sobre la variable dependiente Y es diferente para los estadounidenses de origen europeo y los asiáticos orientales y si el efecto del estatus étnico es diferente para las dos condiciones. El coeficiente de A muestra el efecto étnico en Y para la condición de control, mientras que el coeficiente de B muestra el efecto de imponer la condición experimental a los participantes europeo-americanos.

Para comprobar si hay alguna diferencia significativa entre los estadounidenses de origen europeo y los asiáticos orientales en la condición experimental, simplemente podemos ejecutar el análisis con la variable de condición codificada de forma inversa (0 = experimental, 1 = control), de modo que el coeficiente de etnicidad represente el efecto étnico sobre Y en la condición experimental. De manera similar, si queremos ver si el tratamiento tiene un efecto para los participantes de Asia oriental, podemos codificar de manera inversa la variable étnica (0 = asiáticos orientales, 1 = americanos europeos).

Una variable independiente categórica y una continua

Un diagrama estadístico que representa un modelo de moderación con X como variable independiente multicategórica.

Si la primera variable independiente es una variable categórica (por ejemplo, género) y la segunda es una variable continua (por ejemplo, puntuaciones en la Escala de Satisfacción con la Vida (SWLS)), entonces b 1 representa la diferencia en la variable dependiente entre hombres y mujeres cuando la vida la satisfacción es cero. Sin embargo, una puntuación de cero en la Escala de Satisfacción con la Vida no tiene sentido ya que el rango de la puntuación es de 7 a 35. Aquí es donde entra en juego el centrado. Si restamos la media de la puntuación SWLS para la muestra de la puntuación de cada participante, la La media de la puntuación SWLS centrada resultante es cero. Cuando se vuelve a realizar el análisis, b 1 ahora representa la diferencia entre hombres y mujeres en el nivel medio de la puntuación SWLS de la muestra.

Un ejemplo de modelo de moderación conceptual con una variable independiente categórica y una continua.

Cohen y cols. (2003) recomendaron utilizar lo siguiente para probar el efecto simple del género en la variable dependiente ( Y ) en tres niveles de la variable independiente continua: alto (una desviación estándar por encima de la media), moderado (en la media) y bajo ( una desviación estándar por debajo de la media). [7] Si las puntuaciones de la variable continua no están estandarizadas, uno puede simplemente calcular estos tres valores sumando o restando una desviación estándar de las puntuaciones originales; Si las puntuaciones de la variable continua están estandarizadas, se pueden calcular los tres valores de la siguiente manera: alto = la puntuación estandarizada menos 1, moderado (media = 0), bajo = la puntuación estandarizada más 1. Luego se pueden explorar los efectos del género. en la variable dependiente ( Y ) en niveles alto, moderado y bajo de la puntuación SWLS. Al igual que con dos variables independientes categóricas, b 2 representa el efecto de la puntuación SWLS en la variable dependiente para las mujeres. Al codificar de manera inversa la variable de género, se puede obtener el efecto de la puntuación SWLS en la variable dependiente de los hombres.

Codificación en regresión moderada

Un diagrama estadístico que representa un modelo de moderación con W con tres niveles, como variable independiente multicategórica.

Cuando se tratan variables categóricas como grupos étnicos y tratamientos experimentales como variables independientes en regresión moderada, es necesario codificar las variables de modo que cada variable de código represente una configuración específica de la variable categórica. Hay tres formas básicas de codificación: codificación de variables ficticias, codificación de efectos y codificación de contraste. A continuación se muestra una introducción a estos sistemas de codificación. [8] [9]

La codificación ficticia se utiliza cuando se tiene un grupo de referencia o una condición en particular (por ejemplo, un grupo de control en el experimento) que se va a comparar con cada uno de los otros grupos experimentales. En este caso, el intercepto es la media del grupo de referencia y cada uno de los coeficientes de regresión no estandarizados es la diferencia en la variable dependiente entre uno de los grupos de tratamiento y la media del grupo de referencia (o grupo de control). Este sistema de codificación es similar al análisis ANOVA y es apropiado cuando los investigadores tienen un grupo de referencia específico y quieren comparar cada uno de los demás grupos con él.

La codificación de efectos se utiliza cuando no se tiene un grupo de comparación o control particular y no se tienen contrastes ortogonales planificados. La intersección es la gran media (la media de todas las condiciones). El coeficiente de regresión es la diferencia entre la media de un grupo y la media de todas las medias del grupo (por ejemplo, la media del grupo A menos la media de todos los grupos). Este sistema de codificación es apropiado cuando los grupos representan categorías naturales.

La codificación de contraste se utiliza cuando se tiene una serie de contrastes ortogonales o comparaciones de grupos que se van a investigar. En este caso, la intersección es la media no ponderada de las medias de los grupos individuales. El coeficiente de regresión no estandarizado representa la diferencia entre la media no ponderada de las medias de un grupo (A) y la media no ponderada de otro grupo (B), donde A y B son dos conjuntos de grupos en contraste. Este sistema de codificación es apropiado cuando los investigadores tienen una hipótesis a priori sobre las diferencias específicas entre las medias del grupo.

Dos variables independientes continuas

Un diagrama conceptual de un modelo de moderación múltiple aditivo.
Un ejemplo de un gráfico de efecto de interacción bidireccional

Si ambas variables independientes son continuas, es útil para la interpretación centrar o estandarizar las variables independientes , X y Z. (Centrar implica restar la puntuación media general de la muestra de la puntuación original; la estandarización hace lo mismo y luego se divide por la desviación estándar general de la muestra). Al centrar o estandarizar las variables independientes, el coeficiente de X o Z se puede interpretar como el efecto de esa variable en Y al nivel medio de la otra variable independiente. [10]

Para probar el efecto de interacción, suele ser útil representar gráficamente el efecto de X sobre Y en valores altos y bajos de Z (algunas personas prefieren representar también gráficamente el efecto en valores moderados de Z , pero esto no es necesario). A menudo se eligen para esto valores de Z que están una desviación estándar por encima y por debajo de la media, pero se puede utilizar cualquier valor sensato (y en algunos casos hay valores más significativos para elegir). La gráfica generalmente se dibuja evaluando los valores de Y para los valores altos y bajos de X y Z , y creando dos líneas para representar el efecto de X sobre Y en los dos valores de Z. A veces esto se complementa con un simple análisis de pendiente, que determina si el efecto de X sobre Y es estadísticamente significativo para valores particulares de  Z. Una técnica común para el análisis de pendientes simples es el enfoque de Johnson-Neyman. [11] Existen varias herramientas basadas en Internet para ayudar a los investigadores a trazar e interpretar dichas interacciones bidireccionales. [12]

Un diagrama conceptual de un modelo de moderación moderada, también conocido como interacción de tres vías.

Interacciones de nivel superior

Los principios para las interacciones bidireccionales se aplican cuando queremos explorar interacciones tripartitas o de nivel superior. Por ejemplo, si tenemos una interacción de tres vías entre A , B y C , la ecuación de regresión será la siguiente:

Efectos espurios de orden superior

Vale la pena señalar que la confiabilidad de los términos de orden superior depende de la confiabilidad de los términos de orden inferior. Por ejemplo, si la confiabilidad de la variable A es 0,70, la confiabilidad de la variable B es 0,80 y su correlación es r  = 0,2, entonces la confiabilidad de la variable de interacción A  *  B es . [13] En este caso, la baja confiabilidad del término de interacción conduce a un poder bajo; por lo tanto, es posible que no podamos encontrar los efectos de interacción entre A y B que realmente existen. La solución a este problema es utilizar medidas altamente confiables para cada variable independiente.

Otra advertencia para interpretar los efectos de la interacción es que cuando la variable A y la variable B están altamente correlacionadas, entonces el término A  *  B estará altamente correlacionado con la variable omitida A 2 ; en consecuencia, lo que parece ser un efecto de moderación significativo podría ser en realidad un efecto no lineal significativo de A solo. Si este es el caso, vale la pena probar un modelo de regresión no lineal agregando términos no lineales en variables individuales al análisis de regresión moderado para ver si las interacciones siguen siendo significativas. Si el efecto de interacción A * B sigue siendo significativo, estaremos más seguros al decir que efectivamente existe un efecto de moderación; sin embargo, si el efecto de interacción ya no es significativo después de agregar el término no lineal, estaremos menos seguros de la existencia de un efecto de moderación y se preferirá el modelo no lineal porque es más parsimonioso.

Los análisis de regresión moderados también tienden a incluir variables adicionales, que se conceptualizan como covariables sin interés. Sin embargo, la presencia de estas covariables puede inducir efectos espurios cuando (1) la covariable ( C ) está correlacionada con una de las principales variables de interés (por ejemplo, la variable A o B ), o (2) cuando la covariable misma es un moderador. de la correlación entre A o B con Y . [14] [15] [16] La solución es incluir términos de interacción adicionales en el modelo, para la interacción entre cada factor de confusión y las variables primarias de la siguiente manera:

Ver también

Referencias

  1. ^ abcde Cohen, Jacob; Cohen, Patricia; Leona S. Aiken ; Oeste, Stephen H. (2003). Análisis de correlación/regresión múltiple aplicado para las ciencias del comportamiento . Hillsdale, Nueva Jersey: L. Erlbaum Associates. ISBN 0-8058-2223-2.
  2. ^ Schandelmaier, Stefan; Briel, Matías; Varadhan, Ravi; Schmid, Christopher H.; Devasenapatía, Niveditha; Hayward, Rodney A.; Gagnier, Joel; Borenstein, Michael; van der Heijden, Geert JMG; Dahabreh, Issa J.; Sol, Xin; Sauerbrei, Willi; Walsh, Michael; Ioannidis, John PA; Thabane, Lehana (10 de agosto de 2020). "Desarrollo del Instrumento para evaluar la Credibilidad de los Análisis de Modificación del Efecto (ICEMAN) en metanálisis y ensayos controlados aleatorios". Revista de la Asociación Médica Canadiense . 192 (32): E901–E906. doi :10.1503/cmaj.200077. ISSN  0820-3946. PMC 7829020 . PMID  32778601. 
  3. ^ Barón, RM y Kenny, DA (1986). "La distinción de variable moderador-mediador en la investigación en psicología social: consideraciones conceptuales, estratégicas y estadísticas", Journal of Personality and Social Psychology , 5 (6), 1173-1182 (página 1174)
  4. ^ Iacobucci, amanecer; Schneider, Mateo J.; Popovich, Deidre L.; Bakamitsos, Georgios A. (2016). "El centrado medio ayuda a aliviar la multicolinealidad" micro "pero no la" macro "". Métodos de investigación del comportamiento . 48 (4): 1308-1317. doi : 10.3758/s13428-015-0624-x . ISSN  1554-3528. PMID  26148824.
  5. ^ Olvera Astivia, Óscar L.; Kroc, Eduardo (2019). "Centrar en regresión múltiple no siempre reduce la multicolinealidad: cómo saber cuándo sus estimaciones no se beneficiarán del centrado". Medición Educativa y Psicológica . 79 (5): 813–826. doi :10.1177/0013164418817801. ISSN  0013-1644. PMC 6713984 . PMID  31488914. 
  6. ^ Taylor, Alan. "Prueba e interpretación de interacciones en regresión: en pocas palabras" (PDF) .
  7. ^ Cohen Jacob; Cohen Patricia; Oeste Stephen G.; Aiken Leona S. Análisis de correlación/regresión múltiple aplicado a las ciencias del comportamiento (3. ed.). Mahwah, Nueva Jersey [ua]: Erlbaum. págs. 255–301. ISBN 0-8058-2223-2.
  8. ^ Aiken LS, Oeste., SG (1996). Interpretación y pruebas de regresión múltiple (1. edición impresa en rústica). Newbury Park, California [ua]: Sage Publications, Inc. ISBN 0-7619-0712-2.{{cite book}}: Mantenimiento CS1: varios nombres: lista de autores ( enlace )
  9. ^ Cohen Jacob; Cohen Patricia; Oeste Stephen G.; Aiken Leona S. (2003). Análisis de correlación/regresión múltiple aplicado para las ciencias del comportamiento (3. ed.). Mahwah, Nueva Jersey [ua]: Erlbaum. págs. 302–353. ISBN 0-8058-2223-2.
  10. ^ Dawson, JF (2013). Moderación en la investigación sobre gestión: qué, por qué, cuándo y cómo. Revista de Negocios y Psicología. doi :10.1007/s10869-013-9308-7.
  11. ^ Johnson, Palmer O.; Fay, Leo C. (1 de diciembre de 1950). "La técnica Johnson-Neyman, su teoría y aplicación". Psicometrika . 15 (4): 349–367. doi :10.1007/BF02288864. ISSN  1860-0980. PMID  14797902. S2CID  43748836.
  12. ^ "Interpretación de los efectos de la interacción".
  13. ^ Busemeyer, Jerome R.; Jones, Lawrence E. (1983). "Análisis de reglas de combinación multiplicativa cuando las variables causales se miden con error". Boletín Psicológico . 93 (3): 549–562. doi :10.1037/0033-2909.93.3.549. ISSN  1939-1455.
  14. ^ Keller, Mateo C. (2014). "Los estudios de interacción gen × ambiente no han controlado adecuadamente los posibles factores de confusión: el problema y la solución (simple)". Psiquiatría biológica . 75 (1): 18–24. doi :10.1016/j.biopsych.2013.09.006. PMC 3859520 . PMID  24135711. 
  15. ^ Yzerbyt, Vicente Y.; Müller, Dominique; Judd, Charles M. (2004). "Ajustar el enfoque de ajuste de los investigadores: sobre el uso de covariables al probar interacciones". Revista de Psicología Social Experimental . 40 (3): 424–431. doi :10.1016/j.jesp.2003.10.001.
  16. ^ Casco, Jay G.; Tedlie, Judith C.; Lehn, Daniel A. (1992). "Variables moderadoras en la investigación de la personalidad: el problema de controlar las alternativas plausibles". Boletín de Personalidad y Psicología Social . 18 (2): 115-117. doi :10.1177/0146167292182001. ISSN  0146-1672. S2CID  145366173.