stringtranslate.com

Moderación (estadísticas)

En estadística y análisis de regresión , la moderación (también conocida como modificación del efecto ) ocurre cuando la relación entre dos variables depende de una tercera variable. La tercera variable se denomina variable moderadora (o modificadora del efecto ) o simplemente moderador (o modificador ). [1] [2] El efecto de una variable moderadora se caracteriza estadísticamente como una interacción ; [1] es decir, una variable categórica (p. ej., sexo, etnia, clase) o continua (p. ej., edad, nivel de recompensa) que está asociada con la dirección y/o magnitud de la relación entre las variables dependientes e independientes . Específicamente dentro de un marco de análisis correlacional , un moderador es una tercera variable que afecta la correlación de orden cero entre otras dos variables, o el valor de la pendiente de la variable dependiente sobre la variable independiente. En términos de análisis de varianza (ANOVA), un efecto moderador básico puede representarse como una interacción entre una variable independiente focal y un factor que especifica las condiciones apropiadas para su funcionamiento. [3]

Ejemplo

Diagrama conceptual de un modelo de moderación simple en el que el efecto del antecedente focal (X) sobre el resultado (Y) está influenciado o depende de un moderador (W).
Un diagrama estadístico de un modelo de moderación simple.

El análisis de moderación en las ciencias del comportamiento implica el uso de análisis de regresión múltiple lineal o modelado causal . [1] Para cuantificar el efecto de una variable moderadora en análisis de regresión múltiple, haciendo una regresión de la variable aleatoria Y sobre X , se agrega un término adicional al modelo. Este término es la interacción entre X y la variable moderadora propuesta. [1]

Así, para una respuesta Y y dos variables x 1 y variable moderadora x 2 ,:

En este caso, el papel de x 2 como variable moderadora se logra evaluando b 3 , la estimación del parámetro para el término de interacción. [1] Véase regresión lineal para una discusión de la evaluación estadística de las estimaciones de parámetros en los análisis de regresión.

Multicolinealidad en regresión moderada

En el análisis de regresión moderada, se calcula un nuevo predictor de interacción ( ). Sin embargo, el nuevo término de interacción puede estar correlacionado con los dos términos de efectos principales utilizados para calcularlo. Este es el problema de la multicolinealidad en la regresión moderada. La multicolinealidad tiende a hacer que los coeficientes se estimen con errores estándar más altos y, por lo tanto, con mayor incertidumbre.

El centrado en la media (restar las puntuaciones brutas de la media) puede reducir la multicolinealidad, lo que da como resultado coeficientes de regresión más interpretables. [4] [5] Sin embargo, no afecta el ajuste general del modelo.

Investigación post hoc de interacciones

Al igual que el análisis de efectos principales simple en ANOVA, en el sondeo post-hoc de interacciones en regresión, examinamos la pendiente simple de una variable independiente en los valores específicos de la otra variable independiente. A continuación se muestra un ejemplo de sondeo de interacciones bidireccionales. En lo que sigue, la ecuación de regresión con dos variables A y B y un término de interacción A*B,

Se considerarán. [6]

Dos variables independientes categóricas

Si ambas variables independientes son variables categóricas, podemos analizar los resultados de la regresión para una variable independiente en un nivel específico de la otra variable independiente. Por ejemplo, supongamos que tanto A como B son variables con codificación ficticia simple (0,1), y que A representa la etnia (0 = euroamericanos, 1 = asiáticos orientales) y B representa la condición en el estudio (0 = control, 1 = experimental). Entonces, el efecto de interacción muestra si el efecto de la condición en la variable dependiente Y es diferente para los euroamericanos y los asiáticos orientales y si el efecto del estado étnico es diferente para las dos condiciones. El coeficiente de A muestra el efecto de la etnia en Y para la condición de control, mientras que el coeficiente de B muestra el efecto de imponer la condición experimental para los participantes euroamericanos.

Para comprobar si hay alguna diferencia significativa entre los euroamericanos y los asiáticos orientales en la condición experimental, podemos simplemente ejecutar el análisis con la variable de condición codificada de forma inversa (0 = experimental, 1 = control), de modo que el coeficiente de etnicidad represente el efecto de la etnicidad en Y en la condición experimental. De manera similar, si queremos ver si el tratamiento tiene un efecto en los participantes de Asia oriental, podemos codificar de forma inversa la variable de etnicidad (0 = asiáticos orientales, 1 = euroamericanos).

Una variable independiente categórica y una continua

Un diagrama estadístico que representa un modelo de moderación con X como variable independiente multicategórica.

Si la primera variable independiente es una variable categórica (por ejemplo, el género) y la segunda es una variable continua (por ejemplo, las puntuaciones en la Escala de satisfacción con la vida (SWLS)), entonces b 1 representa la diferencia en la variable dependiente entre hombres y mujeres cuando la satisfacción con la vida es cero. Sin embargo, una puntuación de cero en la Escala de satisfacción con la vida no tiene sentido ya que el rango de la puntuación va de 7 a 35. Aquí es donde entra en juego el centrado. Si restamos la media de la puntuación SWLS para la muestra de la puntuación de cada participante, la media de la puntuación SWLS centrada resultante es cero. Cuando se vuelve a ejecutar el análisis, b 1 ahora representa la diferencia entre hombres y mujeres en el nivel medio de la puntuación SWLS de la muestra.

Un ejemplo de modelo de moderación conceptual con una variable independiente categórica y una continua.

Cohen et al. (2003) recomendaron utilizar lo siguiente para investigar el efecto simple del género en la variable dependiente ( Y ) en tres niveles de la variable independiente continua: alto (una desviación estándar por encima de la media), moderado (en la media) y bajo (una desviación estándar por debajo de la media). [7] Si las puntuaciones de la variable continua no están estandarizadas, uno puede simplemente calcular estos tres valores sumando o restando una desviación estándar de las puntuaciones originales; si las puntuaciones de la variable continua están estandarizadas, uno puede calcular los tres valores de la siguiente manera: alto = la puntuación estandarizada menos 1, moderado (media = 0), bajo = la puntuación estandarizada más 1. Luego uno puede explorar los efectos del género en la variable dependiente ( Y ) en niveles alto, moderado y bajo de la puntuación SWLS. Al igual que con dos variables independientes categóricas, b 2 representa el efecto de la puntuación SWLS en la variable dependiente para mujeres. Al codificar de forma inversa la variable género, uno puede obtener el efecto de la puntuación SWLS en la variable dependiente para hombres.

Codificación en regresión moderada

Diagrama estadístico que representa un modelo de moderación con W con tres niveles, como variable independiente multicategórica.

Al tratar variables categóricas como grupos étnicos y tratamientos experimentales como variables independientes en una regresión moderada, es necesario codificar las variables de modo que cada variable de código represente un entorno específico de la variable categórica. Existen tres formas básicas de codificación: codificación de variables ficticias, codificación de efectos y codificación de contraste. A continuación se presenta una introducción a estos sistemas de codificación. [8] [9]

La codificación ficticia se utiliza cuando se tiene un grupo de referencia o una condición en particular (por ejemplo, un grupo de control en el experimento) que se va a comparar con cada uno de los otros grupos experimentales. En este caso, la intersección es la media del grupo de referencia y cada uno de los coeficientes de regresión no estandarizados es la diferencia en la variable dependiente entre uno de los grupos de tratamiento y la media del grupo de referencia (o grupo de control). Este sistema de codificación es similar al análisis ANOVA y es adecuado cuando los investigadores tienen un grupo de referencia específico y quieren comparar cada uno de los otros grupos con él.

La codificación de efectos se utiliza cuando no se tiene un grupo de comparación o de control en particular y no se han planificado contrastes ortogonales. La intersección es la media general (la media de todas las condiciones). El coeficiente de regresión es la diferencia entre la media de un grupo y la media de todas las medias de los grupos (por ejemplo, la media del grupo A menos la media de todos los grupos). Este sistema de codificación es adecuado cuando los grupos representan categorías naturales.

La codificación de contraste se utiliza cuando se tiene una serie de contrastes ortogonales o comparaciones de grupos que se van a investigar. En este caso, la intersección es la media no ponderada de las medias de los grupos individuales. El coeficiente de regresión no estandarizado representa la diferencia entre la media no ponderada de las medias de un grupo (A) y la media no ponderada de otro grupo (B), donde A y B son dos conjuntos de grupos en el contraste. Este sistema de codificación es adecuado cuando los investigadores tienen una hipótesis a priori sobre las diferencias específicas entre las medias de los grupos.

Dos variables independientes continuas

Diagrama conceptual de un modelo aditivo de moderación múltiple
Un ejemplo de un gráfico de efectos de interacción bidireccional

Si ambas variables independientes son continuas, resulta útil para la interpretación centrar o estandarizar las variables independientes, X y Z. (Centrar implica restar la puntuación media general de la muestra de la puntuación original; estandarizar hace lo mismo seguido de dividir por la desviación estándar general de la muestra). Al centrar o estandarizar las variables independientes, el coeficiente de X o Z se puede interpretar como el efecto de esa variable sobre Y en el nivel medio de la otra variable independiente. [10]

Para investigar el efecto de la interacción, a menudo es útil representar gráficamente el efecto de X sobre Y en valores bajos y altos de Z (algunas personas prefieren representar gráficamente también el efecto en valores moderados de Z , pero esto no es necesario). A menudo, para esto se eligen valores de Z que están una desviación estándar por encima y por debajo de la media, pero se puede utilizar cualquier valor sensato (y en algunos casos hay valores más significativos para elegir). El gráfico se dibuja generalmente evaluando los valores de Y para valores altos y bajos tanto de X como de Z , y creando dos líneas para representar el efecto de X sobre Y en los dos valores de Z. A veces, esto se complementa con un análisis de pendiente simple, que determina si el efecto de X sobre Y es estadísticamente significativo en valores particulares de  Z. Una técnica común para el análisis de pendiente simple es el enfoque Johnson-Neyman. [11] Existen varias herramientas basadas en Internet para ayudar a los investigadores a representar gráficamente e interpretar dichas interacciones bidireccionales. [12]

Un diagrama conceptual de un modelo de moderación moderado, también conocido como interacción de tres vías.

Interacciones de nivel superior

Los principios de las interacciones bidireccionales se aplican cuando queremos explorar interacciones de tres vías o de nivel superior. Por ejemplo, si tenemos una interacción de tres vías entre A , B y C , la ecuación de regresión será la siguiente:

Efectos espurios de orden superior

Cabe señalar que la confiabilidad de los términos de orden superior depende de la confiabilidad de los términos de orden inferior. Por ejemplo, si la confiabilidad de la variable A es 0,70, la confiabilidad de la variable B es 0,80 y su correlación es r  = 0,2, entonces la confiabilidad de la variable de interacción A  *  B es . [13] En este caso, la baja confiabilidad del término de interacción conduce a una baja potencia; por lo tanto, es posible que no podamos encontrar los efectos de interacción entre A y B que realmente existen. La solución para este problema es utilizar medidas altamente confiables para cada variable independiente.

Otra advertencia para interpretar los efectos de interacción es que cuando la variable A y la variable B están altamente correlacionadas, entonces el término A  *  B estará altamente correlacionado con la variable omitida A 2 ; en consecuencia, lo que parece ser un efecto de moderación significativo podría ser en realidad un efecto no lineal significativo de A solo. Si este es el caso, vale la pena probar un modelo de regresión no lineal agregando términos no lineales en variables individuales en el análisis de regresión moderada para ver si las interacciones siguen siendo significativas. Si el efecto de interacción A * B todavía es significativo, estaremos más seguros de decir que efectivamente hay un efecto de moderación; sin embargo, si el efecto de interacción ya no es significativo después de agregar el término no lineal, estaremos menos seguros acerca de la existencia de un efecto de moderación y se preferirá el modelo no lineal porque es más parsimonioso.

Los análisis de regresión moderada también tienden a incluir variables adicionales, que se conceptualizan como covariables sin interés. Sin embargo, la presencia de estas covariables puede inducir efectos espurios cuando (1) la covariable ( C ) está correlacionada con una de las variables primarias de interés (por ejemplo, variable A o B ), o (2) cuando la covariable en sí misma es un moderador de la correlación entre A o B con Y . [14] [15] [16] La solución es incluir términos de interacción adicionales en el modelo, para la interacción entre cada factor de confusión y las variables primarias de la siguiente manera:

Véase también

Referencias

  1. ^ abcde Cohen, Jacob; Cohen, Patricia; Leona S. Aiken ; West, Stephen H. (2003). Análisis de correlación/regresión múltiple aplicado a las ciencias del comportamiento . Hillsdale, NJ: L. Erlbaum Associates. ISBN 0-8058-2223-2.
  2. ^ Schandelmaier, Stefan; Briel, Matthias; Varadhan, Ravi; Schmid, Christopher H.; Devasenapathy, Niveditha; Hayward, Rodney A.; Gagnier, Joel; Borenstein, Michael; van der Heijden, Geert JMG; Dahabreh, Issa J.; Sun, Xin; Sauerbrei, Willi; Walsh, Michael; Ioannidis, John PA; Thabane, Lehana (10 de agosto de 2020). "Desarrollo del instrumento para evaluar la credibilidad de los análisis de modificación de efectos (ICEMAN) en ensayos controlados aleatorios y metanálisis". Revista de la Asociación Médica Canadiense . 192 (32): E901–E906. doi :10.1503/cmaj.200077. ISSN  0820-3946. PMC 7829020 . Número de modelo:  PMID32778601. 
  3. ^ Baron, RM y Kenny, DA (1986). "La distinción entre variables moderadoras y mediadoras en la investigación en psicología social: consideraciones conceptuales, estratégicas y estadísticas", Journal of Personality and Social Psychology , 5 (6), 1173–1182 (página 1174)
  4. ^ Iacobucci, amanecer; Schneider, Mateo J.; Popovich, Deidre L.; Bakamitsos, Georgios A. (2016). "El centrado medio ayuda a aliviar la multicolinealidad" micro "pero no la" macro "". Métodos de investigación del comportamiento . 48 (4): 1308-1317. doi : 10.3758/s13428-015-0624-x . ISSN  1554-3528. PMID  26148824.
  5. ^ Olvera Astivia, Oscar L.; Kroc, Edward (2019). "El centrado en la regresión múltiple no siempre reduce la multicolinealidad: cómo saber cuándo sus estimaciones no se beneficiarán del centrado". Medición educativa y psicológica . 79 (5): 813–826. doi :10.1177/0013164418817801. ISSN  0013-1644. PMC 6713984 . PMID  31488914. 
  6. ^ Taylor, Alan. "Prueba e interpretación de interacciones en regresión: en pocas palabras" (PDF) .
  7. ^ Cohen Jacob; Cohen Patricia; West Stephen G.; Aiken Leona S. Análisis de correlación/regresión múltiple aplicado a las ciencias del comportamiento (3.ª ed.). Mahwah, NJ [ua]: Erlbaum. págs. 255–301. ISBN 0-8058-2223-2.
  8. ^ Aiken LS, West., SG (1996). Pruebas e interpretación de regresión múltiple (1.ª edición impresa en rústica). Newbury Park, California [ua]: Sage Publications, Inc. ISBN 0-7619-0712-2.{{cite book}}: CS1 maint: varios nombres: lista de autores ( enlace )
  9. ^ Cohen Jacob; Cohen Patricia; West Stephen G.; Aiken Leona S. (2003). Análisis de correlación/regresión múltiple aplicado a las ciencias del comportamiento (3.ª ed.). Mahwah, NJ [ua]: Erlbaum. pp. 302–353. ISBN 0-8058-2223-2.
  10. ^ Dawson, JF (2013). Moderación en la investigación en gestión: qué, por qué, cuándo y cómo. Journal of Business and Psychology. doi :10.1007/s10869-013-9308-7.
  11. ^ Johnson, Palmer O.; Fay, Leo C. (1950-12-01). "La técnica Johnson-Neyman, su teoría y aplicación". Psychometrika . 15 (4): 349–367. doi :10.1007/BF02288864. ISSN  1860-0980. PMID  14797902. S2CID  43748836.
  12. ^ "Interpretación de los efectos de interacción".
  13. ^ Busemeyer, Jerome R.; Jones, Lawrence E. (1983). "Análisis de reglas de combinación multiplicativa cuando las variables causales se miden con error". Psychological Bulletin . 93 (3): 549–562. doi :10.1037/0033-2909.93.3.549. ISSN  1939-1455.
  14. ^ Keller, Matthew C. (2014). "Los estudios sobre la interacción entre genes y ambiente no han controlado adecuadamente los posibles factores de confusión: el problema y la solución (simple)". Psiquiatría biológica . 75 (1): 18–24. doi :10.1016/j.biopsych.2013.09.006. PMC 3859520 . PMID  24135711. 
  15. ^ Yzerbyt, Vincent Y.; Muller, Dominique; Judd, Charles M. (2004). "Aproximación de los investigadores al ajuste: sobre el uso de covariables al probar interacciones". Revista de Psicología Social Experimental . 40 (3): 424–431. doi :10.1016/j.jesp.2003.10.001.
  16. ^ Hull, Jay G.; Tedlie, Judith C.; Lehn, Daniel A. (1992). "Variables moderadoras en la investigación de la personalidad: el problema de controlar alternativas plausibles". Boletín de personalidad y psicología social . 18 (2): 115–117. doi :10.1177/0146167292182001. ISSN  0146-1672. S2CID  145366173.