La dilución de la regresión , también conocida como atenuación de la regresión , es el sesgo de la pendiente de la regresión lineal hacia cero (la subestimación de su valor absoluto), causado por errores en la variable independiente .
Considere ajustar una línea recta para la relación de una variable de resultado y con una variable predictora x y estimar la pendiente de la línea. La variabilidad estadística, el error de medición o el ruido aleatorio en la variable y causan incertidumbre en la pendiente estimada, pero no sesgo : en promedio, el procedimiento calcula la pendiente correcta. Sin embargo, la variabilidad, el error de medición o el ruido aleatorio en la variable x causan sesgo en la pendiente estimada (así como imprecisión). Cuanto mayor sea la varianza en la medición de x , más cerca debe estar la pendiente estimada de cero en lugar del valor verdadero.
Puede parecer contra-intuitivo que el ruido en la variable predictora x induzca un sesgo, pero el ruido en la variable de resultado y no lo haga. Recordemos que la regresión lineal no es simétrica: la línea de mejor ajuste para predecir y a partir de x (la regresión lineal habitual) no es la misma que la línea de mejor ajuste para predecir x a partir de y . [1]
La pendiente de regresión y otros coeficientes de regresión se pueden desatenuar de la siguiente manera.
El caso en que x es fijo, pero medido con ruido, se conoce como modelo funcional o relación funcional . [2] Se puede corregir utilizando mínimos cuadrados totales [3] y modelos de errores en las variables en general.
El caso en el que la variable x surge de manera aleatoria se conoce como modelo estructural o relación estructural . Por ejemplo, en un estudio médico, se reclutan pacientes como muestra de una población y sus características, como la presión arterial, pueden considerarse como derivadas de una muestra aleatoria .
Bajo ciertas suposiciones (típicamente, suposiciones de distribución normal ) existe una relación conocida entre la pendiente verdadera y la pendiente estimada esperada. Frost y Thompson (2000) revisan varios métodos para estimar esta relación y, por lo tanto, corregir la pendiente estimada. [4] El término relación de dilución de regresión , aunque no está definido de la misma manera por todos los autores, se utiliza para este enfoque general, en el que se ajusta la regresión lineal habitual y luego se aplica una corrección. La respuesta a Frost y Thompson por Longford (2001) remite al lector a otros métodos, ampliando el modelo de regresión para reconocer la variabilidad en la variable x, de modo que no surja ningún sesgo. [5] Fuller (1987) es una de las referencias estándar para evaluar y corregir la dilución de la regresión. [6]
Hughes (1993) muestra que los métodos de razón de dilución de regresión se aplican aproximadamente en modelos de supervivencia. [7] Rosner (1992) muestra que los métodos de razón se aplican aproximadamente a modelos de regresión logística. [8] Carroll et al. (1995) brindan más detalles sobre la dilución de regresión en modelos no lineales, presentando los métodos de razón de dilución de regresión como el caso más simple de métodos de calibración de regresión , en el que también se pueden incorporar covariables adicionales. [9]
En general, los métodos para el modelo estructural requieren alguna estimación de la variabilidad de la variable x. Esto requerirá mediciones repetidas de la variable x en los mismos individuos, ya sea en un subestudio del conjunto de datos principal o en un conjunto de datos separado. Sin esta información no será posible hacer una corrección.
El caso de múltiples variables predictoras sujetas a variabilidad (posiblemente correlacionadas ) ha sido bien estudiado para la regresión lineal y para algunos modelos de regresión no lineal. [6] [9] Otros modelos no lineales, como los modelos de riesgos proporcionales para el análisis de supervivencia , se han considerado solo con un único predictor sujeto a variabilidad. [7]
Charles Spearman desarrolló en 1904 un procedimiento para corregir correlaciones por dilución de regresión, [10] es decir, para "eliminar un coeficiente de correlación del efecto debilitador del error de medición ". [11]
En medición y estadística , el procedimiento también se denomina desatenuación de correlación o desatenuación de correlación . [12] La corrección asegura que el coeficiente de correlación de Pearson entre unidades de datos (por ejemplo, personas) entre dos conjuntos de variables se estime de una manera que tenga en cuenta el error contenido en la medición de esas variables. [13]
Sean y los valores verdaderos de dos atributos de alguna persona o unidad estadística . Estos valores son variables en virtud del supuesto de que difieren para diferentes unidades estadísticas en la población . Sean y estimaciones de y derivadas directamente por observación con error o de la aplicación de un modelo de medición, como el modelo de Rasch . Además, sea
donde y son los errores de medición asociados con las estimaciones y .
La correlación estimada entre dos conjuntos de estimaciones es
lo cual, asumiendo que los errores no están correlacionados entre sí y con los valores verdaderos de los atributos, da
donde es el índice de separación del conjunto de estimaciones de , que es análogo al alfa de Cronbach ; es decir, en términos de la teoría clásica de pruebas , es análogo a un coeficiente de fiabilidad. En concreto, el índice de separación se da de la siguiente manera:
donde el error estándar cuadrático medio de la estimación de la persona da una estimación de la varianza de los errores, . Los errores estándar se producen normalmente como un subproducto del proceso de estimación (véase estimación del modelo de Rasch ).
Por lo tanto, la estimación desatenuada de la correlación entre los dos conjuntos de estimaciones de parámetros es
Es decir, la estimación de correlación desatenuada se obtiene dividiendo la correlación entre las estimaciones por la media geométrica de los índices de separación de los dos conjuntos de estimaciones. Expresada en términos de la teoría clásica de pruebas, la correlación se divide por la media geométrica de los coeficientes de confiabilidad de dos pruebas.
Dadas dos variables aleatorias y medidas como y con correlación medida y una confiabilidad conocida para cada variable, y , la correlación estimada entre y corregida por atenuación es
La calidad con la que se miden las variables afecta la correlación de X e Y. La corrección por atenuación indica cuál es la correlación estimada que se espera si se pudiese medir X′ e Y′ con perfecta confiabilidad.
Por lo tanto, si y se toman como mediciones imperfectas de variables subyacentes y con errores independientes, entonces estima la correlación verdadera entre y .
En la inferencia estadística basada en coeficientes de regresión es necesaria una corrección por dilución de regresión . Sin embargo, en aplicaciones de modelado predictivo , la corrección no es necesaria ni apropiada. En la detección de cambios , la corrección es necesaria.
Para entender esto, considere el error de medición de la siguiente manera. Sea y la variable de resultado, x la verdadera variable predictora y w una observación aproximada de x . Frost y Thompson sugieren, por ejemplo, que x puede ser la presión arterial real a largo plazo de un paciente y w puede ser la presión arterial observada en una visita clínica particular. [4] La dilución de regresión surge si estamos interesados en la relación entre y y x , pero estimamos la relación entre y y w . Debido a que w se mide con variabilidad, la pendiente de una línea de regresión de y sobre w es menor que la línea de regresión de y sobre x . Los métodos estándar pueden ajustar una regresión de y sobre w sin sesgo. Solo hay sesgo si luego usamos la regresión de y sobre w como una aproximación a la regresión de y sobre x. En el ejemplo, suponiendo que las mediciones de presión arterial son igualmente variables en futuros pacientes, nuestra línea de regresión de y sobre w (presión arterial observada) da predicciones no sesgadas.
Un ejemplo de una circunstancia en la que se desea una corrección es la predicción de un cambio. Supongamos que se conoce el cambio en x bajo alguna nueva circunstancia: para estimar el cambio probable en una variable de resultado y , se necesita la pendiente de la regresión de y sobre x , no y sobre w . Esto surge en epidemiología . Para continuar con el ejemplo en el que x denota la presión arterial, tal vez un ensayo clínico a gran escala haya proporcionado una estimación del cambio en la presión arterial bajo un nuevo tratamiento; entonces, el posible efecto sobre y , bajo el nuevo tratamiento, debería estimarse a partir de la pendiente en la regresión de y sobre x .
Otra circunstancia es la modelización predictiva en la que las observaciones futuras también son variables, pero no (en la frase utilizada anteriormente) "similarmente variables". Por ejemplo, si el conjunto de datos actual incluye la presión arterial medida con mayor precisión de lo que es habitual en la práctica clínica. Un ejemplo específico de esto surgió al desarrollar una ecuación de regresión basada en un ensayo clínico, en el que la presión arterial era el promedio de seis mediciones, para su uso en la práctica clínica, donde la presión arterial suele ser una única medición. [14]
Todos estos resultados se pueden demostrar matemáticamente, en el caso de una regresión lineal simple asumiendo distribuciones normales en todas partes (el marco de Frost y Thompson).
Se ha discutido que una corrección mal ejecutada para la dilución de la regresión, en particular cuando se realiza sin verificar los supuestos subyacentes, puede causar más daño a una estimación que ninguna corrección. [15]
Spearman (1904) mencionó por primera vez la dilución de la regresión bajo el nombre de atenuación . [16] Aquellos que busquen un tratamiento matemático legible podrían comenzar con Frost y Thompson (2000). [4]