La regresión de Deming es equivalente a la estimación de máxima verosimilitud de un modelo de errores en variables en el que se supone que los errores de las dos variables son independientes y están distribuidos normalmente , y se conoce la relación de sus varianzas, denotada como δ . [1] En la práctica, esta relación podría estimarse a partir de fuentes de datos relacionadas; sin embargo, el procedimiento de regresión no tiene en cuenta posibles errores al estimar esta relación.
La regresión de Deming es sólo ligeramente más difícil de calcular que la regresión lineal simple . La mayoría de los paquetes de software estadístico utilizados en química clínica ofrecen regresión de Deming.
El modelo fue introducido originalmente por Adcock (1878), quien consideró el caso δ = 1, y luego, de manera más general, por Kummell (1879) con δ arbitrario . Sin embargo, sus ideas pasaron desapercibidas durante más de 50 años, hasta que fueron revividas por Koopmans (1936) y luego propagadas aún más por Deming (1943). Este último libro se hizo tan popular en la química clínica y campos relacionados que el método incluso fue denominado regresión de Deming en esos campos. [2]
Especificación
Supongamos que los datos disponibles ( y i , x i ) son observaciones medidas de los valores "verdaderos" ( y i * , x i * ), que se encuentran en la línea de regresión:
donde los errores ε y η son independientes y se supone que se conoce la relación de sus varianzas:
En la práctica, las varianzas de los parámetros y a menudo se desconocen, lo que complica la estimación de . Tenga en cuenta que cuando el método de medición para y es el mismo, es probable que estas variaciones sean iguales, en este caso.
Buscamos encontrar la línea de “mejor ajuste”
tal que se minimice la suma ponderada de los residuos cuadrados del modelo: [3]
Véase Jensen (2007) para una derivación completa.
Solución
La solución se puede expresar en términos de momentos muestrales de segundo grado. Es decir, primero calculamos las siguientes cantidades (todas las sumas van desde i = 1 hasta n ):
Finalmente, las estimaciones de mínimos cuadrados de los parámetros del modelo serán [4]
regresión ortogonal
Para el caso de varianzas de error iguales, es decir, cuando , la regresión de Deming se convierte en regresión ortogonal : minimiza la suma de las distancias perpendiculares al cuadrado desde los puntos de datos hasta la línea de regresión . En este caso, denota cada observación como un punto en el plano complejo (es decir, el punto donde está la unidad imaginaria ). Denota como la suma de las diferencias al cuadrado de los puntos de datos del centroide (también denotado en coordenadas complejas), que es el punto cuyas ubicaciones horizontal y vertical son los promedios de las de los puntos de datos. Entonces: [5]
Si , entonces cada línea que pasa por el centroide es una línea de mejor ajuste ortogonal.
Si , la recta de regresión ortogonal pasa por el centroide y es paralela al vector desde el origen hasta .
En el caso de tres puntos no colineales en el plano, el triángulo con estos puntos como vértices tiene una inelipse de Steiner única que es tangente a los lados del triángulo en sus puntos medios. El eje mayor de esta elipse cae sobre la línea de regresión ortogonal de los tres vértices. [7] La cuantificación del ruido celular intrínseco de una célula biológica se puede cuantificar aplicando la regresión de Deming al comportamiento observado de un circuito biológico sintético de dos reporteros . [8]
Cuando se pide a los humanos que dibujen una regresión lineal en un diagrama de dispersión adivinando, sus respuestas se acercan más a la regresión ortogonal que a la regresión de mínimos cuadrados ordinaria. [9]
regresión de york
La regresión de York amplía la regresión de Deming al permitir errores correlacionados en xey. [10]
^ Ciccione, Lorenzo; Dehaene, Stanislas (agosto de 2021). "¿Pueden los humanos realizar una regresión mental en un gráfico? Precisión y sesgo en la percepción de los diagramas de dispersión". Psicología cognitiva . 128 : 101406. doi : 10.1016/j.cogpsych.2021.101406.
^ York, D., Evensen, NM, Martınez, ML y Delgado, JDB: Ecuaciones unificadas para la pendiente, la intercepción y los errores estándar de la mejor línea recta, Am. J. Phys., 72, 367–375, https://doi.org/10.1119/1.1632486, 2004.
Bibliografía
Adcock, RJ (1878). "Un problema de mínimos cuadrados". El Analista . 5 (2): 53–54. doi : 10.2307/2635758 . JSTOR 2635758 .
Coolidge, JL (1913). "Dos aplicaciones geométricas de la matemática de mínimos cuadrados". El Mensual Matemático Estadounidense . 20 (6): 187–190. doi :10.2307/2973072. JSTOR 2973072.
Cornbleet, PJ; Gochman, N. (1979). "Coeficientes de regresión de mínimos cuadrados incorrectos". Química Clínica . 25 (3): 432–438. doi : 10.1093/clinchem/25.3.432 . PMID 262186.
Deming, NOSOTROS (1943). Ajuste estadístico de datos . Wiley, Nueva York (edición de Dover Publications, 1985). ISBN 0-486-64685-8.
Más completo, Wayne A. (1987). Modelos de error de medición . John Wiley & Sons, Inc. ISBN 0-471-86187-1.
Glaister, P. (2001). "Revisión de mínimos cuadrados". La Gaceta Matemática . 85 : 104-107. doi :10.2307/3620485. JSTOR 3620485. S2CID 125949467.
Jensen, Anders Christian (2007). "Regresión de Deming, paquete MethComp" (PDF) . Gentofte, Dinamarca: Centro de Diabetes Steno.
Koopmans, TC (1936). Análisis de regresión lineal de series de tiempo económicas . DeErven F. Bohn, Haarlem, Países Bajos.
Kummell, CH (1879). "Reducción de ecuaciones de observación que contienen más de una cantidad observada". El Analista . 6 (4): 97-105. doi : 10.2307/2635646 . JSTOR 2635646 .
Linnet, K. (1993). "Evaluación de procedimientos de regresión para estudios de comparación de métodos". Química Clínica . 39 (3): 424–432. doi : 10.1093/clinchem/39.3.424 . PMID 8448852.
Quarton, TG (2020). "Desacoplar el ruido de la expresión genética a lo largo del dogma central utilizando líneas celulares humanas diseñadas con genoma". Investigación de ácidos nucleicos . 48 (16): 9406–9413. doi : 10.1093/nar/gkaa668 . PMC 7498316 . PMID 32810265.