En estadística , la estadística de Durbin-Watson es una estadística de prueba utilizada para detectar la presencia de autocorrelación en el retardo 1 en los residuos (errores de predicción) de un análisis de regresión . Recibe su nombre en honor a James Durbin y Geoffrey Watson . La distribución de muestra pequeña de esta razón fue derivada por John von Neumann (von Neumann, 1941). Durbin y Watson (1950, 1951) aplicaron esta estadística a los residuos de regresiones de mínimos cuadrados y desarrollaron pruebas de límites para la hipótesis nula de que los errores no están correlacionados serialmente contra la alternativa de que siguen un proceso autorregresivo de primer orden . Nótese que la distribución de esta estadística de prueba no depende de los coeficientes de regresión estimados y la varianza de los errores. [1]
Una evaluación similar también se puede realizar con la prueba de Breusch-Godfrey y la prueba de Ljung-Box .
Si el residuo dado por la estadística de prueba de Durbin-Watson es
donde es el número de observaciones. Para valores grandes , es aproximadamente igual a , donde es la autocorrelación muestral de los residuos en el retardo 1. [2] por lo tanto indica que no hay autocorrelación. El valor de siempre se encuentra entre y . Si la estadística de Durbin-Watson es sustancialmente menor que 2, hay evidencia de correlación serial positiva. Como regla general, si Durbin-Watson es menor que 1.0, puede haber motivo de alarma. Valores pequeños de indican que los términos de error sucesivos están correlacionados positivamente. Si , los términos de error sucesivos están correlacionados negativamente. En regresiones, esto puede implicar una subestimación del nivel de significancia estadística .
Para comprobar la autocorrelación positiva en el nivel de significancia , la estadística de prueba se compara con los valores críticos inferior y superior ( y ):
La correlación serial positiva es una correlación serial en la que un error positivo en una observación aumenta las posibilidades de un error positivo en otra observación.
Para comprobar la autocorrelación negativa en el nivel de significancia , la estadística de prueba se compara con los valores críticos inferior y superior ( y ):
La correlación serial negativa implica que un error positivo en una observación aumenta la probabilidad de un error negativo en otra observación y un error negativo en una observación aumenta las probabilidades de un error positivo en otra.
Los valores críticos, y , varían según el nivel de significancia ( ) y los grados de libertad de la ecuación de regresión. Su derivación es compleja: los estadísticos suelen obtenerlos de los apéndices de los textos estadísticos.
Si se conoce la matriz de diseño de la regresión, se pueden calcular valores críticos exactos para la distribución de bajo la hipótesis nula de que no hay correlación serial. Bajo la hipótesis nula se distribuye como
donde es el número de observaciones y es el número de variables de regresión; son variables aleatorias normales estándar independientes; y son los valores propios distintos de cero de donde es la matriz que transforma los residuos en la estadística, es decir . [3] Hay varios algoritmos computacionales disponibles para encontrar percentiles de esta distribución. [4]
Aunque la correlación serial no afecta la consistencia de los coeficientes de regresión estimados, sí afecta nuestra capacidad para realizar pruebas estadísticas válidas. En primer lugar, la estadística F para probar la significancia general de la regresión puede estar inflada bajo una correlación serial positiva porque el error cuadrático medio (MSE) tenderá a subestimar la varianza del error poblacional. En segundo lugar, la correlación serial positiva generalmente hace que los errores estándar de mínimos cuadrados ordinarios (OLS) para los coeficientes de regresión subestimen los errores estándar verdaderos. Como consecuencia, si hay una correlación serial positiva en la regresión, el análisis de regresión lineal estándar generalmente nos llevará a calcular errores estándar artificialmente pequeños para el coeficiente de regresión. Estos pequeños errores estándar harán que la estadística t estimada se infle, sugiriendo significancia donde quizás no la haya. La estadística t inflada, a su vez, puede llevarnos a rechazar incorrectamente hipótesis nulas sobre valores poblacionales de los parámetros del modelo de regresión con mayor frecuencia de lo que lo haríamos si los errores estándar se estimaran correctamente.
Si la estadística de Durbin-Watson indica la presencia de correlación serial de los residuos, esto se puede remediar utilizando el procedimiento Cochrane-Orcutt .
La estadística de Durbin-Watson, aunque se muestra en muchos programas de análisis de regresión, no es aplicable en ciertas situaciones. Por ejemplo, cuando se incluyen variables dependientes rezagadas en las variables explicativas, no es adecuado utilizar esta prueba. Se deben utilizar la prueba h de Durbin (ver más abajo) o las pruebas de razón de verosimilitud, que son válidas en muestras grandes.
La estadística de Durbin-Watson está sesgada en el caso de los modelos de promedio móvil autorregresivo , por lo que se subestima la autocorrelación. Sin embargo, para muestras grandes se puede calcular fácilmente la estadística h de distribución normal imparcial:
utilizando la estadística de Durbin-Watson d y la varianza estimada
del coeficiente de regresión de la variable dependiente rezagada, siempre que
dwtest
función en el paquete lmtest, durbinWatsonTest
(o dwt para abreviar), la función en el paquete car, y pdwtest
para pbnftest
los modelos de panel en el paquete plm. [5]estat dwatson
, siguiendo regress
en datos de series temporales. [6] También están disponibles la prueba LM de Engle para heterocedasticidad condicional autorregresiva (ARCH), una prueba para volatilidad dependiente del tiempo, la prueba de Breusch-Godfrey y la prueba alternativa de Durbin para correlación serial. Todas las pruebas (excepto -dwatson-) se realizan por separado para correlaciones seriales de orden superior. La prueba de Breusch-Godfrey y la prueba alternativa de Durbin también permiten regresores que no son estrictamente exógenos.=SUMXMY2(x_array,y_array)/SUMSQ(array)
statsmodels.stats.stattools.durbin_watson
), pero las tablas estadísticas para valores críticos no están disponibles allí.