La cointegración es una propiedad estadística de una colección ( X 1 , X 2 , ..., X k ) de variables de series de tiempo . Primero, todas las series deben estar integradas de orden d . Luego, si una combinación lineal de esta colección está integrada de orden menor que d, entonces se dice que la colección está cointegrada. Formalmente, si ( X , Y , Z ) están cada uno integrados de orden d , y existen coeficientes a , b , c tales que aX + bY + cZ está integrado de orden menor que d, entonces X , Y y Z están cointegrados. La cointegración se ha convertido en una propiedad importante en el análisis contemporáneo de series de tiempo. Las series de tiempo a menudo tienen tendencias, ya sean deterministas o estocásticas . En un artículo influyente, [1] Charles Nelson y Charles Plosser (1982) proporcionaron evidencia estadística de que muchas series de tiempo macroeconómicas de EE. UU. (como PNB, salarios, empleo, etc.) tienen tendencias estocásticas.
Si dos o más series están integradas individualmente (en el sentido de series temporales) pero alguna combinación lineal de ellas tiene un orden de integración menor , entonces se dice que las series están cointegradas. Un ejemplo común es cuando las series individuales están integradas de primer orden ( ) pero existe algún vector (cointegrante) de coeficientes para formar una combinación lineal estacionaria de ellas.
El primero en introducir y analizar el concepto de regresión espuria (o sin sentido) fue Udny Yule en 1926. [2] Antes de los años 1980, muchos economistas utilizaban regresiones lineales en datos de series temporales no estacionarias, que el premio Nobel Clive Granger y Paul Newbold demostraron que era un enfoque peligroso que podía producir una correlación espuria , [3] [4] ya que las técnicas estándar de eliminación de tendencias pueden dar como resultado datos que siguen siendo no estacionarios. [5] El artículo de Granger de 1987 con Robert Engle formalizó el enfoque del vector de cointegración y acuñó el término. [6]
Para los procesos integrados , Granger y Newbold demostraron que la eliminación de tendencias no funciona para eliminar el problema de la correlación espuria, y que la mejor alternativa es verificar la cointegración. Dos series con tendencias pueden cointegrarse solo si existe una relación genuina entre las dos. Por lo tanto, la metodología actual estándar para las regresiones de series de tiempo es verificar la integración de todas las series de tiempo involucradas. Si hay series en ambos lados de la relación de regresión, entonces es posible que las regresiones arrojen resultados engañosos.
La posible presencia de cointegración debe tenerse en cuenta al elegir una técnica para probar hipótesis sobre la relación entre dos variables que tienen raíces unitarias (es decir, integradas de al menos orden uno). [3] El procedimiento habitual para probar hipótesis sobre la relación entre variables no estacionarias era ejecutar regresiones de mínimos cuadrados ordinarios (MCO) en datos que habían sido diferenciados. Este método está sesgado si las variables no estacionarias están cointegradas.
Por ejemplo, hacer una regresión de las series de consumo de cualquier país (por ejemplo, Fiji) contra el PNB de un país diferente seleccionado al azar (por ejemplo, Afganistán) podría arrojar una relación R-cuadrado alta (lo que sugiere un alto poder explicativo del consumo de Fiji a partir del PNB de Afganistán ). Esto se denomina regresión espuria : dos series integradas que no están relacionadas causalmente de manera directa pueden, no obstante, mostrar una correlación significativa.
Los seis métodos principales para probar la cointegración son:
Si y ambos tienen un orden de integración d = 1 y están cointegrados, entonces una combinación lineal de ellos debe ser estacionaria para algún valor de y . En otras palabras:
donde esta estacionario.
Si se conoce, podemos probar la estacionariedad con una prueba de Dickey-Fuller aumentada o una prueba de Phillips-Perron . Si se desconoce, primero debemos estimarla. Esto se hace típicamente usando mínimos cuadrados ordinarios (regresando sobre y una intersección). Luego, podemos ejecutar una prueba ADF sobre . Sin embargo, cuando se estima, los valores críticos de esta prueba ADF no son estándar y aumentan en valor absoluto a medida que se incluyen más regresores. [7]
Si se determina que las variables están cointegradas, se realiza una regresión de segunda etapa. Se trata de una regresión de sobre los regresores rezagados y los residuos rezagados de la primera etapa, . La regresión de segunda etapa se expresa como:
Si las variables no están cointegradas (si no podemos rechazar la hipótesis nula de no cointegración al probar ), entonces y estimamos un modelo de diferencias:
La prueba de Johansen es una prueba de cointegración que permite más de una relación de cointegración, a diferencia del método Engle-Granger, pero esta prueba está sujeta a propiedades asintóticas, es decir, muestras grandes. Si el tamaño de la muestra es demasiado pequeño, los resultados no serán confiables y se deben utilizar rezagos distribuidos autorregresivos (ARDL). [8] [9]
Peter CB Phillips y Sam Ouliaris (1990) muestran que las pruebas de raíz unitaria basadas en residuos aplicadas a los residuos de cointegración estimados no tienen las distribuciones Dickey-Fuller habituales bajo la hipótesis nula de no cointegración. [10] Debido al fenómeno de regresión espuria bajo la hipótesis nula, la distribución de estas pruebas tiene distribuciones asintóticas que dependen de (1) el número de términos de tendencia deterministas y (2) el número de variables con las que se está probando la cointegración. Estas distribuciones se conocen como distribuciones Phillips-Ouliaris y se han tabulado los valores críticos. En muestras finitas, una alternativa superior al uso de estos valores críticos asintóticos es generar valores críticos a partir de simulaciones.
En la práctica, la cointegración se utiliza a menudo para dos series , pero es más aplicable y se puede utilizar para variables integradas de orden superior (para detectar aceleraciones correlacionadas u otros efectos de segunda diferencia). La multicointegración extiende la técnica de cointegración más allá de dos variables y, ocasionalmente, a variables integradas en diferentes órdenes.
Las pruebas de cointegración suponen que el vector de cointegración es constante durante el período de estudio. En realidad, es posible que la relación de largo plazo entre las variables subyacentes cambie (pueden ocurrir cambios en el vector de cointegración). La razón para esto puede ser el progreso tecnológico, las crisis económicas, los cambios en las preferencias y el comportamiento de las personas en consecuencia, la alteración de las políticas o el régimen y los desarrollos organizacionales o institucionales. Esto es especialmente probable que sea el caso si el período de muestra es largo. Para tener en cuenta esta cuestión, se han introducido pruebas de cointegración con una ruptura estructural desconocida [11] y también están disponibles pruebas de cointegración con dos rupturas desconocidas [12] .
Se han propuesto varios métodos bayesianos para calcular la distribución posterior del número de relaciones de cointegración y las combinaciones lineales de cointegración. [13]