La prueba de causalidad de Granger es una prueba de hipótesis estadística para determinar si una serie temporal es útil para pronosticar otra, propuesta por primera vez en 1969. [1] Por lo general, las regresiones reflejan "meras" correlaciones , pero Clive Granger sostuvo que la causalidad en economía se podía probar midiendo la capacidad de predecir los valores futuros de una serie temporal utilizando valores anteriores de otra serie temporal. Dado que la cuestión de la "causalidad verdadera" es profundamente filosófica, y debido a la falacia post hoc ergo propter hoc de suponer que una cosa precede a otra puede usarse como prueba de causalidad, los econometristas afirman que la prueba de Granger solo encuentra "causalidad predictiva". [2] Usar el término "causalidad" solo es un nombre inapropiado, ya que la causalidad de Granger se describe mejor como "precedencia", [3] o, como Granger mismo afirmó más tarde en 1977, "relacionada temporalmente". [4] En lugar de probar si X causa Y, la causalidad de Granger prueba si X pronostica Y. [5]
Se dice que una serie temporal X es causa Granger de Y si se puede demostrar, generalmente a través de una serie de pruebas t y pruebas F sobre valores rezagados de X ( y con valores rezagados de Y también incluidos), que esos valores X proporcionan información estadísticamente significativa sobre los valores futuros de Y.
Granger también destacó que algunos estudios que utilizan pruebas de "causalidad de Granger" en áreas fuera de la economía llegaron a conclusiones "ridículas". [6] "Por supuesto, aparecieron muchos artículos ridículos", dijo en su discurso del Nobel. [7] Sin embargo, sigue siendo un método popular para el análisis de causalidad en series de tiempo debido a su simplicidad computacional. [8] [9] La definición original de causalidad de Granger no tiene en cuenta los efectos de confusión latentes y no captura relaciones causales instantáneas y no lineales, aunque se han propuesto varias extensiones para abordar estas cuestiones. [8]
Decimos que una variable X que evoluciona con el tiempo causa en el sentido de Granger otra variable Y que evoluciona si las predicciones del valor de Y basadas en sus propios valores pasados y en los valores pasados de X son mejores que las predicciones de Y basadas únicamente en los propios valores pasados de Y.
Granger definió la relación de causalidad basándose en dos principios: [8] [10]
Dados estos dos supuestos sobre la causalidad, Granger propuso probar la siguiente hipótesis para la identificación de un efecto causal de sobre :
donde se refiere a la probabilidad, es un conjunto arbitrario no vacío, y y denotan respectivamente la información disponible en el momento en que se excluye en todo el universo y la del universo modificado . Si se acepta la hipótesis anterior, decimos que las causas de Granger . [8] [10]
Si una serie temporal es un proceso estacionario , la prueba se realiza utilizando los valores de nivel de dos (o más) variables. Si las variables no son estacionarias, la prueba se realiza utilizando las primeras diferencias (o superiores). El número de rezagos que se incluirán se suele elegir utilizando un criterio de información, como el criterio de información de Akaike o el criterio de información de Schwarz . Cualquier valor rezagado particular de una de las variables se conserva en la regresión si (1) es significativo según una prueba t, y (2) este y los otros valores rezagados de la variable añaden conjuntamente poder explicativo al modelo según una prueba F. Entonces, la hipótesis nula de que no hay causalidad de Granger no se rechaza si y solo si no se han conservado valores rezagados de una variable explicativa en la regresión.
En la práctica se puede encontrar que ninguna variable causa a la otra en sentido de Granger, o que cada una de las dos variables causa a la otra en sentido de Granger.
Sean y y x series temporales estacionarias. Para probar la hipótesis nula de que x no causa y en el sentido de Granger , primero se encuentran los valores rezagados adecuados de y para incluirlos en una autorregresión univariante de y :
A continuación, la autorregresión se amplía incluyendo valores rezagados de x :
En esta regresión se conservan todos los valores rezagados de x que son significativos individualmente según sus estadísticas t, siempre que colectivamente agreguen poder explicativo a la regresión según una prueba F (cuya hipótesis nula es que no hay poder explicativo agregado conjuntamente por las x ). En la notación de la regresión aumentada anterior, p es la longitud de rezago más corta y q es la más larga para la cual el valor rezagado de x es significativo.
La hipótesis nula de que x no causa y en sentido de Granger no se rechaza si y sólo si no se conservan valores rezagados de x en la regresión.
El análisis de causalidad de Granger multivariante se realiza habitualmente ajustando un modelo autorregresivo vectorial (VAR) a la serie temporal. En particular, supongamos que para es una serie temporal multivariante de dimensión 1. La causalidad de Granger se realiza ajustando un modelo VAR con desfases temporales de la siguiente manera:
donde es un vector aleatorio gaussiano blanco, y es una matriz para cada . Una serie temporal se denomina causa de Granger de otra serie temporal , si al menos uno de los elementos para es significativamente mayor que cero (en valor absoluto). [11]
Los métodos lineales anteriores son apropiados para probar la causalidad de Granger en la media. Sin embargo, no pueden detectar la causalidad de Granger en momentos superiores, por ejemplo, en la varianza. Las pruebas no paramétricas para la causalidad de Granger están diseñadas para abordar este problema. [12] La definición de causalidad de Granger en estas pruebas es general y no implica ningún supuesto de modelado, como un modelo autorregresivo lineal. Las pruebas no paramétricas para la causalidad de Granger se pueden utilizar como herramientas de diagnóstico para construir mejores modelos paramétricos que incluyan momentos de orden superior y/o no linealidad. [13]
Como su nombre lo indica, la causalidad de Granger no es necesariamente causalidad verdadera. De hecho, las pruebas de causalidad de Granger cumplen únicamente la definición humeana de causalidad que identifica las relaciones causa-efecto con conjunciones constantes. [14] Si tanto X como Y están impulsadas por un tercer proceso común con diferentes rezagos, uno podría no rechazar la hipótesis alternativa de causalidad de Granger. Sin embargo, la manipulación de una de las variables no cambiaría la otra. De hecho, las pruebas de causalidad de Granger están diseñadas para manejar pares de variables y pueden producir resultados engañosos cuando la relación verdadera involucra tres o más variables. Habiendo dicho esto, se ha argumentado que dada una visión probabilística de la causalidad, la causalidad de Granger puede considerarse causalidad verdadera en ese sentido, especialmente cuando se toma en cuenta la noción de "selección" de causalidad probabilística de Reichenbach. [15] Otras posibles fuentes de resultados erróneos en las pruebas son: (1) muestreo no lo suficientemente frecuente o demasiado frecuente, (2) relación causal no lineal, (3) no estacionariedad y no linealidad de las series temporales y (4) existencia de expectativas racionales. [14] Se puede aplicar una prueba similar que involucre más variables con la autorregresión vectorial .
La validez de la prueba de causalidad de Granger ha sido cuestionada en la literatura académica, [16] en un artículo que afirma que “ni siquiera el requisito más fundamental que subyace a cualquier definición posible de causalidad se cumple con la prueba de causalidad de Granger... cualquier definición de causalidad debe referirse a la predicción del futuro a partir del pasado... encontramos que Granger también permite 'predecir' el pasado a partir del futuro”.
Se ha desarrollado un método para la causalidad de Granger que no es sensible a las desviaciones del supuesto de que el término de error se distribuye normalmente. [17] Este método es especialmente útil en economía financiera, ya que muchas variables financieras no se distribuyen normalmente. [18] Recientemente, se ha sugerido en la literatura la prueba de causalidad asimétrica para separar el impacto causal de los cambios positivos de los negativos. [19] También está disponible una extensión de la prueba de (no)causalidad de Granger a datos de panel. [20] Una prueba de causalidad de Granger modificada basada en el tipo GARCH (heteroscedasticidad condicional autorregresiva generalizada) de modelos de series temporales de valores enteros está disponible en muchas áreas. [21] [22]
La extensión de la causalidad de Granger para incorporar su naturaleza dinámica y variable en el tiempo permite una comprensión más matizada de cómo las relaciones causales en los datos de series temporales evolucionan con el tiempo. [23] La metodología utiliza técnicas recursivas como las ventanas de expansión hacia adelante (FE), de rotación (RO) y de evolución recursiva (RE) para superar las limitaciones de las pruebas de causalidad de Granger tradicionales y comprender los cambios en las relaciones causales a lo largo de diferentes períodos. [24] Un aspecto central de esta metodología es el comando 'tvgc' en Stata. [23] Las aplicaciones empíricas, como los datos que involucran tarifas de transacción y subsistemas económicos en Ethereum, resaltan la naturaleza dinámica de las relaciones económicas a lo largo del tiempo. [25]
Una creencia muy arraigada sobre la función neuronal sostenía que las distintas áreas del cerebro eran específicas para cada tarea; que la conectividad estructural local de una determinada área dictaba de algún modo la función de esa parte. Al recopilar trabajos realizados a lo largo de muchos años, se ha producido un movimiento hacia un enfoque diferente, centrado en la red, para describir el flujo de información en el cerebro. La explicación de la función está empezando a incluir el concepto de redes que existen en diferentes niveles y en diferentes lugares del cerebro. [26] El comportamiento de estas redes se puede describir mediante procesos no deterministas que evolucionan a través del tiempo. Es decir, dado el mismo estímulo de entrada, no se obtendrá el mismo resultado de la red. La dinámica de estas redes está gobernada por probabilidades, por lo que las tratamos como procesos estocásticos (aleatorios) para poder capturar este tipo de dinámicas entre diferentes áreas del cerebro.
En el pasado se han explorado diferentes métodos para obtener alguna medida del flujo de información de las actividades de activación de una neurona y su conjunto circundante, pero están limitados en los tipos de conclusiones que se pueden extraer y brindan poca información sobre el flujo direccional de información, su tamaño de efecto y cómo puede cambiar con el tiempo. [27] Recientemente, se ha aplicado la causalidad de Granger para abordar algunas de estas cuestiones. [28] En pocas palabras, se examina cómo predecir mejor el futuro de una neurona: utilizando el conjunto completo o el conjunto completo excepto una neurona objetivo determinada. Si la predicción empeora al excluir la neurona objetivo, entonces decimos que tiene una relación "g-causal" con la neurona actual.
Los métodos de causalidad de Granger anteriores solo podían operar con datos de valor continuo, por lo que el análisis de los registros de trenes de impulsos neuronales implicaba transformaciones que, en última instancia, alteraban las propiedades estocásticas de los datos, alterando indirectamente la validez de las conclusiones que se podían extraer de ellos. Sin embargo, en 2011 se propuso un nuevo marco de causalidad de Granger de propósito general que podía operar directamente en cualquier modalidad, incluidos los trenes de impulsos neuronales. [27]
Los datos de los trenes de picos neuronales se pueden modelar como un proceso puntual . Un proceso puntual temporal es una serie temporal estocástica de eventos binarios que ocurre en tiempo continuo. Solo puede tomar dos valores en cada punto en el tiempo, indicando si un evento realmente ocurrió o no. Este tipo de representación de información con valores binarios se adapta a la actividad de las poblaciones neuronales porque el potencial de acción de una sola neurona tiene una forma de onda típica. De esta manera, lo que transporta la información real que se emite desde una neurona es la ocurrencia de un "pico", así como el tiempo entre picos sucesivos. Usando este enfoque, uno podría abstraer el flujo de información en una red neuronal para que sea simplemente los tiempos de picos para cada neurona a través de un período de observación. Un proceso puntual puede representarse ya sea por el tiempo de los picos mismos, los tiempos de espera entre picos, utilizando un proceso de conteo, o, si el tiempo se discretiza lo suficiente para asegurar que en cada ventana solo un evento tenga la posibilidad de ocurrir, es decir, un intervalo de tiempo solo puede contener un evento, como un conjunto de 1 y 0, muy similar al binario. [ cita requerida ]
Uno de los tipos más simples de modelos de activación neuronal es el proceso de Poisson . Sin embargo, este tiene la limitación de que no tiene memoria. No tiene en cuenta ningún historial de activación al calcular la probabilidad actual de activación. Sin embargo, las neuronas muestran una dependencia histórica (biofísica) fundamental a través de sus períodos refractarios relativos y absolutos. Para abordar esto, se utiliza una función de intensidad condicional para representar la probabilidad de activación de una neurona, condicionada a su propio historial. La función de intensidad condicional expresa la probabilidad de activación instantánea y define implícitamente un modelo de probabilidad completo para el proceso puntual. Define una probabilidad por unidad de tiempo. Por lo tanto, si esta unidad de tiempo se toma lo suficientemente pequeña como para garantizar que solo pueda ocurrir una activación en esa ventana de tiempo, entonces nuestra función de intensidad condicional especifica completamente la probabilidad de que una neurona dada se active en un tiempo determinado. [ cita requerida ]
Se han desarrollado paquetes de software para medir la "causalidad de Granger" en Python y R :