Los modelos de ecuaciones simultáneas son un tipo de modelo estadístico en el que las variables dependientes son funciones de otras variables dependientes, en lugar de solo variables independientes. [1] Esto significa que algunas de las variables explicativas se determinan conjuntamente con la variable dependiente, que en economía suele ser la consecuencia de algún mecanismo de equilibrio subyacente . Tomemos el modelo típico de oferta y demanda : si bien normalmente se determinaría que la cantidad ofrecida y demandada es una función del precio establecido por el mercado, también es posible que ocurra lo contrario, en el que los productores observan la cantidad que demandan los consumidores y luego establecen el precio. [2]
La simultaneidad plantea desafíos para la estimación de los parámetros estadísticos de interés, porque se viola el supuesto de Gauss-Markov de estricta exogeneidad de los regresores. Y si bien sería natural estimar todas las ecuaciones simultáneas a la vez, esto a menudo conduce a un problema de optimización no lineal computacionalmente costoso incluso para el sistema más simple de ecuaciones lineales . [3] Esta situación impulsó el desarrollo, encabezado por la Comisión Cowles en los años 1940 y 1950, [4] de varias técnicas que estiman cada ecuación en el modelo en serie, más notablemente la máxima verosimilitud con información limitada y los mínimos cuadrados en dos etapas . [5]
Supongamos que hay m ecuaciones de regresión de la forma
donde i es el número de ecuación, y t = 1, ..., T es el índice de observación. En estas ecuaciones x es el vector k i × 1 de variables exógenas, y es la variable dependiente, y −i,t es el vector n i × 1 de todas las demás variables endógenas que entran en la i ésima ecuación en el lado derecho, y u son los términos de error. La notación “− i ” indica que el vector y −i,t puede contener cualquiera de las y excepto y it (ya que ya está presente en el lado izquierdo). Los coeficientes de regresión β i y γ i son de dimensiones k i × 1 y n i × 1 correspondientemente. Apilando verticalmente las T observaciones correspondientes a la i ésima ecuación, podemos escribir cada ecuación en forma vectorial como
donde y i y u i son vectores T× 1, X i es una matriz T×k i de regresores exógenos, e Y −i es una matriz T×n i de regresores endógenos en el lado derecho de la i- ésima ecuación. Finalmente, podemos mover todas las variables endógenas al lado izquierdo y escribir las m ecuaciones conjuntamente en forma vectorial como
Esta representación se conoce como forma estructural . En esta ecuación Y = [ y 1 y 2 ... y m ] es la matriz T×m de variables dependientes. Cada una de las matrices Y −i es de hecho una submatriz de n i columnas de esta Y . La matriz m×m Γ, que describe la relación entre las variables dependientes, tiene una estructura complicada. Tiene unos en la diagonal, y todos los demás elementos de cada columna i son los componentes del vector −γ i o ceros, dependiendo de qué columnas de Y se incluyeron en la matriz Y −i . La matriz T×k X contiene todos los regresores exógenos de todas las ecuaciones, pero sin repeticiones (es decir, la matriz X debe ser de rango completo). Por lo tanto, cada X i es una submatriz de k i columnas de X . La matriz Β tiene un tamaño k×m y cada una de sus columnas está formada por los componentes de los vectores β i y ceros, dependiendo de cuáles de los regresores de X se incluyeron o excluyeron de X i . Finalmente, U = [ u 1 u 2 ... u m ] es una matriz T×m de los términos de error.
Después de multiplicar la ecuación estructural por Γ −1 , el sistema se puede escribir en forma reducida como
Este es ya un modelo lineal general simple , y puede estimarse, por ejemplo, mediante mínimos cuadrados ordinarios . Desafortunadamente, la tarea de descomponer la matriz estimada en los factores individuales Β y Γ −1 es bastante complicada, y por lo tanto la forma reducida es más adecuada para la predicción, pero no para la inferencia.
En primer lugar, el rango de la matriz X de regresores exógenos debe ser igual a k , tanto en muestras finitas como en el límite cuando T → ∞ (este último requisito significa que en el límite la expresión debe converger a una matriz k×k no degenerada ). También se supone que la matriz Γ no es degenerada.
En segundo lugar, se supone que los términos de error son serialmente independientes y se distribuyen de manera idéntica . Es decir, si la fila t de la matriz U se denota por u ( t ) , entonces la secuencia de vectores { u ( t ) } debería ser iid, con media cero y alguna matriz de covarianza Σ (que es desconocida). En particular, esto implica que E[ U ] = 0 , y E[ U′U ] = T Σ .
Por último, se requieren suposiciones para la identificación.
Las condiciones de identificación requieren que el sistema de ecuaciones lineales sea resoluble para los parámetros desconocidos.
Más específicamente, la condición de orden , una condición necesaria para la identificación, es que para cada ecuación k i + n i ≤ k , lo que puede expresarse como “el número de variables exógenas excluidas es mayor o igual al número de variables endógenas incluidas”.
La condición de rango , una condición más fuerte que es necesaria y suficiente, es que el rango de Π i 0 sea igual a n i , donde Π i 0 es una matriz ( k − k i )× n i que se obtiene a partir de Π tachando las columnas que corresponden a las variables endógenas excluidas y las filas que corresponden a las variables exógenas incluidas.
En los modelos de ecuaciones simultáneas, el método más común para lograr la identificación es imponer restricciones de parámetros dentro de la ecuación. [6] Sin embargo, la identificación también es posible utilizando restricciones entre ecuaciones.
Para ilustrar cómo se pueden utilizar las restricciones de ecuaciones cruzadas para la identificación, considere el siguiente ejemplo de Wooldridge [6]
donde las z no están correlacionadas con las u y las y son variables endógenas . Sin más restricciones, la primera ecuación no se identifica porque no hay ninguna variable exógena excluida. La segunda ecuación se identifica simplemente si δ 13 ≠0 , lo que se supone que es cierto para el resto de la discusión.
Ahora imponemos la restricción de la ecuación cruzada de δ 12 = δ 22 . Dado que la segunda ecuación está identificada, podemos tratar δ 12 como conocida para fines de identificación. Entonces, la primera ecuación se convierte en:
Luego, podemos utilizar ( z 1 , z 2 , z 3 ) como instrumentos para estimar los coeficientes en la ecuación anterior, ya que hay una variable endógena ( y 2 ) y una variable exógena excluida ( z 2 ) en el lado derecho. Por lo tanto, las restricciones entre ecuaciones en lugar de las restricciones dentro de la ecuación pueden lograr la identificación.
El método de estimación más simple y más común para el modelo de ecuaciones simultáneas es el llamado método de mínimos cuadrados de dos etapas , [7] desarrollado independientemente por Theil (1953) y Basmann (1957). [8] [9] [10] Es una técnica ecuación por ecuación, donde los regresores endógenos en el lado derecho de cada ecuación se instrumentan con los regresores X de todas las demás ecuaciones. El método se llama "de dos etapas" porque realiza la estimación en dos pasos: [7]
Si la i- ésima ecuación del modelo se escribe como
donde Z i es una matriz T× ( n i + k i ) de regresores endógenos y exógenos en la i ésima ecuación, y δ i es un vector ( n i + k i )-dimensional de coeficientes de regresión, entonces el estimador 2SLS de δ i estará dado por [7]
donde P = X ( X ′ X ) −1 X ′ es la matriz de proyección sobre el espacio lineal abarcado por los regresores exógenos X .
Los mínimos cuadrados indirectos son un método econométrico en el que los coeficientes de un modelo de ecuaciones simultáneas se estiman a partir del modelo de forma reducida utilizando mínimos cuadrados ordinarios . [11] [12] Para ello, el sistema estructural de ecuaciones se transforma primero en la forma reducida. Una vez estimados los coeficientes, el modelo se vuelve a poner en la forma estructural.
El método de máxima verosimilitud de “información limitada” fue sugerido por MA Girshick en 1947, [13] y formalizado por TW Anderson y H. Rubin en 1949. [14] Se utiliza cuando uno está interesado en estimar una sola ecuación estructural a la vez (de ahí su nombre de información limitada), digamos para la observación i:
Las ecuaciones estructurales para las restantes variables endógenas Y −i no se especifican y se dan en su forma reducida:
La notación en este contexto es diferente a la del caso IV simple . Se tiene:
La fórmula explícita para el LIML es: [15]
donde M = I − X ( X ′ X ) −1 X ′ , y λ es la raíz característica más pequeña de la matriz:
donde, de manera similar, M i = I − X i ( X i ′ X i ) −1 X i ′ .
En otras palabras, λ es la solución más pequeña del problema del valor propio generalizado , véase Theil (1971, pág. 503):
El LIML es un caso especial de los estimadores de clase K: [16]
con:
A esta clase pertenecen varios estimadores:
El estimador de mínimos cuadrados en tres etapas fue introducido por Zellner y Theil (1962). [18] [19] Puede verse como un caso especial de GMM multiecuación donde el conjunto de variables instrumentales es común a todas las ecuaciones. [20] Si todos los regresores están de hecho predeterminados, entonces 3SLS se reduce a regresiones aparentemente no relacionadas (SUR). Por lo tanto, también puede verse como una combinación de mínimos cuadrados en dos etapas (2SLS) con SUR.
En todos los campos y disciplinas, los modelos de ecuaciones simultáneas se aplican a varios fenómenos observacionales. Estas ecuaciones se aplican cuando se supone que los fenómenos son recíprocamente causales. El ejemplo clásico es la oferta y la demanda en economía . En otras disciplinas hay ejemplos como las evaluaciones de candidatos y la identificación de partidos [21] o la opinión pública y la política social en la ciencia política ; [22] [23] la inversión en carreteras y la demanda de viajes en geografía; [24] y el logro educativo y la entrada de los padres en la sociología o la demografía . [25] El modelo de ecuaciones simultáneas requiere una teoría de causalidad recíproca que incluya características especiales si los efectos causales se van a estimar como retroalimentación simultánea en oposición a "bloques" unilaterales de una ecuación donde un investigador está interesado en el efecto causal de X sobre Y mientras mantiene constante el efecto causal de Y sobre X, o cuando el investigador sabe la cantidad exacta de tiempo que tarda en producirse cada efecto causal, es decir, la longitud de los rezagos causales. En lugar de efectos rezagados, la retroalimentación simultánea significa estimar el impacto simultáneo y perpetuo de X e Y entre sí. Esto requiere una teoría que sostenga que los efectos causales son simultáneos en el tiempo, o tan complejos que parecen comportarse simultáneamente; un ejemplo común son los estados de ánimo de los compañeros de habitación. [26] Para estimar modelos de retroalimentación simultánea también es necesaria una teoría del equilibrio: que X e Y se encuentren en estados relativamente estables o sean parte de un sistema (sociedad, mercado, aula) que se encuentre en un estado relativamente estable. [27]