En econometría , el modelo de regresiones aparentemente no relacionadas ( SUR ) [1] : 306 [2] : 279 [3] : 332 o ecuaciones de regresión aparentemente no relacionadas ( SURE ) [4] [5] : 2 , propuesto por Arnold Zellner en (1962), es una generalización de un modelo de regresión lineal que consta de varias ecuaciones de regresión, cada una con su propia variable dependiente y conjuntos potencialmente diferentes de variables explicativas exógenas. Cada ecuación es una regresión lineal válida por sí misma y puede estimarse por separado, por lo que el sistema se denomina aparentemente no relacionado , [3] : 332 aunque algunos autores sugieren que el término aparentemente relacionado sería más apropiado, [1] : 306 ya que se supone que los términos de error están correlacionados a través de las ecuaciones.
El modelo se puede estimar ecuación por ecuación utilizando mínimos cuadrados ordinarios (MCO) estándar. Estas estimaciones son consistentes , pero generalmente no tan eficientes como el método SUR, que equivale a mínimos cuadrados generalizados factibles con una forma específica de la matriz de varianza-covarianza. Dos casos importantes en los que SUR es de hecho equivalente a MCO son cuando los términos de error de hecho no están correlacionados entre las ecuaciones (de modo que realmente no están relacionados) y cuando cada ecuación contiene exactamente el mismo conjunto de regresores en el lado derecho.
El modelo SUR puede considerarse como la simplificación del modelo lineal general, en el que ciertos coeficientes de la matriz se limitan a ser iguales a cero, o como la generalización del modelo lineal general , en el que se permite que los regresores del lado derecho sean diferentes en cada ecuación. El modelo SUR se puede generalizar aún más al modelo de ecuaciones simultáneas , en el que se permite que los regresores del lado derecho también sean las variables endógenas.
Supongamos que hay m ecuaciones de regresión
Aquí i representa el número de ecuación, r = 1, …, R es la observación individual y tomamos la transpuesta del vector columna. Se supone que el número de observaciones R es grande, de modo que en el análisis tomamos R → , mientras que el número de ecuaciones m permanece fijo.
Cada ecuación i tiene una única variable de respuesta y ir y un vector k i -dimensional de regresores x ir . Si apilamos las observaciones correspondientes a la ecuación i -ésima en vectores y matrices R -dimensionales, entonces el modelo puede escribirse en forma vectorial como
donde y i y ε i son vectores R ×1, X i es una matriz R × k i y β i es un vector k i ×1.
Finalmente, si apilamos estas m ecuaciones vectoriales una encima de otra, el sistema tomará la forma [4] : ecuación (2.2)
El supuesto del modelo es que los términos de error ε ir son independientes entre observaciones, pero pueden tener correlaciones entre ecuaciones dentro de las observaciones. Por lo tanto, suponemos que E[ ε ir ε es | X ] = 0 siempre que r ≠ s , mientras que E[ ε ir ε jr | X ] = σ ij . Denotando Σ = [ σ ij ] la matriz de cedasticidad m×m de cada observación, la matriz de covarianza de los términos de error apilados ε será igual a [4] : ecuación (2.4) [3] : 332
donde IR es la matriz identidad R -dimensional y ⊗ denota el producto matricial de Kronecker .
El modelo SUR se estima generalmente mediante el método de mínimos cuadrados generalizados factibles (FGLS). Este es un método de dos pasos donde en el primer paso ejecutamos una regresión de mínimos cuadrados ordinarios para ( 1 ). Los residuos de esta regresión se utilizan para estimar los elementos de la matriz : [6] : 198
En el segundo paso ejecutamos una regresión de mínimos cuadrados generalizada para ( 1 ) utilizando la matriz de varianza :
Este estimador es imparcial en muestras pequeñas asumiendo que los términos de error ε ir tienen una distribución simétrica; en muestras grandes es consistente y asintóticamente normal con una distribución límite [6] : 198
Se han sugerido otras técnicas de estimación además de FGLS para el modelo SUR: [7] el método de máxima verosimilitud (ML) bajo el supuesto de que los errores se distribuyen normalmente; los mínimos cuadrados generalizados iterativos (IGLS), donde los residuos del segundo paso de FGLS se utilizan para recalcular la matriz , luego se estima nuevamente utilizando GLS, y así sucesivamente, hasta que se logra la convergencia; el esquema iterativo de mínimos cuadrados ordinarios (IOLS), donde la estimación se realiza ecuación por ecuación, pero cada ecuación incluye como regresores adicionales los residuos de las ecuaciones estimadas previamente para tener en cuenta las correlaciones entre ecuaciones, la estimación se ejecuta iterativamente hasta que se logra la convergencia. Kmenta y Gilbert (1968) realizaron un estudio de Monte Carlo y establecieron que los tres métodos (IGLS, IOLS y ML) arrojan resultados numéricamente equivalentes. También encontraron que la distribución asintótica de estos estimadores es la misma que la distribución del estimador FGLS, mientras que en muestras pequeñas ninguno de los estimadores fue más superior que los otros. [8] Zellner y Ando (2010) desarrollaron un método directo de Monte Carlo para el análisis bayesiano del modelo SUR. [9]
Hay dos casos importantes en los que las estimaciones SUR resultan equivalentes a las MCO ecuación por ecuación. Estos casos son:
syslin
procedimiento. [14]sureg
y . [15] [16] [17]suest
sure
comando [18]SUR
en el paquete “linearmodels”. [19]system
comando.{{cite journal}}
: Requiere citar revista |journal=
( ayuda ){{cite web}}
: CS1 maint: archived copy as title (link)