Técnica de estimación de parámetros en estadística, particularmente en econometría
En econometría y estadística , el método generalizado de momentos ( GMM ) es un método genérico para estimar parámetros en modelos estadísticos . Generalmente se aplica en el contexto de modelos semiparamétricos , donde el parámetro de interés es de dimensión finita, mientras que la forma completa de la función de distribución de los datos puede no ser conocida y, por lo tanto, la estimación de máxima verosimilitud no es aplicable.
El método requiere que se especifique una cierta cantidad de condiciones de momento para el modelo. Estas condiciones de momento son funciones de los parámetros del modelo y de los datos, de modo que su expectativa es cero en los valores verdaderos de los parámetros. El método GMM luego minimiza una cierta norma de los promedios de muestra de las condiciones de momento y, por lo tanto, puede considerarse como un caso especial de estimación de distancia mínima . [1]
Se sabe que los estimadores GMM son consistentes , asintóticamente normales y más eficientes en la clase de todos los estimadores que no utilizan ninguna información adicional aparte de la contenida en las condiciones de momento. GMM fue defendido por Lars Peter Hansen en 1982 como una generalización del método de momentos , [2] introducido por Karl Pearson en 1894. Sin embargo, estos estimadores son matemáticamente equivalentes a aquellos basados en "condiciones de ortogonalidad" (Sargan, 1958, 1959) o "ecuaciones de estimación imparciales" (Huber, 1967; Wang et al., 1997).
Descripción
Supongamos que los datos disponibles consisten en T observaciones { Y t } t = 1,..., T , donde cada observación Y t es una variable aleatoria multivariante n -dimensional . Suponemos que los datos provienen de un cierto modelo estadístico , definido hasta un parámetro desconocido θ ∈ Θ . El objetivo del problema de estimación es encontrar el valor "verdadero" de este parámetro, θ 0 , o al menos una estimación razonablemente cercana.
Un supuesto general del GMM es que los datos Y t se generan mediante un proceso estocástico ergódico débilmente estacionario . (El caso de las variables independientes e idénticamente distribuidas (iid) Y t es un caso especial de esta condición).
Para aplicar GMM, necesitamos tener "condiciones de momento", es decir, necesitamos conocer una función vectorial g ( Y , θ ) tal que
donde E denota expectativa e Y t es una observación genérica. Además, la función m ( θ ) debe ser distinta de cero para θ ≠ θ 0 , de lo contrario el parámetro θ no será identificado puntualmente .
La idea básica detrás del GMM es reemplazar el valor esperado teórico E[⋅] con su análogo empírico: el promedio de la muestra:
y luego minimizar la norma de esta expresión con respecto a θ . El valor minimizador de θ es nuestra estimación para θ 0 .
Por la ley de los grandes números , para valores grandes de T , y por lo tanto esperamos que . El método generalizado de momentos busca un número que haga que t sea lo más cercano posible a cero. Matemáticamente, esto es equivalente a minimizar una cierta norma de (norma de m , denotada como || m ||, mide la distancia entre m y cero). Las propiedades del estimador resultante dependerán de la elección particular de la función norma y, por lo tanto, la teoría del GMM considera una familia completa de normas, definidas como
donde W es una matriz de ponderación definida positiva y denota transposición . En la práctica, la matriz de ponderación W se calcula en función del conjunto de datos disponible, que se denotará como . Por lo tanto, el estimador GMM se puede escribir como
En condiciones adecuadas, este estimador es consistente , asintóticamente normal y, con la elección correcta de la matriz de ponderación, también asintóticamente eficiente .
Propiedades
Consistencia
La consistencia es una propiedad estadística de un estimador que establece que, teniendo un número suficiente de observaciones, el estimador convergerá en probabilidad al valor verdadero del parámetro:
Las condiciones suficientes para que un estimador GMM sea consistente son las siguientes:
- donde W es una matriz semidefinida positiva ,
- Sólo para
- El espacio de parámetros posibles es compacto ,
- es continua en cada θ con probabilidad uno,
La segunda condición (la llamada condición de identificación global ) suele ser especialmente difícil de verificar. Existen condiciones más simples, necesarias pero no suficientes, que pueden utilizarse para detectar problemas de no identificación:
- Condición de orden . La dimensión de la función momento m(θ) debe ser al menos tan grande como la dimensión del vector de parámetros θ .
- Identificación local . Si g(Y,θ) es continuamente diferenciable en un entorno de , entonces la matriz debe tener rango de columna completo .
En la práctica, los econometristas aplicados a menudo simplemente suponen que la identificación global es válida, sin probarlo realmente. [3] : 2127
Normalidad asintótica
La normalidad asintótica es una propiedad útil, ya que nos permite construir bandas de confianza para el estimador y realizar diferentes pruebas. Antes de poder hacer una afirmación sobre la distribución asintótica del estimador GMM, necesitamos definir dos matrices auxiliares:
Entonces, en las condiciones 1 a 6 que se enumeran a continuación, el estimador GMM será asintóticamente normal con distribución límite :
Condiciones:
- es consistente (ver sección anterior),
- El conjunto de parámetros posibles es compacto ,
- es continuamente diferenciable en algún entorno N de con probabilidad uno,
- La matriz no es singular.
Eficiencia relativa
Hasta ahora no hemos dicho nada sobre la elección de la matriz W , excepto que debe ser semidefinida positiva. De hecho, cualquier matriz de este tipo producirá un estimador GMM consistente y asintóticamente normal, la única diferencia estará en la varianza asintótica de ese estimador. Se puede demostrar que tomando
dará como resultado el estimador más eficiente en la clase de todos los métodos (generalizados) de estimadores de momento. Solo un número infinito de condiciones ortogonales obtiene la varianza más pequeña, el límite de Cramér-Rao .
En este caso, la fórmula para la distribución asintótica del estimador GMM se simplifica a
La prueba de que dicha elección de matriz de ponderación es, en efecto, óptima a nivel local se suele adoptar con ligeras modificaciones al establecer la eficiencia de otros estimadores. Como regla general, una matriz de ponderación se acerca más a la optimalidad cuando se convierte en una expresión más cercana al límite de Cramér-Rao .
Implementación
Una dificultad con la implementación del método descrito es que no podemos tomar W = Ω −1 porque, por la definición de la matriz Ω, necesitamos saber el valor de θ 0 para calcular esta matriz, y θ 0 es precisamente la cantidad que no conocemos y que estamos tratando de estimar en primer lugar. En el caso de que Y t sea iid, podemos estimar W como
Existen varios enfoques para abordar esta cuestión, siendo el primero el más popular:
- GMM factible en dos pasos :
- Paso 1 : tome W = I (la matriz identidad ) o alguna otra matriz definida positiva y calcule la estimación preliminar del GMM . Este estimador es consistente para θ 0 , aunque no eficiente.
- Paso 2 : converge en probabilidad a Ω −1 y por lo tanto, si calculamos con esta matriz de ponderación, el estimador será asintóticamente eficiente .
- GMM iterado . Básicamente, es el mismo procedimiento que el GMM de dos pasos, excepto que la matriz se recalcula varias veces. Es decir, la estimación obtenida en el paso 2 se utiliza para calcular la matriz de ponderación del paso 3, y así sucesivamente hasta que se cumple algún criterio de convergencia.
Asintóticamente no se puede lograr ninguna mejora a través de tales iteraciones, aunque ciertos experimentos de Monte Carlo sugieren que las propiedades de muestra finita de este estimador son ligeramente mejores. [ cita requerida ] - Actualización continua del GMM (CUGMM o CUE). Estimaciones simultáneas con la estimación de la matriz de ponderación W :
En los experimentos de Montecarlo, este método demostró un mejor desempeño que el GMM tradicional de dos pasos: el estimador tiene un sesgo mediano menor (aunque colas más gruesas) y la prueba J para sobreidentificar restricciones en muchos casos fue más confiable. [4]
Otro aspecto importante en la implementación del procedimiento de minimización es que se supone que la función debe buscar en el espacio de parámetros Θ (posiblemente de alta dimensión) y encontrar el valor de θ que minimiza la función objetivo. No existe una recomendación genérica para dicho procedimiento; es un tema en su propio campo, la optimización numérica .
Sargan-HansenYo-prueba
Cuando el número de condiciones de momento es mayor que la dimensión del vector de parámetros θ , se dice que el modelo está sobreidentificado . Sargan (1958) propuso pruebas para restricciones de sobreidentificación basadas en estimadores de variables instrumentales que se distribuyen en muestras grandes como variables de Chi-cuadrado con grados de libertad que dependen del número de restricciones de sobreidentificación. Posteriormente, Hansen (1982) aplicó esta prueba a la formulación matemáticamente equivalente de los estimadores GMM. Sin embargo, tenga en cuenta que dichas estadísticas pueden ser negativas en aplicaciones empíricas donde los modelos están mal especificados, y las pruebas de razón de verosimilitud pueden brindar información ya que los modelos se estiman bajo hipótesis nulas y alternativas (Bhargava y Sargan, 1983).
Conceptualmente, podemos comprobar si es lo suficientemente cercano a cero como para sugerir que el modelo se ajusta bien a los datos. El método GMM ha reemplazado entonces el problema de resolver la ecuación , que elige coincidir exactamente con las restricciones, por un cálculo de minimización. La minimización siempre se puede realizar incluso cuando no existe tal que . Esto es lo que hace la prueba J. La prueba J también se denomina prueba para sobreidentificar restricciones .
Formalmente consideramos dos hipótesis :
- (la hipótesis nula de que el modelo es “válido”), y
- (la hipótesis alternativa de que el modelo es “inválido”; los datos no se acercan a cumplir las restricciones)
Según la hipótesis , la siguiente estadística denominada J se distribuye de forma asintótica mediante chi-cuadrado con k–l grados de libertad. Definamos J como:
- bajo
donde es el estimador GMM del parámetro , k es el número de condiciones de momento (dimensión del vector g ), y l es el número de parámetros estimados (dimensión del vector θ ). La matriz debe converger en probabilidad a , la matriz de ponderación eficiente (nótese que anteriormente solo requeríamos que W fuera proporcional a para que el estimador fuera eficiente; sin embargo, para realizar la prueba J, W debe ser exactamente igual a , no simplemente proporcional).
Bajo la hipótesis alternativa , la estadística J es asintóticamente ilimitada:
- bajo
Para realizar la prueba calculamos el valor de J a partir de los datos. Es un número no negativo. Lo comparamos con (por ejemplo) el cuartil 0,95 de la distribución:
- se rechaza con un nivel de confianza del 95% si
- No se puede rechazar con un nivel de confianza del 95% si
Alcance
Muchas otras técnicas de estimación populares se pueden formular en términos de optimización GMM:
- Los mínimos cuadrados ordinarios (MCO) son equivalentes al GMM con condiciones de momento:
- Mínimos cuadrados ponderados (WLS)
- Regresión de variables instrumentales (IV)
- Mínimos cuadrados no lineales (NLLS):
- Estimación de máxima verosimilitud (EMV):
Una alternativa al GMM
En el método de momentos se describe una alternativa al método de momentos (MoM) original (no generalizado) y se proporcionan referencias a algunas aplicaciones y una lista de ventajas y desventajas teóricas en relación con el método tradicional. Este MoM tipo bayesiano (BL-MoM) es distinto de todos los métodos relacionados descritos anteriormente, que están incluidos en el GMM. [5] [6] La literatura no contiene una comparación directa entre el GMM y el BL-MoM en aplicaciones específicas.
Implementaciones
- Wikilibro de programación R, Método de momentos
- R
- Estado
- E-Views (vistas electrónicas)
- SAS
- Gretl
Véase también
Referencias
- ^ Hayashi, Fumio (2000). Econometría. Princeton University Press. pág. 206. ISBN 0-691-01018-8.
- ^ Hansen, Lars Peter (1982). "Propiedades de muestras grandes de estimadores del método generalizado de momentos". Econometrica . 50 (4): 1029–1054. doi :10.2307/1912775. JSTOR 1912775.
- ^ Newey, W.; McFadden, D. (1994). "Estimación de muestras grandes y prueba de hipótesis". Handbook of Econometrics . Vol. 4. Elsevier Science. págs. 2111–2245. CiteSeerX 10.1.1.724.4480 . doi :10.1016/S1573-4412(05)80005-4. ISBN 9780444887665.
- ^ Hansen, Lars Peter; Heaton, John; Yaron, Amir (1996). "Propiedades de muestras finitas de algunos estimadores GMM alternativos" (PDF) . Journal of Business & Economic Statistics . 14 (3): 262–280. doi :10.1080/07350015.1996.10524656. hdl : 1721.1/47970 . JSTOR 1392442.
- ^ Armitage, Peter; Colton, Theodore, eds. (18 de febrero de 2005). Enciclopedia de bioestadística (1.ª ed.). Wiley. doi :10.1002/0470011815. ISBN 978-0-470-84907-1.
- ^ Godambe, VP, ed. (2002). Estimación de funciones . Serie de ciencias estadísticas de Oxford (edición repetida). Oxford: Clarendon Press. ISBN 978-0-19-852228-7.
Lectura adicional
- Huber, P. (1967). El comportamiento de las estimaciones de máxima verosimilitud en condiciones no estándar. Actas del quinto simposio de Berkeley sobre estadística matemática y probabilidad 1, 221-233.
- Newey W., McFadden D. (1994). Estimación de muestras grandes y prueba de hipótesis , en Handbook of Econometrics, cap. 36. Elsevier Science.
- Imbens, Guido W. ; Spady, Richard H.; Johnson, Phillip (1998). "Enfoques teóricos de la información para la inferencia en modelos de condiciones de momento" (PDF) . Econometrica . 66 (2): 333–357. doi :10.2307/2998561. JSTOR 2998561.
- Sargan, JD (1958). La estimación de relaciones económicas utilizando variables instrumentales. Econometrica, 26, 393-415.
- Sargan, JD (1959). Estimación de relaciones con residuos autocorrelacionados mediante el uso de variables instrumentales. Journal of the Royal Statistical Society B, 21, 91-105.
- Wang, CY, Wang, S. y Carroll, R. (1997). Estimación en muestreo basado en elección con error de medición y análisis bootstrap. Journal of Econometrics, 77, 65-86.
- Bhargava, A., y Sargan, JD (1983). Estimación de efectos aleatorios dinámicos a partir de datos de panel que cubren períodos cortos de tiempo. Econometrica, 51, 6, 1635-1659.
- Hayashi, Fumio (2000). Econometría . Princeton: Princeton University Press. ISBN 0-691-01018-8.
- Hansen, Lars Peter (2002). "Método de momentos". En Smelser, NJ ; Bates, PB (eds.). Enciclopedia internacional de las ciencias sociales y del comportamiento . Oxford: Pergamon.
- Hall, Alastair R. (2005). Método generalizado de momentos . Textos avanzados de econometría. Oxford University Press. ISBN 0-19-877520-2.
- Faciane, Kirby Adam Jr. (2006). Estadísticas para finanzas empíricas y cuantitativas . Estadísticas para finanzas empíricas y cuantitativas. HC Baird. ISBN 0-9788208-9-4.
- Números especiales de Journal of Business and Economic Statistics: vol. 14, no. 3 y vol. 20, no. 4.
- Breve introducción al método generalizado de momentos