stringtranslate.com

Método generalizado de momentos.

En econometría y estadística , el método generalizado de momentos ( GMM ) es un método genérico para estimar parámetros en modelos estadísticos . Por lo general, se aplica en el contexto de modelos semiparamétricos , donde el parámetro de interés es de dimensión finita, mientras que es posible que no se conozca la forma completa de la función de distribución de los datos y, por lo tanto, la estimación de máxima verosimilitud no es aplicable.

El método requiere que se especifique un cierto número de condiciones de momento para el modelo. Estas condiciones de momento son funciones de los parámetros del modelo y los datos, de modo que su expectativa es cero en los valores verdaderos de los parámetros. Luego, el método GMM minimiza una cierta norma de los promedios muestrales de las condiciones de momento y, por lo tanto, puede considerarse como un caso especial de estimación de distancia mínima . [1]

Se sabe que los estimadores GMM son consistentes , asintóticamente normales y más eficientes en la clase de todos los estimadores que no utilizan ninguna información adicional aparte de la contenida en las condiciones del momento. Los GMM fueron defendidos por Lars Peter Hansen en 1982 como una generalización del método de los momentos , [2] introducido por Karl Pearson en 1894. Sin embargo, estos estimadores son matemáticamente equivalentes a aquellos basados ​​en "condiciones de ortogonalidad" (Sargan, 1958, 1959). o "ecuaciones de estimación insesgadas" (Huber, 1967; Wang et al., 1997).

Descripción

Supongamos que los datos disponibles constan de T observaciones { Y t  } t  = 1,..., T , donde cada observación Y t es una variable aleatoria multivariada de n dimensiones . Suponemos que los datos provienen de un determinado modelo estadístico , definido hasta un parámetro desconocido θ ∈ Θ . El objetivo del problema de estimación es encontrar el valor “verdadero” de este parámetro, θ 0 , o al menos una estimación razonablemente cercana.

Una suposición general de GMM es que los datos Yt se generan mediante un proceso estocástico ergódico débilmente estacionario . (El caso de variables independientes e idénticamente distribuidas (iid) Y t es un caso especial de esta condición.)

Para aplicar GMM, necesitamos tener "condiciones de momento", es decir, necesitamos conocer una función vectorial g ( Y , θ ) tal que

donde E denota expectativa e Y t es una observación genérica. Además, la función m ( θ ) debe diferir de cero para θθ 0 ; de lo contrario, el parámetro θ no se identificará como punto .

La idea básica detrás de GMM es reemplazar el valor esperado teórico E[⋅] con su análogo empírico: promedio muestral:

y luego minimizar la norma de esta expresión con respecto a θ . El valor minimizador de θ es nuestra estimación para θ 0 .

Por la ley de los números grandes , para valores grandes de T , y por eso esperamos eso . El método generalizado de momentos busca un número que se acerque lo más posible a cero. Matemáticamente, esto equivale a minimizar una cierta norma de (la norma de m , denotada como || m ||, mide la distancia entre m y cero). Las propiedades del estimador resultante dependerán de la elección particular de la función norma y, por lo tanto, la teoría de GMM considera una familia completa de normas, definida como

donde W es una matriz de ponderación definida positiva y denota transposición . En la práctica, la matriz de ponderación W se calcula en función del conjunto de datos disponible, que se denotará como . Por tanto, el estimador GMM se puede escribir como

En condiciones adecuadas, este estimador es consistente , asintóticamente normal y, con la elección correcta de la matriz de ponderación, también asintóticamente eficiente .

Propiedades

Consistencia

La consistencia es una propiedad estadística de un estimador que establece que, teniendo un número suficiente de observaciones, el estimador convergerá en probabilidad al valor verdadero del parámetro:

Las condiciones suficientes para que un estimador GMM sea consistente son las siguientes:

  1. donde W es una matriz semidefinida positiva ,
  2.   solo para
  3. El espacio de posibles parámetros es compacto ,
  4.   es continua en cada θ con probabilidad uno,

La segunda condición (la llamada condición de identificación global ) suele ser especialmente difícil de verificar. Existen condiciones necesarias pero no suficientes más simples, que pueden usarse para detectar problemas de no identificación:

En la práctica, los econometristas aplicados a menudo simplemente suponen que la identificación global se cumple, sin llegar a demostrarlo. [3] : 2127 

Normalidad asintótica

La normalidad asintótica es una propiedad útil, ya que nos permite construir bandas de confianza para el estimador y realizar diferentes pruebas. Antes de que podamos hacer una afirmación sobre la distribución asintótica del estimador GMM, necesitamos definir dos matrices auxiliares:

Entonces, bajo las condiciones 1 a 6 que se enumeran a continuación, el estimador GMM será asintóticamente normal con una distribución límite :

Condiciones:

  1. es consistente (ver sección anterior),
  2. El conjunto de posibles parámetros es compacto ,
  3. es continuamente diferenciable en alguna vecindad N de con probabilidad uno,
  4. la matriz es no singular.

Eficiencia relativa

Hasta ahora no hemos dicho nada sobre la elección de la matriz W , excepto que debe ser semidefinida positiva. De hecho, cualquier matriz de este tipo producirá un estimador GMM consistente y asintóticamente normal; la única diferencia estará en la varianza asintótica de ese estimador. Se puede demostrar que tomando

dará como resultado el estimador más eficiente en la clase de todos los métodos (generalizados) de estimadores de momentos. Sólo un número infinito de condiciones ortogonales obtiene la varianza más pequeña, el límite de Cramér-Rao .

En este caso, la fórmula para la distribución asintótica del estimador GMM se simplifica a

La prueba de que dicha elección de matriz de ponderación es localmente óptima a menudo se adopta con ligeras modificaciones al establecer la eficiencia de otros estimadores. Como regla general, una matriz de ponderación se acerca cada vez más al óptimo cuando se convierte en una expresión más cercana al límite de Cramér-Rao .

Implementación

Una dificultad al implementar el método descrito es que no podemos tomar W = Ω −1 porque, según la definición de la matriz Ω, necesitamos conocer el valor de θ 0 para calcular esta matriz, y θ 0 es precisamente la cantidad que No lo sé y estoy tratando de estimar en primer lugar. En el caso de que Y t sea iid, podemos estimar W como

Existen varios enfoques para abordar este problema, siendo el primero el más popular:

Otra cuestión importante en la implementación del procedimiento de minimización es que se supone que la función busca a través del espacio de parámetros Θ (posiblemente de alta dimensión) y encuentra el valor de θ que minimiza la función objetivo. No existe una recomendación genérica para tal procedimiento, es un tema de su propio campo, la optimización numérica .

Prueba J de Sargan- Hansen

Cuando el número de condiciones de momento es mayor que la dimensión del vector de parámetros θ , se dice que el modelo está sobreidentificado . Sargan (1958) propuso pruebas para la sobreidentificación de restricciones basadas en estimadores de variables instrumentales que se distribuyen en grandes muestras como variables Chi-cuadrado con grados de libertad que dependen del número de sobreidentificación de restricciones. Posteriormente, Hansen (1982) aplicó esta prueba a la formulación matemáticamente equivalente de estimadores GMM. Tenga en cuenta, sin embargo, que tales estadísticas pueden ser negativas en aplicaciones empíricas donde los modelos están mal especificados, y las pruebas de razón de verosimilitud pueden arrojar información, ya que los modelos se estiman bajo hipótesis nulas y alternativas (Bhargava y Sargan, 1983).

Conceptualmente podemos comprobar si está lo suficientemente cerca de cero como para sugerir que el modelo se ajusta bien a los datos. El método GMM ha sustituido entonces el problema de resolver la ecuación , que elige hacer coincidir exactamente las restricciones, por un cálculo de minimización. La minimización siempre se puede realizar incluso cuando no existe tal que . Esto es lo que hace J-test. La prueba J también se denomina prueba de sobreidentificación de restricciones .

Formalmente consideramos dos hipótesis :

Según la hipótesis , el siguiente estadístico J tiene una distribución asintótica de chi-cuadrado con k – l grados de libertad. Defina J como:

  bajo

donde es el estimador GMM del parámetro , k es el número de condiciones de momento (dimensión del vector g ) y l es el número de parámetros estimados (dimensión del vector θ ). La matriz debe converger en probabilidad a , la matriz de ponderación eficiente (tenga en cuenta que anteriormente solo requeríamos que W fuera proporcional a para que el estimador fuera eficiente; sin embargo, para realizar la prueba J, W debe ser exactamente igual a , no simplemente proporcional).

Bajo la hipótesis alternativa , el estadístico J es asintóticamente ilimitado:

  bajo

Para realizar la prueba calculamos el valor de J a partir de los datos. Es un número no negativo. Lo comparamos con (por ejemplo) el cuantil 0,95 de la distribución:

Alcance

Se pueden formular muchas otras técnicas de estimación populares en términos de optimización de GMM:

Una alternativa al GMM

En método de momentos , se describe una alternativa al Método de Momentos (MoM) original (no generalizado), y se proporcionan referencias a algunas aplicaciones y una lista de ventajas y desventajas teóricas relativas al método tradicional. Este MoM tipo bayesiano (BL-MoM) es distinto de todos los métodos relacionados descritos anteriormente, que están incluidos en el GMM. [5] [6] La literatura no contiene una comparación directa entre el GMM y el BL-MoM en aplicaciones específicas.

Implementaciones

Ver también

Referencias

  1. ^ Hayashi, Fumio (2000). Econometría. Prensa de la Universidad de Princeton. pag. 206.ISBN​ 0-691-01018-8.
  2. ^ Hansen, Lars Peter (1982). "Propiedades de muestras grandes de estimadores del método generalizado de momentos". Econométrica . 50 (4): 1029-1054. doi :10.2307/1912775. JSTOR  1912775.
  3. ^ Newey, W.; McFadden, D. (1994). "Estimación de muestras grandes y prueba de hipótesis". Manual de econometría . vol. 4. Ciencia de Elsevier. págs. 2111–2245. CiteSeerX 10.1.1.724.4480 . doi :10.1016/S1573-4412(05)80005-4. ISBN  9780444887665.
  4. ^ Hansen, Lars Peter; Heaton, Juan; Yarón, Amir (1996). "Propiedades de muestras finitas de algunos estimadores GMM alternativos" (PDF) . Revista de estadísticas económicas y empresariales . 14 (3): 262–280. doi :10.1080/07350015.1996.10524656. hdl : 1721.1/47970 . JSTOR  1392442.
  5. ^ Armitage, Pedro; Colton, Theodore, eds. (18 de febrero de 2005). Enciclopedia de bioestadística (1 ed.). Wiley. doi :10.1002/0470011815. ISBN 978-0-470-84907-1.
  6. ^ Godambe, vicepresidente, ed. (2002). Funciones de estimación . Serie de ciencia estadística de Oxford (Repr ed.). Oxford: Prensa de Clarendon. ISBN 978-0-19-852228-7.

Otras lecturas