stringtranslate.com

Método generalizado de momentos

En econometría y estadística , el método generalizado de momentos ( GMM ) es un método genérico para estimar parámetros en modelos estadísticos . Generalmente se aplica en el contexto de modelos semiparamétricos , donde el parámetro de interés es de dimensión finita, mientras que la forma completa de la función de distribución de los datos puede no ser conocida y, por lo tanto, la estimación de máxima verosimilitud no es aplicable.

El método requiere que se especifique una cierta cantidad de condiciones de momento para el modelo. Estas condiciones de momento son funciones de los parámetros del modelo y de los datos, de modo que su expectativa es cero en los valores verdaderos de los parámetros. El método GMM luego minimiza una cierta norma de los promedios de muestra de las condiciones de momento y, por lo tanto, puede considerarse como un caso especial de estimación de distancia mínima . [1]

Se sabe que los estimadores GMM son consistentes , asintóticamente normales y más eficientes en la clase de todos los estimadores que no utilizan ninguna información adicional aparte de la contenida en las condiciones de momento. GMM fue defendido por Lars Peter Hansen en 1982 como una generalización del método de momentos , [2] introducido por Karl Pearson en 1894. Sin embargo, estos estimadores son matemáticamente equivalentes a aquellos basados ​​en "condiciones de ortogonalidad" (Sargan, 1958, 1959) o "ecuaciones de estimación imparciales" (Huber, 1967; Wang et al., 1997).

Descripción

Supongamos que los datos disponibles consisten en T observaciones { Y t  } t  = 1,..., T , donde cada observación Y t es una variable aleatoria multivariante n -dimensional . Suponemos que los datos provienen de un cierto modelo estadístico , definido hasta un parámetro desconocido θ ∈ Θ . El objetivo del problema de estimación es encontrar el valor "verdadero" de este parámetro, θ 0 , o al menos una estimación razonablemente cercana.

Un supuesto general del GMM es que los datos Y t se generan mediante un proceso estocástico ergódico débilmente estacionario . (El caso de las variables independientes e idénticamente distribuidas (iid) Y t es un caso especial de esta condición).

Para aplicar GMM, necesitamos tener "condiciones de momento", es decir, necesitamos conocer una función vectorial g ( Y , θ ) tal que

donde E denota expectativa e Y t es una observación genérica. Además, la función m ( θ ) debe ser distinta de cero para θθ 0 , de lo contrario el parámetro θ no será identificado puntualmente .

La idea básica detrás del GMM es reemplazar el valor esperado teórico E[⋅] con su análogo empírico: el promedio de la muestra:

y luego minimizar la norma de esta expresión con respecto a θ . El valor minimizador de θ es nuestra estimación para θ 0 .

Por la ley de los grandes números , para valores grandes de T , y por lo tanto esperamos que . El método generalizado de momentos busca un número que haga que t sea lo más cercano posible a cero. Matemáticamente, esto es equivalente a minimizar una cierta norma de (norma de m , denotada como || m ||, mide la distancia entre m y cero). Las propiedades del estimador resultante dependerán de la elección particular de la función norma y, por lo tanto, la teoría del GMM considera una familia completa de normas, definidas como

donde W es una matriz de ponderación definida positiva y denota transposición . En la práctica, la matriz de ponderación W se calcula en función del conjunto de datos disponible, que se denotará como . Por lo tanto, el estimador GMM se puede escribir como

En condiciones adecuadas, este estimador es consistente , asintóticamente normal y, con la elección correcta de la matriz de ponderación, también asintóticamente eficiente .

Propiedades

Consistencia

La consistencia es una propiedad estadística de un estimador que establece que, teniendo un número suficiente de observaciones, el estimador convergerá en probabilidad al valor verdadero del parámetro:

Las condiciones suficientes para que un estimador GMM sea consistente son las siguientes:

  1. donde W es una matriz semidefinida positiva ,
  2.   Sólo para
  3. El espacio de parámetros posibles es compacto ,
  4.   es continua en cada θ con probabilidad uno,

La segunda condición (la llamada condición de identificación global ) suele ser especialmente difícil de verificar. Existen condiciones más simples, necesarias pero no suficientes, que pueden utilizarse para detectar problemas de no identificación:

En la práctica, los econometristas aplicados a menudo simplemente suponen que la identificación global es válida, sin probarlo realmente. [3] : 2127 

Normalidad asintótica

La normalidad asintótica es una propiedad útil, ya que nos permite construir bandas de confianza para el estimador y realizar diferentes pruebas. Antes de poder hacer una afirmación sobre la distribución asintótica del estimador GMM, necesitamos definir dos matrices auxiliares:

Entonces, en las condiciones 1 a 6 que se enumeran a continuación, el estimador GMM será asintóticamente normal con distribución límite :

Condiciones:

  1. es consistente (ver sección anterior),
  2. El conjunto de parámetros posibles es compacto ,
  3. es continuamente diferenciable en algún entorno N de con probabilidad uno,
  4. La matriz no es singular.

Eficiencia relativa

Hasta ahora no hemos dicho nada sobre la elección de la matriz W , excepto que debe ser semidefinida positiva. De hecho, cualquier matriz de este tipo producirá un estimador GMM consistente y asintóticamente normal, la única diferencia estará en la varianza asintótica de ese estimador. Se puede demostrar que tomando

dará como resultado el estimador más eficiente en la clase de todos los métodos (generalizados) de estimadores de momento. Solo un número infinito de condiciones ortogonales obtiene la varianza más pequeña, el límite de Cramér-Rao .

En este caso, la fórmula para la distribución asintótica del estimador GMM se simplifica a

La prueba de que dicha elección de matriz de ponderación es, en efecto, óptima a nivel local se suele adoptar con ligeras modificaciones al establecer la eficiencia de otros estimadores. Como regla general, una matriz de ponderación se acerca más a la optimalidad cuando se convierte en una expresión más cercana al límite de Cramér-Rao .

Implementación

Una dificultad con la implementación del método descrito es que no podemos tomar W = Ω −1 porque, por la definición de la matriz Ω, necesitamos saber el valor de θ 0 para calcular esta matriz, y θ 0 es precisamente la cantidad que no conocemos y que estamos tratando de estimar en primer lugar. En el caso de que Y t sea iid, podemos estimar W como

Existen varios enfoques para abordar esta cuestión, siendo el primero el más popular:

Otro aspecto importante en la implementación del procedimiento de minimización es que se supone que la función debe buscar en el espacio de parámetros Θ (posiblemente de alta dimensión) y encontrar el valor de θ que minimiza la función objetivo. No existe una recomendación genérica para dicho procedimiento; es un tema en su propio campo, la optimización numérica .

Sargan-HansenYo-prueba

Cuando el número de condiciones de momento es mayor que la dimensión del vector de parámetros θ , se dice que el modelo está sobreidentificado . Sargan (1958) propuso pruebas para restricciones de sobreidentificación basadas en estimadores de variables instrumentales que se distribuyen en muestras grandes como variables de Chi-cuadrado con grados de libertad que dependen del número de restricciones de sobreidentificación. Posteriormente, Hansen (1982) aplicó esta prueba a la formulación matemáticamente equivalente de los estimadores GMM. Sin embargo, tenga en cuenta que dichas estadísticas pueden ser negativas en aplicaciones empíricas donde los modelos están mal especificados, y las pruebas de razón de verosimilitud pueden brindar información ya que los modelos se estiman bajo hipótesis nulas y alternativas (Bhargava y Sargan, 1983).

Conceptualmente, podemos comprobar si es lo suficientemente cercano a cero como para sugerir que el modelo se ajusta bien a los datos. El método GMM ha reemplazado entonces el problema de resolver la ecuación , que elige coincidir exactamente con las restricciones, por un cálculo de minimización. La minimización siempre se puede realizar incluso cuando no existe tal que . Esto es lo que hace la prueba J. La prueba J también se denomina prueba para sobreidentificar restricciones .

Formalmente consideramos dos hipótesis :

Según la hipótesis , la siguiente estadística denominada J se distribuye de forma asintótica mediante chi-cuadrado con k–l grados de libertad. Definamos J como:

  bajo

donde es el estimador GMM del parámetro , k es el número de condiciones de momento (dimensión del vector g ), y l es el número de parámetros estimados (dimensión del vector θ ). La matriz debe converger en probabilidad a , la matriz de ponderación eficiente (nótese que anteriormente solo requeríamos que W fuera proporcional a para que el estimador fuera eficiente; sin embargo, para realizar la prueba J, W debe ser exactamente igual a , no simplemente proporcional).

Bajo la hipótesis alternativa , la estadística J es asintóticamente ilimitada:

  bajo

Para realizar la prueba calculamos el valor de J a partir de los datos. Es un número no negativo. Lo comparamos con (por ejemplo) el cuartil 0,95 de la distribución:

Alcance

Muchas otras técnicas de estimación populares se pueden formular en términos de optimización GMM:

Una alternativa al GMM

En el método de momentos se describe una alternativa al método de momentos (MoM) original (no generalizado) y se proporcionan referencias a algunas aplicaciones y una lista de ventajas y desventajas teóricas en relación con el método tradicional. Este MoM tipo bayesiano (BL-MoM) es distinto de todos los métodos relacionados descritos anteriormente, que están incluidos en el GMM. [5] [6] La literatura no contiene una comparación directa entre el GMM y el BL-MoM en aplicaciones específicas.

Implementaciones

Véase también

Referencias

  1. ^ Hayashi, Fumio (2000). Econometría. Princeton University Press. pág. 206. ISBN 0-691-01018-8.
  2. ^ Hansen, Lars Peter (1982). "Propiedades de muestras grandes de estimadores del método generalizado de momentos". Econometrica . 50 (4): 1029–1054. doi :10.2307/1912775. JSTOR  1912775.
  3. ^ Newey, W.; McFadden, D. (1994). "Estimación de muestras grandes y prueba de hipótesis". Handbook of Econometrics . Vol. 4. Elsevier Science. págs. 2111–2245. CiteSeerX 10.1.1.724.4480 . doi :10.1016/S1573-4412(05)80005-4. ISBN  9780444887665.
  4. ^ Hansen, Lars Peter; Heaton, John; Yaron, Amir (1996). "Propiedades de muestras finitas de algunos estimadores GMM alternativos" (PDF) . Journal of Business & Economic Statistics . 14 (3): 262–280. doi :10.1080/07350015.1996.10524656. hdl : 1721.1/47970 . JSTOR  1392442.
  5. ^ Armitage, Peter; Colton, Theodore, eds. (18 de febrero de 2005). Enciclopedia de bioestadística (1.ª ed.). Wiley. doi :10.1002/0470011815. ISBN 978-0-470-84907-1.
  6. ^ Godambe, VP, ed. (2002). Estimación de funciones . Serie de ciencias estadísticas de Oxford (edición repetida). Oxford: Clarendon Press. ISBN 978-0-19-852228-7.

Lectura adicional