stringtranslate.com

Estimador extremo

En estadística y econometría , los estimadores extremos son una amplia clase de estimadores para modelos paramétricos que se calculan mediante la maximización (o minimización) de una determinada función objetivo , que depende de los datos. La teoría general de los estimadores extremos fue desarrollada por Amemiya (1985).

Definición

Un estimador se llama estimador extremo , si existe una función objetivo tal que

donde Θ es el espacio de parámetros . A veces se da una definición un poco más débil:

donde o p (1) es la variable que converge en probabilidad a cero . Con esta modificación no tiene por qué ser el maximizador exacto de la función objetivo, solo estar lo suficientemente cerca de ella.

La teoría de los estimadores extremos no especifica cuál debería ser la función objetivo. Existen varios tipos de funciones objetivo adecuadas para diferentes modelos, y este marco nos permite analizar las propiedades teóricas de dichos estimadores desde una perspectiva unificada. La teoría solo especifica las propiedades que debe poseer la función objetivo, por lo que seleccionar una función objetivo particular solo requiere verificar que esas propiedades se cumplan.

Consistencia

Cuando el espacio de parámetros Θ no es compacto ( Θ = R en este ejemplo), incluso si la función objetivo se maximiza de forma única en θ 0 , este máximo puede no estar bien separado, en cuyo caso el estimador no será consistente.

Si el espacio de parámetros Θ es compacto y existe una función limitante Q 0 ( θ ) tal que: converge a Q 0 ( θ ) en probabilidad uniformemente sobre Θ, y la función Q 0 ( θ ) es continua y tiene un máximo único en θ = θ 0 entonces es consistente para θ 0 . [1]

La convergencia uniforme en la probabilidad de significa que

El requisito de que Θ sea compacto se puede reemplazar con una suposición más débil de que el máximo de Q 0 estaba bien separado, es decir, no debería existir ningún punto θ que esté distante de θ 0 pero que sea tal que Q 0 ( θ ) esté cerca. a Q 0 ( θ 0 ). Formalmente, significa que para cualquier secuencia { θ i } tal que Q 0 ( θ i ) → Q 0 ( θ 0 ) , debería ser cierto que θ iθ 0 .

Normalidad asintótica

Suponiendo que se ha establecido la coherencia y que las derivadas de la muestra satisfacen algunas otras condiciones, [2] el estimador extremo converge a una distribución asintóticamente normal.

Ejemplos

Ver también

Notas

  1. ^ Newey y McFadden (1994), Teorema 2.1
  2. ^ Shi, Xiaoxia. "Notas de la conferencia: normalidad asintótica de estimadores extremos" (PDF) .
  3. ^ Hayashi, Fumio (2000). Econometría. Princeton: Prensa de la Universidad de Princeton. pag. 448.ISBN 0-691-01018-8.
  4. ^ Hayashi, Fumio (2000). Econometría. Princeton: Prensa de la Universidad de Princeton. pag. 447.ISBN 0-691-01018-8.

Referencias