stringtranslate.com

Estimador de extremos

En estadística y econometría , los estimadores extremos son una amplia clase de estimadores para modelos paramétricos que se calculan a través de la maximización (o minimización) de una determinada función objetivo , que depende de los datos. La teoría general de los estimadores extremos fue desarrollada por Amemiya (1985).

Definición

Un estimador se denomina estimador de extremo si existe una función objetivo tal que

donde Θ es el espacio de parámetros . A veces se da una definición ligeramente más débil:

donde o p (1) es la variable que converge en probabilidad a cero . Con esta modificación no tiene por qué ser el maximizador exacto de la función objetivo, basta con que esté lo suficientemente cerca de ella.

La teoría de estimadores de extremos no especifica cuál debe ser la función objetivo. Existen varios tipos de funciones objetivo adecuadas para diferentes modelos, y este marco nos permite analizar las propiedades teóricas de dichos estimadores desde una perspectiva unificada. La teoría solo especifica las propiedades que debe poseer la función objetivo, por lo que para seleccionar una función objetivo en particular solo es necesario verificar que se cumplan esas propiedades.

Consistencia

Cuando el espacio de parámetros Θ no es compacto ( Θ = R en este ejemplo), entonces, incluso si la función objetivo se maximiza de forma única en θ 0 , este máximo puede no estar bien separado, en cuyo caso el estimador no será consistente.

Si el espacio de parámetros Θ es compacto y existe una función límite Q 0 ( θ ) tal que: converge a Q 0 ( θ ) en probabilidad uniformemente sobre Θ, y la función Q 0 ( θ ) es continua y tiene un máximo único en θ = θ 0 entonces es consistente para θ 0 . [1]

La convergencia uniforme en probabilidad de significa que

El requisito de que Θ sea compacto puede reemplazarse por una suposición más débil de que el máximo de Q 0 estaba bien separado, es decir, no debería existir ningún punto θ que esté distante de θ 0 pero tal que Q 0 ( θ ) estuviera cerca de Q 0 ( θ 0 ). Formalmente, significa que para cualquier secuencia { θ i } tal que Q 0 ( θ i ) → Q 0 ( θ 0 ) , debería ser cierto que θ iθ 0 .

Normalidad asintótica

Suponiendo que se ha establecido la consistencia y que las derivadas de la muestra satisfacen algunas otras condiciones, [2] el estimador del extremo converge a una distribución asintóticamente normal.

Ejemplos

Véase también

Notas

  1. ^ Newey y McFadden (1994), Teorema 2.1
  2. ^ Shi, Xiaoxia. "Notas de clase: Normalidad asintótica de estimadores extremos" (PDF) .
  3. ^ Hayashi, Fumio (2000). Econometría. Princeton: Princeton University Press. pág. 448. ISBN 0-691-01018-8.
  4. ^ Hayashi, Fumio (2000). Econometría. Princeton: Princeton University Press. pág. 447. ISBN 0-691-01018-8.

Referencias