stringtranslate.com

Estimador M

En estadística , los estimadores M son una amplia clase de estimadores de extremos para los cuales la función objetivo es un promedio de muestra. [1] Tanto los mínimos cuadrados no lineales como la estimación de máxima verosimilitud son casos especiales de estimadores M. La definición de estimadores M fue motivada por la estadística robusta , que contribuyó con nuevos tipos de estimadores M. [ cita requerida ] Sin embargo, los estimadores M no son inherentemente robustos, como queda claro por el hecho de que incluyen estimadores de máxima verosimilitud, que en general no son robustos. El procedimiento estadístico de evaluar un estimador M en un conjunto de datos se llama estimación M.

En términos más generales, un estimador M puede definirse como un cero de una función de estimación . [2] [3] [4] [5] [6] [7] Esta función de estimación es a menudo la derivada de otra función estadística. Por ejemplo, una estimación de máxima verosimilitud es el punto donde la derivada de la función de verosimilitud con respecto al parámetro es cero; por lo tanto, un estimador de máxima verosimilitud es un punto crítico de la función de puntuación . [8] En muchas aplicaciones, estos estimadores M pueden considerarse como características de estimación de la población.

Motivación histórica

El método de mínimos cuadrados es un estimador M prototípico, ya que el estimador se define como un mínimo de la suma de los cuadrados de los residuos.

Otro estimador M popular es la estimación de máxima verosimilitud. Para una familia de funciones de densidad de probabilidad f parametrizadas por θ , se calcula un estimador de máxima verosimilitud de θ para cada conjunto de datos maximizando la función de verosimilitud en el espacio de parámetros {  θ  } . Cuando las observaciones son independientes y se distribuyen de manera idéntica, una estimación de máxima verosimilitud satisface

o, equivalentemente,

Los estimadores de máxima verosimilitud tienen propiedades óptimas en el límite de infinitas observaciones bajo condiciones bastante generales, pero pueden estar sesgados y no ser los estimadores más eficientes para muestras finitas.

Definición

En 1964, Peter J. Huber propuso generalizar la estimación de máxima verosimilitud a la minimización de

donde ρ es una función con ciertas propiedades (ver más abajo). Las soluciones

se denominan estimadores M ("M" por "maximum probability-type" (Huber, 1981, página 43)); otros tipos de estimadores robustos incluyen estimadores L , estimadores R y estimadores S. Los estimadores de máxima verosimilitud (MLE) son, por tanto, un caso especial de estimadores M. Con un reescalado adecuado, los estimadores M son casos especiales de estimadores de extremos (en los que se pueden utilizar funciones más generales de las observaciones).

La función ρ, o su derivada, ψ, se puede elegir de tal manera que proporcione al estimador propiedades deseables (en términos de sesgo y eficiencia) cuando los datos realmente provienen de la distribución asumida, y un comportamiento "no malo" cuando los datos se generan a partir de un modelo que es, en cierto sentido, cercano a la distribución asumida.

Tipos

Los estimadores M son soluciones, θ , que minimizan

Esta minimización siempre se puede realizar directamente. A menudo es más sencillo derivar con respecto a θ y resolver la raíz de la derivada. Cuando esta derivación es posible, se dice que el estimador M es de tipo ψ . En caso contrario, se dice que el estimador M es de tipo ρ .

En la mayoría de los casos prácticos, los estimadores M son de tipo ψ.

tipo ρ

Para un entero positivo r , sean y espacios de medida. es un vector de parámetros. Un estimador M de tipo ρ se define mediante una función medible . Asigna una distribución de probabilidad al valor (si existe) que minimiza :

Por ejemplo, para el estimador de máxima verosimilitud , , donde .

tipo ψ

Si es diferenciable con respecto a , el cálculo de suele ser mucho más sencillo. Un estimador M de T de tipo ψ se define mediante una función medible . Asigna una distribución de probabilidad F al valor (si existe) que resuelve la ecuación vectorial:

Por ejemplo, para el estimador de máxima verosimilitud , , donde denota la transposición del vector u y .

Un estimador de este tipo no es necesariamente un estimador M de tipo ρ, pero si ρ tiene una primera derivada continua con respecto a , entonces una condición necesaria para que un estimador M de tipo ψ sea un estimador M de tipo ρ es . Las definiciones anteriores se pueden extender fácilmente a muestras finitas.

Si la función ψ disminuye hasta cero a medida que , el estimador se denomina redescendente . Estos estimadores tienen algunas propiedades adicionales deseables, como el rechazo total de valores atípicos importantes.

Cálculo

Para muchas opciones de ρ o ψ, no existe una solución en forma cerrada y se requiere un enfoque iterativo para el cálculo. Es posible utilizar algoritmos de optimización de funciones estándar, como Newton-Raphson . Sin embargo, en la mayoría de los casos se puede realizar un algoritmo de ajuste de mínimos cuadrados reponderado iterativamente ; este suele ser el método preferido.

Para algunas opciones de ψ, en concreto, funciones redescendentes , la solución puede no ser única. La cuestión es especialmente relevante en problemas multivariados y de regresión. Por tanto, es necesario tener cuidado para garantizar que se elijan buenos puntos de partida. Son habituales los puntos de partida robustos , como la mediana como estimación de la ubicación y la desviación absoluta mediana como estimación univariante de la escala.

Parámetros de concentración

En el cálculo de estimadores M, a veces resulta útil reescribir la función objetivo de modo que se reduzca la dimensión de los parámetros. El procedimiento se denomina “concentración” o “perfilado”. Entre los ejemplos en los que la concentración de parámetros aumenta la velocidad de cálculo se incluyen los modelos de regresiones aparentemente no relacionadas (SUR). [9] Consideremos el siguiente problema de estimación M:

Suponiendo la diferenciabilidad de la función q , el estimador M resuelve las condiciones de primer orden:

Ahora, si podemos resolver la segunda ecuación para γ en términos de y , la segunda ecuación se convierte en:

donde g es , hay alguna función que encontrar. Ahora, podemos reescribir la función objetivo original únicamente en términos de β insertando la función g en el lugar de . Como resultado, hay una reducción en el número de parámetros.

La posibilidad de llevar a cabo este procedimiento depende de los problemas particulares que se presenten. Sin embargo, cuando es posible, la concentración de parámetros puede facilitar en gran medida el cálculo. Por ejemplo, al estimar el modelo SUR de 6 ecuaciones con 5 variables explicativas en cada ecuación por Máxima Verosimilitud, el número de parámetros disminuye de 51 a 30. [9]

A pesar de su característica atractiva en el cálculo, la concentración de parámetros tiene una utilidad limitada para derivar propiedades asintóticas del estimador M. [10] La presencia de W en cada sumando de la función objetivo dificulta la aplicación de la ley de los grandes números y el teorema del límite central .

Propiedades

Distribución

Se puede demostrar que los estimadores M se distribuyen normalmente de forma asintótica. Por lo tanto, se pueden utilizar métodos de tipo Wald para construir intervalos de confianza y pruebas de hipótesis. Sin embargo, dado que la teoría es asintótica, con frecuencia será sensato comprobar la distribución, tal vez examinando la distribución de permutación o bootstrap .

Función de influencia

La función de influencia de un estimador M de tipo es proporcional a su función definitoria.

Sea T un estimador M de tipo ψ y G una distribución de probabilidad para la cual se define . Su función de influencia IF es

Suponiendo que existe la función de densidad , se puede encontrar una prueba de esta propiedad de los estimadores M en Huber (1981, Sección 3.2).

Aplicaciones

Se pueden construir estimadores M para parámetros de ubicación y parámetros de escala en entornos univariados y multivariados, además de usarse en regresión robusta.

Ejemplos

Significar

Sea ( X 1 , ..., X n ) un conjunto de variables aleatorias independientes, idénticamente distribuidas , con distribución F .

Si definimos

Observamos que esto se minimiza cuando θ es la media de las X. Por lo tanto, la media es un estimador M de tipo ρ, con esta función ρ.

Como esta función ρ es continuamente diferenciable en θ , la media es también un estimador M de tipo ψ para ψ( x , θ ) = θ  −  x .

Mediana

Para la estimación mediana de ( X 1 , ..., X n ), en cambio podemos definir la función ρ como

y de manera similar, la función ρ se minimiza cuando θ es la mediana de las X s.

Si bien esta función ρ no es diferenciable en θ , el estimador M de tipo ψ, que es el subgradiente de la función ρ, se puede expresar como

y

[ aclaración necesaria ]

Condiciones suficientes para la consistencia estadística

Los estimadores M son consistentes bajo varios conjuntos de condiciones. Un conjunto típico de supuestos es que la clase de funciones satisface una ley uniforme de grandes números y que el máximo está bien separado. Específicamente, dado un objetivo empírico y poblacional , respectivamente, como :

y para cada :

donde es una función de distancia y es el óptimo, entonces la estimación M es consistente. [11]

La restricción de convergencia uniforme no es necesariamente necesaria; un conjunto alternativo de supuestos es considerar en cambio la convergencia puntual ( en probabilidad ) de las funciones objetivo. Además, suponga que cada una de las tiene una derivada continua con exactamente un cero o tiene una derivada que no es decreciente y es asintóticamente de orden . Finalmente, suponga que el máximo está bien separado. Entonces la estimación M es consistente. [12]

Véase también

Referencias

  1. ^ Hayashi, Fumio (2000). "Estimadores de extremos". Econometría . Princeton University Press. ISBN 0-691-01018-8.
  2. ^ Vidyadhar P. Godambe , editor. Estimating functions , volumen 7 de Oxford Statistical Science Series. The Clarendon Press, Oxford University Press, Nueva York, 1991.
  3. ^ Christopher C. Heyde. Cuasi-verosimilitud y su aplicación: un enfoque general para la estimación óptima de parámetros . Springer Series in Statistics. Springer-Verlag, Nueva York, 1997.
  4. ^ DL McLeish y Christopher G. Small. La teoría y las aplicaciones de las funciones de inferencia estadística , volumen 44 de Lecture Notes in Statistics. Springer-Verlag, Nueva York, 1988.
  5. ^ Parimal Mukhopadhyay. Introducción a la estimación de funciones . Alpha Science International, Ltd, 2004.
  6. ^ Christopher G. Small y Jinfang Wang. Métodos numéricos para ecuaciones de estimación no lineales , volumen 29 de Oxford Statistical Science Series. The Clarendon Press Oxford University Press, Nueva York, 2003.
  7. ^ Sara A. van de Geer . Procesos empíricos en estimación M: aplicaciones de la teoría de procesos empíricos, volumen 6 de Cambridge Series in Statistical and Probabilistic Mathematics. Cambridge University Press, Cambridge, 2000.
  8. ^ Ferguson, Thomas S. (1982). "Una estimación de máxima verosimilitud inconsistente". Revista de la Asociación Estadounidense de Estadística . 77 (380): 831–834. doi :10.1080/01621459.1982.10477894. JSTOR  2287314.
  9. ^ ab Giles, DE (10 de julio de 2012). "Concentración o perfilado de la función de verosimilitud".
  10. ^ Wooldridge, JM (2001). Análisis econométrico de datos de sección transversal y de panel . Cambridge, Mass.: MIT Press. ISBN 0-262-23219-7.
  11. ^ Vaart AW van der. Estadísticas asintóticas. Prensa de la Universidad de Cambridge; 1998.
  12. ^ Vaart AW van der. Estadísticas asintóticas. Prensa de la Universidad de Cambridge; 1998.

Lectura adicional

Enlaces externos