stringtranslate.com

estimador m

En estadística , los estimadores M son una clase amplia de estimadores extremos para los cuales la función objetivo es un promedio muestral. [1] Tanto los mínimos cuadrados no lineales como la estimación de máxima verosimilitud son casos especiales de estimadores M. La definición de estimadores M fue motivada por estadísticas sólidas , que aportaron nuevos tipos de estimadores M. [ cita necesaria ] Sin embargo, los estimadores M no son intrínsecamente robustos, como se desprende del hecho de que incluyen estimadores de máxima verosimilitud, que en general no son robustos. El procedimiento estadístico de evaluar un estimador M en un conjunto de datos se llama estimación M.

De manera más general, un estimador M puede definirse como un cero de una función de estimación . [2] [3] [4] [5] [6] [7] Esta función de estimación es a menudo la derivada de otra función estadística. Por ejemplo, una estimación de máxima verosimilitud es el punto donde la derivada de la función de verosimilitud con respecto al parámetro es cero; por tanto, un estimador de máxima verosimilitud es un punto crítico de la función de puntuación . [8] En muchas aplicaciones, estos estimadores M pueden considerarse como estimaciones de características de la población.

Motivación histórica

El método de mínimos cuadrados es un estimador M prototípico, ya que el estimador se define como un mínimo de la suma de cuadrados de los residuos.

Otro estimador M popular es la estimación de máxima verosimilitud. Para una familia de funciones de densidad de probabilidad f parametrizadas por θ , se calcula un estimador de máxima verosimilitud de θ para cada conjunto de datos maximizando la función de verosimilitud sobre el espacio de parámetros {  θ  }. Cuando las observaciones son independientes y están distribuidas idénticamente, una estimación ML satisface

o equivalente,

Los estimadores de máxima verosimilitud tienen propiedades óptimas en el límite de un número infinito de observaciones en condiciones bastante generales, pero pueden estar sesgados y no ser los estimadores más eficientes para muestras finitas.

Definición

En 1964, Peter J. Huber propuso generalizar la estimación de máxima verosimilitud para minimizar

donde ρ es una función con ciertas propiedades (ver más abajo). Las soluciones

se denominan estimadores M ("M" para "tipo de máxima verosimilitud" (Huber, 1981, página 43)); Otros tipos de estimadores robustos incluyen estimadores L , estimadores R y estimadores S. Los estimadores de máxima verosimilitud (MLE) son, por tanto, un caso especial de estimadores M. Con un cambio de escala adecuado, los estimadores M son casos especiales de estimadores extremos (en los que se pueden utilizar funciones más generales de las observaciones).

La función ρ, o su derivada, ψ, se puede elegir de tal manera que proporcione al estimador propiedades deseables (en términos de sesgo y eficiencia) cuando los datos provienen realmente de la distribución supuesta, y un comportamiento "no malo" cuando los datos se generan a partir de un modelo que, en cierto sentido, está cerca de la distribución supuesta.

Tipos

Los estimadores M son soluciones, θ , que minimizan

Esta minimización siempre se puede hacer directamente. A menudo es más sencillo derivar con respecto a θ y resolver la raíz de la derivada. Cuando esta diferenciación es posible, se dice que el estimador M es de tipo ψ . De lo contrario, se dice que el estimador M es de tipo ρ .

En la mayoría de los casos prácticos, los estimadores M son de tipo ψ.

tipo ρ

Para un entero positivo r , sea y mida espacios. es un vector de parámetros. Un estimador M de tipo ρ se define mediante una función medible . Asigna una distribución de probabilidad al valor (si existe) que minimiza :

Por ejemplo, para el estimador de máxima verosimilitud , donde .

tipo ψ

Si es diferenciable con respecto a , el cálculo de suele ser mucho más sencillo. Un estimador M de tipo ψ T se define mediante una función medible . Asigna una distribución de probabilidad F al valor (si existe) que resuelve la ecuación vectorial:

Por ejemplo, para el estimador de máxima verosimilitud , donde denota la transpuesta del vector u y .

Tal estimador no es necesariamente un estimador M de tipo ρ, pero si ρ tiene una primera derivada continua con respecto a , entonces una condición necesaria para que un estimador M de tipo ψ sea un estimador M de tipo ρ es . Las definiciones anteriores pueden extenderse fácilmente a muestras finitas.

Si la función ψ disminuye a cero como , el estimador se llama redescendente . Estos estimadores tienen algunas propiedades adicionales deseables, como el rechazo total de los valores atípicos.

Cálculo

Para muchas opciones de ρ o ψ, no existe una solución de forma cerrada y se requiere un enfoque iterativo para el cálculo. Es posible utilizar algoritmos de optimización de funciones estándar, como Newton-Raphson . Sin embargo, en la mayoría de los casos se puede realizar un algoritmo de ajuste de mínimos cuadrados reponderado iterativamente ; Este suele ser el método preferido.

Para algunas elecciones de ψ, específicamente funciones redescendentes , la solución puede no ser única. La cuestión es particularmente relevante en problemas multivariados y de regresión. Por lo tanto, es necesario cierto cuidado para garantizar que se elijan buenos puntos de partida. Son comunes puntos de partida sólidos , como la mediana como estimación de la ubicación y la desviación absoluta de la mediana como estimación univariada de escala.

Parámetros de concentración

En el cálculo de estimadores M, a veces es útil reescribir la función objetivo de modo que se reduzca la dimensión de los parámetros. El procedimiento se llama “concentración” o “perfilado”. Los ejemplos en los que concentrar parámetros aumentan la velocidad de cálculo incluyen modelos de regresiones aparentemente no relacionadas (SUR). [9] Considere el siguiente problema de estimación M:

Suponiendo diferenciabilidad de la función q , el estimador M resuelve las condiciones de primer orden:

Ahora, si podemos resolver la segunda ecuación para γ en términos de y , la segunda ecuación se convierte en:

donde g es, hay alguna función que encontrar. Ahora, podemos reescribir la función objetivo original únicamente en términos de β insertando la función g en el lugar de . Como resultado, hay una reducción en el número de parámetros.

La posibilidad de realizar este procedimiento depende de los problemas particulares que se presenten. Sin embargo, cuando es posible, concentrar los parámetros puede facilitar en gran medida el cálculo. Por ejemplo, al estimar el modelo SUR de 6 ecuaciones con 5 variables explicativas en cada ecuación por Máxima Verosimilitud, el número de parámetros disminuye de 51 a 30. [9]

A pesar de su característica atractiva en el cálculo, los parámetros de concentración tienen una utilidad limitada para derivar propiedades asintóticas del estimador M. [10] La presencia de W en cada suma de la función objetivo dificulta la aplicación de la ley de los grandes números y el teorema del límite central .

Propiedades

Distribución

Se puede demostrar que los estimadores M tienen una distribución asintóticamente normal. Como tal, se pueden utilizar enfoques tipo Wald para construir intervalos de confianza y pruebas de hipótesis. Sin embargo, dado que la teoría es asintótica, con frecuencia será sensato verificar la distribución, tal vez examinando la permutación o la distribución bootstrap .

Función de influencia

La función de influencia de un estimador M de tipo - es proporcional a su función definitoria.

Sea T un estimador M de tipo ψ y G una distribución de probabilidad para la cual está definida. Su función de influencia SI es

suponiendo que existe la función de densidad . Una prueba de esta propiedad de los estimadores M se puede encontrar en Huber (1981, Sección 3.2).

Aplicaciones

Se pueden construir estimadores M para parámetros de ubicación y parámetros de escala en entornos univariados y multivariados, además de usarse en regresión robusta.

Ejemplos

Significar

Sea ( X 1 , ..., X n ) un conjunto de variables aleatorias independientes, distribuidas idénticamente , con distribución F.

si definimos

observamos que esto se minimiza cuando θ es la media de X s. Por tanto, la media es un estimador M de tipo ρ, con esta función ρ.

Como esta función ρ es continuamente diferenciable en θ , la media también es un estimador M de tipo ψ para ψ( x , θ ) = θ  −  x .

Mediana

Para la estimación mediana de ( X 1 , ..., X n ), podemos definir la función ρ como

y de manera similar, la función ρ se minimiza cuando θ es la mediana de las X s.

Si bien esta función ρ no es diferenciable en θ , el estimador M de tipo ψ, que es el subgradiente de la función ρ, se puede expresar como

y

[ se necesita aclaración ]

Condiciones suficientes para la coherencia estadística.

Los estimadores M son consistentes bajo varios conjuntos de condiciones. Un conjunto típico de supuestos es que la clase de funciones satisface una ley uniforme de números grandes y que el máximo está bien separado. Específicamente, dado un objetivo empírico y poblacional , respectivamente, como :

donde es una función de distancia y es óptima, entonces la estimación M es consistente. [11]

La restricción de convergencia uniforme no es necesariamente necesaria; un conjunto alternativo de supuestos es considerar la convergencia puntual ( en probabilidad ) de las funciones objetivo. Además, suponga que cada uno de ellos tiene una derivada continua con exactamente un cero o tiene una derivada que no es decreciente y es de orden asintóticamente . Finalmente, supongamos que el máximo está bien separado. Entonces la estimación M es consistente. [12]

Ver también

Referencias

  1. ^ Hayashi, Fumio (2000). "Estimadores extremos". Econometría . Prensa de la Universidad de Princeton. ISBN 0-691-01018-8.
  2. ^ Vidyadhar P. Godambe , editor. Funciones de estimación , volumen 7 de Oxford Statistical Science Series. The Clarendon Press Oxford University Press, Nueva York, 1991.
  3. ^ Christopher C. Heyde. "Cuasi-verosimilitud y su aplicación: un enfoque general para la estimación óptima de parámetros" . Serie Springer en Estadística. Springer-Verlag, Nueva York, 1997.
  4. ^ DL McLeish y Christopher G. Small. La teoría y aplicaciones de las funciones de inferencia estadística , volumen 44 de Lecture Notes in Statistics. Springer-Verlag, Nueva York, 1988.
  5. ^ Parimal Mukhopadhyay. Introducción a la estimación de funciones . Alpha Science Internacional, Ltd, 2004.
  6. ^ Christopher G. Small y Jinfang Wang. Métodos numéricos para ecuaciones de estimación no lineales , volumen 29 de Oxford Statistical Science Series. The Clarendon Press Oxford University Press, Nueva York, 2003.
  7. ^ Sara A. van de Geer . Procesos empíricos en estimación M: aplicaciones de la teoría de procesos empíricos, volumen 6 de la Serie Cambridge en Matemática estadística y probabilística. Prensa de la Universidad de Cambridge, Cambridge, 2000.
  8. ^ Ferguson, Thomas S. (1982). "Una estimación de máxima verosimilitud inconsistente". Revista de la Asociación Estadounidense de Estadística . 77 (380): 831–834. doi :10.1080/01621459.1982.10477894. JSTOR  2287314.
  9. ^ ab Giles, DE (10 de julio de 2012). "Concentrar o perfilar la función de probabilidad".
  10. ^ Wooldridge, JM (2001). Análisis econométrico de datos de sección transversal y de panel . Cambridge, Massachusetts: MIT Press. ISBN 0-262-23219-7.
  11. ^ Vaart AW van der. Estadísticas asintóticas. Prensa de la Universidad de Cambridge; 1998.
  12. ^ Vaart AW van der. Estadísticas asintóticas. Prensa de la Universidad de Cambridge; 1998.

Otras lecturas

enlaces externos