stringtranslate.com

Estimador consistente

{ T 1 , T 2 , T 3 , ...} es una secuencia de estimadores para el parámetro θ 0 , cuyo valor verdadero es 4. Esta secuencia es consistente: los estimadores se concentran cada vez más cerca del valor verdadero θ 0 ; al mismo tiempo, estos estimadores están sesgados. La distribución límite de la secuencia es una variable aleatoria degenerada que es igual a θ 0 con probabilidad 1.

En estadística , un estimador consistente o estimador asintóticamente consistente es un estimador (una regla para calcular estimaciones de un parámetro θ 0 ) que tiene la propiedad de que a medida que el número de puntos de datos utilizados aumenta indefinidamente, la secuencia resultante de estimaciones converge en probabilidad a θ 0 . Esto significa que las distribuciones de las estimaciones se concentran cada vez más cerca del valor real del parámetro que se estima, de modo que la probabilidad de que el estimador esté arbitrariamente cerca de θ 0 converge a uno.

En la práctica, uno construye un estimador en función de una muestra disponible de tamaño n , y luego imagina que puede seguir recopilando datos y expandir la muestra hasta el infinito . De esta manera se obtendría una secuencia de estimaciones indexadas por n , y la consistencia es una propiedad de lo que ocurre cuando el tamaño de la muestra “crece hasta el infinito”. Si se puede demostrar matemáticamente que la secuencia de estimaciones converge en probabilidad al valor verdadero θ 0 , se le llama estimador consistente; de lo contrario se dice que el estimador es inconsistente .

La coherencia, tal como se define aquí, a veces se denomina coherencia débil . Cuando reemplazamos la convergencia en probabilidad con una convergencia casi segura , entonces se dice que el estimador es fuertemente consistente . La coherencia está relacionada con el sesgo ; ver sesgo versus consistencia.

Definición

Formalmente hablando, se dice que un estimador T n del parámetro θ es débilmente consistente si converge en probabilidad al valor verdadero del parámetro: [1]

es decir, si, para todo ε > 0

Se dice que un estimador T n del parámetro θ es fuertemente consistente si converge casi con seguridad al valor verdadero del parámetro:

Una definición más rigurosa tiene en cuenta el hecho de que θ es realmente desconocido y, por tanto, la convergencia en probabilidad debe tener lugar para cada valor posible de este parámetro. Supongamos que { p θ : θ  ∈ Θ } es una familia de distribuciones (el modelo paramétrico ), y X θ = { X 1 , X 2 , ... : X i ~ p θ } es una muestra infinita de la distribución p θ . Sea {  T n ( X θ ) } una secuencia de estimadores para algún parámetro g ( θ ). Generalmente, T n se basará en las primeras n observaciones de una muestra. Entonces se dice que esta secuencia { T n } es (débilmente) consistente si [2]

Esta definición usa g ( θ ) en lugar de simplemente θ , porque a menudo uno está interesado en estimar una determinada función o un subvector del parámetro subyacente. En el siguiente ejemplo, estimamos el parámetro de ubicación del modelo, pero no la escala:

Ejemplos

Media muestral de una variable aleatoria normal

Supongamos que uno tiene una secuencia de observaciones estadísticamente independientes { X 1 , X 2 , ...} de una distribución normal N ( μ ,  σ 2 ) . Para estimar μ basándose en las primeras n observaciones, se puede utilizar la media muestral : T n  = ( X 1 + ... + X n )/ n . Esto define una secuencia de estimadores, indexados por el tamaño de muestra n .

A partir de las propiedades de la distribución normal, conocemos la distribución muestral de esta estadística: T n tiene una distribución normal, con media μ y varianza σ 2 / n . De manera equivalente, tiene una distribución normal estándar:

como n tiende al infinito, para cualquier ε fijo > 0 . Por lo tanto, la secuencia T n de medias muestrales es consistente para la media poblacional  μ (recordando que es la distribución acumulativa de la distribución normal).

Estableciendo coherencia

La noción de consistencia asintótica es muy cercana, casi sinónima, a la noción de convergencia en probabilidad. Como tal, cualquier teorema, lema o propiedad que establezca convergencia en probabilidad puede usarse para demostrar la consistencia. Existen muchas herramientas de este tipo:

la elección más común para la función h es el valor absoluto (en cuyo caso se conoce como desigualdad de Markov ) o la función cuadrática (respectivamente, la desigualdad de Chebyshev ).

Sesgo versus coherencia

Imparcial pero no consistente

Un estimador puede ser insesgado pero no consistente. Por ejemplo, para una muestra iid { x
1
,..., X
norte
} se puede usar T
norte
( X ) = x
norte
como estimador de la media E[ X ]. Tenga en cuenta que aquí la distribución muestral de T
norte
es la misma que la distribución subyacente (para cualquier n, ya que ignora todos los puntos excepto el último), por lo que E[ T
norte
( X )] = E[ X ] y es insesgado, pero no converge a ningún valor.

Sin embargo, si una secuencia de estimadores es insesgada y converge a un valor, entonces es consistente, ya que debe converger al valor correcto.

Sesgado pero consistente

Alternativamente, un estimador puede ser sesgado pero consistente. Por ejemplo, si la media se estima por está sesgada, pero a medida que se aproxima al valor correcto, por lo que es consistente.

Ejemplos importantes incluyen la varianza muestral y la desviación estándar muestral . Sin la corrección de Bessel (es decir, cuando se utiliza el tamaño de la muestra en lugar de los grados de libertad ), ambos son estimadores con sesgo negativo pero consistentes. Con la corrección, la varianza muestral corregida es insesgada, mientras que la desviación estándar muestral corregida sigue estando sesgada, pero menos, y ambas siguen siendo consistentes: el factor de corrección converge a 1 a medida que crece el tamaño de la muestra.

Aquí hay otro ejemplo. Sea una secuencia de estimadores para .

Podemos ver que , y el sesgo no converge a cero.

Ver también

Notas

  1. ^ Amemiya 1985, Definición 3.4.2.
  2. ^ Lehman y Casella 1998, pág. 332.
  3. ^ Amemiya 1985, ecuación (3.2.5).
  4. ^ Amemiya 1985, Teorema 3.2.6.
  5. ^ Amemiya 1985, Teorema 3.2.7.
  6. ^ Newey y McFadden 1994, capítulo 2.

Referencias

enlaces externos