En estadística , un estimador consistente o estimador asintóticamente consistente es un estimador —una regla para calcular estimaciones de un parámetro θ 0 —que tiene la propiedad de que, a medida que el número de puntos de datos utilizados aumenta indefinidamente, la secuencia resultante de estimaciones converge en probabilidad a θ 0. Esto significa que las distribuciones de las estimaciones se concentran cada vez más cerca del valor verdadero del parámetro que se está estimando, de modo que la probabilidad de que el estimador esté arbitrariamente cerca de θ 0 converge a uno.
En la práctica, se construye un estimador en función de una muestra disponible de tamaño n y luego se imagina que se puede seguir recopilando datos y ampliando la muestra hasta el infinito . De esta manera, se obtendría una secuencia de estimaciones indexadas por n , y la consistencia es una propiedad de lo que ocurre a medida que el tamaño de la muestra “crece hasta el infinito”. Si se puede demostrar matemáticamente que la secuencia de estimaciones converge en probabilidad al valor verdadero θ 0 , se denomina estimador consistente; de lo contrario, se dice que el estimador es inconsistente .
La consistencia, tal como se define aquí, a veces se denomina consistencia débil . Cuando reemplazamos la convergencia en probabilidad por la convergencia casi segura , se dice que el estimador es fuertemente consistente . La consistencia está relacionada con el sesgo ; consulte sesgo versus consistencia.
Formalmente hablando, se dice que un estimador T n de parámetro θ es débilmente consistente si converge en probabilidad al valor verdadero del parámetro: [1]
es decir, si, para todo ε > 0
Se dice que un estimador T n del parámetro θ es fuertemente consistente si converge casi con seguridad al valor verdadero del parámetro:
Una definición más rigurosa tiene en cuenta el hecho de que θ es en realidad desconocido y, por lo tanto, la convergencia en probabilidad debe tener lugar para cada valor posible de este parámetro. Supongamos que { p θ : θ ∈ Θ } es una familia de distribuciones (el modelo paramétrico ), y X θ = { X 1 , X 2 , … : X i ~ p θ } es una muestra infinita de la distribución p θ . Sea { T n ( X θ ) } una secuencia de estimadores para algún parámetro g ( θ ). Por lo general, T n se basará en las primeras n observaciones de una muestra. Entonces se dice que esta secuencia { T n } es (débilmente) consistente si [2]
Esta definición utiliza g ( θ ) en lugar de simplemente θ , porque a menudo se busca estimar una determinada función o un subvector del parámetro subyacente. En el siguiente ejemplo, estimamos el parámetro de ubicación del modelo, pero no la escala:
Supongamos que se tiene una secuencia de observaciones estadísticamente independientes { X 1 , X 2 , ...} de una distribución normal N ( μ , σ 2 ) . Para estimar μ en función de las primeras n observaciones, se puede utilizar la media de la muestra : T n = ( X 1 + ... + X n )/ n . Esto define una secuencia de estimadores, indexada por el tamaño de la muestra n .
A partir de las propiedades de la distribución normal, conocemos la distribución muestral de este estadístico: T n se distribuye normalmente, con media μ y varianza σ 2 / n . Equivalentemente, tiene una distribución normal estándar:
como n tiende a infinito, para cualquier ε fijo > 0 . Por lo tanto, la secuencia T n de medias muestrales es consistente para la media poblacional μ (recordando que es la distribución acumulativa de la distribución normal).
La noción de consistencia asintótica es muy similar, casi sinónima, a la noción de convergencia en probabilidad. Por lo tanto, cualquier teorema, lema o propiedad que establezca la convergencia en probabilidad puede utilizarse para demostrar la consistencia. Existen muchas herramientas de este tipo:
La elección más común para la función h es el valor absoluto (en cuyo caso se conoce como desigualdad de Markov ) o la función cuadrática (respectivamente, desigualdad de Chebyshev ).
Un estimador puede ser imparcial pero no consistente. Por ejemplo, para una muestra iid { x
1,..., x
norte} se puede usar T
norte( X ) = x
nortecomo estimador de la media E[ X ]. Nótese que aquí la distribución de muestreo de T
nortees lo mismo que la distribución subyacente (para cualquier n, ya que ignora todos los puntos excepto el último), por lo que E[ T
norte( X )] = E[ X ] y es insesgado, pero no converge a ningún valor.
Sin embargo, si una secuencia de estimadores es imparcial y converge a un valor, entonces es consistente, ya que debe converger al valor correcto.
Alternativamente, un estimador puede ser sesgado pero consistente. Por ejemplo, si la media se estima mediante , es sesgado, pero a medida que , se acerca al valor correcto y, por lo tanto, es consistente.
Algunos ejemplos importantes son la varianza de la muestra y la desviación estándar de la muestra . Sin la corrección de Bessel (es decir, cuando se utiliza el tamaño de la muestra en lugar de los grados de libertad ), ambos son estimadores sesgados negativamente, pero consistentes. Con la corrección, la varianza de la muestra corregida no está sesgada, mientras que la desviación estándar de la muestra corregida sigue estando sesgada, pero menos, y ambas siguen siendo consistentes: el factor de corrección converge a 1 a medida que aumenta el tamaño de la muestra.
He aquí otro ejemplo. Sea una secuencia de estimadores para .
Podemos ver que , , y el sesgo no converge a cero.