Unbiased statistical estimator minimizing variance
En estadística, un estimador insesgado de varianza mínima (MVUE) o un estimador insesgado de varianza mínima uniforme (UMVUE) es un estimador insesgado que tiene una varianza menor que cualquier otro estimador insesgado para todos los valores posibles del parámetro.
Para problemas prácticos de estadística, es importante determinar el MVUE, si existe, ya que naturalmente se evitarían procedimientos menos que óptimos, en igualdad de condiciones. Esto ha llevado a un desarrollo sustancial de la teoría estadística relacionada con el problema de la estimación óptima.
Si bien combinar la restricción de imparcialidad con la métrica de deseabilidad de la menor varianza conduce a buenos resultados en la mayoría de los entornos prácticos (lo que convierte a MVUE en un punto de partida natural para una amplia gama de análisis), una especificación específica puede funcionar mejor para un problema determinado; por lo tanto, MVUE no siempre es el mejor punto de parada.
Definición
Considere la estimación de iid basada en datos de algún miembro de una familia de densidades , donde está el espacio de parámetros. Un estimador insesgado de es UMVUE si ,
para cualquier otro estimador insesgado
Si existe un estimador insesgado de , entonces se puede demostrar que existe un MVUE esencialmente único. [1] Utilizando el teorema de Rao-Blackwell también se puede demostrar que determinar el MVUE es simplemente una cuestión de encontrar un estadístico suficiente y completo para la familia y condicionar cualquier estimador insesgado a él.
Además, según el teorema de Lehmann-Scheffé , un estimador insesgado que es función de un estadístico suficiente y completo es el estimador UMVUE.
Dicho formalmente, supongamos que es insesgado para , y que es un estadístico suficiente y completo para la familia de densidades. Entonces
es el MVUE para
Un análogo bayesiano es un estimador de Bayes , particularmente con error cuadrático medio mínimo (MMSE).
Selección del estimador
No es necesario que exista un estimador eficiente , pero si existe y es insesgado, es el MVUE. Dado que el error cuadrático medio (MSE) de un estimador δ es
el MVUE minimiza el MSE entre estimadores insesgados . En algunos casos, los estimadores sesgados tienen un MSE más bajo porque tienen una varianza menor que cualquier estimador insesgado; ver sesgo del estimador .
Ejemplo
Considere los datos como una sola observación de una distribución absolutamente continua con
densidad
y deseamos encontrar el estimador UMVU de
Primero reconocemos que la densidad se puede escribir como
Que es una familia exponencial con estadística suficiente . De hecho, se trata de una familia exponencial de rango completo y, por tanto, es suficientemente completa. Consulte la familia exponencial
para obtener una derivación que muestra
Por lo tanto,
Aquí usamos el teorema de Lehmann-Scheffé para obtener el MVUE
Claramente es imparcial y suficientemente completo, por lo que el estimador UMVU es
Este ejemplo ilustra que una función insesgada del estadístico suficiente completo será UMVU, como establece el teorema de Lehmann-Scheffé .
Otros ejemplos
- donde m es el máximo de la muestra . Esta es una transformación escalada y desplazada (por lo tanto imparcial) del máximo de la muestra, que es una estadística suficiente y completa. Consulte el problema de los tanques alemanes para obtener más detalles.
Ver también
Análogos bayesianos
Referencias
- ^ Lee, AJ, 1946- (1990). Estadística U: teoría y práctica . Nueva York: M. Dekker. ISBN 0824782534. OCLC 21523971.
{{cite book}}
: CS1 maint: multiple names: authors list (link) CS1 maint: numeric names: authors list (link)
- Keener, Robert W. (2006). Teoría estadística: apuntes para un curso de estadística teórica . Saltador. págs. 47–48, 57–58.
- Keener, Robert W. (2010). Estadística teórica: temas para un curso básico . Nueva York: Springer. DOI 10.1007/978-0-387-93839-4
- Voinov VG, Nikulin MS (1993). Estimadores insesgados y sus aplicaciones, Vol.1: Caso univariado . Editores académicos de Kluwer. págs.521p.