La estimación de distancia mínima ( EDM ) es un método conceptual para ajustar un modelo estadístico a los datos, generalmente la distribución empírica . Los estimadores que se utilizan con frecuencia, como los mínimos cuadrados ordinarios, pueden considerarse casos especiales de estimación de distancia mínima.
Si bien son consistentes y asintóticamente normales , los estimadores de distancia mínima generalmente no son estadísticamente eficientes cuando se los compara con los estimadores de máxima verosimilitud , porque omiten el jacobiano que suele estar presente en la función de verosimilitud . Sin embargo, esto reduce sustancialmente la complejidad computacional del problema de optimización.
Sea una muestra aleatoria independiente e idénticamente distribuida (iid) de una población con distribución y .
Sea la función de distribución empírica basada en la muestra.
Sea un estimador para . Entonces es un estimador para .
Sea una función que devuelve una medida de "distancia" entre sus dos argumentos. La función también se denomina función de criterio.
Si existe un tal que , entonces se llama estimación de distancia mínima de .
(Drossos y Philippou 1980, p. 121)
La mayoría de los estudios teóricos de estimación de distancia mínima, y la mayoría de las aplicaciones, utilizan medidas de "distancia" que sirven de base a pruebas de bondad de ajuste ya establecidas : la estadística de prueba utilizada en una de estas pruebas se utiliza como la medida de distancia que se debe minimizar. A continuación se presentan algunos ejemplos de pruebas estadísticas que se han utilizado para la estimación de distancia mínima.
La prueba de chi-cuadrado utiliza como criterio la suma, sobre grupos predefinidos, de la diferencia al cuadrado entre los incrementos de la distribución empírica y la distribución estimada, ponderada por el incremento de la estimación para ese grupo.
El criterio de Cramér-von Mises utiliza la integral de la diferencia al cuadrado entre las funciones de distribución empíricas y estimadas (Parr y Schucany 1980, p. 616).
La prueba de Kolmogorov-Smirnov utiliza el supremo de la diferencia absoluta entre las funciones de distribución empíricas y estimadas (Parr y Schucany 1980, p. 616).
La prueba de Anderson-Darling es similar al criterio de Cramér-von Mises excepto que la integral es una versión ponderada de la diferencia al cuadrado, donde la ponderación relaciona la varianza de la función de distribución empírica (Parr y Schucany 1980, p. 616).
La teoría de la estimación de la distancia mínima está relacionada con la de la distribución asintótica de las pruebas estadísticas de bondad de ajuste correspondientes . A menudo, los casos del criterio de Cramér-von Mises , la prueba de Kolmogorov-Smirnov y la prueba de Anderson-Darling se tratan simultáneamente tratándolos como casos especiales de una formulación más general de una medida de distancia. Algunos ejemplos de los resultados teóricos disponibles son: consistencia de las estimaciones de los parámetros; las matrices de covarianza asintóticas de las estimaciones de los parámetros.