stringtranslate.com

Estimation theory

Estimation theory is a branch of statistics that deals with estimating the values of parameters based on measured empirical data that has a random component. The parameters describe an underlying physical setting in such a way that their value affects the distribution of the measured data. An estimator attempts to approximate the unknown parameters using the measurements. In estimation theory, two approaches are generally considered:[1]

Examples

For example, it is desired to estimate the proportion of a population of voters who will vote for a particular candidate. That proportion is the parameter sought; the estimate is based on a small random sample of voters. Alternatively, it is desired to estimate the probability of a voter voting for a particular candidate, based on some demographic features, such as age.

Or, for example, in radar the aim is to find the range of objects (airplanes, boats, etc.) by analyzing the two-way transit timing of received echoes of transmitted pulses. Since the reflected pulses are unavoidably embedded in electrical noise, their measured values are randomly distributed, so that the transit time must be estimated.

As another example, in electrical communication theory, the measurements which contain information regarding the parameters of interest are often associated with a noisy signal.

Basics

Para un modelo determinado, se necesitan varios "ingredientes" estadísticos para que se pueda implementar el estimador. La primera es una muestra estadística : un conjunto de puntos de datos tomados de un vector aleatorio ( RV ) de tamaño N. Puesto en un vector , en segundo lugar, hay M parámetros cuyos valores deben estimarse. En tercer lugar, la función de densidad de probabilidad continua (pdf) o su contraparte discreta, la función de masa de probabilidad (pmf), de la distribución subyacente que generó los datos debe expresarse de manera condicional a los valores de los parámetros: también es posible para los parámetros mismos. tener una distribución de probabilidad (p. ej., estadística bayesiana ). Luego es necesario definir la probabilidad bayesiana. Una vez formado el modelo, el objetivo es estimar los parámetros, donde las estimaciones se denominan comúnmente , donde el "sombrero" indica la estimación.

Un estimador común es el estimador del error cuadrático medio mínimo (MMSE), que utiliza el error entre los parámetros estimados y el valor real de los parámetros como base para la optimización. Luego, este término de error se eleva al cuadrado y el valor esperado de este valor al cuadrado se minimiza para el estimador MMSE.

Estimadores

Los estimadores (métodos de estimación) comúnmente utilizados y los temas relacionados con ellos incluyen:

Ejemplos

Constante desconocida en ruido blanco gaussiano aditivo

Considere una señal discreta recibida , de muestras independientes que consiste en una constante desconocida con ruido blanco gaussiano aditivo (AWGN) con media cero y varianza conocida ( es decir , ). Como se conoce la varianza, el único parámetro desconocido es .

El modelo de la señal es entonces

Dos posibles (de muchos) estimadores para el parámetro son:

Ambos estimadores tienen una media de , que se puede mostrar tomando el valor esperado de cada estimador y

En este punto, estos dos estimadores parecerían realizar lo mismo. Sin embargo, la diferencia entre ellos se hace evidente al comparar las varianzas. y

Parecería que la media muestral es un mejor estimador ya que su varianza es menor para cada  N  > 1.

Máxima verosimilitud

Continuando con el ejemplo usando el estimador de máxima verosimilitud , la función de densidad de probabilidad (pdf) del ruido para una muestra es y la probabilidad de se convierte en ( se puede pensar en a ) Por independencia , la probabilidad de se convierte en Tomando el logaritmo natural de la pdf y el estimador de máxima verosimilitud es

Tomando la primera derivada de la función de probabilidad logarítmica y poniéndola en cero

Esto da como resultado el estimador de máxima verosimilitud que es simplemente la media muestral. A partir de este ejemplo, se encontró que la media de la muestra es el estimador de máxima verosimilitud para muestras de un parámetro fijo desconocido corrompido por AWGN.

Límite inferior de Cramér-Rao

Para encontrar el límite inferior de Cramér-Rao (CRLB) del estimador de la media muestral, primero es necesario encontrar el número de información de Fisher y copiarlo desde arriba.

Tomar la segunda derivada y encontrar el valor esperado negativo es trivial ya que ahora es una constante determinista.

Finalmente, poner la información de Fisher en resultados en

Comparando esto con la varianza de la media muestral (determinada previamente) se muestra que la media muestral es igual al límite inferior de Cramér-Rao para todos los valores de y . En otras palabras, la media muestral es el estimador eficiente (necesariamente único) y, por tanto, también el estimador insesgado de varianza mínima (MVUE), además de ser el estimador de máxima verosimilitud .

Máximo de una distribución uniforme

Uno de los ejemplos de estimación más simples y no triviales es la estimación del máximo de una distribución uniforme. Se utiliza como ejercicio práctico en el aula y para ilustrar los principios básicos de la teoría de la estimación. Además, en el caso de la estimación basada en una sola muestra, demuestra cuestiones filosóficas y posibles malentendidos en el uso de estimadores de máxima verosimilitud y funciones de verosimilitud .

Dada una distribución uniforme discreta con máximo desconocido, el estimador UMVU para el máximo viene dado por donde m es el máximo de la muestra y k es el tamaño de la muestra , muestreo sin reemplazo. [2] [3] Este problema se conoce comúnmente como el problema de los tanques alemanes , debido a la aplicación de la estimación máxima a las estimaciones de la producción de tanques alemanes durante la Segunda Guerra Mundial .

La fórmula puede entenderse intuitivamente como;

"El máximo de la muestra más la brecha promedio entre observaciones en la muestra",

la brecha se agrega para compensar el sesgo negativo del máximo de muestra como estimador del máximo de población. [nota 1]

Esto tiene una varianza de [2], por lo que una desviación estándar de aproximadamente , el tamaño promedio (poblacional) de una brecha entre muestras; comparar arriba. Esto puede verse como un caso muy simple de estimación de espaciamiento máximo .

El máximo muestral es el estimador de máxima verosimilitud para el máximo poblacional, pero, como se analizó anteriormente, está sesgado.

Aplicaciones

Numerosos campos requieren el uso de la teoría de la estimación. Algunos de estos campos incluyen:

Es probable que los datos medidos estén sujetos a ruido o incertidumbre y es a través de la probabilidad estadística que se buscan soluciones óptimas para extraer la mayor cantidad de información posible de los datos.

Ver también

Notas

  1. ^ El máximo de la muestra nunca es mayor que el máximo de la población, pero puede ser menor, por lo que es un estimador sesgado : tenderá a subestimar el máximo de la población.

Referencias

Citas

  1. ^ Walter, E.; Pronzato, L. (1997). Identificación de modelos paramétricos a partir de datos experimentales . Londres, Inglaterra: Springer-Verlag.
  2. ^ ab Johnson, Roger (1994), "Estimación del tamaño de una población", Enseñanza de estadística , 16 (2 (verano)): 50–52, doi :10.1111/j.1467-9639.1994.tb00688.x
  3. ^ Johnson, Roger (2006), "Estimación del tamaño de una población", Obtener lo mejor de la enseñanza de la estadística, archivado desde el original (PDF) el 20 de noviembre de 2008

Fuentes

enlaces externos