stringtranslate.com

Estimación puntual

En estadística , la estimación puntual implica el uso de datos de muestra para calcular un valor único (conocido como estimación puntual ya que identifica un punto en algún espacio de parámetros ) que debe servir como una "mejor suposición" o "mejor estimación" de una incógnita. parámetro de población (por ejemplo, la media poblacional ). Más formalmente, es la aplicación de un estimador puntual a los datos para obtener una estimación puntual.

La estimación puntual puede contrastarse con la estimación por intervalos : dichas estimaciones por intervalos suelen ser intervalos de confianza , en el caso de la inferencia frecuentista , o intervalos creíbles , en el caso de la inferencia bayesiana . De manera más general, un estimador puntual se puede contrastar con un estimador establecido. Los ejemplos se dan mediante conjuntos de confianza o conjuntos creíbles. Un estimador puntual también se puede contrastar con un estimador de distribución. Se dan ejemplos de distribuciones de confianza , estimadores aleatorios y posteriores bayesianos .

Propiedades de las estimaciones puntuales

parcialidad

El “ sesgo ” se define como la diferencia entre el valor esperado del estimador y el valor real del parámetro poblacional que se estima. También se puede describir que cuanto más cerca esté el valor esperado de un parámetro del parámetro medido, menor será el sesgo. Cuando el número estimado y el valor real son iguales, el estimador se considera insesgado. A esto se le llama estimador insesgado. El estimador se convertirá en el mejor estimador insesgado si tiene una varianza mínima . Sin embargo, un estimador sesgado con una varianza pequeña puede ser más útil que un estimador insesgado con una varianza grande. [1] Lo más importante es que preferimos estimadores puntuales que tengan los errores cuadráticos medios más pequeños.

Si dejamos que T = h(X 1 ,X 2 , . . . , X n ) sea un estimador basado en una muestra aleatoria X 1 ,X 2 , . . . , X n , el estimador T se denomina estimador insesgado para el parámetro θ si E[T] = θ, independientemente del valor de θ. [1] Por ejemplo, de la misma muestra aleatoria tenemos E(x̄) = µ (media) y E(s 2 ) = σ 2 (varianza), entonces x̄ y s 2 serían estimadores insesgados para µ y σ 2 . La diferencia E[T ] − θ se llama sesgo de T ; si esta diferencia es distinta de cero, entonces T se llama sesgado.

Consistencia

La coherencia consiste en si la estimación puntual se mantiene cerca del valor cuando el parámetro aumenta su tamaño. Cuanto mayor sea el tamaño de la muestra, más precisa será la estimación. Si un estimador puntual es consistente, su valor esperado y su varianza deben estar cerca del valor real del parámetro. Un estimador insesgado es consistente si el límite de la varianza del estimador T es igual a cero.

Eficiencia

Sean T 1 y T 2 dos estimadores insesgados para el mismo parámetro θ . El estimador T 2 se consideraría más eficiente que el estimador T 1 si Var( T 2 ) < Var( T 1 ), independientemente del valor de θ . [1] También podemos decir que los estimadores más eficientes son los que tienen la menor variabilidad de resultados. Por lo tanto, si el estimador tiene la varianza más pequeña entre una muestra y otra, es más eficiente e insesgado. Ampliamos la noción de eficiencia diciendo que el estimador T 2 es más eficiente que el estimador T 1 (para el mismo parámetro de interés), si el MSE ( error cuadrático medio ) de T 2 es menor que el MSE de T 1 . [1]

Generalmente, debemos considerar la distribución de la población al determinar la eficiencia de los estimadores. Por ejemplo, en una distribución normal , la media se considera más eficiente que la mediana, pero no ocurre lo mismo en distribuciones asimétricas o sesgadas .

Suficiencia

En estadística, el trabajo de un estadístico es interpretar los datos que ha recopilado y sacar conclusiones estadísticamente válidas sobre la población bajo investigación. Pero en muchos casos los datos brutos, demasiado numerosos y costosos de almacenar, no son adecuados para este fin. Por lo tanto, al estadístico le gustaría condensar los datos calculando algunas estadísticas y basar su análisis en estas estadísticas de modo que no haya pérdida de información relevante al hacerlo, es decir, al estadístico le gustaría elegir aquellas estadísticas que agoten toda la información sobre el parámetro, que está contenido en la muestra. Definimos estadísticas suficientes de la siguiente manera: Sea X =( X 1 , X 2 , ... ,X n ) una muestra aleatoria. Se dice que un estadístico T(X) es suficiente para θ (o para la familia de distribución) si la distribución condicional de X dada T está libre de θ. [2]

Tipos de estimación puntual

Estimación del punto bayesiano

La inferencia bayesiana normalmente se basa en la distribución posterior . Muchos estimadores puntuales bayesianos son estadísticas de tendencia central de la distribución posterior , por ejemplo, su media, mediana o moda:

El estimador MAP tiene buenas propiedades asintóticas, incluso para muchos problemas difíciles, en los que el estimador de máxima verosimilitud tiene dificultades. Para problemas regulares, donde el estimador de máxima verosimilitud es consistente, el estimador de máxima verosimilitud finalmente concuerda con el estimador MAP. [5] [6] [7] Los estimadores bayesianos son admisibles , según el teorema de Wald. [6] [8]

El estimador puntual de longitud mínima de mensaje ( MML ) se basa en la teoría de la información bayesiana y no está tan directamente relacionado con la distribución posterior .

Son importantes los casos especiales de filtros bayesianos :

Varios métodos de estadística computacional tienen estrechas conexiones con el análisis bayesiano:

Métodos para encontrar estimaciones puntuales.

A continuación se muestran algunos métodos comúnmente utilizados para estimar parámetros desconocidos que se espera proporcionen estimadores que tengan algunas de estas importantes propiedades. En general, dependiendo de la situación y el propósito de nuestro estudio aplicamos cualquiera de los métodos que puedan ser adecuados entre los métodos de estimación puntual.

Método de máxima verosimilitud (MLE)

El método de máxima verosimilitud , debido a RA Fisher, es el método general de estimación más importante. Este método de estimación intenta adquirir parámetros desconocidos que maximicen la función de verosimilitud. Utiliza un modelo conocido (por ejemplo, la distribución normal) y utiliza los valores de los parámetros en el modelo que maximizan una función de probabilidad para encontrar la coincidencia más adecuada para los datos. [9]

Sea X = (X 1 , X 2 , ... ,X n ) una muestra aleatoria con fdp o pmf conjunta f(x, θ) (θ puede ser un vector). La función f(x, θ), considerada como función de θ, se llama función de verosimilitud. En este caso, se denota por L(θ). El principio de máxima verosimilitud consiste en elegir una estimación dentro del rango admisible de θ, que maximice la verosimilitud. Este estimador se denomina estimación de máxima verosimilitud (MLE) de θ. Para obtener el MLE de θ, usamos la ecuación

dlog L(θ)/ d θ i =0, i = 1, 2,…, k. Si θ es un vector, entonces se consideran derivadas parciales para obtener las ecuaciones de probabilidad. [2]

Método de momentos (MOM)

El método de los momentos fue introducido por K. Pearson y P. Chebyshev en 1887 y es uno de los métodos de estimación más antiguos. Este método se basa en la ley de los grandes números , que utiliza todos los hechos conocidos sobre una población y los aplica a una muestra de la población derivando ecuaciones que relacionan los momentos de la población con los parámetros desconocidos. Luego podemos resolver con la media muestral de los momentos poblacionales. [10] Sin embargo, debido a su simplicidad, este método no siempre es preciso y puede estar sesgado fácilmente.

Sea (X 1 , X 2 ,…X n ) una muestra aleatoria de una población que tiene fdp (o pmf) f(x,θ), θ = (θ 1 , θ 2 ,…, θ k ). El objetivo es estimar los parámetros θ 1 , θ 2 , ..., θ k . Además, supongamos que los primeros k momentos de población con respecto a cero existen como función explícita de θ, es decir, μ r = μ r1 , θ 2 ,…, θ k ), r = 1, 2,…, k. En el método de los momentos, igualamos k momentos muestrales con los momentos poblacionales correspondientes. Generalmente se toman los primeros k momentos porque los errores debidos al muestreo aumentan con el orden del momento. Por lo tanto, obtenemos k ecuaciones μ r1 , θ 2 ,…, θ k ) = m r , r = 1, 2,…, k. Resolviendo estas ecuaciones obtenemos el método de estimadores de momentos (o estimaciones) como

metro r = 1/norte ΣX yo r . [2] Véase también método generalizado de momentos .

Método de mínimos cuadrados

En el método de mínimos cuadrados, consideramos la estimación de parámetros utilizando alguna forma específica de expectativa y segundo momento de las observaciones. Para

ajustando una curva de la forma y = f( x, β 0 , β 1 , ,,,, β p ) a los datos (x i , y i ), i = 1, 2,…n, podemos usar el método de mínimos cuadrados. Este método consiste en minimizar la

suma de cuadrados.

Cuando f(x, β 0 , β 1 , ,,,, β p ) es una función lineal de los parámetros y se conocen los valores de x, los estimadores de mínimos cuadrados serán el mejor estimador lineal insesgado (AZUL). Nuevamente, si asumimos que las estimaciones de mínimos cuadrados tienen una distribución normal independiente e idéntica, entonces un estimador lineal será un estimador insesgado de varianza mínima (MVUE) para toda la clase de estimadores insesgados. Véase también error cuadrático medio mínimo (MMSE). [2]

Estimador insesgado de media de varianza mínima (MVUE)

El método del estimador insesgado de varianza mínima minimiza el riesgo (pérdida esperada) de la función de pérdida de error al cuadrado .

Estimador insesgado de la mediana

El estimador insesgado de la mediana minimiza el riesgo de la función de pérdida de error absoluto.

Mejor estimador lineal insesgado (AZUL)

El mejor estimador lineal insesgado , también conocido como teorema de Gauss-Markov, establece que el estimador de mínimos cuadrados ordinarios (MCO) tiene la varianza muestral más baja dentro de la clase de estimadores lineales insesgados, si los errores en el modelo de regresión lineal no están correlacionados, tienen varianzas iguales. y valor esperado de cero. [11]

Estimación puntual versus estimación del intervalo de confianza

Estimación puntual y estimación del intervalo de confianza.

Hay dos tipos principales de estimaciones: estimación puntual y estimación del intervalo de confianza . En la estimación puntual intentamos elegir un punto único en el espacio de parámetros que pueda considerarse razonablemente como el valor verdadero del parámetro. Por otro lado, en lugar de una estimación única del parámetro, nos interesa construir una familia de conjuntos que contengan el valor verdadero (desconocido) del parámetro con una probabilidad específica. En muchos problemas de inferencia estadística no estamos interesados ​​sólo en estimar el parámetro o probar alguna hipótesis relativa al parámetro, también queremos obtener un límite superior o inferior, o ambos, para el parámetro de valor real. Para hacer esto, necesitamos construir un intervalo de confianza.

El intervalo de confianza describe qué tan confiable es una estimación. Podemos calcular los límites de confianza superior e inferior de los intervalos a partir de los datos observados. Supongamos un conjunto de datos x 1 ,. . . , x n está dado, modelado como realización de variables aleatorias X 1 , . . . , X norte . Sea θ el parámetro de interés y γ un número entre 0 y 1. Si existen estadísticas muestrales L n = g(X 1 , . . . , X n ) y U n = h(X 1 , . . . , X n ) tal que P(L n < θ < U n ) = γ para cada valor de θ, entonces (l n , u n ), donde l n = g(x 1 , . . . , x n ) y u n = h(x 1 , . . . , x n ), se denomina intervalo de confianza del 100γ% para θ. El número γ se llama nivel de confianza . [1] En general, con una media muestral distribuida normalmente, Ẋ, y con un valor conocido para la desviación estándar, σ, se forma un intervalo de confianza del 100(1-α)% para el verdadero μ tomando Ẋ ± e, con e = z 1-α/2 (σ/n 1/2 ), donde z 1-α/2 es el valor acumulado del 100(1-α/2)% de la curva normal estándar, y n es el número de valores de datos en esa columna. Por ejemplo, z 1-α/2 es igual a 1,96 para un 95% de confianza. [12]

Aquí se calculan dos límites a partir del conjunto de observaciones, digamos l n y u n, y se afirma con cierto grado de confianza (medido en términos probabilísticos) que el verdadero valor de γ se encuentra entre l n y u n . Así obtenemos un intervalo (l n y u n ) que esperamos incluya el valor verdadero de γ(θ). Por tanto, este tipo de estimación se denomina estimación del intervalo de confianza. [2] Esta estimación proporciona un rango de valores en los que se espera que se encuentre el parámetro. Generalmente proporciona más información que las estimaciones puntuales y se prefiere al hacer inferencias. De alguna manera, podemos decir que la estimación puntual es lo opuesto a la estimación por intervalo.

Ver también

Referencias

  1. ^ abcde Una introducción moderna a la probabilidad y la estadística . FM Dekking, C. Kraaikamp, ​​HP Lopuhaa, LE Meester. 2005.
  2. ^ Estimación abcde y estadística inferencial . Pradip Kumar Sahu, Santi Ranjan Pal, Ajit Kumar Das. 2015.
  3. ^ ab Dodge, Yadolah , ed. (1987). Análisis de datos estadísticos basado en la norma L1 y métodos relacionados: artículos de la Primera Conferencia Internacional celebrada en Neuchâtel, del 31 de agosto al 4 de septiembre de 1987 . Editorial de Holanda Septentrional .
  4. ^ Jaynes, et (2007). Teoría de la probabilidad: la lógica de la ciencia (5. ed. impresa). Prensa de la Universidad de Cambridge . pag. 172.ISBN 978-0-521-59271-0.
  5. ^ Ferguson, Thomas S. (1996). Un curso de teoría de muestras grandes . Chapman y salón . ISBN 0-412-04371-8.
  6. ^ ab Le Cam, Lucien (1986). Métodos asintóticos en la teoría de la decisión estadística . Springer-Verlag . ISBN 0-387-96307-3.
  7. ^ Ferguson, Thomas S. (1982). "Una estimación de máxima verosimilitud inconsistente". Revista de la Asociación Estadounidense de Estadística . 77 (380): 831–834. doi :10.1080/01621459.1982.10477894. JSTOR  2287314.
  8. ^ Lehmann, EL ; Casella, G. (1998). Teoría de la estimación puntual (2ª ed.). Saltador. ISBN 0-387-98502-6.
  9. ^ Análisis de datos categóricos . John Wiley and Sons, Nueva York: Agresti A. 1990.
  10. ^ La enciclopedia concisa de estadísticas . Springer: Dodge, Y. 2008.
  11. ^ Mejor estimación y predicción lineal insesgada . Nueva York: John Wiley & Sons: Theil Henri. 1971.
  12. ^ Diseño experimental: con aplicaciones en gestión, ingeniería y ciencias . Springer: Paul D. Berger, Robert E. Maurer, Giovana B. Celli. 2019.

Otras lecturas