stringtranslate.com

Función de distribución empírica

En estadística , una función de distribución empírica (comúnmente también llamada función de distribución acumulativa empírica , eCDF) es la función de distribución asociada con la medida empírica de una muestra . [1] Esta función de distribución acumulativa es una función escalonada que salta 1/ n en cada uno de los n puntos de datos. Su valor en cualquier valor especificado de la variable medida es la fracción de observaciones de la variable medida que son menores o iguales al valor especificado.

La función de distribución empírica es una estimación de la función de distribución acumulativa que generó los puntos en la muestra. Converge con probabilidad 1 a esa distribución subyacente, según el teorema de Glivenko-Cantelli . Existen varios resultados para cuantificar la tasa de convergencia de la función de distribución empírica con la función de distribución acumulativa subyacente.

Definición

Sean ( X 1 ,…, X n ) variables aleatorias reales independientes, distribuidas idénticamente y con la función de distribución acumulativa común F ( t ) . Entonces la función de distribución empírica se define como [2]

¿ Dónde está el indicador del evento A ? Para una t fija , el indicador es una variable aleatoria de Bernoulli con parámetro p = F ( t ) ; por lo tanto , es una variable aleatoria binomial con media nF ( t ) y varianza nF ( t )(1 − F ( t )) . Esto implica que es un estimador insesgado de F ( t ) .

Sin embargo, en algunos libros de texto, la definición se da como

[3] [4]

Significar

La media de la distribución empírica es un estimador insesgado de la media de la distribución poblacional.

que se denota más comúnmente

Diferencia

La varianza de los tiempos de distribución empírica es un estimador insesgado de la varianza de la distribución poblacional, para cualquier distribución de X que tenga una varianza finita.

Error medio cuadrado

El error cuadrático medio para la distribución empírica es el siguiente.

¿Dónde hay un estimador y un parámetro desconocido?

Cuantiles

Para cualquier número real, la notación (léase “techo de a”) denota el mínimo entero mayor o igual a . Para cualquier número real a, la notación (léase “piso de a”) denota el mayor entero menor o igual que .

Si no es un número entero, entonces el -ésimo cuantil es único y es igual a

Si es un número entero, entonces el -ésimo cuantil no es único y es cualquier número real tal que

Mediana empírica

Si es impar, entonces la mediana empírica es el número

Si es par, entonces la mediana empírica es el número

Propiedades asintóticas

Dado que la relación ( n  + 1)/ n se acerca a 1 cuando n tiende al infinito, las propiedades asintóticas de las dos definiciones dadas anteriormente son las mismas.

Por la fuerte ley de los números grandes , el estimador converge a F ( t ) cuando n  → ∞ casi con seguridad , para cada valor de t : [2]

por tanto el estimador es consistente . Esta expresión afirma la convergencia puntual de la función de distribución empírica con la verdadera función de distribución acumulativa. Existe un resultado más sólido, llamado teorema de Glivenko-Cantelli , que establece que, de hecho, la convergencia ocurre uniformemente en t : [5]

La norma superior en esta expresión se denomina estadístico de Kolmogorov-Smirnov para probar la bondad de ajuste entre la distribución empírica y la función de distribución acumulativa verdadera supuesta F. Aquí se pueden utilizar razonablemente otras funciones de norma en lugar de la norma sup. Por ejemplo, la norma L 2 da lugar al estadístico de Cramér-von Mises .

La distribución asintótica se puede caracterizar de varias maneras diferentes. Primero, el teorema del límite central establece que puntualmente , tiene una distribución asintóticamente normal con la tasa de convergencia estándar: [2]

Este resultado se amplía con el teorema de Donsker , que afirma que el proceso empírico , visto como una función indexada por , converge en distribución en el espacio de Skorokhod con el proceso gaussiano de media cero , donde B es el puente browniano estándar . [5] La estructura de covarianza de este proceso gaussiano es

La tasa uniforme de convergencia en el teorema de Donsker se puede cuantificar mediante el resultado conocido como incrustación húngara : [6]

Alternativamente, la tasa de convergencia de también se puede cuantificar en términos del comportamiento asintótico de la norma sup de esta expresión. Existe una cantidad de resultados en este lugar, por ejemplo, la desigualdad de Dvoretzky-Kiefer-Wolfowitz proporciona probabilidades limitadas en la cola de : [6]

De hecho, Kolmogorov ha demostrado que si la función de distribución acumulativa F es continua, entonces la expresión converge en distribución a , que tiene la distribución de Kolmogorov que no depende de la forma de F .

Otro resultado, que se desprende de la ley del logaritmo iterado , es que [6]

y

Intervalos de confianza

Gráficos empíricos de CDF, CDF e intervalos de confianza para varios tamaños de muestra de distribución normal
Gráficos empíricos de CDF, CDF e intervalos de confianza para varios tamaños de muestra de la distribución de Cauchy
Gráficos empíricos de CDF, CDF e intervalos de confianza para varios tamaños de muestra de distribución triangular

Según la desigualdad de Dvoretzky-Kiefer-Wolfowitz, el intervalo que contiene la CDF verdadera, con probabilidad se especifica como

Según los límites anteriores, podemos trazar el CDF empírico, el CDF y los intervalos de confianza para diferentes distribuciones utilizando cualquiera de las implementaciones estadísticas.

Implementación estadística

Una lista no exhaustiva de implementaciones de software de la función de distribución empírica incluye:

Ver también

Referencias

  1. ^ Una introducción moderna a la probabilidad y la estadística: comprender por qué y cómo. Michel Dekking. Londres: Springer. 2005. pág. 219.ISBN _ 978-1-85233-896-1. OCLC  262680588.{{cite book}}: CS1 maint: others (link)
  2. ^ abc van der Vaart, AW (1998). Estadísticas asintóticas . Prensa de la Universidad de Cambridge. pag. 265.ISBN _  0-521-78450-6.
  3. ^ Coles, S. (2001) Introducción al modelado estadístico de valores extremos . Springer, pág. 36, Definición 2.4. ISBN 978-1-4471-3675-0
  4. ^ Madsen, HO, Krenk, S., Lind, SC (2006) Métodos de seguridad estructural . Publicaciones de Dover. pag. 148-149. ISBN 0486445976 
  5. ^ ab van der Vaart, AW (1998). Estadísticas asintóticas . Prensa de la Universidad de Cambridge. pag. 266.ISBN _ 0-521-78450-6.
  6. ^ abc van der Vaart, AW (1998). Estadísticas asintóticas . Prensa de la Universidad de Cambridge. pag. 268.ISBN _ 0-521-78450-6.
  7. ^ "Novedades de Matplotlib 3.8.0 (13 de septiembre de 2023): documentación de Matplotlib 3.8.3".

Otras lecturas

enlaces externos