stringtranslate.com

Teoría asintótica (estadística)

En estadística , la teoría asintótica , o teoría de muestras grandes , es un marco para evaluar las propiedades de los estimadores y las pruebas estadísticas . Dentro de este marco, a menudo se supone que el tamaño de la muestra n puede crecer indefinidamente; las propiedades de los estimadores y las pruebas se evalúan entonces bajo el límite de n → ∞ . En la práctica, se considera que una evaluación límite es aproximadamente válida también para tamaños de muestra finitos grandes. [1]

Descripción general

La mayoría de los problemas estadísticos comienzan con un conjunto de datos de tamaño n . La teoría asintótica procede asumiendo que es posible (en principio) seguir recopilando datos adicionales, por lo que el tamaño de la muestra crece infinitamente, es decir, n → ∞ . Bajo el supuesto, se pueden obtener muchos resultados que no están disponibles para muestras de tamaño finito. Un ejemplo es la ley débil de los grandes números . La ley establece que para una secuencia de variables aleatorias independientes e idénticamente distribuidas (IID) X 1 , X 2 , ... , si se extrae un valor de cada variable aleatoria y el promedio de los primeros n valores se calcula como X n , entonces los X n convergen en probabilidad a la media de la población E[ X i ] cuando n → ∞ . [2]

En la teoría asintótica, el enfoque estándar es n → ∞ . Para algunos modelos estadísticos , se pueden utilizar enfoques asintóticos ligeramente diferentes. Por ejemplo, con datos de panel , se supone comúnmente que una dimensión de los datos permanece fija, mientras que la otra dimensión crece: T = constante y N → ∞ , o viceversa. [2]

Además del enfoque estándar para la asintótica, existen otros enfoques alternativos:

En muchos casos, se pueden obtener resultados muy precisos para muestras finitas mediante métodos numéricos (es decir, computadoras); sin embargo, incluso en esos casos, el análisis asintótico puede ser útil. Small (2010, §1.4) planteó este punto de la siguiente manera.

Un objetivo primordial del análisis asintótico es obtener una comprensión cualitativa más profunda de las herramientas cuantitativas . Las conclusiones de un análisis asintótico a menudo complementan las conclusiones que se pueden obtener mediante métodos numéricos.

Modos de convergencia de variables aleatorias

Propiedades asintóticas

Estimadores

Consistencia

Se dice que una secuencia de estimaciones es consistente si converge en probabilidad al valor verdadero del parámetro que se está estimando:

Es decir, en términos generales, con una cantidad infinita de datos, el estimador (la fórmula para generar las estimaciones) casi seguramente daría el resultado correcto para el parámetro que se está estimando. [2]

Distribución asintótica

Si es posible encontrar secuencias de constantes no aleatorias { a n }, { b n } (posiblemente dependiendo del valor de θ 0 ), y una distribución no degenerada G tal que

Entonces se dice que la secuencia de estimadores tiene la distribución asintótica G.

La mayoría de las veces, los estimadores que se encuentran en la práctica son asintóticamente normales , lo que significa que su distribución asintótica es la distribución normal , con a n = θ 0 , b n = n y G = N (0, V ) :

Regiones de confianza asintótica

Teoremas asintóticos

Véase también

Referencias

  1. ^ Höpfner, R. (2014), Estadísticas asintóticas, Walter de Gruyter. 286 pág. ISBN  3110250241 , ISBN 978-3110250244 
  2. ^ abc A. DasGupta (2008), Teoría asintótica de la estadística y la probabilidad , Springer. ISBN 0387759700 , ISBN 978-0387759708  

Bibliografía