stringtranslate.com

Estadísticas exactas

La estadística exacta , como la que se describe en prueba exacta , es una rama de la estadística que se desarrolló para proporcionar resultados más precisos relacionados con las pruebas estadísticas y la estimación de intervalos mediante la eliminación de procedimientos basados ​​en métodos estadísticos asintóticos y aproximados. La principal característica de los métodos exactos es que las pruebas estadísticas y los intervalos de confianza se basan en declaraciones de probabilidad exactas que son válidas para cualquier tamaño de muestra . Los métodos estadísticos exactos ayudan a evitar algunas de las suposiciones irrazonables de los métodos estadísticos tradicionales, como la suposición de varianzas iguales en el ANOVA clásico . También permiten inferencias exactas sobre los componentes de la varianza de modelos mixtos .

Cuando los valores p exactos y los intervalos de confianza se calculan bajo una determinada distribución, como la distribución normal, los métodos subyacentes se denominan métodos paramétricos exactos. Los métodos exactos que no hacen supuestos distributivos se denominan métodos exactos no paramétricos. Este último tiene la ventaja de hacer menos supuestos, mientras que el primero tiende a producir pruebas más potentes cuando el supuesto distributivo es razonable. Para métodos avanzados como el análisis de regresión ANOVA de vía superior y los modelos mixtos, solo están disponibles métodos paramétricos exactos.

Cuando el tamaño de la muestra es pequeño, los resultados asintóticos proporcionados por algunos métodos tradicionales pueden no ser válidos. En tales situaciones, los valores p asintóticos pueden diferir sustancialmente de los valores p exactos . Por lo tanto, los resultados asintóticos y otros resultados aproximados pueden conducir a conclusiones poco fiables y engañosas.

El enfoque

Todos los procedimientos estadísticos clásicos se construyen utilizando estadísticas que dependen únicamente de vectores aleatorios observables, mientras que los estimadores generalizados, las pruebas y los intervalos de confianza utilizados en la estadística exacta aprovechan tanto los vectores aleatorios observables como los valores observados, como en el enfoque bayesiano , pero sin tener tratar los parámetros constantes como variables aleatorias. Por ejemplo, en el muestreo de una población normal con media y varianza , supongamos que y son la media muestral y la varianza muestral. Luego, definiendo Z y U así:

y eso

.

Ahora supongamos que el parámetro de interés es el coeficiente de variación, . Luego, podemos realizar fácilmente pruebas exactas e intervalos de confianza exactos basados ​​en la estadística generalizada.

,

donde es el valor observado de y es el valor observado de . Son posibles inferencias exactas basadas en probabilidades y valores esperados porque su distribución y el valor observado están libres de parámetros molestos.

Valores p generalizados

Los métodos estadísticos clásicos no proporcionan pruebas exactas para muchos problemas estadísticos, como las pruebas de componentes de varianza y ANOVA bajo varianzas desiguales. Para rectificar esta situación, los valores p generalizados se definen como una extensión de los valores p clásicos para que se puedan realizar pruebas basadas en declaraciones de probabilidad exactas válidas para cualquier tamaño de muestra.

Ver también

Referencias

enlaces externos