La estadística exacta , como la descrita en la prueba exacta , es una rama de la estadística que se desarrolló para proporcionar resultados más precisos en relación con las pruebas estadísticas y la estimación de intervalos mediante la eliminación de procedimientos basados en métodos estadísticos asintóticos y aproximados. La característica principal de los métodos exactos es que las pruebas estadísticas y los intervalos de confianza se basan en afirmaciones de probabilidad exacta que son válidas para cualquier tamaño de muestra . Los métodos estadísticos exactos ayudan a evitar algunas de las suposiciones irrazonables de los métodos estadísticos tradicionales, como la suposición de varianzas iguales en el ANOVA clásico . También permiten la inferencia exacta sobre los componentes de varianza de los modelos mixtos .
Cuando se calculan valores p exactos e intervalos de confianza bajo una distribución determinada, como la distribución normal, los métodos subyacentes se denominan métodos paramétricos exactos. Los métodos exactos que no hacen ninguna suposición distributiva se denominan métodos no paramétricos exactos. Estos últimos tienen la ventaja de hacer menos suposiciones, mientras que los primeros tienden a producir pruebas más potentes cuando la suposición distributiva es razonable. Para métodos avanzados como el análisis de regresión ANOVA de vías superiores y los modelos mixtos, solo están disponibles los métodos paramétricos exactos.
Cuando el tamaño de la muestra es pequeño, los resultados asintóticos obtenidos con algunos métodos tradicionales pueden no ser válidos. En tales situaciones, los valores p asintóticos pueden diferir sustancialmente de los valores p exactos . Por lo tanto, los resultados asintóticos y otros resultados aproximados pueden llevar a conclusiones poco fiables y engañosas.
Todos los procedimientos estadísticos clásicos se construyen utilizando estadísticas que dependen únicamente de vectores aleatorios observables, mientras que los estimadores generalizados, las pruebas y los intervalos de confianza utilizados en las estadísticas exactas aprovechan tanto los vectores aleatorios observables como los valores observados, como en el enfoque bayesiano , pero sin tener que tratar los parámetros constantes como variables aleatorias. Por ejemplo, en el muestreo de una población normal con media y varianza , supongamos que y son la media de la muestra y la varianza de la muestra. Luego, definiendo Z y U de la siguiente manera:
Y eso
Ahora supongamos que el parámetro de interés es el coeficiente de variación, . Entonces, podemos realizar fácilmente pruebas exactas e intervalos de confianza exactos para en función de la estadística generalizada.
donde es el valor observado de y es el valor observado de . Es posible realizar inferencias exactas sobre la base de probabilidades y valores esperados de porque su distribución y el valor observado están libres de parámetros molestos.
Los métodos estadísticos clásicos no proporcionan pruebas exactas para muchos problemas estadísticos, como la prueba de componentes de varianza y ANOVA con varianzas desiguales. Para corregir esta situación, los valores p generalizados se definen como una extensión de los valores p clásicos , de modo que se puedan realizar pruebas basadas en afirmaciones de probabilidad exactas válidas para cualquier tamaño de muestra.