En estadística , un parámetro molesto es cualquier parámetro que no está especificado [1] pero que debe tenerse en cuenta en las pruebas de hipótesis de los parámetros que son de interés.
El ejemplo clásico de un parámetro molesto proviene de la distribución normal , un miembro de la familia de distribución de ubicación-escala . Para al menos una distribución normal, la varianza (s), σ 2 a menudo no se especifica o no se conoce, pero se desea probar la hipótesis sobre la media (s). Otro ejemplo podría ser la regresión lineal con varianza desconocida en la variable explicativa (la variable independiente): su varianza es un parámetro molesto que debe tenerse en cuenta para derivar una estimación precisa del intervalo de la pendiente de la regresión , calcular los valores p , probar la hipótesis sobre el valor de la pendiente; consulte dilución de la regresión .
Los parámetros molestos suelen ser parámetros de escala , pero no siempre; por ejemplo, en los modelos de errores en las variables , la ubicación real desconocida de cada observación es un parámetro molesto. Un parámetro también puede dejar de ser una "molestia" si se convierte en objeto de estudio, se estima a partir de datos o se conoce.
El tratamiento general de los parámetros molestos puede ser muy similar entre los enfoques frecuentistas y bayesianos de las estadísticas teóricas. Se basa en un intento de dividir la función de verosimilitud en componentes que representan información sobre los parámetros de interés e información sobre los otros parámetros (molestos). Esto puede implicar ideas sobre estadísticas suficientes y estadísticas auxiliares . Cuando se puede lograr esta partición, puede ser posible completar un análisis bayesiano para los parámetros de interés determinando su distribución posterior conjunta de manera algebraica. La partición permite que la teoría frecuentista desarrolle enfoques de estimación generales en presencia de parámetros molestos. Si no se puede lograr la partición, aún puede ser posible hacer uso de una partición aproximada.
En algunos casos especiales, es posible formular métodos que eviten la presencia de parámetros molestos. La prueba t proporciona una prueba prácticamente útil porque la estadística de prueba no depende de la varianza desconocida sino solo de la varianza de la muestra. Es un caso en el que se puede hacer uso de una cantidad fundamental . Sin embargo, en otros casos no se conoce tal elusión.
Los enfoques prácticos del análisis estadístico tratan los parámetros molestos de manera algo diferente en las metodologías frecuentistas y bayesianas.
Un enfoque general en un análisis frecuentista puede basarse en pruebas de razón de máxima verosimilitud . Estas proporcionan tanto pruebas de significancia como intervalos de confianza para los parámetros de interés que son aproximadamente válidos para tamaños de muestra de moderados a grandes y que tienen en cuenta la presencia de parámetros molestos. Véase Basu (1977) para una discusión general y Spall y Garner (1990) para una discusión relativa a la identificación de parámetros en modelos dinámicos lineales (es decir, representación en el espacio de estados ).
En el análisis bayesiano , un enfoque de aplicación general crea muestras aleatorias a partir de la distribución posterior conjunta de todos los parámetros: véase el método Monte Carlo de cadena de Markov . Teniendo en cuenta esto, la distribución conjunta de solo los parámetros de interés se puede encontrar fácilmente al marginalizar los parámetros molestos. Sin embargo, este enfoque puede no ser siempre eficiente desde el punto de vista computacional si algunos o todos los parámetros molestos se pueden eliminar sobre una base teórica.