stringtranslate.com

Distribución de confianza

En inferencia estadística , el concepto de distribución de confianza ( CD ) a menudo se ha denominado vagamente una función de distribución en el espacio de parámetros que puede representar intervalos de confianza de todos los niveles para un parámetro de interés. Históricamente, normalmente se ha construido invirtiendo los límites superiores de los intervalos de confianza inferiores de todos los niveles, y también se asocia comúnmente con una interpretación fiducial [1] ( distribución fiducial ), aunque es un concepto puramente frecuentista. [2] Una distribución de confianza NO es una función de distribución de probabilidad del parámetro de interés, pero aun así puede ser una función útil para hacer inferencias. [3]

En los últimos años, ha habido un renovado interés en las distribuciones de confianza. [3] En los desarrollos más recientes, el concepto de distribución de confianza ha surgido como un concepto puramente frecuentista , sin ninguna interpretación o razonamiento fiduciario. Conceptualmente, una distribución de confianza no es diferente de un estimador puntual o de un estimador de intervalo ( intervalo de confianza ), pero utiliza una función de distribución dependiente de la muestra en el espacio de parámetros (en lugar de un punto o un intervalo) para estimar el parámetro de interés.

Un ejemplo sencillo de distribución de confianza, que se ha utilizado ampliamente en la práctica estadística, es la distribución bootstrap . [4] El desarrollo y la interpretación de una distribución bootstrap no implica ningún razonamiento fiduciario; Lo mismo ocurre con el concepto de distribución de confianza. Pero la noción de distribución de confianza es mucho más amplia que la de distribución bootstrap. En particular, investigaciones recientes sugieren que abarca y unifica una amplia gama de ejemplos, desde casos paramétricos regulares (incluidos la mayoría de los ejemplos del desarrollo clásico de la distribución fiducial de Fisher) hasta distribuciones bootstrap, funciones de valor p , [5] funciones de probabilidad normalizadas y , en algunos casos, priores bayesianos y posteriores bayesianos . [6]

Así como una distribución posterior bayesiana contiene una gran cantidad de información para cualquier tipo de inferencia bayesiana , una distribución de confianza contiene una gran cantidad de información para construir casi todos los tipos de inferencias frecuentistas, incluidas estimaciones puntuales , intervalos de confianza , valores críticos, poder estadístico y p- valores, [7] entre otros. Algunos acontecimientos recientes han puesto de relieve el potencial prometedor del concepto de CD como herramienta inferencial eficaz. [3]

Historia

Neyman (1937) [8] introdujo la idea de "confianza" en su artículo fundamental sobre los intervalos de confianza, que aclaró la propiedad de repetición frecuentista. Según Fraser, [9] la semilla (idea) de la distribución de confianza se remonta incluso a Bayes (1763) [10] y Fisher (1930). [1] Aunque la frase parece usarse por primera vez en Cox (1958). [11] Algunos investigadores ven la distribución de confianza como "la interpretación neymaniana de las distribuciones fiduciales de Fisher", [12] que fue "furiosamente cuestionada por Fisher". [13] También se cree que estas "disputas improductivas" y la "obstinada insistencia" de Fisher [13] podrían ser la razón por la que el concepto de distribución de confianza se ha malinterpretado durante mucho tiempo como un concepto fiduciario y no se ha desarrollado completamente bajo el marco frecuentista. [6] [14] De hecho, la distribución de confianza es un concepto puramente frecuentista con una interpretación puramente frecuentista, aunque también tiene vínculos con los conceptos bayesianos y de inferencia fiducial.

Definición

Definición clásica

Clásicamente, una distribución de confianza se define invirtiendo los límites superiores de una serie de intervalos de confianza inferiores. [15] [16] [ página necesaria ] En particular,

Para cada α en (0, 1), sea (−∞,  ξ n ( α )] un intervalo de confianza del lado inferior del 100α% para θ , donde ξ n ( α ) =  ξ n ( X n ,α ) es continuo y aumentando en α para cada muestra X n , entonces H n (•) =  ξ n −1 (•) es una distribución de confianza para  θ .

Efron afirmó que esta distribución "asigna una probabilidad de 0,05 a θ que se encuentra entre los puntos finales superiores del intervalo de confianza de 0,90 y 0,95, etc ". y "tiene un poderoso atractivo intuitivo". [16] En la literatura clásica, [3] la función de distribución de confianza se interpreta como una función de distribución del parámetro θ , lo cual es imposible a menos que esté involucrado un razonamiento fiduciario ya que, en un entorno frecuentista, los parámetros son fijos y no aleatorios.

Interpretar la función CD enteramente desde un punto de vista frecuentista y no interpretarla como una función de distribución de un parámetro (fijo/no aleatorio) es una de las principales desviaciones del desarrollo reciente en relación con el enfoque clásico. Lo bueno de tratar las distribuciones de confianza como un concepto puramente frecuentista (similar a un estimador puntual) es que ahora están libres de esas restricciones restrictivas, si no controvertidas, establecidas por Fisher sobre las distribuciones fiduciales. [6] [14]

La definición moderna

Se aplica la siguiente definición; [12] [17] [18] Θ es el espacio de parámetros del parámetro desconocido de interés θ , y χ es el espacio muestral correspondiente a los datos X n ={ X 1 , ..., X n }:

Una función H n (•) = H n ( X n , •) sobre χ  ×  Θ  → [0, 1] se denomina distribución de confianza (CD) para un parámetro θ , si cumple dos requisitos:
  • (R1) Para cada X nχ dado , H n (•) = H n ( X n , •) es una función de distribución acumulativa continua en Θ ;
  • (R2) En el valor verdadero del parámetro θ  =  θ 0 , H n ( θ 0 ) ≡  H n ( X n , θ 0 ), en función de la muestra X n , sigue la distribución uniforme U [0, 1].

Además, la función H es una CD asintótica ( aCD ), si el requisito de U [0, 1] es verdadero sólo asintóticamente y se elimina el requisito de continuidad en H n (•).

En términos no técnicos, una distribución de confianza es función tanto del parámetro como de la muestra aleatoria, con dos requisitos. El primer requisito (R1) simplemente requiere que un CD sea una distribución en el espacio de parámetros. El segundo requisito (R2) establece una restricción a la función para que las inferencias (estimadores puntuales, intervalos de confianza y pruebas de hipótesis, etc.) basadas en la distribución de confianza tengan las propiedades frecuentistas deseadas. Esto es similar a las restricciones en la estimación puntual para garantizar ciertas propiedades deseadas, como imparcialidad, coherencia, eficiencia, etc. [6] [19]

Una distribución de confianza derivada de la inversión de los límites superiores de los intervalos de confianza (definición clásica) también satisface los requisitos de la definición anterior y esta versión de la definición es consistente con la definición clásica. [18]

A diferencia de la inferencia fiduciaria clásica, puede estar disponible más de una distribución de confianza para estimar un parámetro en cualquier entorno específico. Además, a diferencia de la inferencia fiduciaria clásica, la optimización no forma parte del requisito. Dependiendo del entorno y del criterio utilizado, a veces existe una única distribución de confianza "mejor" (en términos de optimización). Pero a veces no existe una distribución de confianza óptima disponible o, en algunos casos extremos, es posible que ni siquiera podamos encontrar una distribución de confianza significativa. Esto no es diferente de la práctica de la estimación puntual.

Una definición con espacios mensurables

Una distribución de confianza [20] para un parámetro en un espacio medible es un estimador de distribución para una familia de regiones de confianza para todos los niveles . La familia de regiones de confianza no es única. [21] Si solo existe para , entonces es una distribución de confianza con el nivel establecido . Ambas y todas son funciones medibles de los datos. Esto implica que es una medida aleatoria y es un conjunto aleatorio. Si el requisito definitorio se cumple con igualdad, entonces la distribución de confianza es exacta por definición. Si además es un parámetro real, entonces la definición teórica de la medida coincide con la definición clásica anterior.

Ejemplos

Ejemplo 1: media y varianza normales

Supongamos que se da una muestra normal X i  ~  N ( μσ 2 ), i  = 1, 2, ...,  n .

(1) Se conoce la varianza σ 2

Sea Φ la función de distribución acumulativa de la distribución normal estándar y la función de distribución acumulativa de la distribución de Student. Tanto las funciones como dadas por

satisfacen los dos requisitos en la definición de CD y son funciones de distribución de confianza para  μ . [3] Además,

satisface la definición de una distribución de confianza asintótica cuando n →∞, y es una distribución de confianza asintótica para μ . Los usos de y son equivalentes a indicar que usamos y estimar , respectivamente.

(2) Se desconoce la varianza σ 2

Para el parámetro μ , dado que involucra el parámetro desconocido σ y viola los dos requisitos en la definición de CD, ya no es un "estimador de distribución" o una distribución de confianza para  μ . [3] Sin embargo, sigue siendo un CD para μ y es un aCD para  μ .

Para el parámetro σ 2 , la función de distribución acumulativa dependiente de la muestra

es una función de distribución de confianza para σ 2 . [6] Aquí está la función de distribución acumulativa de la distribución.

En el caso de que se conozca la varianza σ 2 , es óptima en términos de producir los intervalos de confianza más cortos en cualquier nivel dado. En el caso de que se desconozca la varianza σ 2 , existe una distribución de confianza óptima para μ .

Ejemplo 2: correlación normal bivariada

Sea ρ el coeficiente de correlación de una población normal bivariada . Es bien sabido que la z de Fisher definida por la transformación de Fisher :

tiene la distribución límite con una rápida tasa de convergencia, donde r es la correlación de la muestra y n es el tamaño de la muestra.

La función

es una distribución de confianza asintótica para ρ . [22]

Una densidad de confianza exacta para ρ es [23] [24]

donde está la función hipergeométrica gaussiana y . Esta es también la densidad posterior de una coincidencia anterior de Bayes para los cinco parámetros de la distribución binormal. [25]

La última fórmula del libro clásico de Fisher da

dónde y . Esta fórmula fue deducida por CR Rao . [26]

Ejemplo 3: media binormal

Dejemos que los datos se generen mediante dónde hay un vector desconocido en el plano y tiene una distribución binormal y conocida en el plano. La distribución de define una distribución de confianza para . Las regiones de confianza se pueden elegir como el interior de elipses centradas en y ejes dados por los vectores propios de la matriz de covarianza de . En este caso, la distribución de confianza es binormal con media y las regiones de confianza se pueden elegir de muchas otras maneras. [21] La distribución de confianza coincide en este caso con la posterior bayesiana utilizando la anterior de Haar derecha. [27] El argumento se generaliza al caso de una media desconocida en un espacio de Hilbert de dimensión infinita , pero en este caso la distribución de confianza no es una posterior bayesiana. [28]

Uso de distribuciones de confianza para la inferencia

Intervalo de confianza

A partir de la definición de CD, es evidente que el intervalo y proporciona  intervalos de confianza de diferentes tipos de nivel 100(1 − α )%, para θ , para cualquier α  ∈ (0, 1). También hay un intervalo de confianza de nivel 100(1 −  α 1  −  α 2 )% para el parámetro θ para cualquier α 1  > 0, α 2  > 0 y α 1  +  α 2  < 1. Aquí, está el cuantil de 100 β % de o resuelve para θ en la ecuación . Lo mismo se aplica a un CD, donde el nivel de confianza se alcanza en el límite. Algunos autores han propuesto usarlos para ver gráficamente qué valores de parámetros son consistentes con los datos, en lugar de con fines de cobertura o rendimiento. [29] [30]

Estimación puntual

También se pueden construir estimadores puntuales dado un estimador de distribución de confianza para el parámetro de interés. Por ejemplo, dada H n ( θ ) la CD para un parámetro θ , las elecciones naturales de estimadores puntuales incluyen la mediana M n  =  H n −1 (1/2), la media y el punto máximo de la densidad de CD.

En algunas condiciones modestas, entre otras propiedades, se puede demostrar que todos estos estimadores puntuales son consistentes. [6] [22] Ciertas distribuciones de confianza pueden dar estimadores frecuentistas óptimos. [28]

Evaluación de la hipótesis

Se puede derivar un valor p para una prueba, ya sea unilateral o bilateral, relativa al parámetro  θ , a partir de su distribución de confianza H n ( θ ). [6] [22] Denotado por la masa de probabilidad de un conjunto C bajo la función de distribución de confianza. Este p s (C) se denomina "apoyo" en la inferencia CD y también se conoce como "creencia" en la literatura fiduciaria. [31] Tenemos

(1) Para la prueba unilateral K 0 : θ  ∈  C vs. K 1 : θ  ∈  C c , donde C es del tipo de (−∞,  b ] o [ b , ∞), se puede demostrar a partir de la Definición de CD que sup θ  ∈  C P θ ( p s ( C ) ≤  α ) =  α . Por lo tanto, p s ( C ) =  H n ( C ) es el valor p correspondiente de la prueba.

(2) Para la prueba singleton K 0 : θ  =  b vs. K 1 : θ  ≠  b , P { K 0 : θ  =  b } (2 min{ p s ( C lo ), se puede demostrar a partir de la definición de CD que p s ( C arriba )} ≤  α ) =  α . Por lo tanto, 2 min{ p s ( C lo ),  p s ( C up )} = 2 min{ H n ( b ), 1 −  H n ( b )} es el valor p correspondiente de la prueba. Aquí, C lo = (−∞,  b ] y C up  = [ b , ∞).

Consulte la Figura 1 de Xie y Singh (2011) [6] para obtener una ilustración gráfica de la inferencia CD.

Implementaciones

Algunos programas estadísticos han implementado la capacidad de construir y representar gráficamente distribuciones de confianza.

R , a través de los paquetes concurve, [32] [33] pvaluefunctions , [34] y episheet[35]

Excel , vía episheet[36]

Estadísticas , vía concurve[32]

Ver también

Referencias

  1. ^ ab Fisher, RA (1930). "Probabilidad inversa". Proc. Cambridge Pilos. Soc. 26 , 528–535.
  2. ^ Cox, DR (1958). "Algunos problemas relacionados con la inferencia estadística", " Anales de la estadística matemática ", "29" 357-372 (Sección 4, página 363) doi :10.1214/aoms/1177706618
  3. ^ abcdef Xie, M. (2013). "Dúplica de distribución de confianza, el estimador de distribución frecuentista de un parámetro - una revisión". Revista estadística internacional , 81 , 68-77. doi :10.1111/insr.12001
  4. ^ Efron, B. (1998). "RAFisher en el siglo XXI" Ciencia estadística. 13 95–122. JSTOR  2290557
  5. ^ Fraser, DAS (1991). "Inferencia estadística: probabilidad de significancia". Revista de la Asociación Estadounidense de Estadística , 86 , 258–265. JSTOR  2290557
  6. ^ abcdefgh Xie, M. y Singh, K. (2013). "Distribución de confianza, el estimador de distribución frecuentista de un parámetro: una revisión (con discusión)". Revista estadística internacional , 81 , 3-39. doi :10.1111/insr.12000
  7. ^ Fraser, DAS (29 de marzo de 2019). "La función del valor p y la inferencia estadística". El estadístico estadounidense . 73 (sup1): 135-147. doi : 10.1080/00031305.2018.1556735 . ISSN  0003-1305.
  8. ^ Neyman, J. (1937). "Esquema de una teoría de estimación estadística basada en la teoría clásica de la probabilidad". Fil. Trans. Roy. Sociedad A237 333–380
  9. ^ Fraser, DAS (2011). "¿El posterior de Bayes es simplemente una confianza rápida y sucia?" Ciencia estadística 26 , 299-316. JSTOR  23059129
  10. ^ Bayes, T. (1763). " Un ensayo para la solución de un problema en la doctrina de las probabilidades ". Fil. Trans. Roy. Soc , Londres 53 370–418 54 296–325. Reimpreso en Biometrika 45 (1958) 293–315.
  11. ^ Cox, DR (junio de 1958). "Algunos problemas relacionados con la inferencia estadística". Los anales de la estadística matemática . 29 (2): 357–372. doi : 10.1214/aoms/1177706618 . ISSN  0003-4851.
  12. ^ ab Schweder, T. y Hjort, NL (2002). "Confianza y probabilidad", Revista Escandinava de Estadística. 29 309–332. doi :10.1111/1467-9469.00285
  13. ^ ab Zabell, SL (1992). "RAFisher y argumento fiduciario", Stat. Ciencia. , 7 , 369–387
  14. ^ ab Singh, K. y Xie, M. (2011). "Discusiones sobre "¿Es el posterior de Bayes solo una confianza rápida y sucia?" por DAS Fraser." Ciencia estadística. vol. 26, 319-321. JSTOR  23059131
  15. ^ Cox, DR (2006). Principios de Inferencia Estadística , CUP. ISBN 0-521-68567-2 . (página 66) 
  16. ^ ab Efron, B. (1993). "Bayes y cálculos de probabilidad a partir de intervalos de confianza. Biometrika , 80 3–26.
  17. ^ Singh, K. Xie, M. y Strawderman, WE (2001). "Distribuciones de confianza: concepto, teoría y aplicaciones". Informe técnico, Departamento de Estadísticas, Universidad de Rutgers. Revisado en 2004.
  18. ^ ab Singh, K. Xie, M. y Strawderman, WE (2005). "Combinación de información de fuentes independientes mediante distribución de confianza" Annals of Statistics , 33 , 159–183. JSTOR  3448660
  19. ^ Xie, M., Liu, R., Daramuju, CV, Olsan, W. (2012). "Incorporando opiniones de expertos con información de ensayos clínicos binomiales." Anales de estadística aplicada. En prensa.
  20. ^ Taraldsen, Gunnar (2021). "Distribuciones conjuntas de confianza". doi :10.13140/RG.2.2.33079.85920. {{cite journal}}: Citar diario requiere |journal=( ayuda )
  21. ^ ab Liu, Dungang; Liu, Regina Y.; Xie, Min-ge (30 de abril de 2021). "Aprendizaje de fusión no paramétrico para multiparámetros: sintetizar inferencias de diversas fuentes utilizando la profundidad de los datos y la distribución de la confianza". Revista de la Asociación Estadounidense de Estadística . 117 (540): 2086–2104. doi :10.1080/01621459.2021.1902817. ISSN  0162-1459. S2CID  233657455.
  22. ^ abc Singh, K. Xie, M. y Strawderman, WE (2007). "Distribución de confianza (CD): estimador de distribución de un parámetro", en Conjuntos de datos complejos y problemas inversos Notas de conferencias de IMS: serie de monografías , 54 , (R. Liu, et al. Eds) 132-150. JSTOR  20461464
  23. ^ Taraldsen, Gunnar (2021). "La densidad de confianza para la correlación". Sankhya A. 85 : 600–616. doi : 10.1007/s13171-021-00267-y . ISSN  0976-8378. S2CID  244594067.
  24. ^ Taraldsen, Gunnar (2020). "Confianza en la correlación". doi :10.13140/RG.2.2.23673.49769. {{cite journal}}: Citar diario requiere |journal=( ayuda )
  25. ^ Berger, James O.; Sol, Dongchu (1 de abril de 2008). "Antecedentes objetivos para el modelo normal bivariado". Los anales de la estadística . 36 (2). arXiv : 0804.0987 . doi : 10.1214/07-AOS501 . ISSN  0090-5364. S2CID  14703802.
  26. ^ Fisher, Ronald Aylmer, señor (1973). Métodos estadísticos e inferencia científica ([3d ed., rev. y enl.] ed.). Nueva York: Hafner Press. ISBN 0-02-844740-9. OCLC  785822.{{cite book}}: CS1 maint: multiple names: authors list (link)
  27. ^ Eaton, Morris L.; Sudderth, William D. (2012). "Invarianza, coincidencia de modelos y coincidencia de probabilidades". Sankhyā: The Indian Journal of Statistics, Serie A (2008-) . 74 (2): 170-193. doi :10.1007/s13171-012-0018-4. ISSN  0976-836X. JSTOR  42003718. S2CID  120705955.
  28. ^ ab Taraldsen, Gunnar; Lindqvist, Bo Henry (1 de febrero de 2013). "Teoría fiducial e inferencia óptima". Los anales de la estadística . 41 (1). arXiv : 1301.1717 . doi : 10.1214/13-AOS1083 . ISSN  0090-5364. S2CID  88520957.
  29. ^ Cox, DR; Hinkley, DV (6 de septiembre de 1979). Estadística Teórica. Chapman y Hall/CRC. doi :10.1201/b14832. ISBN 978-0-429-17021-8.
  30. ^ Rafi, Zad; Groenlandia, Sander (30 de septiembre de 2020). "Herramientas semánticas y cognitivas para ayudar a la ciencia estadística: reemplazar la confianza y la importancia por compatibilidad y sorpresa". Metodología de la investigación médica del BMC . 20 (1): 244. arXiv : 1909.08579 . doi : 10.1186/s12874-020-01105-9 . ISSN  1471-2288. PMC 7528258 . PMID  32998683. 
  31. ^ Kendall, M. y Stuart, A. (1974). La Teoría Avanzada de la Estadística , ¿Volumen?. (Capítulo 21). Wiley.
  32. ^ ab Rafi [aut, Zad; cre; Vigotsky, Andrew D. (20 de abril de 2020), concurvo: Calcula y traza intervalos de compatibilidad (confianza), valores P, valores S e intervalos de probabilidad para formar funciones de consonancia, sorpresa y probabilidad , consultado el 5 de mayo de 2020. 05
  33. ^ "Concurve traza curvas de consonancia, funciones de valor p y funciones de valor S« Modelado estadístico, inferencia causal y ciencias sociales ". statmodeling.stat.columbia.edu . Consultado el 15 de abril de 2020 .
  34. ^ Infanger, Denis (29 de noviembre de 2019), pvaluefunctions: crea y traza funciones de valor P, funciones de valor S, distribuciones de confianza y densidades de confianza , consultado el 15 de abril de 2020
  35. ^ Negro, James; Rothman, Ken; Thelwall, Simon (23 de enero de 2019), episheet: Rothman's Episheet , consultado el 15 de abril de 2020
  36. ^ "Epidemiología moderna, segunda edición". www.krothman.org . Archivado desde el original el 29 de enero de 2020 . Consultado el 15 de abril de 2020 .

Bibliografía