stringtranslate.com

Extensiones del método de Fisher

En estadística , las extensiones del método de Fisher son un grupo de enfoques que permiten realizar inferencias estadísticas aproximadamente válidas cuando los supuestos requeridos para la aplicación directa del método de Fisher no son válidos. El método de Fisher es una forma de combinar la información de los valores p de diferentes pruebas estadísticas para formar una única prueba general: este método requiere que las estadísticas de prueba individuales (o, más inmediatamente, sus valores p resultantes) sean estadísticamente independientes.

Estadísticas dependientes

Una limitación principal del método de Fisher es su diseño exclusivo para combinar valores p independientes, lo que lo convierte en una técnica poco fiable para combinar valores p dependientes. Para superar esta limitación, se desarrollaron varios métodos para ampliar su utilidad.

Covarianza conocida

El método de Brown

El método de Fisher mostró que la suma logarítmica de k valores p independientes sigue una distribución χ 2 con 2 k grados de libertad: [1] [2]

En el caso de que estos valores p no sean independientes, Brown propuso la idea de aproximar X utilizando una distribución χ 2 escalada, 2 ( k' ), con k' grados de libertad.

La media y la varianza de esta variable escalada χ 2 son:

donde y . Se demuestra que esta aproximación es precisa hasta dos momentos.

Covarianza desconocida

Media armónicapag-valor

El valor p de media armónica ofrece una alternativa al método de Fisher para combinar valores p cuando se desconoce la estructura de dependencia pero no se puede suponer que las pruebas sean independientes. [3] [4]

El método de Kost:aproximación t

Este método requiere que la estructura de covarianza de las estadísticas de prueba se conozca hasta una constante multiplicativa escalar. [2]

Prueba de combinación de Cauchy

Este método es conceptualmente similar al de Fisher: calcula una suma de los valores p transformados . A diferencia del método de Fisher, que utiliza una transformación logarítmica para obtener un estadístico de prueba que tiene una distribución de chi-cuadrado bajo la hipótesis nula, la prueba de combinación de Cauchy utiliza una transformación tan para obtener un estadístico de prueba cuya cola es asintótica a la de una distribución de Cauchy bajo la hipótesis nula. El estadístico de prueba es:

donde son pesos no negativos, sujetos a . Bajo la hipótesis nula, se distribuyen uniformemente, por lo tanto, se distribuyen según Cauchy. Bajo algunas suposiciones moderadas, pero permitiendo una dependencia arbitraria entre , la cola de la distribución de X es asintótica a la de una distribución de Cauchy. Más precisamente, dejando que W denote una variable aleatoria estándar de Cauchy:

Esto conduce a una prueba de hipótesis combinada, en la que X se compara con los cuantiles de la distribución de Cauchy. [5]

Referencias

  1. ^ Brown, M. (1975). "Un método para combinar pruebas de significación unilaterales no independientes". Biometrics . 31 (4): 987–992. doi :10.2307/2529826. JSTOR  2529826.
  2. ^ ab Kost, J.; McDermott, M. (2002). "Combinación de valores P dependientes". Statistics & Probability Letters . 60 (2): 183–190. doi :10.1016/S0167-7152(02)00310-3.
  3. ^ Good, IJ (1958). "Pruebas de significancia en paralelo y en serie". Revista de la Asociación Estadounidense de Estadística . 53 (284): 799–813. doi :10.1080/01621459.1958.10501480. JSTOR  2281953.
  4. ^ Wilson, DJ (2019). "El valor p de la media armónica para combinar pruebas dependientes". Actas de la Academia Nacional de Ciencias de Estados Unidos . 116 (4): 1195–1200. doi : 10.1073/pnas.1814092116 . PMC 6347718. PMID  30610179 . 
  5. ^ Liu Y, Xie J (2020). "Prueba de combinación de Cauchy: una prueba poderosa con cálculo analítico del valor p bajo estructuras de dependencia arbitrarias". Revista de la Asociación Estadounidense de Estadística . 115 (529): 393–402. doi :10.1080/01621459.2018.1554485. PMC 7531765 .