stringtranslate.com

prueba G

En estadística , las pruebas G son pruebas de índice de verosimilitud o de significación estadística de máxima verosimilitud que se utilizan cada vez más en situaciones en las que anteriormente se recomendaban las pruebas de chi-cuadrado . [1]

Formulación

La fórmula general para G es

donde es el recuento observado en una celda, es el recuento esperado según la hipótesis nula , denota el logaritmo natural y la suma se toma en todas las celdas que no están vacías. El resultado es una distribución chi-cuadrado .

Además, el recuento total observado debe ser igual al recuento total esperado:

Derivación

Podemos derivar el valor de la prueba G a partir de la prueba del índice de verosimilitud donde el modelo subyacente es un modelo multinomial.

Supongamos que tenemos una muestra donde cada uno es el número de veces que se observó un objeto de tipo. Además, sea el número total de objetos observados. Si asumimos que el modelo subyacente es multinomial, entonces el estadístico de prueba se define por

estimación de máxima verosimilitud

Heurísticamente, uno puede imaginarlo como continuo y acercándose a cero, en cuyo caso y los términos con observaciones cero pueden simplemente descartarse. Sin embargo, el recuento esperado en cada celda debe ser estrictamente mayor que cero para cada celda ( ) para aplicar el método.

Distribución y uso

Dada la hipótesis nula de que las frecuencias observadas resultan de un muestreo aleatorio de una distribución con las frecuencias esperadas dadas, la distribución de G es aproximadamente una distribución chi-cuadrado , con el mismo número de grados de libertad que en la prueba chi-cuadrado correspondiente.

Para muestras muy pequeñas, la prueba multinomial de bondad de ajuste y la prueba exacta de Fisher para tablas de contingencia, o incluso la selección de hipótesis bayesiana, son preferibles a la prueba G. [2] McDonald recomienda utilizar siempre una prueba exacta (prueba exacta de bondad de ajuste, prueba exacta de Fisher ) si el tamaño total de la muestra es inferior a 1.000.

No hay nada mágico en un tamaño de muestra de 1.000, es simplemente un bonito número redondo que está dentro del rango donde una prueba exacta, una prueba de chi-cuadrado y una prueba G darán valores de p casi idénticos  . Las hojas de cálculo, las calculadoras de páginas web y SAS no deberían tener ningún problema para realizar una prueba exacta en un tamaño de muestra de 1.000.
- John H. McDonald [2]

Las pruebas G se han recomendado al menos desde la edición de 1981 de Biometría , un libro de texto de estadística de Robert R. Sokal y F. James Rohlf . [3]

Relación con otras métricas

Relación con la prueba de chi-cuadrado

Las pruebas de chi-cuadrado comúnmente utilizadas para determinar la bondad del ajuste de una distribución y la independencia en las tablas de contingencia son, de hecho, aproximaciones del índice de verosimilitud logarítmica en el que se basan las pruebas G. [4]

La fórmula general para el estadístico de prueba chi-cuadrado de Pearson es

La aproximación de G por chi cuadrado se obtiene mediante una expansión de Taylor de segundo orden del logaritmo natural alrededor de 1 (consulte #Derivación (chi cuadrado) a continuación). Tenemos cuando los recuentos observados están cerca de los recuentos esperados. Sin embargo, cuando esta diferencia es grande, la aproximación comienza a desmoronarse. Aquí, los efectos de los valores atípicos en los datos serán más pronunciados, y esto explica por qué las pruebas fallan en situaciones con pocos datos.

Para muestras de un tamaño razonable, la prueba G y la prueba de chi-cuadrado conducirán a las mismas conclusiones. Sin embargo, la aproximación a la distribución teórica de chi-cuadrado para la prueba G es mejor que para la prueba de chi-cuadrado de Pearson . [5] En los casos en que, para algún caso de celda, la prueba G siempre es mejor que la prueba de chi-cuadrado. [ cita necesaria ]

Para probar la bondad de ajuste, la prueba G es infinitamente más eficiente que la prueba de chi cuadrado en el sentido de Bahadur, pero las dos pruebas son igualmente eficientes en el sentido de Pitman o en el sentido de Hodges y Lehmann. [6] [7]

Derivación (chi-cuadrado)

Considerar

y dejemos con para que el número total de conteos siga siendo el mismo. Tras la sustitución encontramos,

Se puede realizar una expansión de Taylor usando . El resultado es

y distribuyendo términos encontramos,

Ahora, usando el hecho de que y podemos escribir el resultado,

Relación con la divergencia Kullback-Leibler

El estadístico de prueba G es proporcional a la divergencia de Kullback-Leibler entre la distribución teórica y la distribución empírica:

donde N es el número total de observaciones y y son las frecuencias empíricas y teóricas, respectivamente.

Relación con la información mutua

Para el análisis de tablas de contingencia, el valor de G también se puede expresar en términos de información mutua .

Dejar

, , , y .

Entonces G se puede expresar en varias formas alternativas:

donde la entropía de una variable aleatoria discreta se define como

y donde

es la información mutua entre el vector fila r y el vector columna c de la tabla de contingencia.

También se puede demostrar [ cita necesaria ] que la ponderación de frecuencia de documento inversa comúnmente utilizada para la recuperación de texto es una aproximación de G aplicable cuando la suma de filas para la consulta es mucho menor que la suma de filas para el resto del corpus. De manera similar, el resultado de la inferencia bayesiana aplicada a una elección de distribución multinomial única para todas las filas de la tabla de contingencia tomadas en conjunto versus la alternativa más general de un multinomial separado por fila produce resultados muy similares al estadístico G. [ cita necesaria ]

Solicitud

software estadístico

Referencias

  1. ^ McDonald, JH (2014). "Prueba G de bondad de ajuste". Manual de estadísticas biológicas (Tercera ed.). Baltimore, Maryland: Sparky House Publishing. págs. 53–58.
  2. ^ ab McDonald, John H. (2014). "Números pequeños en pruebas de chi-cuadrado y G". Manual de estadísticas biológicas (3ª ed.). Baltimore, MD: Sparky House Publishing. págs. 86–89.
  3. ^ Sokal, RR; Rohlf, FJ (1981). Biometría: los principios y la práctica de la estadística en la investigación biológica (Segunda ed.). Nueva York: Freeman. ISBN 978-0-7167-2411-7.
  4. ^ Hoey, J. (2012). "La prueba de relación de probabilidad bidireccional (G) y comparación con la prueba de chi cuadrado bidireccional". arXiv : 1206.4881 [estad.ME].
  5. ^ Harremoës, P.; Tusnády, G. (2012). "La divergencia de información tiene más distribución de chi cuadrado que la estadística de chi cuadrado". Actas ISIT 2012 . págs. 538–543. arXiv : 1202.1125 . Código Bib : 2012arXiv1202.1125H.
  6. ^ Quine, diputado; Robinson, J. (1985). "Eficiencias de las pruebas de bondad de ajuste del índice de probabilidad y chi-cuadrado". Anales de Estadística . 13 (2): 727–742. doi : 10.1214/aos/1176349550 .
  7. ^ Harremoës, P.; Vajda, I. (2008). "Sobre la prueba de uniformidad eficiente de Bahadur mediante la entropía". Transacciones IEEE sobre teoría de la información . 54 : 321–331. CiteSeerX 10.1.1.226.8051 . doi :10.1109/tit.2007.911155. S2CID  2258586. 
  8. ^ Dunning, Ted (1993). "Métodos precisos para las estadísticas de sorpresa y coincidencia Archivado el 15 de diciembre de 2011 en la Wayback Machine ", Lingüística computacional , volumen 19, número 1 (marzo de 1993).
  9. ^ Rivas, Elena (30 de octubre de 2020). "Predicción de la estructura del ARN utilizando información evolutiva positiva y negativa". PLOS Biología Computacional . 16 (10): e1008387. doi : 10.1371/journal.pcbi.1008387 . PMC 7657543 . 
  10. ^ Pescador, RA (1929). "Pruebas de significancia en análisis armónicos". Actas de la Royal Society de Londres A. 125 (796): 54–59. Código bibliográfico : 1929RSPSA.125...54F. doi : 10.1098/rspa.1929.0151 . hdl : 2440/15201 .
  11. ^ Prueba G de independencia, prueba G de bondad de ajuste en Handbook of Biological Statistics, Universidad de Delaware. (págs. 46–51, 64–69 en: McDonald, JH (2009) Handbook of Biological Statistics (2ª ed.). Sparky House Publishing, Baltimore, Maryland.)
  12. ^ org.apache.commons.math3.stat.inference.GTest
  13. ^ "Scipy.stats.power_divergence - Manual de SciPy v1.7.1".

enlaces externos