En estadística , la corrección de Bonferroni es un método para contrarrestar el problema de comparaciones múltiples .
El método recibe su nombre por el uso de las desigualdades de Bonferroni . [1] La aplicación del método a los intervalos de confianza fue descrita por Olive Jean Dunn . [2]
La prueba de hipótesis estadística se basa en rechazar la hipótesis nula cuando la probabilidad de que los datos observados sean ciertos sería baja si la hipótesis nula fuera cierta. Si se prueban múltiples hipótesis, aumenta la probabilidad de observar un evento poco frecuente y, por lo tanto, aumenta la probabilidad de rechazar incorrectamente una hipótesis nula (es decir, cometer un error de tipo I ). [3]
La corrección de Bonferroni compensa ese aumento probando cada hipótesis individual en un nivel de significancia de , donde es el nivel alfa general deseado y es el número de hipótesis. [4] Por ejemplo, si un ensayo está probando hipótesis con un nivel alfa general deseado , entonces la corrección de Bonferroni probaría cada hipótesis individual en .
La corrección de Bonferroni también se puede aplicar como un ajuste del valor p: con ese enfoque, en lugar de ajustar el nivel alfa, cada valor p se multiplica por el número de pruebas (los valores p ajustados que superan 1 se reducen a 1) y el nivel alfa no se modifica. Las decisiones de significancia con este enfoque serán las mismas que con el enfoque de ajuste del nivel alfa.
Sea una familia de hipótesis nulas y sean sus valores p correspondientes . Sea el número total de hipótesis nulas y sea el número de hipótesis nulas verdaderas (que presumiblemente es desconocido para el investigador). La tasa de error por familia (FWER) es la probabilidad de rechazar al menos una verdadera , es decir, de cometer al menos un error de tipo I . La corrección de Bonferroni rechaza la hipótesis nula para cada , controlando así la FWER en . La prueba de este control se desprende de la desigualdad de Boole , como sigue:
Este control no requiere ninguna suposición sobre la dependencia entre los valores p o sobre cuántas de las hipótesis nulas son verdaderas. [5]
En lugar de probar cada hipótesis en el nivel, las hipótesis pueden probarse en cualquier otra combinación de niveles que sumen , siempre que el nivel de cada prueba se decida antes de mirar los datos. [6] Por ejemplo, para dos pruebas de hipótesis, se podría mantener un total de 0,05 realizando una prueba en 0,04 y la otra en 0,01.
El procedimiento propuesto por Dunn [2] se puede utilizar para ajustar los intervalos de confianza . Si se establecen intervalos de confianza y se desea tener un nivel de confianza general de , cada intervalo de confianza individual se puede ajustar al nivel de . [2]
Al buscar una señal en un espacio de parámetros continuos, también puede haber un problema de comparaciones múltiples o un efecto de búsqueda en otro lugar. Por ejemplo, un físico podría estar buscando descubrir una partícula de masa desconocida considerando un amplio rango de masas; este fue el caso durante la detección del bosón de Higgs , que ganó el Premio Nobel . En tales casos, se puede aplicar una generalización continua de la corrección de Bonferroni empleando la lógica bayesiana para relacionar el número efectivo de ensayos, , con la relación de volumen anterior a posterior. [7]
Existen formas alternativas de controlar la tasa de error por familia . Por ejemplo, el método de Holm–Bonferroni y la corrección de Šidák son procedimientos universalmente más potentes que la corrección de Bonferroni, lo que significa que siempre son al menos igual de potentes. Pero a diferencia del procedimiento de Bonferroni, estos métodos no controlan el número esperado de errores de tipo I por familia (la tasa de error de tipo I por familia). [8]
Con respecto al control de FWER , la corrección de Bonferroni puede ser conservadora si hay una gran cantidad de pruebas y/o las estadísticas de prueba están correlacionadas positivamente. [9]
Las correcciones de pruebas múltiples, incluido el procedimiento de Bonferroni, aumentan la probabilidad de errores de tipo II cuando las hipótesis nulas son falsas, es decir, reducen el poder estadístico . [10] [9]