En estadística , el análisis secuencial o la prueba de hipótesis secuencial es un análisis estadístico en el que el tamaño de la muestra no está fijado de antemano. En cambio, los datos se evalúan a medida que se recopilan y se detiene el muestreo adicional de acuerdo con una regla de interrupción predefinida tan pronto como se observan resultados significativos. Por lo tanto, a veces se puede llegar a una conclusión en una etapa mucho más temprana de lo que sería posible con pruebas o estimaciones de hipótesis más clásicas , con un costo financiero y/o humano, en consecuencia, menor.
El método de análisis secuencial se atribuye por primera vez a Abraham Wald [1] con Jacob Wolfowitz , W. Allen Wallis y Milton Friedman [2] [3] mientras estaban en el Grupo de Investigación Estadística de la Universidad de Columbia como una herramienta para un control de calidad industrial más eficiente durante la época mundial. Segunda Guerra . Su valor para el esfuerzo bélico fue inmediatamente reconocido y llevó a que recibiera una clasificación "restringida" . [4] Al mismo tiempo, George Barnard dirigió un grupo que trabajaba en la parada óptima en Gran Bretaña. Otra contribución temprana al método fue realizada por KJ Arrow con D. Blackwell y MA Girshick . [5]
Alan Turing desarrolló independientemente un enfoque similar a partir de los primeros principios aproximadamente al mismo tiempo , como parte de la técnica Banburismus utilizada en Bletchley Park , para probar hipótesis sobre si diferentes mensajes codificados por máquinas alemanas Enigma deberían conectarse y analizarse juntos. Este trabajo permaneció en secreto hasta principios de los años 1980. [6]
Peter Armitage introdujo el uso del análisis secuencial en la investigación médica, especialmente en el ámbito de los ensayos clínicos. Los métodos secuenciales se hicieron cada vez más populares en medicina tras el trabajo de Stuart Pocock que proporcionó recomendaciones claras sobre cómo controlar las tasas de error tipo 1 en diseños secuenciales. [7]
Cuando los investigadores analizan datos repetidamente a medida que se agregan más observaciones, aumenta la probabilidad de cometer un error de tipo 1 . Por lo tanto, es importante ajustar el nivel alfa en cada análisis intermedio, de modo que la tasa de error tipo 1 general se mantenga en el nivel deseado. Esto es conceptualmente similar al uso de la corrección de Bonferroni , pero debido a que las miradas repetidas a los datos son dependientes, se pueden usar correcciones más eficientes para el nivel alfa. Entre las primeras propuestas se encuentra el límite de Pocock . Existen formas alternativas de controlar la tasa de error Tipo 1, como los límites de Haybittle-Peto , y O'Brien & Fleming [8] y Wang & Tsiatis han realizado trabajos adicionales para determinar los límites para los análisis provisionales . [9]
Una limitación de las correcciones como el límite de Pocock es que el número de miradas a los datos debe determinarse antes de recopilarlos, y que las miradas a los datos deben estar espaciadas equidistantemente (por ejemplo, después de 50, 100, 150 y 200). pacientes). El enfoque de la función de gasto alfa desarrollado por Demets & Lan [10] no tiene estas restricciones y, dependiendo de los parámetros elegidos para la función de gasto, puede ser muy similar a los límites de Pocock o las correcciones propuestas por O'Brien y Fleming. Otro enfoque que no tiene tales restricciones se basa en valores electrónicos y procesos electrónicos .
En un ensayo aleatorio con dos grupos de tratamiento, las pruebas grupales secuenciales se pueden realizar, por ejemplo, de la siguiente manera: después de que n sujetos en cada grupo estén disponibles, se realiza un análisis intermedio. Se realiza una prueba estadística para comparar los dos grupos y si se rechaza la hipótesis nula se da por terminado el ensayo; en caso contrario, el ensayo continúa, se reclutan otros n sujetos por grupo y se vuelve a realizar la prueba estadística, incluyendo a todos los sujetos. Si se rechaza la nula, se da por terminado el ensayo, y en caso contrario se continúa con evaluaciones periódicas hasta que se haya realizado un número máximo de análisis intermedios, momento en el que se realiza la última prueba estadística y se suspende el ensayo. [11]
El análisis secuencial también tiene una conexión con el problema de la ruina del jugador que fue estudiado, entre otros, por Huygens en 1657. [12]
La detección de pasos es el proceso de encontrar cambios abruptos en el nivel medio de una serie temporal o señal. Generalmente se considera un tipo especial de método estadístico conocido como detección de puntos de cambio . A menudo, el paso es pequeño y la serie temporal está corrompida por algún tipo de ruido, lo que hace que el problema sea un desafío porque el ruido puede ocultar el paso. Por lo tanto, a menudo se requieren algoritmos estadísticos y/o de procesamiento de señales. Cuando los algoritmos se ejecutan en línea a medida que llegan los datos, especialmente con el objetivo de producir una alerta, se trata de una aplicación de análisis secuencial.
Los ensayos que finalizan anticipadamente porque rechazan la hipótesis nula suelen sobreestimar el verdadero tamaño del efecto. [13] Esto se debe a que en muestras pequeñas, sólo las estimaciones de tamaño de efecto grandes conducirán a un efecto significativo y a la posterior terminación de un ensayo. Se han propuesto métodos para corregir las estimaciones del tamaño del efecto en ensayos únicos. [14] Tenga en cuenta que este sesgo es principalmente problemático al interpretar estudios individuales. En los metanálisis, los tamaños del efecto sobreestimados debido a la interrupción temprana se equilibran con la subestimación en los ensayos que se detienen tarde, lo que lleva a Schou & Marschner a concluir que "la interrupción temprana de los ensayos clínicos no es una fuente importante de sesgo en los metanálisis". [15]
El significado de los valores p en los análisis secuenciales también cambia, porque cuando se utilizan análisis secuenciales, se realiza más de un análisis y es necesario redefinir la definición típica de un valor p como datos "al menos tan extremos" como los observados. . Una solución es ordenar los valores p de una serie de pruebas secuenciales en función del tiempo de parada y de qué tan alto fue el estadístico de prueba en un aspecto determinado, lo que se conoce como ordenamiento por etapas, [13] propuesto por primera vez por Armitage .
{{cite book}}
: |journal=
ignorado ( ayuda ) ; Falta o está vacío |title=
( ayuda ){{cite book}}
: Mantenimiento CS1: varios nombres: lista de autores ( enlace )