En estadística , la regla 68–95–99,7 , también conocida como regla empírica y a veces abreviada como 3sr , es una abreviatura utilizada para recordar el porcentaje de valores que se encuentran dentro de una estimación de intervalo en una distribución normal : aproximadamente el 68 %, el 95 % y el 99,7 % de los valores se encuentran dentro de una, dos y tres desviaciones estándar de la media , respectivamente.
En notación matemática, estos hechos se pueden expresar de la siguiente manera, donde Pr() es la función de probabilidad , [1] Χ es una observación de una variable aleatoria distribuida normalmente , μ (mu) es la media de la distribución y σ (sigma) es su desviación estándar:
La utilidad de esta heurística depende especialmente de la pregunta en consideración.
En las ciencias empíricas , la llamada regla de tres sigmas (o regla 3 σ ) expresa una heurística convencional según la cual casi todos los valores se consideran dentro de tres desviaciones estándar de la media y, por lo tanto, es empíricamente útil tratar una probabilidad del 99,7 % como una certeza cercana. [2]
En las ciencias sociales , un resultado puede considerarse estadísticamente significativo si su nivel de confianza es del orden de un efecto de dos sigma (95%), mientras que en física de partículas y astrofísica , existe una convención de requerir una significación estadística de un efecto de cinco sigma (99,99994% de confianza) para calificar como un descubrimiento . [3]
Se puede derivar una regla de tres sigmas más débil de la desigualdad de Chebyshev , que establece que incluso para variables que no se distribuyen normalmente, al menos el 88,8 % de los casos deben caer dentro de intervalos de tres sigma calculados correctamente. Para distribuciones unimodales , la probabilidad de estar dentro del intervalo es al menos del 95 % según la desigualdad de Vysochanskij–Petunin . Puede haber ciertas suposiciones para una distribución que obliguen a que esta probabilidad sea al menos del 98 %. [4]
Tenemos que al hacer el cambio de variable en términos de la puntuación estándar , tenemos y esta integral es independiente de y . Solo necesitamos calcular cada integral para los casos .
Estos valores numéricos "68%, 95%, 99,7%" provienen de la función de distribución acumulativa de la distribución normal .
El intervalo de predicción para cualquier puntuación estándar z corresponde numéricamente a (1 − (1 − Φ μ , σ 2 (z)) · 2) .
Por ejemplo, Φ (2) ≈ 0,9772 , o Pr( X ≤ μ + 2 σ ) ≈ 0,9772 , correspondiente a un intervalo de predicción de (1 − (1 − 0,97725)·2) = 0,9545 = 95,45 % . Este no es un intervalo simétrico; es simplemente la probabilidad de que una observación sea menor que μ + 2 σ . Para calcular la probabilidad de que una observación esté dentro de dos desviaciones estándar de la media (pequeñas diferencias debido al redondeo):
Esto está relacionado con el intervalo de confianza tal como se usa en estadística: es aproximadamente un intervalo de confianza del 95% cuando es el promedio de una muestra de tamaño .
La "regla 68-95-99,7" se utiliza a menudo para obtener rápidamente una estimación aproximada de la probabilidad de algo, dada su desviación estándar, si se supone que la población es normal. También se utiliza como una prueba simple para detectar valores atípicos si se supone que la población es normal, y como una prueba de normalidad si la población potencialmente no es normal.
Para pasar de una muestra a un número de desviaciones típicas, primero se calcula la desviación , ya sea el error o el residuo, dependiendo de si se conoce la media de la población o solo se la estima. El siguiente paso es estandarizar (dividir por la desviación típica de la población), si se conocen los parámetros de la población, o studentizar (dividir por una estimación de la desviación típica), si los parámetros son desconocidos y solo se estiman.
Para utilizarlo como prueba de valores atípicos o como prueba de normalidad, se calcula el tamaño de las desviaciones en términos de desviaciones estándar y se compara con la frecuencia esperada. Dado un conjunto de muestras, se pueden calcular los residuos estudentizados y compararlos con la frecuencia esperada: los puntos que se encuentran a más de 3 desviaciones estándar de la norma son probablemente valores atípicos (a menos que el tamaño de la muestra sea significativamente grande, en cuyo caso se espera una muestra de este extremo), y si hay muchos puntos a más de 3 desviaciones estándar de la norma, es probable que haya motivos para cuestionar la normalidad asumida de la distribución. Esto se aplica con mayor fuerza para movimientos de 4 o más desviaciones estándar.
Se puede hacer un cálculo más preciso, aproximando el número de movimientos extremos de una magnitud dada o mayor mediante una distribución de Poisson , pero simplemente, si uno tiene múltiples movimientos con una desviación estándar de 4 en una muestra de tamaño 1000, uno tiene fuertes razones para considerar estos valores atípicos o cuestionar la normalidad asumida de la distribución.
Por ejemplo, un evento de 6 σ corresponde a una probabilidad de aproximadamente dos partes por mil millones . A modo de ejemplo, si se considera que los eventos ocurren diariamente, esto correspondería a un evento esperado cada 1,4 millones de años. Esto proporciona una prueba de normalidad simple : si uno presencia un 6 σ en datos diarios y han transcurrido significativamente menos de 1 millón de años, entonces una distribución normal probablemente no proporcione un buen modelo para la magnitud o frecuencia de grandes desviaciones en este sentido.
En El cisne negro , Nassim Nicholas Taleb da el ejemplo de modelos de riesgo según los cuales el colapso del Lunes Negro correspondería a un evento 36- σ : la ocurrencia de un evento de este tipo debería sugerir instantáneamente que el modelo es defectuoso, es decir, que el proceso en consideración no está satisfactoriamente modelado por una distribución normal. Entonces deberían considerarse modelos refinados, por ejemplo mediante la introducción de la volatilidad estocástica . En tales discusiones es importante ser consciente del problema de la falacia del jugador , que establece que una sola observación de un evento raro no contradice que el evento sea de hecho raro. Es la observación de una pluralidad de eventos supuestamente raros lo que socava cada vez más la hipótesis de que son raros, es decir, la validez del modelo asumido. Un modelado adecuado de este proceso de pérdida gradual de confianza en una hipótesis implicaría la designación de probabilidad previa no solo para la hipótesis en sí, sino para todas las hipótesis alternativas posibles. Por esta razón, la prueba de hipótesis estadística funciona no tanto confirmando una hipótesis considerada probable, sino refutando hipótesis consideradas improbables .
Debido a que las colas de la distribución normal disminuyen exponencialmente, las probabilidades de que se produzcan desviaciones mayores disminuyen muy rápidamente. Según las reglas para los datos distribuidos normalmente para un evento diario: