stringtranslate.com

Regla 68–95–99,7

Para un conjunto de datos aproximadamente normal , los valores dentro de una desviación estándar de la media representan aproximadamente el 68% del conjunto; mientras que dentro de dos desviaciones estándar representan aproximadamente el 95%; y dentro de tres desviaciones estándar representan alrededor del 99,7%. Los porcentajes mostrados son probabilidades teóricas redondeadas destinadas únicamente a aproximar los datos empíricos derivados de una población normal.
Intervalo de predicción (en el eje y ) obtenido a partir de la puntuación estándar (en el eje x ). El eje y tiene una escala logarítmica (pero los valores que contiene no se modifican).

En estadística , la regla 68–95–99,7 , también conocida como regla empírica , es una abreviatura que se utiliza para recordar el porcentaje de valores que se encuentran dentro de una estimación de intervalo en una distribución normal : 68%, 95% y 99,7% de la los valores se encuentran dentro de una, dos y tres desviaciones estándar de la media , respectivamente.

En notación matemática, estos hechos se pueden expresar de la siguiente manera, donde Pr() es la función de probabilidad , [1] Χ es una observación de una variable aleatoria distribuida normalmente , μ (mu) es la media de la distribución y σ (sigma ) es su desviación estándar:

La utilidad de esta heurística depende especialmente de la cuestión que se considere.

En las ciencias empíricas , la llamada regla general de tres sigma (o regla de 3 σ ) expresa una heurística convencional según la cual casi todos los valores se consideran dentro de tres desviaciones estándar de la media y, por lo tanto, es empíricamente útil tratar 99,7 % de probabilidad tan cercana a la certeza. [2]

En las ciencias sociales , un resultado puede considerarse " significativo " si su nivel de confianza es del orden de un efecto dos sigma (95%), mientras que en física de partículas , existe una convención de un efecto cinco sigma (99,99994%). confianza) siendo requerido para calificar como un descubrimiento .

Se puede derivar una regla de tres sigma más débil a partir de la desigualdad de Chebyshev , que establece que incluso para variables no distribuidas normalmente, al menos el 88,8% de los casos deberían caer dentro de intervalos de tres sigma calculados correctamente. Para distribuciones unimodales , la probabilidad de estar dentro del intervalo es al menos del 95% según la desigualdad de Vysochanskij-Petunin . Puede haber ciertos supuestos para una distribución que obliguen a que esta probabilidad sea al menos del 98%. [3]

Prueba

tenemos eso

y esta integral es independiente de y . Sólo necesitamos calcular cada integral para los casos .

Función de distribución acumulativa

Diagrama que muestra la función de distribución acumulativa para la distribución normal con media ( μ ) 0 y varianza ( σ 2 ) 1.

Estos valores numéricos "68%, 95%, 99,7%" provienen de la función de distribución acumulativa de la distribución normal .

El intervalo de predicción para cualquier puntuación estándar z corresponde numéricamente a (1 − (1 − Φ μ , σ 2 (z)) · 2) .

Por ejemplo, Φ (2) ≈ 0,9772 , o Pr( Xμ + 2 σ ) ≈ 0,9772 , correspondiente a un intervalo de predicción de (1 − (1 − 0,97725)·2) = 0,9545 = 95,45% . Este no es un intervalo simétrico; es simplemente la probabilidad de que una observación sea menor que μ + 2 σ . Para calcular la probabilidad de que una observación esté dentro de dos desviaciones estándar de la media (pequeñas diferencias debido al redondeo):

Esto está relacionado con el intervalo de confianza tal como se usa en estadística: es aproximadamente un intervalo de confianza del 95% cuando es el promedio de una muestra de tamaño .

Pruebas de normalidad

La "regla 68–95–99,7" se utiliza a menudo para obtener rápidamente una estimación aproximada de la probabilidad de algo, dada su desviación estándar, si se supone que la población es normal. También se utiliza como prueba simple para valores atípicos si se supone que la población es normal, y como prueba de normalidad si la población potencialmente no es normal.

Para pasar de una muestra a un número de desviaciones estándar, primero se calcula la desviación , ya sea el error o el residual, dependiendo de si se conoce la media poblacional o solo se estima. El siguiente paso es estandarizar (dividir por la desviación estándar de la población), si se conocen los parámetros de la población, o estudiar (dividir por una estimación de la desviación estándar), si los parámetros se desconocen y solo se estiman.

Para utilizarlo como prueba de valores atípicos o prueba de normalidad, se calcula el tamaño de las desviaciones en términos de desviaciones estándar y se compara con la frecuencia esperada. Dado un conjunto de muestras, se pueden calcular los residuos estudentizados y compararlos con la frecuencia esperada: los puntos que caen a más de 3 desviaciones estándar de la norma probablemente sean valores atípicos (a menos que el tamaño de la muestra sea significativamente grande, momento en el cual se espera una muestra de este tamaño). extremo), y si hay muchos puntos a más de 3 desviaciones estándar de la norma, es probable que uno tenga motivos para cuestionar la supuesta normalidad de la distribución. Esto es cada vez más válido para movimientos de 4 o más desviaciones estándar.

Se puede calcular con mayor precisión, aproximando el número de movimientos extremos de una magnitud dada o mayor mediante una distribución de Poisson , pero simplemente, si uno tiene múltiples movimientos de 4 desviaciones estándar en una muestra de tamaño 1000, tiene fuertes razones para considerar estos valores atípicos o cuestionar la supuesta normalidad de la distribución.

Por ejemplo, un evento de 6 σ corresponde a una probabilidad de aproximadamente dos partes por mil millones . Por ejemplo, si se considera que los eventos ocurren diariamente, esto correspondería a un evento esperado cada 1,4 millones de años. Esto proporciona una prueba de normalidad simple : si se observa un 6 σ en los datos diarios y han transcurrido significativamente menos de 1 millón de años, lo más probable es que una distribución normal no proporcione un buen modelo para la magnitud o frecuencia de grandes desviaciones a este respecto.

En El cisne negro , Nassim Nicholas Taleb da el ejemplo de los modelos de riesgo según los cuales la caída del Lunes Negro correspondería a un evento de 36 σ : la ocurrencia de tal evento debería sugerir instantáneamente que el modelo es defectuoso, es decir, que el proceso bajo la consideración no está modelada satisfactoriamente mediante una distribución normal. Entonces deberían considerarse modelos refinados, por ejemplo mediante la introducción de volatilidad estocástica . En tales discusiones es importante ser consciente del problema de la falacia del jugador , que establece que una sola observación de un evento raro no contradice que el evento sea en realidad raro. Es la observación de una pluralidad de eventos supuestamente raros lo que socava cada vez más la hipótesis de que son raros, es decir, la validez del modelo supuesto. Un modelado adecuado de este proceso de pérdida gradual de confianza en una hipótesis implicaría la designación de probabilidad previa no sólo a la hipótesis misma sino a todas las hipótesis alternativas posibles. Por esta razón, la prueba de hipótesis estadística funciona no tanto confirmando una hipótesis considerada probable, sino refutando hipótesis consideradas improbables .

Tabla de valores numéricos

Debido a las colas de la distribución normal que disminuyen exponencialmente, las probabilidades de que se produzcan desviaciones mayores disminuyen muy rápidamente. De las reglas para datos distribuidos normalmente para un evento diario:

Ver también

Referencias

  1. ^ Huber, Franz (2018). Una introducción lógica a la probabilidad y la inducción. Nueva York: Oxford University Press . pag. 80.ISBN​ 9780190845414.
  2. ^ Este uso de la "regla tres sigma" entró en uso común en la década de 2000, por ejemplo, citado en
    • Esquema de estadísticas empresariales de Schaum . Profesional de McGraw Hill. 2003. pág. 359.ISBN​ 9780071398763
    • Grafarend, Erik W. (2006). Modelos lineales y no lineales: efectos fijos, efectos aleatorios y modelos mixtos . Walter de Gruyter. pag. 553.ISBN​ 9783110162165.
  3. ^ Ver:
    • Wheeler, DJ; Cámaras, DS (1992). Comprensión del control estadístico de procesos. Prensa SPC. ISBN 9780945320135.
    • Czitrom, Verónica ; Spagón, Patrick D. (1997). Estudios de casos estadísticos para la mejora de procesos industriales. SIAM. pag. 342.ISBN _ 9780898713947.
    • Pukelsheim, F. (1994). "La regla de las tres sigma". Estadístico estadounidense . 48 (2): 88–91. doi :10.2307/2684253. JSTOR  2684253.
  4. ^ Sloane, Nueva Jersey (ed.). "Secuencia A178647". La enciclopedia en línea de secuencias enteras . Fundación OEIS.
  5. ^ Sloane, Nueva Jersey (ed.). "Secuencia A110894". La enciclopedia en línea de secuencias enteras . Fundación OEIS.
  6. ^ Sloane, Nueva Jersey (ed.). "Secuencia A270712". La enciclopedia en línea de secuencias enteras . Fundación OEIS.

enlaces externos