stringtranslate.com

Regla 68-95-99,7

Para un conjunto de datos aproximadamente normal , los valores dentro de una desviación estándar de la media representan aproximadamente el 68% del conjunto; mientras que dentro de dos desviaciones estándar representan aproximadamente el 95%; y dentro de tres desviaciones estándar representan aproximadamente el 99,7%. Los porcentajes mostrados son probabilidades teóricas redondeadas destinadas solo a aproximar los datos empíricos derivados de una población normal.
Intervalo de predicción (en el eje y ) obtenido a partir de la puntuación estándar (en el eje x ). El eje y está escalado logarítmicamente (pero los valores que figuran en él no se modifican).

En estadística , la regla 68–95–99,7 , también conocida como regla empírica y a veces abreviada como 3sr , es una abreviatura utilizada para recordar el porcentaje de valores que se encuentran dentro de una estimación de intervalo en una distribución normal : aproximadamente el 68 %, el 95 % y el 99,7 % de los valores se encuentran dentro de una, dos y tres desviaciones estándar de la media , respectivamente.

En notación matemática, estos hechos se pueden expresar de la siguiente manera, donde Pr() es la función de probabilidad , [1] Χ es una observación de una variable aleatoria distribuida normalmente , μ (mu) es la media de la distribución y σ (sigma) es su desviación estándar:

La utilidad de esta heurística depende especialmente de la pregunta en consideración.

En las ciencias empíricas , la llamada regla de tres sigmas (o regla 3 σ ) expresa una heurística convencional según la cual casi todos los valores se consideran dentro de tres desviaciones estándar de la media y, por lo tanto, es empíricamente útil tratar una probabilidad del 99,7 % como una certeza cercana. [2]

En las ciencias sociales , un resultado puede considerarse " significativo " si su nivel de confianza es del orden de un efecto de dos sigma (95%), mientras que en física de partículas existe una convención que requiere un efecto de cinco sigma (99,99994% de confianza) para calificar como un descubrimiento .

Se puede derivar una regla de tres sigmas más débil de la desigualdad de Chebyshev , que establece que incluso para variables que no se distribuyen normalmente, al menos el 88,8 % de los casos deben caer dentro de intervalos de tres sigma calculados correctamente. Para distribuciones unimodales , la probabilidad de estar dentro del intervalo es al menos del 95 % según la desigualdad de Vysochanskij–Petunin . Puede haber ciertas suposiciones para una distribución que obliguen a que esta probabilidad sea al menos del 98 %. [3]

Prueba

Tenemos que hacer el cambio de variable en términos de la puntuación estándar , tenemos

y esta integral es independiente de y . Solo necesitamos calcular cada integral para los casos .

Función de distribución acumulativa

Diagrama que muestra la función de distribución acumulativa para la distribución normal con media ( μ ) 0 y varianza ( σ 2 ) 1

Estos valores numéricos "68%, 95%, 99,7%" provienen de la función de distribución acumulativa de la distribución normal .

El intervalo de predicción para cualquier puntuación estándar z corresponde numéricamente a (1 − (1 − Φ μ , σ 2 (z)) · 2) .

Por ejemplo, Φ (2) ≈ 0,9772 , o Pr( Xμ + 2 σ ) ≈ 0,9772 , correspondiente a un intervalo de predicción de (1 − (1 − 0,97725)·2) = 0,9545 = 95,45 % . Este no es un intervalo simétrico; es simplemente la probabilidad de que una observación sea menor que μ + 2 σ . Para calcular la probabilidad de que una observación esté dentro de dos desviaciones estándar de la media (pequeñas diferencias debido al redondeo):

Esto está relacionado con el intervalo de confianza tal como se usa en estadística: es aproximadamente un intervalo de confianza del 95% cuando es el promedio de una muestra de tamaño .

Pruebas de normalidad

La "regla 68-95-99,7" se utiliza a menudo para obtener rápidamente una estimación aproximada de la probabilidad de algo, dada su desviación estándar, si se supone que la población es normal. También se utiliza como una prueba simple para detectar valores atípicos si se supone que la población es normal, y como una prueba de normalidad si la población potencialmente no es normal.

Para pasar de una muestra a un número de desviaciones típicas, primero se calcula la desviación , ya sea el error o el residuo, dependiendo de si se conoce la media de la población o solo se la estima. El siguiente paso es estandarizar (dividir por la desviación típica de la población), si se conocen los parámetros de la población, o studentizar (dividir por una estimación de la desviación típica), si los parámetros son desconocidos y solo se estiman.

Para utilizarla como prueba de valores atípicos o como prueba de normalidad, se calcula el tamaño de las desviaciones en términos de desviaciones estándar y se compara con la frecuencia esperada. Dado un conjunto de muestras, se pueden calcular los residuos estudentizados y compararlos con la frecuencia esperada: los puntos que se encuentran a más de 3 desviaciones estándar de la norma son probablemente valores atípicos (a menos que el tamaño de la muestra sea significativamente grande, en cuyo caso se espera una muestra de este extremo), y si hay muchos puntos a más de 3 desviaciones estándar de la norma, es probable que haya motivos para cuestionar la normalidad asumida de la distribución. Esto se aplica con mayor fuerza para movimientos de 4 o más desviaciones estándar.

Se puede hacer un cálculo más preciso, aproximando el número de movimientos extremos de una magnitud dada o mayor mediante una distribución de Poisson , pero simplemente, si uno tiene múltiples movimientos con una desviación estándar de 4 en una muestra de tamaño 1000, uno tiene fuertes razones para considerar estos valores atípicos o cuestionar la normalidad asumida de la distribución.

Por ejemplo, un evento de 6 σ corresponde a una probabilidad de aproximadamente dos partes por mil millones . A modo de ejemplo, si se considera que los eventos ocurren diariamente, esto correspondería a un evento esperado cada 1,4 millones de años. Esto proporciona una prueba de normalidad simple : si uno presencia un 6 σ en datos diarios y han transcurrido significativamente menos de 1 millón de años, entonces una distribución normal probablemente no proporcione un buen modelo para la magnitud o frecuencia de grandes desviaciones en este sentido.

En El cisne negro , Nassim Nicholas Taleb da el ejemplo de modelos de riesgo según los cuales el colapso del Lunes Negro correspondería a un evento 36- σ : la ocurrencia de un evento de este tipo debería sugerir instantáneamente que el modelo es defectuoso, es decir, que el proceso en consideración no está satisfactoriamente modelado por una distribución normal. Entonces deberían considerarse modelos refinados, por ejemplo mediante la introducción de la volatilidad estocástica . En tales discusiones es importante ser consciente del problema de la falacia del jugador , que establece que una sola observación de un evento raro no contradice que el evento sea de hecho raro. Es la observación de una pluralidad de eventos supuestamente raros lo que socava cada vez más la hipótesis de que son raros, es decir, la validez del modelo asumido. Un modelado adecuado de este proceso de pérdida gradual de confianza en una hipótesis implicaría la designación de probabilidad previa no solo para la hipótesis en sí, sino para todas las hipótesis alternativas posibles. Por esta razón, la prueba de hipótesis estadística funciona no tanto confirmando una hipótesis considerada probable, sino refutando hipótesis consideradas improbables .

Tabla de valores numéricos

Debido a que las colas de la distribución normal disminuyen exponencialmente, las probabilidades de que se produzcan desviaciones mayores disminuyen muy rápidamente. Según las reglas para los datos distribuidos normalmente para un evento diario:

Véase también

Referencias

  1. ^ Huber, Franz (2018). Una introducción lógica a la probabilidad y la inducción. Nueva York: Oxford University Press . pág. 80. ISBN 9780190845414.
  2. ^ Este uso de la "regla de tres sigma" entró en uso común en la década de 2000, por ejemplo, citado en
    • Esquema de estadísticas empresariales de Schaum . McGraw Hill Professional. 2003. pág. 359. ISBN 9780071398763
    • Grafarend, Erik W. (2006). Modelos lineales y no lineales: efectos fijos, efectos aleatorios y modelos mixtos . Walter de Gruyter. pág. 553. ISBN 9783110162165.
  3. ^ Ver:
    • Wheeler, DJ; Chambers, DS (1992). Comprensión del control estadístico de procesos. SPC Press. ISBN 9780945320135.
    • Czitrom, Veronica ; Spagon, Patrick D. (1997). Estudios de casos estadísticos para la mejora de procesos industriales. SIAM. p. 342. ISBN 9780898713947.
    • Pukelsheim, F. (1994). "La regla de las tres sigma". American Statistician . 48 (2): 88–91. doi :10.2307/2684253. JSTOR  2684253.
  4. ^ Sloane, N. J. A. (ed.). "Secuencia A178647". La enciclopedia en línea de secuencias de números enteros . Fundación OEIS.
  5. ^ Sloane, N. J. A. (ed.). "Secuencia A110894". La enciclopedia en línea de secuencias de números enteros . Fundación OEIS.
  6. ^ Sloane, N. J. A. (ed.). "Secuencia A270712". La enciclopedia en línea de secuencias de números enteros . Fundación OEIS.

Enlaces externos