stringtranslate.com

Ley de los números verdaderamente grandes

La ley de los números verdaderamente grandes (un adagio estadístico ), atribuida a Persi Diaconis y Frederick Mosteller , establece que con un número suficientemente grande de muestras independientes, es probable que se observe cualquier resultado altamente improbable (es decir, improbable en cualquier muestra individual, pero con una probabilidad constante estrictamente mayor que 0 en cualquier muestra). [1] Debido a que nunca nos parece notable cuando ocurren eventos probables, resaltamos los eventos improbables y los notamos más. La ley se usa a menudo para falsificar diferentes afirmaciones pseudocientíficas ; como tal, a veces es criticada por científicos marginales . [2] [3]

La ley se puede reformular como "los grandes números también engañan". Más concretamente, el escéptico Penn Jillette ha dicho: "Las probabilidades de un millón contra uno ocurren ocho veces al día en Nueva York " (población de aproximadamente 8.000.000). [4]

Ejemplos

Gráficas de probabilidad P de no observar eventos independientes, cada uno de probabilidad 1/ n después de n ensayos de Bernoulli y 1 − P   vs n . A medida que n aumenta, la probabilidad de que un evento 1/ n -casual nunca aparezca después de n intentos converge rápidamente a 1/ e .

Para dar un ejemplo simplificado de la ley, supongamos que un determinado evento ocurre con una probabilidad de ocurrencia del 0,1% en un solo ensayo. Entonces, la probabilidad de que este llamado evento improbable no ocurra ( improbabilidad) en un solo ensayo es del 99,9% (0,999).

Sin embargo, para una muestra de solo 1000 ensayos independientes, la probabilidad de que el evento no ocurra en ninguno de ellos, ni siquiera una vez (improbabilidad), es solo [5] 0,999 1000 0,3677, o 36,77%. Entonces, la probabilidad de que el evento ocurra, al menos una vez, en 1000 ensayos es  ( 1 − 0,999 1000 0,6323, o )  63,23%. Esto significa que este "evento improbable" tiene una probabilidad del 63,23% de ocurrir si se realizan 1000 ensayos independientes. Si el número de ensayos se incrementara a 10 000, la probabilidad de que esto ocurra al menos una vez en 10 000 ensayos aumenta a  ( 1 − 0,999 10000 0,99995, o )  99,995 %. En otras palabras, un evento altamente improbable, dados suficientes ensayos independientes con un número fijo de extracciones por ensayo, es aún más probable que ocurra.

Para un evento X que ocurre con una probabilidad muy baja de 0,0000001% (en cualquier muestra individual, véase también casi nunca ), considerando 1.000.000.000 como un número "verdaderamente grande" de muestras independientes, se obtiene una probabilidad de ocurrencia de X igual a 1 − 0,999999999 10000000000 ≈ 0,63 = 63% y un número de muestras independientes igual al tamaño de la población humana (en 2021) da una probabilidad del evento X: 1 − 0,999999999 7900000000 ≈ 0,9996 = 99,96%. [6]

Estos cálculos se pueden formalizar en lenguaje matemático como: "la probabilidad de que un evento improbable X ocurra en N ensayos independientes puede llegar a ser arbitrariamente cercana a 1, sin importar cuán pequeña sea la probabilidad del evento X en un solo ensayo, siempre que N sea verdaderamente grande". [7]

Por ejemplo, donde la probabilidad del evento improbable X no es una constante pequeña sino que disminuye en función de N, ver gráfico.

En sistemas de alta disponibilidad , incluso eventos muy improbables deben tenerse en cuenta; en sistemas en serie , incluso cuando la probabilidad de falla de un elemento individual es muy baja después de conectarlos en grandes cantidades, la probabilidad de falla de todo el sistema aumenta (para hacer que las fallas del sistema sean menos probables, se puede usar redundancia ; en tales sistemas paralelos, incluso partes redundantes altamente poco confiables conectadas en grandes cantidades aumentan la probabilidad de no romperse al alto nivel requerido ). [8]

En crítica a la pseudociencia

La ley surge en las críticas a la pseudociencia y a veces se la llama efecto Jeane Dixon (ver también Postdicción ). Sostiene que cuantas más predicciones haga un psíquico, mayores serán las probabilidades de que una de ellas "acerte". Por lo tanto, si una se cumple, el psíquico espera que olvidemos la gran mayoría de las que no sucedieron ( sesgo de confirmación ). [9] Los humanos podemos ser susceptibles a esta falacia.

Otra manifestación similar de la ley se puede encontrar en los juegos de azar , donde los jugadores tienden a recordar sus ganancias y olvidar sus pérdidas, [10] incluso si estas últimas superan en número a las primeras (aunque dependiendo de una persona en particular, lo opuesto también puede ser cierto cuando piensan que necesitan un mayor análisis de sus pérdidas para lograr un ajuste fino de su sistema de juego [11] ). Mikal Aasved lo relaciona con el "sesgo de memoria selectiva", que permite a los jugadores distanciarse mentalmente de las consecuencias de su juego [11] al mantener una visión inflada de sus ganancias reales (o pérdidas en el caso opuesto: "sesgo de memoria selectiva en cualquier dirección").

Véase también

Notas

  1. ^ Everitt 2002
  2. ^ Beitman, Bernard D., (15 de abril de 2018), ¿Intrigado por la baja probabilidad de sincronicidades? Los teóricos de las coincidencias y los estadísticos disputan el significado de los eventos raros. en PsychologyToday
  3. ^ Sharon Hewitt Rawlette, (2019), ¿Coincidencia o psi? La importancia epistémica de casos espontáneos de supuestos psi identificados después de la verificación, Journal of Scientific Exploration, vol. 33, n.º 1, págs. 9–42 [ ¿fuente poco confiable? ]
  4. ^ Kida, Thomas E. (Thomas Edward) (2006). No creas todo lo que piensas: los 6 errores básicos que cometemos al pensar . Amherst, NY: Prometheus Books. p. 97. ISBN 1615920056.OCLC 1019454221  .
  5. ^ aquí también actúa otra ley del "principio de improbabilidad" - la "ley de la palanca de probabilidad", que es (según David Hand ) una especie de efecto mariposa : tenemos un valor "cercano" a 1 elevado a un número grande lo que da un valor "sorprendentemente" bajo o incluso cercano a cero si este número es mayor, esto muestra algunas implicaciones filosóficas, cuestiona los modelos teóricos pero no los vuelve inútiles - la evaluación y prueba de la hipótesis teórica (incluso cuando la probabilidad de su corrección es cercana a 1) puede ser su falsabilidad - característica ampliamente aceptada como importante para la investigación científica que no pretende conducir a un conocimiento dogmático o absoluto, ver: prueba estadística .
  6. ^ Calculadora gráfica en Desmos (gráfica)
  7. ^ Prueba en: Elemér Elad Rosinger, (2016), "Cuanta, físicos y probabilidades...?" página 28
  8. ^ Fiabilidad de los sistemas en Fiabilidad concisa para ingenieros, Jaroslav Menčík, 2016
  9. ^ 1980, Sociedad de Austin para Oponerse a la Pseudociencia (ASTOP) distribuida por ICSA (antigua Fundación de la Familia Americana) "Hojas informativas sobre pseudociencia, ASTOP: Detectives psíquicos"
  10. ^ Daniel Freeman, Jason Freeman, 2009, Londres, "Conoce tu mente: problemas emocionales y psicológicos cotidianos y cómo superarlos", pág. 41
  11. ^ por Mikal Aasved, 2002, Illinois, La psicodinámica y la psicología del juego: La mente del jugador, vol. I, pág. 129

Referencias

Enlaces externos