La distribución binomial se utiliza frecuentemente para modelar el número de éxitos en una muestra de tamaño n extraída con reemplazo de una población de tamaño N. Si el muestreo se realiza sin reemplazo, los sorteos no son independientes y por lo tanto la distribución resultante es una distribución hipergeométrica , no binomial. Sin embargo, para N mucho mayor que n , la distribución binomial sigue siendo una buena aproximación y se utiliza ampliamente.
Definiciones
Función de probabilidad
En general, si la variable aleatoria X sigue la distribución binomial con parámetros n ∈ y p ∈ [0, 1] , escribimos X ~ B ( n , p ) . La probabilidad de obtener exactamente k éxitos en n ensayos independientes de Bernoulli (con la misma tasa p ) viene dada por la función de masa de probabilidad :
para k = 0, 1, 2, ..., n , donde
es el coeficiente binomial , de ahí el nombre de la distribución. La fórmula se puede entender de la siguiente manera: p k q n - k es la probabilidad de obtener la secuencia de n ensayos de Bernoulli en la que los primeros k ensayos son “éxitos” y los n – k ensayos restantes resultan en un “fracaso”. . Dado que las pruebas son independientes y las probabilidades permanecen constantes entre ellas, cualquier secuencia de n pruebas con k éxitos (y n - k fracasos) tiene la misma probabilidad de lograrse (independientemente de las posiciones de los éxitos dentro de la secuencia). Existen tales secuencias, ya que el coeficiente binomial cuenta el número de formas de elegir las posiciones de los k éxitos entre las n pruebas. La distribución binomial se ocupa de la probabilidad de obtener cualquiera de estas secuencias, lo que significa que la probabilidad de obtener una de ellas ( p k q n - k ) debe sumarse veces, por lo tanto .
Al crear tablas de referencia para la probabilidad de distribución binomial, normalmente la tabla se completa con hasta n /2 valores. Esto se debe a que para k > n /2 , la probabilidad se puede calcular por su complemento como
Mirando la expresión f ( k , n , p ) como función de k , hay un valor de k que la maximiza. Este valor k se puede encontrar calculando
y comparándolo con 1. Siempre hay un número entero M que satisface [2]
f ( k , n , p ) es monótona creciente para k < M y monótona decreciente para k > M , con la excepción del caso en el que ( n + 1) p es un número entero. En este caso, hay dos valores para los cuales f es máxima: ( n + 1) p y ( n + 1) p - 1 . M es el resultado más probable (es decir, el más probable, aunque en general puede ser poco probable) de los ensayos de Bernoulli y se denomina moda .
De manera equivalente, . Tomando la función piso , obtenemos M = piso( np ) . [nota 1]
Ejemplo
Supongamos que una moneda sesgada sale cara con una probabilidad de 0,3 al lanzarla. La probabilidad de ver exactamente 4 caras en 6 lanzamientos es
A continuación se dan algunos límites de forma cerrada para la función de distribución acumulativa.
Propiedades
Valor esperado y varianza
Si X ~ B ( n , p ) , es decir, X es una variable aleatoria distribuida binomialmente, siendo n el número total de experimentos y p la probabilidad de que cada experimento produzca un resultado exitoso, entonces el valor esperado de X es: [5 ]
Esto se desprende de la linealidad del valor esperado junto con el hecho de que X es la suma de n variables aleatorias de Bernoulli idénticas, cada una con un valor esperado p . En otras palabras, si son variables aleatorias de Bernoulli idénticas (e independientes) con parámetro p , entonces y
Esto muestra que si , entonces es como máximo un factor constante alejado de
Modo
Generalmente la moda de una distribución binomial B ( n , p ) es igual a , donde es la función suelo . Sin embargo, cuando ( n + 1) p es un número entero y p no es ni 0 ni 1, entonces la distribución tiene dos modas: ( n + 1) p y ( n + 1) p − 1. Cuando p es igual a 0 o 1, el modo será 0 yn correspondientemente. Estos casos se pueden resumir de la siguiente manera:
Prueba: deja
For solo tiene un valor distinto de cero con . Para encontramos y para . Esto prueba que la moda es 0 para y para .
Dejar . Encontramos
.
De esto se sigue
Entonces, cuando es un número entero, entonces y es una moda. En el caso de que , entonces solo es un modo. [9]
Mediana
En general, no existe una fórmula única para encontrar la mediana de una distribución binomial e incluso puede que no sea única. Sin embargo, se han establecido varios resultados especiales:
Si es un número entero, entonces la media, la mediana y la moda coinciden e son iguales . [10] [11]
Cualquier mediana m debe estar dentro del intervalo . [12]
Una mediana m no puede estar demasiado alejada de la media: . [13]
La mediana es única e igual a m = redondo ( np ) cuando (excepto en el caso en que yn es impar). [12]
Cuando p es un número racional (con la excepción de y n impar), la mediana es única. [14]
Cuando yn es impar, cualquier número m en el intervalo es una mediana de la distribución binomial. Si yn es par, entonces es la mediana única.
límites de cola
Para k ≤ np , se pueden derivar límites superiores para la cola inferior de la función de distribución acumulativa , la probabilidad de que haya como máximo k éxitos. Desde entonces , estos límites también pueden verse como límites para la cola superior de la función de distribución acumulativa para k ≥ np .
que sin embargo no es muy ajustado. En particular, para p = 1, tenemos que F ( k ; n , p ) = 0 (para k , n fijo con k < n ), pero el límite de Hoeffding se evalúa como una constante positiva.
Se puede obtener un límite más nítido a partir del límite de Chernoff : [15]
Asintóticamente, este límite es razonablemente estrecho; ver [15] para más detalles.
También se pueden obtener límites inferiores en la cola , conocidos como límites anticoncentración. Aproximando el coeficiente binomial con la fórmula de Stirling se puede demostrar que [16]
lo que implica el límite más simple pero más flexible
Para p = 1/2 y k ≥ 3 n /8 para n par , es posible hacer constante el denominador: [17]
Inferencia estadística
Estimación de parámetros
Cuando se conoce n , el parámetro p se puede estimar utilizando la proporción de éxitos:
El estimador de Bayes es asintóticamente eficiente y a medida que el tamaño de la muestra se acerca al infinito ( n → ∞), se acerca a la solución MLE . [18] El estimador de Bayes está sesgado (cuánto depende de los antecedentes), es admisible y consistente en probabilidad.
Cuando se confía en Jeffreys prior , el prior es , [19] lo que lleva al estimador:
Cuando se estima p con eventos muy raros y una n pequeña (por ejemplo: si x=0), el uso del estimador estándar conduce a lo que a veces es poco realista e indeseable. En tales casos existen varios estimadores alternativos. [20] Una forma es utilizar el estimador de Bayes , lo que lleva a:
Incluso para valores bastante grandes de n , la distribución real de la media es significativamente anormal. [21] Debido a este problema se han propuesto varios métodos para estimar intervalos de confianza.
En las ecuaciones para intervalos de confianza siguientes, las variables tienen el siguiente significado:
n 1 es el número de éxitos de n , el número total de intentos
Este método funciona bien para y . [23] Ver aquí para . [24] Para utilizar el método Wilson (puntuación) a continuación.
método arcoseno
[25]
Método Wilson (puntuación)
La notación en la siguiente fórmula difiere de las fórmulas anteriores en dos aspectos: [26]
En primer lugar, z x tiene una interpretación ligeramente diferente en la siguiente fórmula: tiene su significado habitual de 'el x- ésimo cuantil de la distribución normal estándar', en lugar de ser una abreviatura de 'el (1 − x )-ésimo cuantil'.
En segundo lugar, esta fórmula no utiliza un más-menos para definir los dos límites. En cambio, se puede usar para obtener el límite inferior o para obtener el límite superior. Por ejemplo: para un nivel de confianza del 95%, el error = 0,05, por lo que se obtiene el límite inferior utilizando , y el límite superior utilizando .
[27]
Comparación
El método denominado "exacto" ( Clopper-Pearson ) es el más conservador. [21] ( Exacto no significa perfectamente exacto; más bien, indica que las estimaciones no serán menos conservadoras que el valor real).
El método Wald, aunque comúnmente recomendado en los libros de texto, es el más sesgado. [ se necesita aclaración ]
Distribuciones relacionadas
Sumas de binomios
Si X ~ B( n , p ) e Y ~ B( m , p ) son variables binomiales independientes con la misma probabilidad p , entonces X + Y es nuevamente una variable binomial; su distribución es Z=X+Y ~ B( n+m , p ): [28]
Una variable aleatoria distribuida binomial X ~ B( n , p ) puede considerarse como la suma de n variables aleatorias distribuidas por Bernoulli. Entonces, la suma de dos variables aleatorias distribuidas binomialmente X ~ B( n , p ) e Y ~ B( m , p ) es equivalente a la suma de n + m variables aleatorias distribuidas de Bernoulli, lo que significa Z=X+Y ~ B( n+m , p ). Esto también se puede demostrar directamente mediante la regla de la suma.
Este resultado fue obtenido por primera vez por Katz y sus coautores en 1978. [30]
Sean X ~ B( n , p 1 ) e Y ~ B( m , p 2 ) independientes. Sea T = ( X / n )/( Y / m ) .
Entonces log( T ) tiene una distribución aproximadamente normal con media log( p 1 / p 2 ) y varianza ((1/ p 1 ) − 1)/ n + ((1/ p 2 ) − 1)/ m .
Binomios condicionales
Si X ~ B( n , p ) e Y | X ~ B( X , q ) (la distribución condicional de Y , dado X ), entonces Y es una variable aleatoria binomial simple con distribución Y ~ B( n , pq ).
Por ejemplo, imaginemos lanzar n pelotas a una canasta U X y tomar las pelotas que impactan y lanzarlas a otra canasta U Y. Si p es la probabilidad de acertar U X entonces X ~ B( n , p ) es el número de bolas que aciertan U X . Si q es la probabilidad de golpear U Y entonces el número de bolas que golpean U Y es Y ~ B( X , q ) y por lo tanto Y ~ B( n , pq ).
Dado que la ecuación anterior se puede expresar como
Factorizar y extraer de la suma todos los términos que no dependen de ellos ahora produce
Después de sustituir en la expresión anterior, obtenemos
Observe que la suma (entre paréntesis) anterior es igual al teorema del binomio . Sustituyendo esto finalmente se obtiene
y así como se desee.
Distribución de Bernoulli
La distribución de Bernoulli es un caso especial de la distribución binomial, donde n = 1. Simbólicamente, X ~ B(1, p ) tiene el mismo significado que X ~ Bernoulli( p ). Por el contrario, cualquier distribución binomial, B( n , p ), es la distribución de la suma de n ensayos de Bernoulli independientes , Bernoulli( p ), cada uno con la misma probabilidad p . [31]
Aproximación normal
Si n es lo suficientemente grande, entonces la asimetría de la distribución no es demasiado grande. En este caso, una aproximación razonable a B( n , p ) viene dada por la distribución normal
y esta aproximación básica se puede mejorar de forma sencilla utilizando una corrección de continuidad adecuada . La aproximación básica generalmente mejora a medida que n aumenta (al menos 20) y es mejor cuando p no está cerca de 0 o 1. [32] Se pueden usar varias reglas generales para decidir si n es lo suficientemente grande y p está lo suficientemente lejos de n. los extremos de cero o uno:
Una regla [32] es que para n > 5 la aproximación normal es adecuada si el valor absoluto de la asimetría es estrictamente menor que 0,3; es decir, si
Una regla más estricta establece que la aproximación normal es apropiada sólo si todo lo que esté dentro de 3 desviaciones estándar de su media está dentro del rango de valores posibles; es decir, sólo si
Esta regla de las 3 desviaciones estándar es equivalente a las siguientes condiciones, que también implican la primera regla anterior.
[Prueba]
La regla es totalmente equivalente a solicitar que
Términos móviles en torno a los rendimientos:
Ya que , podemos aplicar la potencia al cuadrado y dividir por los respectivos factores y , para obtener las condiciones deseadas:
Tenga en cuenta que estas condiciones implican automáticamente que . Por otro lado, aplica nuevamente la raíz cuadrada y divide por 3,
Restando el segundo conjunto de desigualdades del primero se obtiene:
y así, se cumple la primera regla deseada,
Otra regla comúnmente utilizada es que ambos valores y deben ser mayores que [33] [34] o iguales a 5. Sin embargo, el número específico varía de una fuente a otra y depende de qué tan buena aproximación se desee. En particular, si se utiliza 9 en lugar de 5, la regla implica los resultados indicados en los párrafos anteriores.
[Prueba]
Supongamos que ambos valores y son mayores que 9. Dado que , tenemos fácilmente que
Sólo nos queda dividir ahora por los respectivos factores y , para deducir la forma alternativa de la regla de las 3 desviaciones estándar:
El siguiente es un ejemplo de aplicación de una corrección de continuidad . Supongamos que se desea calcular Pr( X ≤ 8) para una variable aleatoria binomial X . Si Y tiene una distribución dada por la aproximación normal, entonces Pr( X ≤ 8) se aproxima mediante Pr( Y ≤ 8,5). La suma de 0,5 es la corrección de continuidad; la aproximación normal no corregida da resultados considerablemente menos precisos.
Esta aproximación, conocida como teorema de Moivre-Laplace , ahorra mucho tiempo cuando se realizan cálculos a mano (los cálculos exactos con n grande son muy onerosos); históricamente, fue el primer uso de la distribución normal, introducido en el libro de Abraham de Moivre La doctrina de las posibilidades en 1738. Hoy en día, puede verse como una consecuencia del teorema del límite central ya que B( n , p ) es una suma de n variables de Bernoulli independientes e idénticamente distribuidas con parámetro p . Este hecho es la base de una prueba de hipótesis , una "prueba z de proporción", para el valor de p usando x/n , la proporción muestral y el estimador de p , en una estadística de prueba común . [35]
Por ejemplo, supongamos que tomamos una muestra aleatoria de n personas de una población grande y les preguntamos si están de acuerdo con una determinada afirmación. La proporción de personas que están de acuerdo dependerá, por supuesto, de la muestra. Si se tomaran muestras de grupos de n personas de forma repetida y verdaderamente aleatoria, las proporciones seguirían una distribución normal aproximada con una media igual a la verdadera proporción p de acuerdo en la población y con una desviación estándar.
Aproximación de Poisson
La distribución binomial converge hacia la distribución de Poisson a medida que el número de ensayos tiende al infinito mientras que el producto np converge a un límite finito. Por lo tanto, la distribución de Poisson con parámetro λ = np se puede utilizar como una aproximación a B( n , p ) de la distribución binomial si n es suficientemente grande y p es suficientemente pequeño. Según reglas generales, esta aproximación es buena si n ≥ 20 y p ≤ 0,05 [36] tal que np ≤ 1, o si n > 50 y p < 0,1 tal que np < 5, [37] o si n ≥ 100 y np ≤ 10. [38] [39]
Respecto a la precisión de la aproximación de Poisson, véase Novak, [40] cap. 4, y referencias en el mismo.
La distribución binomial y la distribución beta son visiones diferentes del mismo modelo de ensayos repetidos de Bernoulli. La distribución binomial es la PMF de k éxitos dados n eventos independientes, cada uno con una probabilidad p de éxito. Matemáticamente, cuando α = k + 1 y β = n − k + 1 , la distribución beta y la distribución binomial están relacionadas por [ se necesita aclaración ] un factor de n + 1 :
Dada una distribución previa uniforme, la distribución posterior de la probabilidad de éxito p dados n eventos independientes con k éxitos observados es una distribución beta. [42]
Métodos computacionales
Generación de números aleatorios
Los métodos para la generación de números aleatorios donde la distribución marginal es una distribución binomial están bien establecidos. [43] [44]
Una forma de generar muestras variables aleatorias a partir de una distribución binomial es utilizar un algoritmo de inversión. Para hacerlo, se debe calcular la probabilidad de que Pr( X = k ) para todos los valores k desde 0 hasta n . (Estas probabilidades deben sumar un valor cercano a uno, para abarcar todo el espacio muestral). Luego, al usar un generador de números pseudoaleatorios para generar muestras uniformemente entre 0 y 1, se pueden transformar las muestras calculadas en números discretos usando el probabilidades calculadas en el primer paso.
Historia
Esta distribución fue derivada por Jacob Bernoulli . Consideró el caso donde p = r /( r + s ) donde p es la probabilidad de éxito y r y s son números enteros positivos. Blaise Pascal había considerado anteriormente el caso en el que p = 1/2, tabulando los coeficientes binomiales correspondientes en lo que ahora se reconoce como el triángulo de Pascal . [45]
Lema de acumulación , la probabilidad resultante cuando XOR aplica variables booleanas independientes
Referencias
^ Westland, J. Christopher (2020). Análisis de auditoría: ciencia de datos para la profesión contable . Chicago, Illinois, Estados Unidos: Springer. pag. 53.ISBN 978-3-030-49091-1.
^ Feller, W. (1968). Introducción a la teoría de la probabilidad y sus aplicaciones (tercera ed.). Nueva York: Wiley. pag. 151 (teorema de la sección VI.3).
^ Wadsworth, médico de cabecera (1960). Introducción a la probabilidad y las variables aleatorias . Nueva York: McGraw-Hill. pag. 52.
^ Jowett, GH (1963). "La relación entre las distribuciones binomial y F". Revista de la Royal Statistical Society, Serie D. 13 (1): 55–57. doi :10.2307/2986663. JSTOR 2986663.
^ Ver Wiki de prueba
^ Knoblauch, Andreas (2008), "Expresiones de forma cerrada para los momentos de la distribución de probabilidad binomial", Revista SIAM de Matemáticas Aplicadas , 69 (1): 197–204, doi :10.1137/070700024, JSTOR 40233780
^ Nguyen, Duy (2021), "Un enfoque probabilístico de los momentos de variables aleatorias binomiales y su aplicación", The American Statistician , 75 (1): 101–103, doi :10.1080/00031305.2019.1679257, S2CID 209923008
^ D. Ahle, Thomas (2022), "Límites nítidos y simples para los momentos brutos de las distribuciones binomial y de Poisson", Cartas de estadística y probabilidad , 182 : 109306, arXiv : 2103.17027 , doi : 10.1016/j.spl.2021.109306
^ Véase también Nicolas, André (7 de enero de 2019). "Modo de búsqueda en distribución binomial". Intercambio de pila .
^ Neumann, P. (1966). "Über den Median der Binomial- and Poissonverteilung". Wissenschaftliche Zeitschrift der Technischen Universität Dresden (en alemán). 19 : 29–33.
^ Señor, Nick. (Julio de 2010). "Promedios binomiales cuando la media es un número entero", The Mathematical Gazette 94, 331-332.
^ ab Kaas, R.; Buhrman, JM (1980). "Media, mediana y moda en distribuciones binomiales". Statistica Neerlandica . 34 (1): 13-18. doi :10.1111/j.1467-9574.1980.tb00681.x.
^ Hamza, K. (1995). "El límite superior uniforme más pequeño de la distancia entre la media y la mediana de las distribuciones binomial y de Poisson". Cartas de estadística y probabilidad . 23 : 21-25. doi :10.1016/0167-7152(94)00090-U.
^ Nowakowski, tamaño. (2021). "Singularidad de una mediana de una distribución binomial con probabilidad racional". Avances en Matemáticas: Revista Científica . 10 (4): 1951-1958. arXiv : 2004.03280 . doi : 10.37418/amsj.10.4.9. ISSN 1857-8365. S2CID 215238991.
^ ab Arratia, R.; Gordon, L. (1989). "Tutorial sobre grandes desviaciones para la distribución binomial". Boletín de Biología Matemática . 51 (1): 125-131. doi :10.1007/BF02458840. PMID 2706397. S2CID 189884382.
^ Robert B. Ash (1990). Teoría de la información . Publicaciones de Dover. pag. 115.ISBN9780486665214.
^ Matoušek, J.; Vondrak, J. "El método probabilístico" (PDF) . notas de lectura . Archivado (PDF) desde el original el 9 de octubre de 2022.
^ Wilcox, Rand R. (1979). "Estimación de los parámetros de la distribución beta binomial". Medición Educativa y Psicológica . 39 (3): 527–535. doi :10.1177/001316447903900302. ISSN 0013-1644. S2CID 121331083.
^ Marko Lalovic (https://stats.stackexchange.com/users/105848/marko-lalovic), Jeffreys antes de la probabilidad binomial, URL (versión: 2019-03-04): https://stats.stackexchange.com/ q/275608
^ Razzaghi, Mehdi (2002). "Sobre la estimación de la probabilidad de éxito binomial con ocurrencia cero en la muestra". Revista de métodos estadísticos aplicados modernos . 1 (2): 326–332. doi : 10.22237/jmasm/1036110000 .
^ ab Brown, Lawrence D.; Cai, T. Tony; DasGupta, Anirban (2001), "Estimación de intervalo para una proporción binomial", Statistical Science , 16 (2): 101–133, CiteSeerX 10.1.1.323.7752 , doi :10.1214/ss/1009213286 , consultado el 5 de enero de 2015.
^ Agresti, Alan; Coull, Brent A. (mayo de 1998), "Aproximado es mejor que 'exacto' para la estimación de intervalos de proporciones binomiales" (PDF) , The American Statistician , 52 (2): 119–126, doi :10.2307/2685469, JSTOR 2685469 , consultado el 5 de enero de 2015
^ Gulotta, José. "Método de intervalos de Agresti-Coull". pellucid.atlassian.net . Consultado el 18 de mayo de 2021 .
^ "Intervalos de confianza". itl.nist.gov . Consultado el 18 de mayo de 2021 .
^ Pires, MA (2002). «Intervalos de confianza para una proporción binomial: comparación de métodos y evaluación de software» (PDF) . En Klinke, S.; Ahrend, P.; Richter, L. (eds.). Actas de la Conferencia CompStat 2002 . Comunicaciones breves y carteles. Archivado (PDF) desde el original el 9 de octubre de 2022.
^ Wilson, Edwin B. (junio de 1927), "Inferencia probable, ley de sucesión e inferencia estadística" (PDF) , Revista de la Asociación Estadounidense de Estadística , 22 (158): 209–212, doi :10.2307/2276774, JSTOR 2276774, archivado desde el original (PDF) el 13 de enero de 2015 , consultado el 5 de enero de 2015
^ "Intervalos de confianza". Manual de estadísticas de ingeniería . NIST/Sematech. 2012 . Consultado el 23 de julio de 2017 .
^ Dekking, FM; Kraaikamp, C.; Lopohaa, HP; Meester, LE (2005). Una introducción moderna a la probabilidad y la estadística (1 ed.). Springer-Verlag Londres. ISBN978-1-84628-168-6.
^ Wang, YH (1993). "Sobre el número de éxitos en ensayos independientes" (PDF) . Estadística Sínica . 3 (2): 295–312. Archivado desde el original (PDF) el 3 de marzo de 2016.
^ Katz, D.; et al. (1978). "Obtención de intervalos de confianza para el riesgo relativo en estudios de cohortes". Biometría . 34 (3): 469–474. doi :10.2307/2530610. JSTOR 2530610.
^ Taboga, Marco. "Conferencias sobre teoría de la probabilidad y estadística matemática". statlect.com . Consultado el 18 de diciembre de 2017 .
^ ab Box, Cazador y cazador (1978). Estadísticas para experimentadores . Wiley. pag. 130.ISBN9780471093152.
^ "6.4: Aproximación normal a la distribución binomial - Estadísticas LibreTexts". 2023-05-29. Archivado desde el original el 29 de mayo de 2023 . Consultado el 7 de octubre de 2023 .{{cite web}}: CS1 maint: bot: original URL status unknown (link)
^ NIST / SEMATECH , "7.2.4. ¿La proporción de defectuosos cumple con los requisitos?" Manual electrónico de métodos estadísticos.
^ "12.4 - Aproximación de la distribución binomial | STAT 414". 2023-03-28. Archivado desde el original el 28 de marzo de 2023 . Consultado el 8 de octubre de 2023 .{{cite web}}: CS1 maint: bot: original URL status unknown (link)
^ ab NIST / SEMATECH , "6.3.3.1. Gráficos de control de recuentos", Manual electrónico de métodos estadísticos.
^ "La conexión entre las distribuciones binomial y de Poisson". 2023-03-13. Archivado desde el original el 13 de marzo de 2023 . Consultado el 8 de octubre de 2023 .{{cite web}}: CS1 maint: bot: original URL status unknown (link)
^ Novak SY (2011) Métodos de valor extremo con aplicaciones a las finanzas. Londres: CRC/Chapman & Hall/Taylor & Francis. ISBN 9781-43983-5746 .
^ MacKay, David (2003). Teoría de la información, inferencia y algoritmos de aprendizaje . Prensa de la Universidad de Cambridge; Primera edición. ISBN978-0521642989.
^ "Distribución Beta".
^ Devroye, Luc (1986) Generación variable aleatoria no uniforme , Nueva York: Springer-Verlag. (Ver especialmente el Capítulo X, Distribuciones univariadas discretas)
^ Kachitvichyanukul, V.; Schmeiser, BW (1988). "Generación binomial de variables aleatorias". Comunicaciones de la ACM . 31 (2): 216–222. doi :10.1145/42372.42381. S2CID 18698828.
^ Katz, Víctor (2009). "14.3: Probabilidad elemental". Una historia de las matemáticas: una introducción . Addison-Wesley. pag. 491.ISBN978-0-321-38700-4.
^ Mandelbrot, BB, Fisher, AJ y Calvet, LE (1997). Un modelo multifractal de rentabilidad de activos. 3.2 La medida binomial es el ejemplo más simple de multifractal
^ Excepto el caso trivial p = 0 , que debe comprobarse por separado.
Otras lecturas
Hirsch, Werner Z. (1957). "Distribución binomial: éxito o fracaso, ¿qué probabilidades hay?". Introducción a la estadística moderna . Nueva York: MacMillan. págs. 140-153.
Neter, Juan; Wasserman, William; Whitmore, GA (1988). Estadística Aplicada (Tercera ed.). Boston: Allyn y Bacon. págs. 185-192. ISBN 0-205-10328-6.
enlaces externos
Wikimedia Commons tiene medios relacionados con las distribuciones binomiales .
Gráfico interactivo: Relaciones de distribución univariadas
Calculadora de fórmula de distribución binomial
Diferencia de dos variables binomiales: XY o |XY|
Consultando la distribución de probabilidad binomial en WolframAlpha
Intervalos de confianza (creíbles) para probabilidad binomial, p: calculadora en línea disponible en causaScientia.org