En teoría de la probabilidad y estadística , la distribución binomial negativa es una distribución de probabilidad discreta que modela el número de fracasos en una secuencia de ensayos de Bernoulli independientes e idénticamente distribuidos antes de que ocurra un número específico (no aleatorio) de éxitos (denotado ). [2] Por ejemplo, podemos definir tirar un 6 en algunos dados como un éxito, y tirar cualquier otro número como un fracaso, y preguntar cuántas tiradas fallidas ocurrirán antes de que veamos el tercer éxito ( ). En tal caso, la distribución de probabilidad del número de fallas que aparecen será una distribución binomial negativa.
Una formulación alternativa es modelar el número total de ensayos (en lugar del número de fracasos). De hecho, para un número específico (no aleatorio) de éxitos ( r ), el número de fracasos ( n − r ) es aleatorio porque el número total de ensayos ( n ) es aleatorio. Por ejemplo, podríamos usar la distribución binomial negativa para modelar el número de días n (aleatorios) que trabaja una determinada máquina (especificada por r ) antes de averiarse.
La distribución de Pascal (después de Blaise Pascal ) y la distribución de Polya (de George Pólya ) son casos especiales de distribución binomial negativa. Una convención entre ingenieros, climatólogos y otros es utilizar "binomial negativo" o "Pascal" para el caso de un parámetro de tiempo de parada con valor entero ( ) y utilizar "Polya" para el caso con valor real.
Para ocurrencias de eventos discretos asociados, como brotes de tornados, las distribuciones de Polya se pueden usar para brindar modelos más precisos que la distribución de Poisson al permitir que la media y la varianza sean diferentes, a diferencia de la distribución de Poisson. La distribución binomial negativa tiene una varianza , y la distribución se vuelve idéntica a Poisson en el límite para una media dada (es decir, cuando los fallos son cada vez más raros). Esto puede hacer que la distribución sea una alternativa sobredispersada útil a la distribución de Poisson, por ejemplo, para una modificación robusta de la regresión de Poisson . En epidemiología, se ha utilizado para modelar la transmisión de enfermedades infecciosas en las que el número probable de infecciones posteriores puede variar considerablemente de un individuo a otro y de un entorno a otro. [3] De manera más general, puede ser apropiado cuando los eventos tienen ocurrencias correlacionadas positivamente causando una varianza mayor que si las ocurrencias fueran independientes, debido a un término de covarianza positivo .
El término "binomio negativo" probablemente se deba al hecho de que cierto coeficiente binomial que aparece en la fórmula de la función de masa de probabilidad de la distribución se puede escribir de manera más simple con números negativos. [4]
Imagine una secuencia de ensayos independientes de Bernoulli : cada ensayo tiene dos resultados potenciales llamados "éxito" y "fracaso". En cada ensayo la probabilidad de éxito es y la de fracaso es . Observamos esta secuencia hasta que ocurre un número predefinido de éxitos. Luego, el número aleatorio de fallas observadas, sigue la distribución binomial negativa (o Pascal ):
La función de masa de probabilidad de la distribución binomial negativa es
donde r es el número de éxitos, k es el número de fracasos y p es la probabilidad de éxito en cada prueba.
Aquí, la cantidad entre paréntesis es el coeficiente binomial y es igual a
Tenga en cuenta que Γ(r) es la función Gamma .
Hay k fracasos elegidos entre k + r − 1 ensayos en lugar de k + r porque el último de los k + r ensayos es, por definición, un éxito.
Alternativamente, esta cantidad se puede escribir de la siguiente manera, explicando el nombre de "binomio negativo":
Tenga en cuenta que por la última expresión y la serie binomial , para cada 0 ≤ p < 1 y ,
por lo tanto, los términos de la función de masa de probabilidad suman uno como se muestra a continuación.
Para comprender la definición anterior de la función de masa de probabilidad, tenga en cuenta que la probabilidad de cada secuencia específica de r éxitos y k fracasos es p r (1 − p ) k , porque se supone que los resultados de las k + r pruebas ocurren de forma independiente . Dado que el r -ésimo éxito siempre es el último, queda elegir los k ensayos con fracasos entre los k + r − 1 ensayos restantes. El coeficiente binomial anterior, debido a su interpretación combinatoria, da precisamente el número de todas estas secuencias de longitud k + r − 1.
La función de distribución acumulativa se puede expresar en términos de la función beta incompleta regularizada : [2] [5]
(Esta fórmula utiliza la misma parametrización que en la tabla del artículo, con r el número de éxitos y con la media).
También se puede expresar en términos de la función de distribución acumulativa de la distribución binomial : [6]
Algunas fuentes pueden definir la distribución binomial negativa de manera ligeramente diferente a la principal aquí. Las variaciones más comunes son aquellas en las que la variable aleatoria X cuenta cosas diferentes. Estas variaciones se pueden ver en la tabla aquí:
Cada una de las cuatro definiciones de distribución binomial negativa se puede expresar de formas ligeramente diferentes pero equivalentes. La primera formulación alternativa es simplemente una forma equivalente del coeficiente binomial, es decir: . La segunda formulación alternativa simplifica un poco la expresión al reconocer que el número total de ensayos es simplemente el número de éxitos y fracasos, es decir: . Estas segundas formulaciones pueden ser más intuitivas de entender, sin embargo, quizás sean menos prácticas ya que tienen más términos.
En la regresión binomial negativa, [15] la distribución se especifica en términos de su media, que luego se relaciona con variables explicativas como en la regresión lineal u otros modelos lineales generalizados . De la expresión de la media m , se puede derivar y . Luego, sustituyendo estas expresiones en la de la función de masa de probabilidad cuando r tiene un valor real, se obtiene esta parametrización de la función de masa de probabilidad en términos de m :
Entonces la varianza se puede escribir como . Algunos autores prefieren establecer y expresar la varianza como . En este contexto, y dependiendo del autor, al parámetro r o a su recíproco α se le denomina "parámetro de dispersión", "parámetro de forma" o "coeficiente de agrupamiento", [16] o "heterogeneidad" [15] o parámetro "agregación". [10] El término "agregación" se utiliza particularmente en ecología cuando se describe el recuento de organismos individuales. La disminución del parámetro de agregación r hacia cero corresponde a una agregación creciente de los organismos; El aumento de r hacia el infinito corresponde a la ausencia de agregación, como se puede describir mediante la regresión de Poisson .
A veces, la distribución se parametriza en términos de su media μ y su varianza σ 2 :
Otra parametrización popular utiliza r y las probabilidades de fallo β :
La duración de la estancia hospitalaria es un ejemplo de datos del mundo real que se pueden modelar bien con una distribución binomial negativa mediante una regresión binomial negativa . [17] [18]
Pat Collis debe vender barras de chocolate para recaudar dinero para la excursión de sexto grado. Se supone que Pat (con cierta dureza) no debe regresar a casa hasta que se hayan vendido cinco barras de chocolate. Entonces el niño va de puerta en puerta vendiendo barras de chocolate. En cada casa, hay una probabilidad de 0,6 de vender una barra de chocolate y una probabilidad de 0,4 de no vender nada.
¿Cuál es la probabilidad de vender la última barra de chocolate en la enésima casa ?
Vender dulces con éxito suficientes veces es lo que define nuestro criterio de parada (a diferencia de no venderlos), por lo que k en este caso representa el número de fracasos y r representa el número de éxitos. Recuerde que la distribución NegBin( r , p ) describe la probabilidad de k fracasos y r éxitos en k + r ensayos de Bernoulli( p ) con éxito en el último ensayo. Vender cinco chocolatinas significa conseguir cinco éxitos. El número de pruebas (es decir, casas) que esto requiere es, por lo tanto, k + 5 = n . La variable aleatoria que nos interesa es el número de casas, por lo que sustituimos k = n − 5 en una función de masa NegBin(5, 0.4) y obtenemos la siguiente función de masa de la distribución de casas (para n ≥ 5):
¿Cuál es la probabilidad de que Pat termine en la décima casa?
¿Cuál es la probabilidad de que Pat termine en la octava casa o antes?
Para terminar en la octava casa o antes, Pat debe terminar en la quinta, sexta, séptima u octava casa. Sume esas probabilidades:
¿Cuál es la probabilidad de que Pat agote las 30 casas que se encuentran en el vecindario?
Esto se puede expresar como la probabilidad de que Pat no termine entre las casas quinta y trigésima:
Debido a la probabilidad bastante alta de que Pat venda cada casa (60 por ciento), la probabilidad de que NO cumpla su misión es extremadamente pequeña.
El número total esperado de pruebas necesarias para lograr r éxitos es . Por tanto, el número esperado de fracasos sería este valor, menos los éxitos:
El número total esperado de fallas en una distribución binomial negativa con parámetros ( r , p ) es r (1 − p )/ p . Para ver esto, imagine que se realiza muchas veces un experimento que simula el binomio negativo. Es decir, se realiza un conjunto de ensayos hasta obtener r éxitos, luego otro conjunto de ensayos, y luego otro etc. Anota el número de ensayos realizados en cada experimento: a , b , c , ... y establece a + b + c + ... = norte . Ahora esperaríamos aproximadamente Np éxitos en total. Digamos que el experimento se realizó n veces. Entonces hay nr éxitos en total. Entonces esperaríamos nr = Np , entonces N / n = r / p . Observe que N / n es solo el número promedio de ensayos por experimento. Eso es lo que queremos decir con "expectativa". El número promedio de fracasos por experimento es N / n − r = r / p − r = r (1 − p )/ p . Esto concuerda con la media dada en el cuadro del lado derecho de esta página.
Se puede realizar una derivación rigurosa representando la distribución binomial negativa como la suma de los tiempos de espera. Sea con la convención representa el número de fracasos observados antes de los éxitos siendo la probabilidad de éxito . Y dejemos que represente el número de fracasos antes de ver un éxito. Podemos considerarlo como el tiempo de espera (número de fracasos) entre el enésimo y el enésimo éxito. De este modo
La media es
que se desprende del hecho .
Al contar el número de fracasos antes del r -ésimo éxito, la varianza es r (1 − p )/ p 2 . Al contar el número de éxitos antes del r -ésimo fracaso, como en la formulación alternativa (3) anterior, la varianza es rp /(1 − p ) 2 .
Supongamos que Y es una variable aleatoria con distribución binomial con parámetros n y p . Supongamos p + q = 1, con p , q ≥ 0, entonces
Usando el teorema del binomio de Newton , esto también se puede escribir como:
en el que el límite superior de sumatoria es infinito. En este caso, el coeficiente binomial
se define cuando n es un número real, en lugar de simplemente un entero positivo. Pero en nuestro caso de distribución binomial es cero cuando k > n . Entonces podemos decir, por ejemplo
Ahora supongamos r > 0 y usamos un exponente negativo:
Entonces todos los términos son positivos y el término
es solo la probabilidad de que el número de fracasos antes del r- ésimo éxito sea igual a k , siempre que r sea un número entero. (Si r es un número no entero negativo, de modo que el exponente es un número no entero positivo, entonces algunos de los términos de la suma anterior son negativos, por lo que no tenemos una distribución de probabilidad en el conjunto de todos los números enteros no negativos).
Ahora también permitimos valores no enteros de r . Entonces tenemos una distribución binomial negativa propia, que es una generalización de la distribución de Pascal, que coincide con la distribución de Pascal cuando r resulta ser un número entero positivo.
Recuerda desde arriba que
Esta propiedad persiste cuando la definición se generaliza así y proporciona una manera rápida de ver que la distribución binomial negativa es infinitamente divisible .
Se mantienen las siguientes relaciones de recurrencia :
Para la función de masa de probabilidad
por los momentos
Para los cumulantes
Considere una secuencia de variables aleatorias binomiales negativas donde el parámetro de parada r llega al infinito, mientras que la probabilidad p de éxito en cada ensayo llega a uno, de tal manera que se mantenga la media de la distribución (es decir, el número esperado de fracasos). constante. Denotando esta media como λ , el parámetro p será p = r /( r + λ )
Bajo esta parametrización la función de masa de probabilidad será
Ahora si consideramos el límite como r → ∞, el segundo factor convergerá a uno, y el tercero a la función exponente:
que es la función de masa de una variable aleatoria distribuida por Poisson con valor esperado λ .
En otras palabras, la distribución binomial negativa parametrizada alternativamente converge a la distribución de Poisson y r controla la desviación de la Poisson. Esto hace que la distribución binomial negativa sea adecuada como una alternativa sólida a la Poisson, que se aproxima a la Poisson para r grande , pero que tiene una varianza mayor que la Poisson para r pequeña .
La distribución binomial negativa también surge como una mezcla continua de distribuciones de Poisson (es decir, una distribución de probabilidad compuesta ) donde la distribución mixta de la tasa de Poisson es una distribución gamma . Es decir, podemos ver el binomio negativo como una distribución de Poisson ( λ ) , donde λ es en sí misma una variable aleatoria, distribuida como una distribución gamma con forma r y escala θ = (1 − p )/ p o, correspondientemente, tasa β = p. /(1 − p ) .
Para mostrar la intuición detrás de esta afirmación, considere dos procesos de Poisson independientes, "Éxito" y "Fracaso", con intensidades p y 1 − p . Juntos, los procesos de éxito y fracaso son equivalentes a un único proceso de Poisson de intensidad 1, donde una ocurrencia del proceso es un éxito si al lanzar una moneda independiente correspondiente sale cara con probabilidad p ; de lo contrario, es un fracaso. Si r es un número de conteo, los lanzamientos de moneda muestran que el conteo de éxitos antes del r -ésimo fracaso sigue una distribución binomial negativa con parámetros r y p . Sin embargo, el recuento también es el recuento del proceso de Poisson de éxito en el momento aleatorio T de la r a ocurrencia en el proceso de Poisson de fracaso. El recuento de éxito sigue una distribución de Poisson con pT media , donde T es el tiempo de espera para r ocurrencias en un proceso de Poisson de intensidad 1 − p , es decir, T tiene distribución gamma con parámetro de forma r e intensidad 1 − p . Por lo tanto, la distribución binomial negativa es equivalente a una distribución de Poisson con pT media , donde la variable aleatoria T tiene distribución gamma con parámetro de forma r e intensidad (1 − p ) . El párrafo anterior sigue, porque λ = pT tiene distribución gamma con parámetro de forma r e intensidad (1 − p )/ p .
La siguiente derivación formal (que no depende de que r sea un número de conteo) confirma la intuición.
Debido a esto, la distribución binomial negativa también se conoce como distribución gamma-Poisson (mezcla) . La distribución binomial negativa se derivó originalmente como un caso límite de la distribución gamma-Poisson. [19]
Si Y r es una variable aleatoria que sigue la distribución binomial negativa con parámetros r y p , y admite {0, 1, 2, ...}, entonces Y r es una suma de r variables independientes que siguen la distribución geométrica (en {0 , 1, 2, ...}) con parámetro p . Como resultado del teorema del límite central , Yr ( adecuadamente escalado y desplazado) es aproximadamente normal para r suficientemente grande .
Además, si B s + r es una variable aleatoria que sigue la distribución binomial con parámetros s + r y p , entonces
En este sentido, la distribución binomial negativa es la "inversa" de la distribución binomial.
La suma de variables aleatorias independientes distribuidas binomialmente negativamente r 1 y r 2 con el mismo valor para el parámetro p está distribuida binomialmente negativa con el mismo p pero con valor r r 1 + r 2 .
La distribución binomial negativa es infinitamente divisible , es decir, si Y tiene una distribución binomial negativa, entonces para cualquier entero positivo n , existen variables aleatorias independientes distribuidas idénticamente Y 1 , ..., Y n cuya suma tiene la misma distribución que Y .
La distribución binomial negativa NB( r , p ) se puede representar como una distribución de Poisson compuesta : denotemos una secuencia de variables aleatorias independientes e idénticamente distribuidas , cada una con la distribución en serie logarítmica Log( p ), con función de masa de probabilidad.
Sea N una variable aleatoria, independiente de la secuencia, y supongamos que N tiene una distribución de Poisson con media λ = − r ln(1 − p ) . Entonces la suma aleatoria
está distribuido NB ( r , p ). Para probar esto, calculamos la función generadora de probabilidad G X de X , que es la composición de las funciones generadoras de probabilidad G N y G Y 1 . Usando
y
obtenemos
que es la función generadora de probabilidad de la distribución NB( r , p ).
La siguiente tabla describe cuatro distribuciones relacionadas con el número de éxitos en una secuencia de sorteos:
El binomio negativo, junto con las distribuciones de Poisson y binomial, es miembro de la clase de distribuciones ( a , b ,0) . Estas tres distribuciones son casos especiales de la distribución Panjer. También son miembros de una familia exponencial natural .
Supongamos que se desconoce p y se realiza un experimento en el que se decide de antemano que el muestreo continuará hasta que se encuentren r éxitos. Una estadística suficiente para el experimento es k , el número de fracasos.
Al estimar p , el estimador insesgado de varianza mínima es
Cuando se conoce r , la estimación de máxima verosimilitud de p es
pero ésta es una estimación sesgada . Sin embargo, su inversa ( r + k )/ r es una estimación insesgada de 1/ p . [20]
Cuando se desconoce r , el estimador de máxima verosimilitud para p y r juntos solo existe para muestras cuya varianza muestral es mayor que la media muestral. [21] La función de verosimilitud para N observaciones iid ( k 1 , ..., k N ) es
a partir del cual calculamos la función log-verosimilitud
Para encontrar el máximo tomamos las derivadas parciales con respecto a r y p y las igualamos a cero:
dónde
Resolver la primera ecuación para p da:
Sustituyendo esto en la segunda ecuación se obtiene:
Esta ecuación no se puede resolver para r en forma cerrada . Si se desea una solución numérica, se puede utilizar una técnica iterativa como el método de Newton . Alternativamente, se puede utilizar el algoritmo de maximización de expectativas . [21]
Para el caso especial donde r es un número entero, la distribución binomial negativa se conoce como distribución de Pascal . Es la distribución de probabilidad de un cierto número de fracasos y éxitos en una serie de ensayos de Bernoulli independientes e idénticamente distribuidos . Para k + r ensayos de Bernoulli con probabilidad de éxito p , el binomio negativo da la probabilidad de k éxitos y r fracasos, con un fracaso en el último ensayo. En otras palabras, la distribución binomial negativa es la distribución de probabilidad del número de éxitos antes del r -ésimo fracaso en un proceso de Bernoulli , con probabilidad p de éxitos en cada ensayo. Un proceso de Bernoulli es un proceso de tiempo discreto , por lo que el número de pruebas, fracasos y éxitos son números enteros.
Considere el siguiente ejemplo. Supongamos que lanzamos un dado repetidamente y consideramos que un 1 es un fracaso. La probabilidad de éxito en cada prueba es 5/6. El número de éxitos antes del tercer fracaso pertenece al conjunto infinito {0, 1, 2, 3,...}. Ese número de éxitos es una variable aleatoria distribuida binomialmente negativa.
Cuando r = 1 obtenemos la distribución de probabilidad del número de éxitos antes del primer fracaso (es decir, la probabilidad de que ocurra el primer fracaso en el ( k + 1)er intento), que es una distribución geométrica :
Hallazgos recientes sugieren que el tiempo de espera en un proceso de Bernoulli está fuertemente relacionado con los fractales y la función de Dirichlet. Las distribuciones de probabilidad con propiedades fractales relacionadas con la función de Dirichlet pueden derivarse de procesos recurrentes generados por distribuciones discretas uniformes. Estas distribuciones discretas uniformes pueden ser dígitos pi, lanzamientos de dados o giros de casino en vivo. Considere el siguiente tiempo de espera en un proceso de Bernoulli: Una variable aleatoria Ci se muestrea repetidamente N veces a partir de una distribución uniforme discreta, donde i oscila entre 1 y N. Por ejemplo, considere valores enteros que oscilan entre 1 y 10. Momentos de ocurrencia, T k , significa cuando los eventos C i se repiten, definidos como C i = C i-1 o C i = C i-2 , donde k varía de 1 a M, siendo M menor que N. Posteriormente, defina S j como el Intervalo entre Tk sucesivos , que representa el tiempo de espera para que ocurra un evento. Finalmente, introduzca Z l como ln(S j ) – ln(S j-1 ), donde l varía de 1 a U-1. La variable aleatoria Z muestra propiedades fractales, asemejándose a la distribución de formas similar a la función de Thomae o Dirichlet. [22]
La distribución binomial negativa, especialmente en su parametrización alternativa descrita anteriormente, se puede utilizar como alternativa a la distribución de Poisson. Es especialmente útil para datos discretos en un rango positivo ilimitado cuya varianza muestral excede la media muestral . En tales casos, las observaciones están sobredispersadas con respecto a una distribución de Poisson, para la cual la media es igual a la varianza. Por tanto, una distribución de Poisson no es un modelo apropiado. Dado que la distribución binomial negativa tiene un parámetro más que la de Poisson, el segundo parámetro se puede utilizar para ajustar la varianza independientemente de la media. Ver Acumulantes de algunas distribuciones de probabilidad discretas .
Una aplicación de esto es a los conteos anuales de ciclones tropicales en el Atlántico norte o a los conteos mensuales a semestrales de ciclones extratropicales invernales en Europa, para los cuales la variación es mayor que la media. [23] [24] [25] En el caso de una sobredispersión modesta, esto puede producir resultados sustancialmente similares a una distribución de Poisson sobredispersada. [26] [27]
El modelado binomial negativo se emplea ampliamente en la investigación de ecología y biodiversidad para analizar datos de recuento donde la sobredispersión es muy común. Esto se debe a que la sobredispersión es indicativa de agregación biológica, como especies o comunidades que forman grupos. Ignorar la dispersión excesiva puede conducir a parámetros del modelo significativamente inflados, lo que resulta en inferencias estadísticas engañosas. La distribución binomial negativa aborda eficazmente los recuentos sobredispersados al permitir que la varianza varíe cuadráticamente con la media. Un parámetro de dispersión adicional gobierna la pendiente del término cuadrático, determinando la gravedad de la sobredispersión. La relación cuadrática media-varianza del modelo demuestra ser un enfoque realista para manejar la sobredispersión, como lo respalda la evidencia empírica de muchos estudios. En general, el modelo NB ofrece dos características atractivas: (1) la interpretación conveniente del parámetro de dispersión como un índice de agrupamiento o agregación, y (2) su forma manejable, que presenta una expresión cerrada para la función de masa de probabilidad. [28]
En genética, la distribución binomial negativa se utiliza comúnmente para modelar datos en forma de recuentos de lecturas de secuencias discretas de experimentos de secuenciación de ADN y ARN de alto rendimiento. [29] [30] [31] [32]
En epidemiología de enfermedades infecciosas, el binomio negativo se ha utilizado como una mejor opción que la distribución de Poisson para modelar recuentos sobredispersados de infecciones secundarias de un caso infectado (eventos de superpropagación). [33]
La distribución binomial negativa ha sido el modelo estadístico más efectivo para una amplia gama de observaciones de multiplicidad en experimentos de colisión de partículas , por ejemplo, [34] [35] [36] [37] [38] (ver [39] para una descripción general), y se argumenta que es una propiedad de la materia que no varía en escala , [40] [41] y proporciona el mejor ajuste para las observaciones astronómicas, donde predice el número de galaxias en una región del espacio. [42] [43] [44] [45] La justificación fenomenológica de la eficacia de la distribución binomial negativa en estos contextos permaneció desconocida durante cincuenta años, desde su primera observación en 1973. [46] En 2023, una prueba de los primeros principios Fue finalmente demostrado por Scott V. Tezlaf, donde se demostró que la distribución binomial negativa surge de simetrías en las ecuaciones dinámicas de un conjunto canónico de partículas en el espacio de Minkowski . [47] Aproximadamente, dado un número esperado de ensayos y un número esperado de éxitos , donde
Se puede identificar un conjunto isomórfico de ecuaciones con los parámetros de una densidad de corriente relativista de un conjunto canónico de partículas masivas, a través de
donde es la densidad en reposo , es la densidad cuadrática media relativista, es la densidad cuadrática media relativista de corriente, y , donde es la velocidad cuadrática media del conjunto de partículas y es la velocidad de la luz , de modo que se puede establecer el siguiente mapa biyectivo :
También se ha demostrado una prueba alternativa rigurosa de la correspondencia anterior mediante la mecánica cuántica mediante la integral de trayectoria de Feynman . [47]
Esta distribución fue estudiada por primera vez en 1713 por Pierre Remond de Montmort en su Ensayo de análisis sobre los juegos de azar , como la distribución del número de ensayos necesarios en un experimento para obtener un número determinado de éxitos. [48] Ya había sido mencionado previamente por Pascal . [49]
{{cite journal}}
: CS1 maint: multiple names: authors list (link)