stringtranslate.com

Distribución de Poisson

En teoría de probabilidad y estadística , la distribución de Poisson es una distribución de probabilidad discreta que expresa la probabilidad de que ocurra un número dado de eventos en un intervalo fijo de tiempo si estos eventos ocurren con una tasa media constante conocida e independientemente del tiempo transcurrido desde el último evento. [1] También se puede utilizar para el número de eventos en otros tipos de intervalos distintos del tiempo, y en dimensión mayor que 1 (por ejemplo, número de eventos en un área o volumen determinado).

La distribución de Poisson recibe su nombre del matemático francés Siméon Denis Poisson ( / ˈpwɑːsɒn / ; pronunciación francesa: [ pwasɔ̃ ] ) . Desempeña un papel importante en las distribuciones discretas - estables .

Bajo una distribución de Poisson con la expectativa de λ eventos en un intervalo dado, la probabilidad de k eventos en el mismo intervalo es: [2] : 60 

Por ejemplo, supongamos que un centro de llamadas recibe, aleatoriamente, un promedio de λ = 3 llamadas por minuto a todas horas del día. Si las llamadas son independientes, recibir una no cambia la probabilidad de cuándo llegará la siguiente. Con arreglo a estos supuestos, la cantidad k de llamadas recibidas durante cualquier minuto tiene una distribución de probabilidad de Poisson. Recibir k = 1 a 4 llamadas tiene entonces una probabilidad de aproximadamente 0,77, mientras que recibir 0 o al menos 5 llamadas tiene una probabilidad de aproximadamente 0,23.

Un ejemplo clásico utilizado para motivar la distribución de Poisson es el número de eventos de desintegración radiactiva durante un período de observación fijo. [3]

Historia

La distribución fue introducida por primera vez por Siméon Denis Poisson (1781-1840) y publicada junto con su teoría de probabilidad en su obra Recherches sur la probabilité des jugements en matière criminelle et en matière civile (1837). [4] : 205-207  El trabajo teorizó sobre el número de condenas injustas en un país determinado centrándose en ciertas variables aleatorias N que cuentan, entre otras cosas, el número de ocurrencias discretas (a veces llamadas "eventos" o "llegadas") que tienen lugar durante un intervalo de tiempo de longitud dada. El resultado ya había sido dado en 1711 por Abraham de Moivre en De Mensura Sortis seu; de Probabilitate Eventuum in Ludis a Casu Fortuito Pendentibus . [5] : 219  [6] : 14-15  [7] : 193  [8] : 157  Esto lo convierte en un ejemplo de la ley de Stigler y ha llevado a algunos autores a argumentar que la distribución de Poisson debería llevar el nombre de De Moivre. [9] [10]

En 1860, Simon Newcomb ajustó la distribución de Poisson al número de estrellas que se encuentran en una unidad de espacio. [11] Ladislaus Bortkiewicz realizó otra aplicación práctica en 1898. Bortkiewicz demostró que la frecuencia con la que los soldados del ejército prusiano morían accidentalmente por patadas de caballo podía modelarse bien mediante una distribución de Poisson. [12] : 23-25  ​​.

Definiciones

Función de masa de probabilidad

Se dice que una variable aleatoria discreta X tiene una distribución de Poisson, con parámetro si tiene una función de masa de probabilidad dada por: [2] : 60 

dónde

El número real positivo λ es igual al valor esperado de X y también a su varianza . [13]

La distribución de Poisson se puede aplicar a sistemas con una gran cantidad de eventos posibles, cada uno de los cuales es poco común . El número de eventos de este tipo que ocurren durante un intervalo de tiempo fijo es, en las circunstancias adecuadas, un número aleatorio con una distribución de Poisson.

La ecuación se puede adaptar si, en lugar del número promedio de eventos, nos dan la tasa promedio a la que ocurren los eventos. Entonces y: [14]

Ejemplos

Masticando chicle en una acera en Reikiavik.
Chicle en una acera. El número de piezas en una sola baldosa sigue una distribución aproximada de Poisson.

La distribución de Poisson puede ser útil para modelar eventos como:

Ejemplos de la aparición de puntos aleatorios en el espacio son: las ubicaciones de los impactos de asteroides con la Tierra (bidimensionales), las ubicaciones de las imperfecciones en un material (tridimensionales) y las ubicaciones de los árboles en un bosque (bidimensionales). [15]

Supuestos y validez

La distribución de Poisson es un modelo apropiado si se cumplen los siguientes supuestos:

Si estas condiciones son verdaderas, entonces k es una variable aleatoria de Poisson y la distribución de k es una distribución de Poisson.

La distribución de Poisson es también el límite de una distribución binomial , para la cual la probabilidad de éxito de cada ensayo es igual a λ dividido por el número de ensayos, a medida que el número de ensayos se acerca al infinito (ver Distribuciones relacionadas).

Ejemplos de probabilidad para distribuciones de Poisson

Eventos que ocurren una vez en un intervalo: el caso especial dela= 1 ya= 0

Supongamos que los astrónomos estiman que los meteoritos grandes (de un tamaño superior a determinado) impactan la Tierra en promedio una vez cada 100 años ( λ = 1 evento cada 100 años), y que el número de impactos de meteoritos sigue una distribución de Poisson. ¿Cuál es la probabilidad de que k = 0 impactos de meteoritos en los próximos 100 años?

Según estos supuestos, la probabilidad de que no caigan meteoritos de gran tamaño sobre la Tierra en los próximos 100 años es de aproximadamente 0,37. El 1 − 0,37 = 0,63 restante es la probabilidad de que caigan 1, 2, 3 o más meteoritos de gran tamaño en los próximos 100 años. En el ejemplo anterior, se produjo una inundación por desbordamiento una vez cada 100 años ( λ = 1). La probabilidad de que no se produjeran inundaciones por desbordamiento en 100 años era de aproximadamente 0,37, según el mismo cálculo.

En general, si un evento ocurre en promedio una vez por intervalo ( λ  = 1), y los eventos siguen una distribución de Poisson, entonces P (0 eventos en el siguiente intervalo) = 0,37. Además, P (exactamente un evento en el siguiente intervalo) = 0,37, como se muestra en la tabla para inundaciones por desbordamiento.

Ejemplos que violan los supuestos de Poisson

La cantidad de estudiantes que llegan a la asociación de estudiantes por minuto probablemente no seguirá una distribución de Poisson, porque la tasa no es constante (tasa baja durante el horario de clase, tasa alta entre horarios de clase) y las llegadas de estudiantes individuales no son independientes (los estudiantes tienden a venir en grupos). La tasa de llegada no constante se puede modelar como una distribución de Poisson mixta y la llegada de grupos en lugar de estudiantes individuales como un proceso de Poisson compuesto .

El número de terremotos de magnitud 5 por año en un país puede no seguir una distribución de Poisson, si un gran terremoto aumenta la probabilidad de réplicas de magnitud similar.

Los ejemplos en los que se garantiza al menos un evento no tienen distribución de Poisson, pero pueden modelarse utilizando una distribución de Poisson truncada en cero .

Las distribuciones de recuento en las que el número de intervalos con cero eventos es mayor que el previsto por un modelo de Poisson se pueden modelar utilizando un modelo de ceros inflados .

Propiedades

Estadísticas descriptivas

Mediana

Los límites para la mediana ( ) de la distribución son conocidos y precisos : [18]

Momentos más elevados

Los momentos no centrados superiores , m k de la distribución de Poisson, son polinomios de Touchard en λ : donde las llaves { } denotan números de Stirling de segundo tipo . [19] [1] : 6  En otras palabras, cuando el valor esperado se establece en λ = 1, la fórmula de Dobinski implica que el n -ésimo momento es igual al número de particiones de un conjunto de tamaño n .

Un límite superior simple es: [20]

Sumas de variables aleatorias distribuidas por Poisson

Si para son independientes , entonces [21] : 65  Un recíproco es el teorema de Raikov , que dice que si la suma de dos variables aleatorias independientes tiene distribución de Poisson, entonces también lo son cada una de esas dos variables aleatorias independientes. [22] [23]

Entropía máxima

Es una distribución de máxima entropía entre el conjunto de distribuciones binomiales generalizadas con media y , [24] donde una distribución binomial generalizada se define como una distribución de la suma de N variables de Bernoulli independientes pero no idénticamente distribuidas.

Otras propiedades

¿Dónde está la divergencia de Kullback-Leibler de de ?

Razas de Poisson

Sean y variables aleatorias independientes, con lo que tenemos que

El límite superior se demuestra utilizando un límite de Chernoff estándar.

El límite inferior se puede demostrar observando que es la probabilidad de que donde que está acotado por debajo por donde es la entropía relativa (ver la entrada sobre límites en las colas de las distribuciones binomiales para más detalles). Observando además que y calculando un límite inferior en la probabilidad incondicional se obtiene el resultado. Se pueden encontrar más detalles en el apéndice de Kamath et al. [30]

Distribuciones relacionadas

Como una distribución binomial con pasos de tiempo infinitesimales

La distribución de Poisson se puede derivar como un caso límite de la distribución binomial , ya que el número de ensayos tiende al infinito y el número esperado de éxitos permanece fijo (véase la ley de los eventos raros a continuación). Por lo tanto, se puede utilizar como una aproximación de la distribución binomial si n es suficientemente grande y p es suficientemente pequeño. La distribución de Poisson es una buena aproximación de la distribución binomial si n es al menos 20 y p es menor o igual a 0,05, y una excelente aproximación si n  ≥ 100 y np  ≤ 10. [31] Dejando y sean las respectivas funciones de densidad acumulada de las distribuciones binomial y de Poisson, se tiene: Una derivación de esto utiliza funciones generadoras de probabilidad . [32] Considere un ensayo de Bernoulli (lanzamiento de moneda) cuya probabilidad de un éxito (o número esperado de éxitos) está dentro de un intervalo dado. Divida el intervalo en n partes y realice un ensayo en cada subintervalo con probabilidad . La probabilidad de k éxitos de n ensayos durante todo el intervalo viene dada entonces por la distribución binomial.

,

cuya función generadora es:

Tomando el límite cuando n aumenta hasta infinito (con x fijo) y aplicando la definición de límite del producto de la función exponencial , esto se reduce a la función generadora de la distribución de Poisson:

General

Aproximación de Poisson

Supongamos que entonces [38] se distribuye multinomialmente condicionado a

Esto significa [27] : 101-102  , entre otras cosas, que para cualquier función no negativa si se distribuye multinomialmente, entonces donde

El factor de puede reemplazarse por 2 si se supone además que aumenta o disminuye monótonamente.

Distribución de Poisson bivariada

Esta distribución se ha extendido al caso bivariado . [39] La función generadora para esta distribución es

con

Las distribuciones marginales son Poisson( θ 1 ) y Poisson( θ 2 ) y el coeficiente de correlación está limitado al rango

Una forma sencilla de generar una distribución de Poisson bivariada es tomar tres distribuciones de Poisson independientes con medias y luego establecer La función de probabilidad de la distribución de Poisson bivariada es

Distribución libre de Poisson

La distribución de Poisson libre [40] con tamaño y tasa de salto surge en la teoría de probabilidad libre como el límite de la convolución libre repetida cuando N → ∞ .

En otras palabras, sean variables aleatorias de modo que tenga valor con probabilidad y valor 0 con la probabilidad restante. Supongamos también que la familia es libremente independiente . Entonces el límite de la ley de está dado por la ley de Poisson libre con parámetros

Esta definición es análoga a una de las formas en que se obtiene la distribución de Poisson clásica a partir de un proceso de Poisson (clásico).

La medida asociada a la ley de Poisson libre está dada por [41] donde y tiene soporte

Esta ley también surge en la teoría de matrices aleatorias como la ley de Marchenko-Pastur . Sus cumulantes libres son iguales a

Algunas transformaciones de esta ley

Damos valores de algunas transformadas importantes de la ley de Poisson libre; el cálculo se puede encontrar, por ejemplo, en el libro Lectures on the Combinatorics of Free Probability de A. Nica y R. Speicher [42].

La transformada R de la ley de Poisson libre está dada por

La transformada de Cauchy (que es el negativo de la transformación de Stieltjes ) está dada por

La transformada S viene dada por en el caso de que

Recuento de Weibull y estable

La función de masa de probabilidad de Poisson se puede expresar en una forma similar a la distribución del producto de una distribución de Weibull y una forma variante de la distribución de recuento estable . La variable se puede considerar como inversa del parámetro de estabilidad de Lévy en la distribución de recuento estable: donde es una distribución de recuento estable estándar de forma y es una distribución de forma Weibull estándar

Inferencia estadística

Estimación de parámetros

Dada una muestra de n valores medidos para i = 1, ..., n , deseamos estimar el valor del parámetro λ de la población de Poisson de la que se extrajo la muestra. La estimación de máxima verosimilitud es [43]

Dado que cada observación tiene una expectativa λ, también la tiene la media de la muestra. Por lo tanto, la estimación de máxima verosimilitud es un estimador insesgado de λ . También es un estimador eficiente ya que su varianza alcanza el límite inferior de Cramér-Rao (CRLB). [44] Por lo tanto, es insesgado en cuanto a varianza mínima . También se puede demostrar que la suma (y, por lo tanto, la media de la muestra, ya que es una función uno a uno de la suma) es una estadística completa y suficiente para λ .

Para demostrar la suficiencia podemos usar el teorema de factorización . Considere la partición de la función de masa de probabilidad de la distribución de Poisson conjunta para la muestra en dos partes: una que depende únicamente de la muestra , llamada , y otra que depende del parámetro y de la muestra solo a través de la función Entonces es una estadística suficiente para

El primer término depende únicamente de . El segundo término depende únicamente de la muestra mediante Por lo tanto, es suficiente.

Para encontrar el parámetro λ que maximiza la función de probabilidad para la población de Poisson, podemos utilizar el logaritmo de la función de probabilidad:

Tomamos la derivada de con respecto a λ y la comparamos con cero:

Resolviendo λ obtenemos un punto estacionario.

Por lo tanto, λ es el promedio de los valores de k i . La obtención del signo de la segunda derivada de L en el punto estacionario determinará qué tipo de valor extremo es λ .

Evaluando la segunda derivada en el punto estacionario obtenemos:

que es el negativo de n veces el recíproco del promedio de k i . Esta expresión es negativa cuando el promedio es positivo. Si esto se cumple, entonces el punto estacionario maximiza la función de probabilidad.

Para completar , se dice que una familia de distribuciones es completa si y solo si implica que para todos Si los individuos son iid entonces Conociendo la distribución que queremos investigar, es fácil ver que la estadística es completa.

Para que se cumpla esta igualdad, debe ser 0. Esto se deduce del hecho de que ninguno de los otros términos será 0 para todos en la suma y para todos los valores posibles de Por lo tanto, para todos implica que y se ha demostrado que la estadística es completa.

Intervalo de confianza

El intervalo de confianza para la media de una distribución de Poisson se puede expresar utilizando la relación entre las funciones de distribución acumulativa de las distribuciones de Poisson y de chi-cuadrado . La distribución de chi-cuadrado está estrechamente relacionada con la distribución gamma , y ​​esto conduce a una expresión alternativa. Dada una observación k de una distribución de Poisson con media μ , un intervalo de confianza para μ con nivel de confianza 1 – α es

o equivalentemente,

donde es la función cuantil (correspondiente a un área de cola inferior p ) de la distribución chi-cuadrado con n grados de libertad y es la función cuantil de una distribución gamma con parámetro de forma n y parámetro de escala 1. [8] : 176-178  [45] Este intervalo es ' exacto ' en el sentido de que su probabilidad de cobertura nunca es menor que el nominal 1 – α .

Cuando no se dispone de cuantiles de la distribución gamma, se ha propuesto una aproximación precisa a este intervalo exacto (basada en la transformación de Wilson-Hilferty ): [46]

donde denota la desviación normal estándar con área de cola superior α / 2 .

Para aplicar estas fórmulas en el mismo contexto que el anterior (dada una muestra de n valores medidos k i cada uno extraído de una distribución de Poisson con media λ ), se establecería

Calcular un intervalo para μ = n λ , y luego derivar el intervalo para λ .

Inferencia bayesiana

En la inferencia bayesiana , la distribución conjugada previa para el parámetro de velocidad λ de la distribución de Poisson es la distribución gamma . [47] Sea

denotamos que λ se distribuye de acuerdo con la densidad gamma g parametrizada en términos de un parámetro de forma α y un parámetro de escala inverso β :

Entonces, dada la misma muestra de n valores medidos k i que antes, y una distribución previa de Gamma( α , β ), la distribución posterior es

Nótese que la media posterior es lineal y está dada por

Se puede demostrar que la distribución gamma es la única distribución previa que induce linealidad de la media condicional. Además, existe un resultado inverso que establece que si la media condicional está cerca de una función lineal en la distancia, entonces la distribución previa de λ debe estar cerca de la distribución gamma en la distancia de Levy . [48]

La media posterior E[ λ ] se aproxima a la estimación de máxima verosimilitud en el límite como lo que se desprende inmediatamente de la expresión general de la media de la distribución gamma .

La distribución predictiva posterior para una sola observación adicional es una distribución binomial negativa , [49] : 53  a veces llamada distribución gamma-Poisson.

Estimación simultánea de múltiples medias de Poisson

Supongamos que hay un conjunto de variables aleatorias independientes de un conjunto de distribuciones de Poisson, cada una con un parámetro y nos gustaría estimar estos parámetros. Entonces, Clevenson y Zidek muestran que bajo la pérdida de error cuadrático normalizado cuando , de manera similar al ejemplo de Stein para las medias normales, el estimador MLE es inadmisible . [50]

En este caso, se da una familia de estimadores minimax para cualquier y como [51]

Ocurrencia y aplicaciones

Algunas aplicaciones de la distribución de Poisson para contar datos (número de eventos): [52]

Más ejemplos de eventos de conteo que pueden modelarse como procesos de Poisson incluyen:

En la teoría de números probabilísticos , Gallagher demostró en 1976 que, si se cumple una cierta versión de la conjetura no probada de la r-tupla prima , [61] entonces los conteos de números primos en intervalos cortos obedecerían a una distribución de Poisson. [62]

Ley de los eventos raros

Comparación de la distribución de Poisson (líneas negras) y la distribución binomial con n = 10 (círculos rojos), n = 20 (círculos azules), n = 1000 (círculos verdes). Todas las distribuciones tienen una media de 5. El eje horizontal muestra el número de eventos  k . A medida que n aumenta, la distribución de Poisson se convierte en una aproximación cada vez mejor para la distribución binomial con la misma media.

La tasa de ocurrencia de un evento está relacionada con la probabilidad de que ocurra en un pequeño subintervalo (de tiempo, espacio o de otro tipo). En el caso de la distribución de Poisson, se supone que existe un subintervalo lo suficientemente pequeño para el cual la probabilidad de que ocurra un evento dos veces es "despreciable". Con esta suposición, se puede derivar la distribución de Poisson a partir de la distribución binomial, dada únicamente la información del número esperado de eventos totales en todo el intervalo.

Sea el número total de eventos en todo el intervalo denotado por Divida todo el intervalo en subintervalos de igual tamaño, de modo que (ya que estamos interesados ​​solo en porciones muy pequeñas del intervalo, esta suposición es significativa). Esto significa que el número esperado de eventos en cada uno de los n subintervalos es igual a

Ahora suponemos que la ocurrencia de un evento en todo el intervalo puede verse como una secuencia de n ensayos de Bernoulli , donde el -ésimo ensayo de Bernoulli corresponde a ver si un evento ocurre en el subintervalo con probabilidad. El número esperado de eventos totales en tales ensayos sería el número esperado de eventos totales en todo el intervalo. Por lo tanto, para cada subdivisión del intervalo hemos aproximado la ocurrencia del evento como un proceso de Bernoulli de la forma Como hemos notado antes, queremos considerar solo subintervalos muy pequeños. Por lo tanto, tomamos el límite como tiende a infinito.

En este caso la distribución binomial converge a lo que se conoce como distribución de Poisson por el teorema del límite de Poisson .

En varios de los ejemplos anteriores (como el número de mutaciones en una secuencia dada de ADN), los eventos que se cuentan son en realidad los resultados de ensayos discretos y se modelarían con mayor precisión utilizando la distribución binomial , es decir

En tales casos, n es muy grande y p es muy pequeño (y por lo tanto, la expectativa np es de magnitud intermedia). Entonces, la distribución puede aproximarse mediante la distribución de Poisson, que es menos engorrosa.

Esta aproximación a veces se conoce como la ley de eventos raros , [63] : 5  ya que cada uno de los n eventos individuales de Bernoulli ocurre raramente.

El nombre "ley de los eventos raros" puede ser engañoso porque el recuento total de eventos exitosos en un proceso de Poisson no necesita ser raro si el parámetro np no es pequeño. Por ejemplo, el número de llamadas telefónicas a una centralita ocupada en una hora sigue una distribución de Poisson en la que los eventos parecen frecuentes para el operador, pero son raros desde el punto de vista del miembro promedio de la población, que tiene muy pocas probabilidades de hacer una llamada a esa centralita en esa hora.

La varianza de la distribución binomial es 1 − p veces la de la distribución de Poisson, por lo que es casi igual cuando p es muy pequeño.

La palabra ley se utiliza a veces como sinónimo de distribución de probabilidad , y convergencia en ley significa convergencia en distribución . En consecuencia, la distribución de Poisson a veces se denomina "ley de los números pequeños" porque es la distribución de probabilidad del número de ocurrencias de un evento que ocurre raramente pero tiene muchas oportunidades de ocurrir. La ley de los números pequeños es un libro de Ladislaus Bortkiewicz sobre la distribución de Poisson, publicado en 1898. [12] [64]

Proceso de puntos de Poisson

La distribución de Poisson surge como el número de puntos de un proceso puntual de Poisson ubicados en alguna región finita. Más específicamente, si D es algún espacio de región, por ejemplo el espacio euclidiano R d , para el cual | D |, el área, el volumen o, más generalmente, la medida de Lebesgue de la región es finita, y si N ( D ) denota el número de puntos en D , entonces

Regresión de Poisson y regresión binomial negativa

La regresión de Poisson y la regresión binomial negativa son útiles para los análisis donde la variable dependiente (de respuesta) es el recuento (0, 1, 2, ...) del número de eventos u ocurrencias en un intervalo.

Biología

El experimento de Luria-Delbrück puso a prueba la hipótesis de la evolución lamarckiana, que debería dar como resultado una distribución de Poisson.

Katz y Miledi midieron el potencial de membrana con y sin la presencia de acetilcolina (ACh). [65] Cuando hay ACh presente, los canales iónicos de la membrana se abren aleatoriamente durante una pequeña fracción del tiempo. Como hay una gran cantidad de canales iónicos abiertos cada uno durante una pequeña fracción del tiempo, la cantidad total de canales iónicos abiertos en cualquier momento tiene una distribución de Poisson. Cuando no hay ACh presente, efectivamente no hay canales iónicos abiertos. El potencial de membrana es . Restando el efecto del ruido, Katz y Miledi encontraron que la media y la varianza del potencial de membrana son , lo que da . (pp. 94-95 [66] )

Durante cada evento de replicación celular, el número de mutaciones se distribuye aproximadamente según el método de Poisson. [67] Por ejemplo, el virus VIH tiene 10 000 pares de bases y una tasa de mutación de aproximadamente 1 por cada 30 000 pares de bases, lo que significa que el número de mutaciones por evento de replicación se distribuye como . (p. 64 [66] )

Otras aplicaciones en la ciencia

En un proceso de Poisson, el número de ocurrencias observadas fluctúa alrededor de su media λ con una desviación estándar. Estas fluctuaciones se denominan ruido de Poisson o (particularmente en electrónica) ruido de disparo .

La correlación de la media y la desviación estándar al contar ocurrencias discretas independientes es útil científicamente. Al monitorear cómo varían las fluctuaciones con la señal media, se puede estimar la contribución de una sola ocurrencia, incluso si esa contribución es demasiado pequeña para ser detectada directamente . Por ejemplo, la carga e en un electrón se puede estimar correlacionando la magnitud de una corriente eléctrica con su ruido de disparo . Si N electrones pasan por un punto en un tiempo dado t en promedio, la corriente media es ; dado que las fluctuaciones de corriente deben ser del orden (es decir, la desviación estándar del proceso de Poisson ), la carga se puede estimar a partir de la relación [ cita requerida ]

Un ejemplo cotidiano es la granulosidad que aparece cuando se amplían las fotografías; la granulosidad se debe a las fluctuaciones de Poisson en el número de granos de plata reducidos, no a los granos individuales en sí. Al correlacionar la granulosidad con el grado de ampliación, se puede estimar la contribución de un grano individual (que de otro modo sería demasiado pequeño para verlo sin ayuda). [ cita requerida ]

En la teoría de conjuntos causales , los elementos discretos del espacio-tiempo siguen una distribución de Poisson en el volumen.

La distribución de Poisson también aparece en mecánica cuántica , especialmente en óptica cuántica . Es decir, para un sistema oscilador armónico cuántico en estado coherente , la probabilidad de medir un nivel de energía particular tiene una distribución de Poisson.

Métodos computacionales

La distribución de Poisson plantea dos tareas diferentes para las bibliotecas de software dedicadas: evaluar la distribución y extraer números aleatorios de acuerdo con esa distribución.

Evaluación de la distribución de Poisson

Calcular para y dados es una tarea trivial que se puede realizar utilizando la definición estándar de en términos de funciones exponenciales, de potencia y factoriales. Sin embargo, la definición convencional de la distribución de Poisson contiene dos términos que pueden desbordarse fácilmente en las computadoras: λ k y k ! . La fracción de λ k a k ! también puede producir un error de redondeo que es muy grande en comparación con e λ , y por lo tanto dar un resultado erróneo. Por lo tanto, para la estabilidad numérica, la función de masa de probabilidad de Poisson debe evaluarse como

que es matemáticamente equivalente pero numéricamente estable. El logaritmo natural de la función Gamma se puede obtener utilizando la lgammafunción en la biblioteca estándar de C (versión C99) o R , la gammalnfunción en MATLAB o SciPy , o la log_gammafunción en Fortran 2008 y posteriores.

Algunos lenguajes informáticos proporcionan funciones integradas para evaluar la distribución de Poisson, a saber:

Generación de variables aleatorias

La tarea menos trivial es extraer una variable aleatoria entera de la distribución de Poisson con datos dados.

Las soluciones son proporcionadas por:

Knuth ha propuesto un algoritmo simple para generar números aleatorios distribuidos por Poisson ( muestreo de números pseudoaleatorios ) : [70] : 137-138 

algoritmo de  números aleatorios de Poisson (Knuth) : init : Sea L ← e −λ , k ← 0 y p ← 1. hacer : k ← k + 1. Genere un número aleatorio uniforme u en [0,1] y sea p ← p × u. mientras p > L. devuelva k − 1.

La complejidad es lineal en el valor devuelto k , que es λ en promedio. Existen muchos otros algoritmos para mejorar esto. Algunos se dan en Ahrens & Dieter, consulte § Referencias a continuación.

Para valores grandes de λ , el valor de L = e λ puede ser tan pequeño que sea difícil de representar. Esto se puede solucionar modificando el algoritmo que utiliza un parámetro adicional STEP de modo que e −STEP no se desborde: [ cita requerida ]

Algoritmo de  números aleatorios de Poisson (Junhao, basado en Knuth) : init : Sea  λ Izquierda ← λ , k ← 0 y p ← 1. hacer : k ← k + 1. Generar un número aleatorio uniforme u en (0,1) y sea p ← p × u. mientras p < 1 y λ Izquierda > 0: si  λ Izquierda > PASO: p ← p × e PASO  λ Izquierda ← λ Izquierda − PASO de lo contrario : p ← p × e λ Izquierda  λ Izquierda ← 0 mientras p > 1. devuelve k − 1.

La elección de STEP depende del umbral de desbordamiento. Para el formato de punto flotante de doble precisión, el umbral está cerca de e 700 , por lo que 500 debería ser un valor seguro de STEP .

Otras soluciones para valores grandes de λ incluyen el muestreo de rechazo y el uso de la aproximación gaussiana.

El muestreo por transformada inversa es simple y eficiente para valores pequeños de λ y requiere solo un número aleatorio uniforme u por muestra. Las probabilidades acumuladas se examinan una a una hasta que una excede u .

Algoritmo  generador de Poisson basado en la inversión por búsqueda secuencial : [71] : 505   init : Sea x ← 0, p ← e −λ , s ← p. Generar un número aleatorio uniforme u en [0,1]. mientras que u > s hacen : x ← x + 1. p ← p × λ / x. s ← s + p. return x.

See also

References

Citations

  1. ^ a b Haight, Frank A. (1967). Handbook of the Poisson Distribution. New York, NY, US: John Wiley & Sons. ISBN 978-0-471-33932-8.
  2. ^ a b Yates, Roy D.; Goodman, David J. (2014). Probability and Stochastic Processes: A Friendly Introduction for Electrical and Computer Engineers (2nd ed.). Hoboken, NJ: Wiley. ISBN 978-0-471-45259-1.
  3. ^ Ross, Sheldon M. (2014). Introduction to Probability Models (11th ed.). Academic Press.
  4. ^ Poisson, Siméon D. (1837). Probabilité des jugements en matière criminelle et en matière civile, précédées des règles générales du calcul des probabilités [Research on the Probability of Judgments in Criminal and Civil Matters] (in French). Paris, France: Bachelier.
  5. ^ de Moivre, Abraham (1711). "De mensura sortis, seu, de probabilitate eventuum in ludis a casu fortuito pendentibus" [On the Measurement of Chance, or, on the Probability of Events in Games Depending Upon Fortuitous Chance]. Philosophical Transactions of the Royal Society (in Latin). 27 (329): 213–264. doi:10.1098/rstl.1710.0018.
  6. ^ de Moivre, Abraham (1718). The Doctrine of Chances: Or, A Method of Calculating the Probability of Events in Play. London, Great Britain: W. Pearson. ISBN 9780598843753.
  7. ^ de Moivre, Abraham (1721). "Of the Laws of Chance". In Motte, Benjamin (ed.). The Philosophical Transactions from the Year MDCC (where Mr. Lowthorp Ends) to the Year MDCCXX. Abridg'd, and Dispos'd Under General Heads (in Latin). Vol. I. London, Great Britain: R. Wilkin, R. Robinson, S. Ballard, W. and J. Innys, and J. Osborn. pp. 190–219.
  8. ^ a b c d e f g h i Johnson, Norman L.; Kemp, Adrienne W.; Kotz, Samuel (2005). "Poisson Distribution". Univariate Discrete Distributions (3rd ed.). New York, NY, US: John Wiley & Sons, Inc. pp. 156–207. doi:10.1002/0471715816. ISBN 978-0-471-27246-5.
  9. ^ Stigler, Stephen M. (1982). "Poisson on the Poisson Distribution". Statistics & Probability Letters. 1 (1): 33–35. doi:10.1016/0167-7152(82)90010-4.
  10. ^ Hald, Anders; de Moivre, Abraham; McClintock, Bruce (1984). "A. de Moivre: 'De Mensura Sortis' or 'On the Measurement of Chance'". International Statistical Review / Revue Internationale de Statistique. 52 (3): 229–262. doi:10.2307/1403045. JSTOR 1403045.
  11. ^ Newcomb, Simon (1860). "Notes on the theory of probabilities". The Mathematical Monthly. 2 (4): 134–140.
  12. ^ a b c von Bortkiewitsch, Ladislaus (1898). Das Gesetz der kleinen Zahlen [The law of small numbers] (in German). Leipzig, Germany: B.G. Teubner. pp. 1, 23–25.
    On page 1, Bortkiewicz presents the Poisson distribution.
    On pages 23–25, Bortkiewitsch presents his analysis of "4. Beispiel: Die durch Schlag eines Pferdes im preußischen Heere Getöteten." [4. Example: Those killed in the Prussian army by a horse's kick.]
  13. ^ For the proof, see: Proof wiki: expectation and Proof wiki: variance
  14. ^ Kardar, Mehran (2007). Statistical Physics of Particles. Cambridge University Press. p. 42. ISBN 978-0-521-87342-0. OCLC 860391091.
  15. ^ Dekking, Frederik Michel; Kraaikamp, Cornelis; Lopuhaä, Hendrik Paul; Meester, Ludolf Erwin (2005). A Modern Introduction to Probability and Statistics. Springer Texts in Statistics. p. 167. doi:10.1007/1-84628-168-7. ISBN 978-1-85233-896-1.
  16. ^ Ugarte, M.D.; Militino, A.F.; Arnholt, A.T. (2016). Probability and Statistics with R (2nd ed.). Boca Raton, FL, US: CRC Press. ISBN 978-1-4665-0439-4.
  17. ^ Helske, Jouni (2017). "KFAS: Exponential Family State Space Models in R". Journal of Statistical Software. 78 (10). arXiv:1612.01907. doi:10.18637/jss.v078.i10. S2CID 14379617.
  18. ^ Choi, Kwok P. (1994). "On the medians of gamma distributions and an equation of Ramanujan". Proceedings of the American Mathematical Society. 121 (1): 245–251. doi:10.2307/2160389. JSTOR 2160389.
  19. ^ Riordan, John (1937). "Moment Recurrence Relations for Binomial, Poisson and Hypergeometric Frequency Distributions" (PDF). Annals of Mathematical Statistics. 8 (2): 103–111. doi:10.1214/aoms/1177732430. JSTOR 2957598.
  20. ^ D. Ahle, Thomas (2022). "Sharp and simple bounds for the raw moments of the Binomial and Poisson distributions". Statistics & Probability Letters. 182: 109306. arXiv:2103.17027. doi:10.1016/j.spl.2021.109306.
  21. ^ Lehmann, Erich Leo (1986). Testing Statistical Hypotheses (2nd ed.). New York, NJ, US: Springer Verlag. ISBN 978-0-387-94919-2.
  22. ^ Raikov, Dmitry (1937). "On the decomposition of Poisson laws". Comptes Rendus de l'Académie des Sciences de l'URSS. 14: 9–11.
  23. ^ von Mises, Richard (1964). Mathematical Theory of Probability and Statistics. New York, NJ, US: Academic Press. doi:10.1016/C2013-0-12460-9. ISBN 978-1-4832-3213-3.
  24. ^ Harremoes, P. (July 2001). "Binomial and Poisson distributions as maximum entropy distributions". IEEE Transactions on Information Theory. 47 (5): 2039–2041. doi:10.1109/18.930936. S2CID 16171405.
  25. ^ Laha, Radha G.; Rohatgi, Vijay K. (1979). Probability Theory. New York, NJ, US: John Wiley & Sons. ISBN 978-0-471-03262-5.
  26. ^ Mitzenmacher, Michael (2017). Probability and computing: Randomization and probabilistic techniques in algorithms and data analysis. Eli Upfal (2nd ed.). Cambridge, UK. Exercise 5.14. ISBN 978-1-107-15488-9. OCLC 960841613.{{cite book}}: CS1 maint: location missing publisher (link)
  27. ^ a b Mitzenmacher, Michael; Upfal, Eli (2005). Probability and Computing: Randomized Algorithms and Probabilistic Analysis. Cambridge, UK: Cambridge University Press. ISBN 978-0-521-83540-4.
  28. ^ Short, Michael (2013). "Improved Inequalities for the Poisson and Binomial Distribution and Upper Tail Quantile Functions". ISRN Probability and Statistics. 2013. Corollary 6. doi:10.1155/2013/412958.
  29. ^ Short, Michael (2013). "Improved Inequalities for the Poisson and Binomial Distribution and Upper Tail Quantile Functions". ISRN Probability and Statistics. 2013. Theorem 2. doi:10.1155/2013/412958.
  30. ^ Kamath, Govinda M.; Şaşoğlu, Eren; Tse, David (14–19 June 2015). Optimal haplotype assembly from high-throughput mate-pair reads. 2015 IEEE International Symposium on Information Theory (ISIT). Hong Kong, China. pp. 914–918. arXiv:1502.01975. doi:10.1109/ISIT.2015.7282588. S2CID 128634.
  31. ^ Prins, Jack (2012). "6.3.3.1. Counts Control Charts". e-Handbook of Statistical Methods. NIST/SEMATECH. Retrieved 20 September 2019.
  32. ^ Feller, William. An Introduction to Probability Theory and its Applications.
  33. ^ Zhang, Huiming; Liu, Yunxiao; Li, Bo (2014). "Notes on discrete compound Poisson model with applications to risk theory". Insurance: Mathematics and Economics. 59: 325–336. doi:10.1016/j.insmatheco.2014.09.012.
  34. ^ Zhang, Huiming; Li, Bo (2016). "Characterizations of discrete compound Poisson distributions". Communications in Statistics - Theory and Methods. 45 (22): 6789–6802. doi:10.1080/03610926.2014.901375. S2CID 125475756.
  35. ^ McCullagh, Peter; Nelder, John (1989). Generalized Linear Models. Monographs on Statistics and Applied Probability. Vol. 37. London, UK: Chapman and Hall. ISBN 978-0-412-31760-6.
  36. ^ Anscombe, Francis J. (1948). "The transformation of Poisson, binomial and negative binomial data". Biometrika. 35 (3–4): 246–254. doi:10.1093/biomet/35.3-4.246. JSTOR 2332343.
  37. ^ Ross, Sheldon M. (2010). Introduction to Probability Models (10th ed.). Boston, MA: Academic Press. ISBN 978-0-12-375686-2.
  38. ^ "1.7.7 – Relationship between the Multinomial and Poisson | STAT 504". Archived from the original on 6 August 2019. Retrieved 6 August 2019.
  39. ^ Loukas, Sotirios; Kemp, C. David (1986). "The Index of Dispersion Test for the Bivariate Poisson Distribution". Biometrics. 42 (4): 941–948. doi:10.2307/2530708. JSTOR 2530708.
  40. ^ Free Random Variables by D. Voiculescu, K. Dykema, A. Nica, CRM Monograph Series, American Mathematical Society, Providence RI, 1992
  41. ^ Alexandru Nica, Roland Speicher: Lectures on the Combinatorics of Free Probability. London Mathematical Society Lecture Note Series, Vol. 335, Cambridge University Press, 2006.
  42. ^ Lectures on the Combinatorics of Free Probability by A. Nica and R. Speicher, pp. 203–204, Cambridge Univ. Press 2006
  43. ^ Paszek, Ewa. "Maximum likelihood estimation – examples". cnx.org.
  44. ^ Van Trees, Harry L. (2013). Detection estimation and modulation theory. Kristine L. Bell, Zhi Tian (Second ed.). Hoboken, N.J. ISBN 978-1-299-66515-6. OCLC 851161356.{{cite book}}: CS1 maint: location missing publisher (link)
  45. ^ Garwood, Frank (1936). "Fiducial Limits for the Poisson Distribution". Biometrika. 28 (3/4): 437–442. doi:10.1093/biomet/28.3-4.437. JSTOR 2333958.
  46. ^ Breslow, Norman E.; Day, Nick E. (1987). Statistical Methods in Cancer Research. Vol. 2 — The Design and Analysis of Cohort Studies. Lyon, France: International Agency for Research on Cancer. ISBN 978-92-832-0182-3. Archived from the original on 8 August 2018. Retrieved 11 March 2012.
  47. ^ Fink, Daniel (1997). A Compendium of Conjugate Priors.
  48. ^ Dytso, Alex; Poor, H. Vincent (2020). "Estimation in Poisson noise: Properties of the conditional mean estimator". IEEE Transactions on Information Theory. 66 (7): 4304–4323. arXiv:1911.03744. doi:10.1109/TIT.2020.2979978. S2CID 207853178.
  49. ^ Gelman; Carlin, John B.; Stern, Hal S.; Rubin, Donald B. (2003). Bayesian Data Analysis (2nd ed.). Boca Raton, FL, US: Chapman & Hall/CRC. ISBN 1-58488-388-X.
  50. ^ Clevenson, M. Lawrence; Zidek, James V. (1975). "Simultaneous estimation of the means of independent Poisson laws". Journal of the American Statistical Association. 70 (351): 698–705. doi:10.1080/01621459.1975.10482497. JSTOR 2285958.
  51. ^ Berger, James O. (1985). Statistical Decision Theory and Bayesian Analysis. Springer Series in Statistics (2nd ed.). New York, NY: Springer-Verlag. Bibcode:1985sdtb.book.....B. doi:10.1007/978-1-4757-4286-2. ISBN 978-0-387-96098-2.
  52. ^ Rasch, Georg (1963). The Poisson Process as a Model for a Diversity of Behavioural Phenomena (PDF). 17th International Congress of Psychology. Vol. 2. Washington, DC: American Psychological Association. doi:10.1037/e685262012-108.
  53. ^ Flory, Paul J. (1940). "Molecular Size Distribution in Ethylene Oxide Polymers". Journal of the American Chemical Society. 62 (6): 1561–1565. doi:10.1021/ja01863a066.
  54. ^ Lomnitz, Cinna (1994). Fundamentals of Earthquake Prediction. New York, NY: John Wiley & Sons. ISBN 0-471-57419-8. OCLC 647404423.
  55. ^ a student (1907). "On the error of counting with a haemacytometer". Biometrika. 5 (3): 351–360. doi:10.2307/2331633. JSTOR 2331633.
  56. ^ Boland, Philip J. (1984). "A biographical glimpse of William Sealy Gosset". The American Statistician. 38 (3): 179–183. doi:10.1080/00031305.1984.10483195. JSTOR 2683648.
  57. ^ Erlang, Agner K. (1909). "Sandsynlighedsregning og Telefonsamtaler" [Probability Calculation and Telephone Conversations]. Nyt Tidsskrift for Matematik (in Danish). 20 (B): 33–39. JSTOR 24528622.
  58. ^ Hornby, Dave (2014). "Football Prediction Model: Poisson Distribution". Sports Betting Online. Retrieved 19 September 2014.
  59. ^ Koyama, Kento; Hokunan, Hidekazu; Hasegawa, Mayumi; Kawamura, Shuso; Koseki, Shigenobu (2016). "Do bacterial cell numbers follow a theoretical Poisson distribution? Comparison of experimentally obtained numbers of single cells with random number generation via computer simulation". Food Microbiology. 60: 49–53. doi:10.1016/j.fm.2016.05.019. PMID 27554145.
  60. ^ Clarke, R. D. (1946). "An application of the Poisson distribution" (PDF). Journal of the Institute of Actuaries. 72 (3): 481. doi:10.1017/S0020268100035435.
  61. ^ Hardy, Godfrey H.; Littlewood, John E. (1923). "On some problems of "partitio numerorum" III: On the expression of a number as a sum of primes". Acta Mathematica. 44: 1–70. doi:10.1007/BF02403921.
  62. ^ Gallagher, Patrick X. (1976). "On the distribution of primes in short intervals". Mathematika. 23 (1): 4–9. doi:10.1112/s0025579300016442.
  63. ^ Cameron, A. Colin; Trivedi, Pravin K. (1998). Regression Analysis of Count Data. Cambridge, UK: Cambridge University Press. ISBN 978-0-521-63567-7.
  64. ^ Edgeworth, F.Y. (1913). "On the use of the theory of probabilities in statistics relating to society". Journal of the Royal Statistical Society. 76 (2): 165–193. doi:10.2307/2340091. JSTOR 2340091.
  65. ^ Katz, B.; Miledi, R. (August 1972). "The statistical nature of the acetylcholine potential and its molecular components". The Journal of Physiology. 224 (3): 665–699. doi:10.1113/jphysiol.1972.sp009918. ISSN 0022-3751. PMC 1331515. PMID 5071933.
  66. ^ a b Nelson, Philip Charles; Bromberg, Sarina; Hermundstad, Ann; Prentice, Jason (2015). Physical models of living systems. New York, NY: W.H. Freeman & Company, a Macmillan Education Imprint. ISBN 978-1-4641-4029-7. OCLC 891121698.
  67. ^ Foster, Patricia L. (1 January 2006), "Methods for Determining Spontaneous Mutation Rates", DNA Repair, Part B, Methods in Enzymology, vol. 409, Academic Press, pp. 195–213, doi:10.1016/S0076-6879(05)09012-9, ISBN 978-0-12-182814-1, PMC 2041832, PMID 16793403
  68. ^ "Wolfram Language: PoissonDistribution reference page". wolfram.com. Retrieved 8 April 2016.
  69. ^ "Wolfram Language: MultivariatePoissonDistribution reference page". wolfram.com. Retrieved 8 April 2016.
  70. ^ Knuth, Donald Ervin (1997). Seminumerical Algorithms. The Art of Computer Programming. Vol. 2 (3rd ed.). Addison Wesley. ISBN 978-0-201-89684-8.
  71. ^ Devroye, Luc (1986). "Discrete Univariate Distributions" (PDF). Non-Uniform Random Variate Generation. New York, NY: Springer-Verlag. pp. 485–553. doi:10.1007/978-1-4613-8643-8_10. ISBN 978-1-4613-8645-2.

Sources