En teoría de probabilidad y estadística , la distribución de Poisson es una distribución de probabilidad discreta que expresa la probabilidad de que un número determinado de eventos ocurran en un intervalo de tiempo fijo si estos eventos ocurren con una tasa media constante conocida e independientemente del tiempo transcurrido desde el último evento. . [1] También se puede utilizar para el número de eventos en otros tipos de intervalos además del tiempo, y en una dimensión mayor que 1 (por ejemplo, número de eventos en un área o volumen determinado).
Bajo una distribución de Poisson con la expectativa de λ eventos en un intervalo dado, la probabilidad de k eventos en el mismo intervalo es: [2] : 60
Por ejemplo, considere un centro de llamadas que recibe, aleatoriamente, un promedio de λ = 3 llamadas por minuto en todo momento del día. Si las llamadas son independientes, recibir una no cambia la probabilidad de cuándo llegará la siguiente. Bajo estos supuestos, el número k de llamadas recibidas durante cualquier minuto tiene una distribución de probabilidad de Poisson. Recibir k = 1 a 4 llamadas tiene una probabilidad de aproximadamente 0,77, mientras que recibir 0 o al menos 5 llamadas tiene una probabilidad de aproximadamente 0,23.
Un ejemplo clásico utilizado para motivar la distribución de Poisson es el número de eventos de desintegración radiactiva durante un período de observación fijo. [3]
Historia
La distribución fue introducida por primera vez por Siméon Denis Poisson (1781-1840) y publicada junto con su teoría de la probabilidad en su obra Recherches sur la probabilité des jugements en matière criminelle et en matière civile (1837). [4] : 205-207 El trabajo teorizó sobre el número de condenas injustas en un país determinado centrándose en ciertas variables aleatorias N que cuentan, entre otras cosas, el número de sucesos discretos (a veces llamados "eventos" o "llegadas") que tienen lugar durante un intervalo de tiempo de duración determinada. El resultado ya lo había dado en 1711 Abraham de Moivre en De Mensura Sortis seu; de Probabilitate Eventuum in Ludis a Casu Fortuito Pendentibus . [5] : 219 [6] : 14-15 [7] : 193 [8] : 157 Esto la convierte en un ejemplo de la ley de Stigler y ha llevado a algunos autores a argumentar que la distribución de Poisson debería llevar el nombre de de Moivre. [9] [10]
En 1860, Simon Newcomb ajustó la distribución de Poisson al número de estrellas que se encuentran en una unidad de espacio. [11] Ladislaus Bortkiewicz
hizo otra aplicación práctica en 1898. Bortkiewicz demostró que la frecuencia con la que los soldados del ejército prusiano morían accidentalmente a patadas a caballo podía modelarse bien mediante una distribución de Poisson. [12] : 23-25 .
La distribución de Poisson se puede aplicar a sistemas con una gran cantidad de eventos posibles, cada uno de los cuales es raro . El número de tales eventos que ocurren durante un intervalo de tiempo fijo es, en las circunstancias adecuadas, un número aleatorio con una distribución de Poisson.
La ecuación se puede adaptar si, en lugar del número promedio de eventos, se nos da la velocidad promedio a la que ocurren los eventos. Luego y: [14]
Ejemplos
La distribución de Poisson puede resultar útil para modelar eventos como:
el número de meteoritos de más de 1 metro de diámetro que chocan contra la Tierra en un año;
el número de fotones láser que inciden en un detector en un intervalo de tiempo particular;
el número de estudiantes que obtuvieron una nota alta y baja en un examen; y
Ubicación de defectos y dislocaciones en materiales.
Ejemplos de la aparición de puntos aleatorios en el espacio son: las ubicaciones de los impactos de asteroides con la Tierra (bidimensionales), las ubicaciones de imperfecciones en un material (tridimensional) y las ubicaciones de los árboles en un bosque (bidimensionales). . [15]
Supuestos y validez
La distribución de Poisson es un modelo apropiado si se cumplen los siguientes supuestos:
k es el número de veces que ocurre un evento en un intervalo y k puede tomar valores 0, 1, 2,....
La ocurrencia de un evento no afecta la probabilidad de que ocurra un segundo evento. Es decir, los eventos ocurren de forma independiente.
La tasa promedio a la que ocurren los eventos es independiente de cualquier ocurrencia. Por simplicidad, normalmente se supone que esto es constante, pero en la práctica puede variar con el tiempo.
Dos acontecimientos no pueden ocurrir exactamente en el mismo instante; en cambio, en cada subintervalo muy pequeño, ocurre exactamente un evento o no ocurre ningún evento.
Si estas condiciones son verdaderas, entonces k es una variable aleatoria de Poisson y la distribución de k es una distribución de Poisson.
La distribución de Poisson es también el límite de una distribución binomial , para la cual la probabilidad de éxito de cada prueba es igual a λ dividida por el número de pruebas, a medida que el número de pruebas se acerca al infinito (ver Distribuciones relacionadas).
Ejemplos de probabilidad para distribuciones de Poisson
Eventos ocasionales: el caso especial deλ= 1 yk= 0
Supongamos que los astrónomos estiman que los meteoritos grandes (por encima de cierto tamaño) chocan contra la Tierra en promedio una vez cada 100 años ( λ = 1 evento cada 100 años), y que el número de impactos de meteoritos sigue una distribución de Poisson. ¿Cuál es la probabilidad de que k = 0 impactos de meteoritos en los próximos 100 años?
Según estos supuestos, la probabilidad de que ningún meteorito grande choque contra la Tierra en los próximos 100 años es aproximadamente de 0,37. El restante 1 − 0,37 = 0,63 es la probabilidad de que caigan 1, 2, 3 o más meteoritos grandes en los próximos 100 años. En el ejemplo anterior, se produjo una inundación por desbordamiento una vez cada 100 años ( λ = 1). La probabilidad de que no haya inundaciones por desbordamiento en 100 años era aproximadamente de 0,37, según el mismo cálculo.
En general, si un evento ocurre en promedio una vez por intervalo ( λ = 1) y los eventos siguen una distribución de Poisson, entonces P (0 eventos en el siguiente intervalo) = 0,37. Además, P (exactamente un evento en el siguiente intervalo) = 0,37, como se muestra en la tabla para inundaciones por desbordamiento.
Ejemplos que violan los supuestos de Poisson
El número de estudiantes que llegan al sindicato de estudiantes por minuto probablemente no seguirá una distribución de Poisson, porque la tasa no es constante (tasa baja durante el tiempo de clase, tasa alta entre horas de clase) y las llegadas de estudiantes individuales no son independientes (tasa de estudiantes tienden a venir en grupos). La tasa de llegada no constante puede modelarse como una distribución de Poisson mixta , y la llegada de grupos en lugar de estudiantes individuales como un proceso de Poisson compuesto .
El número de terremotos de magnitud 5 por año en un país puede no seguir una distribución de Poisson, si un gran terremoto aumenta la probabilidad de réplicas de magnitud similar.
Los ejemplos en los que se garantiza al menos un evento no tienen distribución de Poisson; pero puede modelarse utilizando una distribución de Poisson truncada en cero .
Las distribuciones de conteo en las que el número de intervalos con eventos cero es mayor que el predicho por un modelo de Poisson se pueden modelar utilizando un modelo inflado en cero .
Todos los acumulantes de la distribución de Poisson son iguales al valor esperado λ . El n- ésimo momento factorial de la distribución de Poisson es λn .
El valor esperado de un proceso de Poisson a veces se descompone en el producto de la intensidad y la exposición (o, más generalmente, se expresa como la integral de una "función de intensidad" en el tiempo o el espacio, a veces descrita como "exposición"). [17]
Mediana
Los límites para la mediana ( ) de la distribución son conocidos y nítidos : [18]
Sumas de variables aleatorias distribuidas por Poisson
Si para son independientes , entonces [21] : 65 Un recíproco es el teorema de Raikov , que dice que si la suma de dos variables aleatorias independientes tiene distribución de Poisson, entonces también lo son cada una de esas dos variables aleatorias independientes. [22] [23]
Entropía máxima
Es una distribución de máxima entropía entre el conjunto de distribuciones binomiales generalizadas con media y , [24] donde una distribución binomial generalizada se define como una distribución de la suma de N variables de Bernoulli independientes pero no distribuidas de manera idéntica.
Otras propiedades
Las distribuciones de Poisson son distribuciones de probabilidad infinitamente divisibles . [25] : 233 [8] : 164
Los límites para las probabilidades de cola de una variable aleatoria de Poisson se pueden derivar utilizando un argumento vinculado de Chernoff . [27] : 97-98
La probabilidad de la cola superior se puede ajustar (por un factor de al menos dos) de la siguiente manera: [28]
¿Dónde está la divergencia Kullback-Leibler de ?
Las desigualdades que relacionan la función de distribución de una variable aleatoria de Poisson con la función de distribución normal estándar son las siguientes: [29] donde es la divergencia Kullback-Leibler de from y es la divergencia Kullback-Leibler de from .
carreras de veneno
Sean y sean variables aleatorias independientes, entonces tenemos que
El límite superior se demuestra utilizando un límite estándar de Chernoff.
El límite inferior se puede demostrar observando que es la probabilidad de que donde cuál esté limitado por debajo de dónde sea entropía relativa (consulte la entrada sobre límites en las colas de distribuciones binomiales para obtener más detalles). Además, observar eso y calcular un límite inferior de la probabilidad incondicional da el resultado. Se pueden encontrar más detalles en el apéndice de Kamath et al. [30]
Distribuciones relacionadas
Como distribución binomial con pasos de tiempo infinitesimales
La distribución de Poisson se puede derivar como un caso límite de la distribución binomial, ya que el número de intentos llega al infinito y el número esperado de éxitos permanece fijo; consulte la ley de eventos raros a continuación. Por lo tanto, puede usarse como una aproximación de la distribución binomial si n es suficientemente grande y p es suficientemente pequeño. La distribución de Poisson es una buena aproximación de la distribución binomial si n es al menos 20 y p es menor o igual a 0,05, y una excelente aproximación si n ≥ 100 y np ≤ 10. [31] Sea y la densidad acumulada respectiva funciones de las distribuciones binomial y de Poisson, se tiene: Una derivación de esto utiliza funciones generadoras de probabilidad . [32] Considere un ensayo de Bernoulli (lanzamiento de moneda) cuya probabilidad de un éxito (o número esperado de éxitos) está dentro de un intervalo determinado. Divida el intervalo en n partes y realice una prueba en cada subintervalo con probabilidad . La probabilidad de k éxitos en n ensayos durante todo el intervalo viene dada por la distribución binomial
,
cuya función generadora es:
Tomando el límite cuando n aumenta hasta el infinito (con x fijo) y aplicando la definición del límite del producto de la función exponencial , esto se reduce a la función generadora de la distribución de Poisson:
Si y son independientes, entonces la distribución de condicional es una distribución binomial .En concreto, si entonces De manera más general, si X 1 , X 2 , ..., X n son variables aleatorias de Poisson independientes con parámetros λ 1 , λ 2 , ..., λ n entonces
dado que se deduce que , de hecho,
Si y la distribución de condicional a X = k es una distribución binomial , entonces la distribución de Y sigue una distribución de Poisson. De hecho, si, condicional a sigue una distribución multinomial , entonces cada una sigue una distribución de Poisson independiente
La distribución de Poisson es un caso especial de la distribución de Poisson compuesta discreta (o distribución de Poisson tartamuda) con solo un parámetro. [33] [34] La distribución de Poisson compuesta discreta se puede deducir de la distribución límite de la distribución multinomial univariada. También es un caso especial de distribución de Poisson compuesta .
Para valores suficientemente grandes de λ (digamos λ >1000), la distribución normal con media λ y varianza λ (desviación estándar ) es una excelente aproximación a la distribución de Poisson. Si λ es mayor que aproximadamente 10, entonces la distribución normal es una buena aproximación si se realiza una corrección de continuidad apropiada, es decir, si P( X ≤ x ) , donde x es un número entero no negativo, se reemplaza por P( X ≤ x +0,5) .
Transformación estabilizadora de la varianza : Si entonces [8] : 168 y [35] : 196 Bajo esta transformación, la convergencia a la normalidad (a medida que aumenta) es mucho más rápida que la variable no transformada. [ cita necesaria ] Se encuentran disponibles otras transformaciones estabilizadoras de varianza, un poco más complicadas, [8] : 168 una de las cuales es la transformada de Anscombe . [36] Consulte Transformación de datos (estadísticas) para usos más generales de las transformaciones.
Si para cada t > 0 el número de llegadas en el intervalo de tiempo [0, t ] sigue la distribución de Poisson con media λt , entonces la secuencia de tiempos entre llegadas son variables aleatorias exponenciales independientes e idénticamente distribuidas que tienen media 1/ λ . [37] : 317–319
Las distribuciones marginales son Poisson ( θ 1 ) y Poisson ( θ 2 ) y el coeficiente de correlación está limitado al rango
Una forma sencilla de generar una distribución de Poisson bivariada es tomar tres distribuciones de Poisson independientes con medias y luego establecer la función de probabilidad de la distribución de Poisson bivariada es
Distribución gratuita de Poisson
La distribución libre de Poisson [40] con tamaño y velocidad de salto surge en la teoría de la probabilidad libre como el límite de la convolución libre repetida
cuando N → ∞ .
En otras palabras, sean variables aleatorias de modo que tenga valor con probabilidad y valor 0 con la probabilidad restante. Supongamos también que la familia es libremente independiente . Entonces el límite a partir de la ley de viene dado por la ley de Free Poisson con parámetros
Esta definición es análoga a una de las formas en que se obtiene la distribución de Poisson clásica a partir de un proceso de Poisson (clásico).
La medida asociada a la ley de Poisson libre está dada por [41]
donde y tiene apoyo
Damos valores de algunas transformadas importantes de la ley de Poisson libre; el cálculo se puede encontrar, por ejemplo, en el libro Lectures on the Combinatorics of Free Probability de A. Nica y R. Speicher [42].
La transformada R de la ley de Poisson libre viene dada por
La función de masa de probabilidad de Poisson se puede expresar de una forma similar a la distribución del producto de una distribución de Weibull y una forma variante de la distribución de conteo estable . La variable puede considerarse como inversa del parámetro de estabilidad de Lévy en la distribución de conteo estable:
donde es una distribución de forma de conteo estable estándar y es una distribución de forma de Weibull estándar
Inferencia estadística
Estimación de parámetros
Dada una muestra de n valores medidos para i = 1, ..., n , deseamos estimar el valor del parámetro λ de la población de Poisson de la que se extrajo la muestra. La estimación de máxima verosimilitud es [43]
Dado que cada observación tiene una expectativa λ, la media muestral también la tiene. Por tanto, la estimación de máxima verosimilitud es un estimador insesgado de λ . También es un estimador eficiente ya que su varianza alcanza el límite inferior de Cramér-Rao (CRLB). [44] Por lo tanto, es insesgado de varianza mínima . También se puede demostrar que la suma (y por tanto la media muestral, ya que es una función uno a uno de la suma) es un estadístico completo y suficiente para λ .
Para demostrar la suficiencia podemos utilizar el teorema de factorización . Considere dividir la función de masa de probabilidad de la distribución conjunta de Poisson para la muestra en dos partes: una que depende únicamente de la muestra , llamada , y otra que depende del parámetro y de la muestra solo a través de la función. Entonces es una estadística suficiente para
El primer término depende sólo de . El segundo término depende de la muestra sólo mediante Por lo tanto, es suficiente.
Para encontrar el parámetro λ que maximiza la función de probabilidad para la población de Poisson, podemos usar el logaritmo de la función de probabilidad:
Tomamos la derivada de con respecto a λ y la comparamos con cero:
Al resolver λ se obtiene un punto estacionario.
Entonces λ es el promedio de los valores de ki . Obtener el signo de la segunda derivada de L en el punto estacionario determinará qué tipo de valor extremo es λ .
Al evaluar la segunda derivada en el punto estacionario se obtiene:
que es el negativo de n veces el recíproco del promedio de k i . Esta expresión es negativa cuando la media es positiva. Si esto se cumple, entonces el punto estacionario maximiza la función de probabilidad.
Para completar , se dice que una familia de distribuciones es completa si y solo si implica que para todos Si el individuo es iid entonces Conociendo la distribución que queremos investigar, es fácil ver que la estadística está completa.
Para que se cumpla esta igualdad, debe ser 0. Esto se desprende del hecho de que ninguno de los otros términos será 0 para todos en la suma y para todos los valores posibles de Por lo tanto, para todos implica que y se ha demostrado que la estadística es completa .
Intervalo de confianza
El intervalo de confianza para la media de una distribución de Poisson se puede expresar utilizando la relación entre las funciones de distribución acumuladas de las distribuciones de Poisson y chi-cuadrado . La distribución chi-cuadrado está estrechamente relacionada con la distribución gamma , y esto conduce a una expresión alternativa. Dada una observación k de una distribución de Poisson con media μ , un intervalo de confianza para μ con nivel de confianza 1 – α es
o equivalente,
donde es la función cuantil (correspondiente a un área inferior de la cola p ) de la distribución chi-cuadrado con n grados de libertad y es la función cuantil de una distribución gamma con parámetro de forma n y parámetro de escala 1. [8] : 176-178 [45] Este intervalo es ' exacto ' en el sentido de que su probabilidad de cobertura nunca es menor que el nominal 1 – α .
Cuando los cuantiles de la distribución gamma no están disponibles, se ha propuesto una aproximación precisa a este intervalo exacto (basada en la transformación de Wilson-Hilferty ): [46]
Para la aplicación de estas fórmulas en el mismo contexto anterior (dada una muestra de n valores medidos k i, cada uno extraído de una distribución de Poisson con media λ ), se establecería
calcule un intervalo para μ = n λ y luego derive el intervalo para λ .
Entonces, dada la misma muestra de n valores medidos k i que antes, y un a priori de Gamma ( α , β ), la distribución posterior es
Tenga en cuenta que la media posterior es lineal y está dada por
Se puede demostrar que la distribución gamma es la única anterior que induce linealidad de la media condicional. Además, existe un resultado inverso que establece que si la media condicional está cerca de una función lineal en la distancia, entonces la distribución previa de λ debe estar cerca de la distribución gamma en la distancia de Levy . [48]
La media posterior E[ λ ] se aproxima a la estimación de máxima verosimilitud en el límite que se sigue inmediatamente de la expresión general de la media de la distribución gamma .
Estimación simultánea de múltiples medias de Poisson.
Supongamos que hay un conjunto de variables aleatorias independientes de un conjunto de distribuciones de Poisson, cada una con un parámetro y nos gustaría estimar estos parámetros. Luego, Clevenson y Zidek muestran que bajo la pérdida de error al cuadrado normalizada , similar al ejemplo de Stein para las medias normales, el estimador MLE es inadmisible . [50]
En este caso, se proporciona una familia de estimadores minimax para cualquiera y como [51]
Ocurrencia y aplicaciones
Algunas aplicaciones de la distribución de Poisson para contar datos (número de eventos): [52]
biología : el número de mutaciones en una cadena de ADN por unidad de longitud,
gestión : clientes que llegan a un mostrador o centro de llamadas,
Finanzas y seguros : número de pérdidas o reclamaciones que ocurren en un período de tiempo determinado.
Sismología : modelo asintótico de Poisson de riesgo de grandes terremotos, [54]
radiactividad : se desintegra en un intervalo de tiempo determinado en una muestra radiactiva,
óptica : número de fotones emitidos en un solo pulso láser (una vulnerabilidad importante de los protocolos de distribución de claves cuánticas , conocida como división del número de fotones).
Más ejemplos de eventos de conteo que pueden modelarse como procesos de Poisson incluyen:
soldados asesinados a patadas de caballo cada año en cada cuerpo de la caballería prusiana . Este ejemplo fue utilizado en un libro de Ladislaus Bortkiewicz (1868-1931), [12] : 23-25
Células de levadura utilizadas en la elaboración de cerveza Guinness . Este ejemplo fue utilizado por William Sealy Gosset (1876-1937), [55] [56]
llamadas telefónicas que llegan a un centro de llamadas en un minuto. Este ejemplo fue descrito por AK Erlang (1878-1929), [57]
goles en deportes que involucran a dos equipos en competencia, [58]
muertes por año en un grupo de edad determinado,
saltos en el precio de una acción en un intervalo de tiempo determinado,
La tasa de un evento está relacionada con la probabilidad de que un evento ocurra en algún subintervalo pequeño (de tiempo, espacio o de otro tipo). En el caso de la distribución de Poisson, se supone que existe un subintervalo suficientemente pequeño para el cual la probabilidad de que un evento ocurra dos veces es "despreciable". Con este supuesto se puede derivar la distribución de Poisson a partir de la binomial, dada sólo la información del número esperado de eventos totales en todo el intervalo.
Denotemos el número total de eventos en todo el intervalo como Dividir todo el intervalo en subintervalos de igual tamaño, de modo que (dado que sólo estamos interesados en porciones muy pequeñas del intervalo, esta suposición es significativa). Esto significa que el número esperado de eventos en cada uno de los n subintervalos es igual a
Ahora asumimos que la ocurrencia de un evento en todo el intervalo puede verse como una secuencia de n ensayos de Bernoulli , donde el -ésimo ensayo de Bernoulli corresponde a observar si un evento ocurre en el subintervalo con probabilidad El número esperado de eventos totales en tal ensayos sería el número esperado de eventos totales en todo el intervalo. Por lo tanto, para cada subdivisión del intervalo hemos aproximado la ocurrencia del evento como un proceso de Bernoulli de la forma. Como hemos señalado antes, queremos considerar sólo subintervalos muy pequeños. Por lo tanto, tomamos el límite hacia el infinito.
En varios de los ejemplos anteriores, como el número de mutaciones en una secuencia determinada de ADN, los eventos que se cuentan son en realidad resultados de ensayos discretos y se modelarían con mayor precisión utilizando la distribución binomial , es decir.
En tales casos, n es muy grande y p es muy pequeño (por lo que la expectativa np es de magnitud intermedia). Entonces la distribución puede aproximarse mediante la distribución de Poisson, menos engorrosa
Esta aproximación a veces se conoce como ley de eventos raros , [63] : 5 ya que cada uno de los n eventos individuales de Bernoulli rara vez ocurre.
El nombre "ley de eventos raros" puede ser engañoso porque el recuento total de eventos exitosos en un proceso de Poisson no tiene por qué ser raro si el parámetro np no es pequeño. Por ejemplo, el número de llamadas telefónicas a una centralita ocupada en una hora sigue una distribución de Poisson y los eventos le parecen frecuentes al operador, pero son raros desde el punto de vista del miembro promedio de la población, que es muy poco probable que realice una llamada a esa centralita en esa hora.
La varianza de la distribución binomial es 1 − p veces la de la distribución de Poisson, por lo que es casi igual cuando p es muy pequeña.
La palabra ley se utiliza a veces como sinónimo de distribución de probabilidad , y convergencia en ley significa convergencia en distribución . En consecuencia, la distribución de Poisson a veces se denomina "ley de los números pequeños" porque es la distribución de probabilidad del número de ocurrencias de un evento que ocurre raramente pero que tiene muchas oportunidades de ocurrir. La ley de los números pequeños es un libro de Ladislaus Bortkiewicz sobre la distribución de Poisson, publicado en 1898. [12] [64]
proceso de punto de veneno
La distribución de Poisson surge como el número de puntos de un proceso puntual de Poisson ubicados en alguna región finita. Más específicamente, si D es algún espacio de región, por ejemplo el espacio euclidiano R d , para el cual | D |, el área, volumen o, más generalmente, la medida de Lebesgue de la región es finita, y si N ( D ) denota el número de puntos en D , entonces
Regresión de Poisson y regresión binomial negativa
La regresión de Poisson y la regresión binomial negativa son útiles para análisis en los que la variable dependiente (respuesta) es el recuento (0, 1, 2,...) del número de eventos u ocurrencias en un intervalo.
Biología
El experimento de Luria-Delbrück contrastó la hipótesis de la evolución lamarckiana, que debería dar como resultado una distribución de Poisson.
Katz y Miledi midieron el potencial de membrana con y sin presencia de acetilcolina (ACh). [65] Cuando hay ACh presente, los canales iónicos en la membrana se abrirían aleatoriamente en una pequeña fracción del tiempo. Como hay una gran cantidad de canales iónicos, cada uno de ellos abierto durante una pequeña fracción del tiempo, el número total de canales iónicos abiertos en cualquier momento tiene una distribución de Poisson. Cuando no hay ACh presente, efectivamente no hay canales iónicos abiertos. El potencial de membrana es Restando el efecto del ruido, Katz y Miledi encontraron que la media y la varianza del potencial de membrana eran , dando . (págs. 94-95 [66] )
Durante cada evento de replicación celular, el número de mutaciones tiene una distribución aproximada de Poisson. [67] Por ejemplo, el virus VIH tiene 10.000 pares de bases y tiene una tasa de mutación de aproximadamente 1 por 30.000 pares de bases, lo que significa que el número de mutaciones por evento de replicación se distribuye como . (pág. 64 [66] )
Otras aplicaciones en la ciencia
En un proceso de Poisson, el número de sucesos observados fluctúa alrededor de su media λ con una desviación estándar . Estas fluctuaciones se denominan ruido de Poisson o (particularmente en electrónica) ruido de disparo .
La correlación de la media y la desviación estándar al contar sucesos discretos independientes es útil científicamente. Al monitorear cómo varían las fluctuaciones con la señal media, se puede estimar la contribución de un solo suceso, incluso si esa contribución es demasiado pequeña para ser detectada directamente . Por ejemplo, la carga e de un electrón se puede estimar correlacionando la magnitud de una corriente eléctrica con su ruido de disparo . Si N electrones pasan por un punto en un tiempo dado t en promedio, la corriente media es ; dado que las fluctuaciones actuales deben ser del orden (es decir, la desviación estándar del proceso de Poisson ), la carga se puede estimar a partir de la relación [ cita necesaria ]
Un ejemplo cotidiano es la granulosidad que aparece cuando se amplían las fotografías; la granulosidad se debe a las fluctuaciones de Poisson en el número de granos de plata reducidos , no a los granos individuales en sí. Al correlacionar la granulosidad con el grado de agrandamiento, se puede estimar la contribución de un grano individual (que de otro modo sería demasiado pequeño para verlo sin ayuda). [ cita necesaria ]
En la teoría de conjuntos causal, los elementos discretos del espacio-tiempo siguen una distribución de Poisson en el volumen.
La distribución de Poisson plantea dos tareas diferentes para las bibliotecas de software dedicadas: evaluar la distribución y extraer números aleatorios según esa distribución.
Evaluación de la distribución de Poisson
Calcular para dado y es una tarea trivial que se puede lograr utilizando la definición estándar de en términos de funciones exponenciales, de potencia y factoriales. Sin embargo, la definición convencional de la distribución de Poisson contiene dos términos que pueden desbordarse fácilmente en las computadoras: λ k y k ! . La fracción de λ k a k ! También puede producir un error de redondeo que es muy grande en comparación con e − λ y, por tanto, dar un resultado erróneo. Por lo tanto, para la estabilidad numérica, la función de masa de probabilidad de Poisson debe evaluarse como
que es matemáticamente equivalente pero numéricamente estable. El logaritmo natural de la función Gamma se puede obtener usando la lgammafunción en la biblioteca estándar C (versión C99) o R , la gammalnfunción en MATLAB o SciPy , o la log_gammafunción en Fortran 2008 y posteriores.
Algunos lenguajes informáticos proporcionan funciones integradas para evaluar la distribución de Poisson, a saber
R : función dpois(x, lambda);
Excel : función POISSON( x, mean, cumulative), con una bandera para especificar la distribución acumulativa;
Mathematica : distribución de Poisson univariada como , [68] distribución de Poisson bivariada como ,. [69]PoissonDistribution[]MultivariatePoissonDistribution[{ }]
Generación de variables aleatorias
La tarea menos trivial es extraer una variable aleatoria entera de la distribución de Poisson con datos dados.
algoritmo de número aleatorio de Poisson (Knuth) : init : Sea L ← e −λ , k ← 0 y p ← 1. hacer : k ← k + 1. Genere un número aleatorio uniforme u en [0,1] y sea p ← p × u. mientras p > L. devuelve k − 1.
La complejidad es lineal en el valor devuelto k , que es λ en promedio. Hay muchos otros algoritmos para mejorar esto. Algunos se encuentran en Ahrens & Dieter, ver § Referencias a continuación.
Para valores grandes de λ , el valor de L = e − λ puede ser tan pequeño que sea difícil de representar. Esto se puede resolver mediante un cambio en el algoritmo que utiliza un parámetro adicional STEP de modo que e −STEP no se desborde por defecto: [ cita necesaria ]
algoritmo de número aleatorio de Poisson (Junhao, basado en Knuth) : init : Sea λ Left ← λ , k ← 0 y p ← 1. do : k ← k + 1. Genere un número aleatorio uniforme u en (0,1) y sea p ← p × u. mientras p < 1 y λ Izquierda > 0: si λ Izquierda > PASO: p ← p × e PASO λ Izquierda ← λ Izquierda − PASO más : p ← p × e λ Izquierda λ Izquierda ← 0 mientras p > 1. devuelve k − 1.
La elección de STEP depende del umbral de desbordamiento. Para el formato de coma flotante de doble precisión, el umbral está cerca de e 700 , por lo que 500 debería ser un PASO seguro .
Otras soluciones para valores grandes de λ incluyen el muestreo de rechazo y el uso de la aproximación gaussiana.
El muestreo por transformada inversa es simple y eficiente para valores pequeños de λ y requiere solo un número aleatorio uniforme u por muestra. Las probabilidades acumuladas se examinan sucesivamente hasta que una supera u .
algoritmo generador de Poisson basado en la inversión por búsqueda secuencial : [71] : 505 init : Sea x ← 0, p ← e −λ , s ← p. Genere un número aleatorio uniforme u en [0,1]. mientras que tú lo haces : x ← x + 1. p ← p × λ / x. s ← s + pag. devolver x.
^ ab Haight, Frank A. (1967). Manual de la distribución de Poisson . Nueva York, NY, Estados Unidos: John Wiley & Sons. ISBN978-0-471-33932-8.
^ ab Yates, Roy D.; Goodman, David J. (2014). Probabilidad y procesos estocásticos: una introducción sencilla para ingenieros eléctricos e informáticos (2ª ed.). Hoboken, Nueva Jersey: Wiley. ISBN978-0-471-45259-1.
^ Ross, Sheldon M. (2014). Introducción a los modelos de probabilidad (11ª ed.). Prensa académica.
^ Poisson, Siméon D. (1837). Probabilité des jugements en matière criminelle et en matière civile, précédées des règles générales du calcul des probabilités [ Investigación sobre la probabilidad de las sentencias en materia penal y civil ] (en francés). París, Francia: Bachelier.
^ de Moivre, Abraham (1711). "De mensura sortis, seu, de probabilitate eventuum in ludis a casu fortuito pendentibus" [Sobre la medida del azar o sobre la probabilidad de los acontecimientos en los juegos que dependen del azar fortuito]. Transacciones filosóficas de la Royal Society (en latín). 27 (329): 213–264. doi : 10.1098/rstl.1710.0018 .
^ de Moivre, Abraham (1718). La doctrina de las posibilidades: o un método para calcular la probabilidad de eventos en juego. Londres, Gran Bretaña: W. Pearson. ISBN9780598843753.
^ de Moivre, Abraham (1721). "De las leyes del azar". En Motte, Benjamín (ed.). Las transacciones filosóficas desde el año MDCC (donde termina el Sr. Lowthorp) hasta el año MDCCXX. Abridg'd y Dispos'd Under General Heads (en latín). vol. I. Londres, Gran Bretaña: R. Wilkin, R. Robinson, S. Ballard, W. y J. Innys y J. Osborn. págs. 190-219.
^ abcdefghi Johnson, Norman L.; Kemp, Adrienne W.; Kotz, Samuel (2005). "Distribución de Poisson". Distribuciones discretas univariadas (3ª ed.). Nueva York, NY, Estados Unidos: John Wiley & Sons, Inc. págs. 156–207. doi :10.1002/0471715816. ISBN978-0-471-27246-5.
^ Stigler, Stephen M. (1982). "Poisson sobre la distribución de Poisson". Cartas de estadística y probabilidad . 1 (1): 33–35. doi :10.1016/0167-7152(82)90010-4.
^ Hald, Anders; de Moivre, Abraham; McClintock, Bruce (1984). "A. de Moivre: 'De Mensura Sortis' o 'Sobre la medida del azar'". Revista estadística internacional / Revue Internationale de Statistique . 52 (3): 229–262. doi :10.2307/1403045. JSTOR 1403045.
^ Newcomb, Simón (1860). "Apuntes sobre la teoría de las probabilidades". El Mensual Matemático . 2 (4): 134-140.
^ abc von Bortkiewitsch, Ladislao (1898). Das Gesetz der kleinen Zahlen [ La ley de los pequeños números ] (en alemán). Leipzig, Alemania: BG Teubner. págs. 1, 23-25.
En la página 1, Bortkiewicz presenta la distribución de Poisson.
En las páginas 23-25, Bortkiewitsch presenta su análisis de "4. Beispiel: Die durch Schlag eines Pferdes im preußischen Heere Getöteten". [4. Ejemplo: Los muertos en el ejército prusiano por la coz de un caballo.]
^ Para ver la prueba, consulte: Wiki de prueba: expectativa y Wiki de prueba: variación
^ Dekking, Frederik Michel; Kraaikamp, Cornelis; Lopuhaä, Hendrik Paul; Meester, Ludolf Erwin (2005). Una introducción moderna a la probabilidad y la estadística. Textos Springer en Estadística. pag. 167.doi :10.1007/1-84628-168-7 . ISBN978-1-85233-896-1.
^ Helske, Jouni (2017). "KFAS: modelos de espacio de estados familiares exponenciales en R". Revista de software estadístico . 78 (10). arXiv : 1612.01907 . doi : 10.18637/jss.v078.i10. S2CID 14379617.
^ Choi, Kwok P. (1994). "Sobre las medianas de las distribuciones gamma y una ecuación de Ramanujan". Actas de la Sociedad Matemática Estadounidense . 121 (1): 245–251. doi : 10.2307/2160389 . JSTOR 2160389.
^ Riordan, John (1937). "Relaciones de recurrencia de momentos para distribuciones de frecuencia binomiales, de Poisson e hipergeométricas" (PDF) . Anales de estadística matemática . 8 (2): 103–111. doi : 10.1214/aoms/1177732430 . JSTOR 2957598.
^ D. Ahle, Thomas (2022). "Límites nítidos y simples para los momentos crudos de las distribuciones Binomial y Poisson". Cartas de estadística y probabilidad . 182 : 109306. arXiv : 2103.17027 . doi :10.1016/j.spl.2021.109306.
^ Lehmann, Erich Leo (1986). Prueba de hipótesis estadísticas (2ª ed.). Nueva York, Nueva Jersey, Estados Unidos: Springer Verlag. ISBN978-0-387-94919-2.
^ Raikov, Dmitry (1937). "Sobre la descomposición de las leyes de Poisson". Cuentas Rendus de la Academia de Ciencias de la URSS . 14 : 9–11.
^ von Mises, Richard (1964). Teoría Matemática de la Probabilidad y Estadística . Nueva York, Nueva Jersey, Estados Unidos: Academic Press. doi :10.1016/C2013-0-12460-9. ISBN978-1-4832-3213-3.
^ Harremoes, P. (julio de 2001). "Distribuciones binomiales y de Poisson como distribuciones de máxima entropía". Transacciones IEEE sobre teoría de la información . 47 (5): 2039-2041. doi : 10.1109/18.930936. S2CID 16171405.
^ Laha, Radha G.; Rohatgi, Vijay K. (1979). Teoría de la probabilidad . Nueva York, Nueva Jersey, Estados Unidos: John Wiley & Sons. ISBN978-0-471-03262-5.
^ Mitzenmacher, Michael (2017). Probabilidad y computación: Aleatorización y técnicas probabilísticas en algoritmos y análisis de datos . Eli Upfal (2ª ed.). Cambridge, Reino Unido. Ejercicio 5.14. ISBN978-1-107-15488-9. OCLC 960841613.{{cite book}}: CS1 maint: location missing publisher (link)
^ ab Mitzenmacher, Michael ; Upfal, Eli (2005). Probabilidad y Computación: Algoritmos Aleatorios y Análisis Probabilístico . Cambridge, Reino Unido: Cambridge University Press. ISBN978-0-521-83540-4.
^ Breve, Michael (2013). "Desigualdades mejoradas para la distribución binomial y de Poisson y las funciones cuantiles de cola superior". ISRN Probabilidad y Estadística . 2013 . Corolario 6. doi : 10.1155/2013/412958 .
^ Breve, Michael (2013). "Desigualdades mejoradas para la distribución binomial y de Poisson y las funciones cuantiles de cola superior". ISRN Probabilidad y Estadística . 2013 . Teorema 2. doi : 10.1155/2013/412958 .
^ Kamath, Govinda M.; Şaşoğlu, Eren; Tse, David (14 a 19 de junio de 2015). "Ensamblaje óptimo de haplotipos a partir de lecturas de pares de parejas de alto rendimiento" . 2015 Simposio Internacional IEEE sobre Teoría de la Información (ISIT). Hong Kong, China. págs. 914–918. arXiv : 1502.01975 . doi :10.1109/ISIT.2015.7282588. S2CID 128634.
^ Prins, Jack (2012). "6.3.3.1. Gráficos de control de recuentos". Manual electrónico de métodos estadísticos . NIST/SEMATECH . Consultado el 20 de septiembre de 2019 .
^ Feller, William. Introducción a la teoría de la probabilidad y sus aplicaciones .
^ Zhang, Huiming; Liu, Yunxiao; Li, Bo (2014). "Notas sobre el modelo de Poisson compuesto discreto con aplicaciones a la teoría del riesgo". Seguros: Matemáticas y Economía . 59 : 325–336. doi :10.1016/j.insmatheco.2014.09.012.
^ Zhang, Huiming; Li, Bo (2016). "Caracterizaciones de distribuciones de Poisson compuestas discretas". Comunicaciones en Estadística - Teoría y Métodos . 45 (22): 6789–6802. doi :10.1080/03610926.2014.901375. S2CID 125475756.
^ McCullagh, Pedro ; Nelder, John (1989). Modelos lineales generalizados . Monografías sobre Estadística y Probabilidad Aplicada. vol. 37. Londres, Reino Unido: Chapman y Hall. ISBN978-0-412-31760-6.
^ Anscombe, Francisco J. (1948). "La transformación de datos de Poisson, binomiales y binomiales negativos". Biometrika . 35 (3–4): 246–254. doi :10.1093/biomet/35.3-4.246. JSTOR 2332343.
^ Ross, Sheldon M. (2010). Introducción a los modelos de probabilidad (10ª ed.). Boston, MA: Prensa académica. ISBN978-0-12-375686-2.
^ "1.7.7 - Relación entre el Multinomial y Poisson | STAT 504". Archivado desde el original el 6 de agosto de 2019 . Consultado el 6 de agosto de 2019 .
^ Loukás, Sotirios; Kemp, C.David (1986). "La prueba del índice de dispersión para la distribución bivariada de Poisson". Biometría . 42 (4): 941–948. doi :10.2307/2530708. JSTOR 2530708.
^ Variables aleatorias libres por D. Voiculescu, K. Dykema, A. Nica, Serie de monografías CRM, Sociedad Matemática Estadounidense, Providence RI, 1992
^ Alexandru Nica, Roland Speicher: Conferencias sobre combinatoria de la probabilidad libre. Serie de notas de conferencias de la London Mathematical Society, vol. 335, Prensa de la Universidad de Cambridge, 2006.
^ Conferencias sobre la combinatoria de la probabilidad libre a cargo de A. Nica y R. Speicher, págs. 203-204, Universidad de Cambridge. Prensa 2006
^ Paszek, Ewa. "Estimación de máxima verosimilitud: ejemplos". cnx.org .
^ Van Trees, Harry L. (2013). Estimación de detección y teoría de la modulación. Kristine L. Bell, Zhi Tian (Segunda ed.). Hoboken, Nueva Jersey ISBN978-1-299-66515-6. OCLC 851161356.{{cite book}}: CS1 maint: location missing publisher (link)
^ Garwood, Frank (1936). "Límites fiduciales para la distribución de Poisson". Biometrika . 28 (3/4): 437–442. doi :10.1093/biomet/28.3-4.437. JSTOR 2333958.
^ Fink, Daniel (1997). Un compendio de priores conjugados .
^ Dytso, Alex; Pobre, H. Vincent (2020). "Estimación en ruido de Poisson: Propiedades del estimador de media condicional". Transacciones IEEE sobre teoría de la información . 66 (7): 4304–4323. arXiv : 1911.03744 . doi : 10.1109/TIT.2020.2979978 . S2CID 207853178.
^ Gelman; Carlín, John B.; Stern, Hal S.; Rubin, Donald B. (2003). Análisis de datos bayesianos (2ª ed.). Boca Ratón, FL, Estados Unidos: Chapman & Hall/CRC. ISBN1-58488-388-X.
^ Clevenson, M. Lawrence; Zidek, James V. (1975). "Estimación simultánea de las medias de las leyes de Poisson independientes". Revista de la Asociación Estadounidense de Estadística . 70 (351): 698–705. doi :10.1080/01621459.1975.10482497. JSTOR 2285958.
^ Berger, James O. (1985). Teoría de la decisión estadística y análisis bayesiano . Serie Springer en Estadística (2ª ed.). Nueva York, Nueva York: Springer-Verlag. Código Bib : 1985sdtb.book.....B. doi :10.1007/978-1-4757-4286-2. ISBN978-0-387-96098-2.
^ Rasch, Georg (1963). El proceso de Poisson como modelo para la diversidad de fenómenos conductuales (PDF) . XVII Congreso Internacional de Psicología. vol. 2. Washington, DC: Asociación Estadounidense de Psicología. doi :10.1037/e685262012-108.
^ Flory, Paul J. (1940). "Distribución del tamaño molecular en polímeros de óxido de etileno". Revista de la Sociedad Química Estadounidense . 62 (6): 1561-1565. doi :10.1021/ja01863a066.
^ Lomnitz, Cinna (1994). Fundamentos de la predicción de terremotos . Nueva York, Nueva York: John Wiley & Sons. ISBN0-471-57419-8. OCLC 647404423.
^ un estudiante (1907). "Sobre el error de contar con hemacitómetro". Biometrika . 5 (3): 351–360. doi :10.2307/2331633. JSTOR 2331633.
^ Boland, Philip J. (1984). "Un vistazo biográfico de William Sealy Gosset". El estadístico estadounidense . 38 (3): 179–183. doi :10.1080/00031305.1984.10483195. JSTOR 2683648.
^ Erlang, Agner K. (1909). "Sandsynlighedsregning og Telefonsamtaler" [Cálculo de probabilidades y conversaciones telefónicas]. Nyt Tidsskrift para Matematik (en danés). 20 (B): 33–39. JSTOR 24528622.
^ Hornby, Dave (2014). "Modelo de predicción de fútbol: distribución de Poisson". Apuestas deportivas en línea . Consultado el 19 de septiembre de 2014 .
^ Koyama, Kento; Hokunan, Hidekazu; Hasegawa, Mayumi; Kawamura, Shuso; Koseki, Shigenobu (2016). "¿El número de células bacterianas sigue una distribución teórica de Poisson? Comparación de números de células individuales obtenidos experimentalmente con generación de números aleatorios mediante simulación por computadora". Microbiología de los Alimentos . 60 : 49–53. doi :10.1016/j.fm.2016.05.019. PMID 27554145.
^ Clarke, RD (1946). «Una aplicación de la distribución de Poisson» (PDF) . Revista del Instituto de Actuarios . 72 (3): 481. doi : 10.1017/S0020268100035435 .
^ Resistente, Godfrey H .; Littlewood, John E. (1923). "Sobre algunos problemas de la "partitio numerorum" III: Sobre la expresión de un número como suma de primos". Acta Matemática . 44 : 1–70. doi : 10.1007/BF02403921 .
^ Gallagher, Patrick X. (1976). "Sobre la distribución de números primos en intervalos cortos". Matemática . 23 (1): 4–9. doi :10.1112/s0025579300016442.
^ Cameron, A. Colin; Trivedi, Pravin K. (1998). Análisis de regresión de datos de conteo. Cambridge, Reino Unido: Cambridge University Press. ISBN978-0-521-63567-7.
^ Katz, B.; Miledi, R. (agosto de 1972). "La naturaleza estadística del potencial de acetilcolina y sus componentes moleculares". La Revista de Fisiología . 224 (3): 665–699. doi : 10.1113/jphysiol.1972.sp009918. ISSN 0022-3751. PMC 1331515 . PMID 5071933.
^ ab Nelson, Philip Charles; Bromberg, Sarina; Hermundstad, Ann; Prentice, Jason (2015). Modelos físicos de sistemas vivos. Nueva York, NY: WH Freeman & Company, un sello educativo de Macmillan. ISBN978-1-4641-4029-7. OCLC 891121698.
^ Foster, Patricia L. (1 de enero de 2006), "Métodos para determinar tasas de mutación espontánea", Métodos en enzimología , reparación de ADN, parte B, 409 , Academic Press: 195–213, doi :10.1016/S0076-6879(05) 09012-9, ISBN978-0-12-182814-1, PMC 2041832 , PMID 16793403
^ "Wolfram Language: página de referencia de PoissonDistribution". wolfram.com . Consultado el 8 de abril de 2016 .
^ "Wolfram Language: página de referencia de MultivariatePoissonDistribution". wolfram.com . Consultado el 8 de abril de 2016 .
^ Devroye, Luc (1986). "Distribuciones univariadas discretas" (PDF) . Generación de variables aleatorias no uniformes. Nueva York, Nueva York: Springer-Verlag. págs. 485–553. doi :10.1007/978-1-4613-8643-8_10. ISBN978-1-4613-8645-2.
Fuentes
Ahrens, Joachim H.; Dieter, Ulrich (1974). "Métodos informáticos para muestreo de distribuciones Gamma, Beta, Poisson y Binomial". Computación . 12 (3): 223–246. doi :10.1007/BF02293108. S2CID 37484126.
Ahrens, Joachim H.; Dieter, Ulrich (1982). "Generación informática de desviaciones de Poisson". Transacciones ACM sobre software matemático . 8 (2): 163–179. doi : 10.1145/355993.355997 . S2CID 12410131.
Evans, Ronald J.; Boersma, J.; Blachman, Nuevo México; Jagers, AA (1988). "La entropía de una distribución de Poisson: problema 87-6". Revisión SIAM . 30 (2): 314–317. doi :10.1137/1030059.