stringtranslate.com

Distribución gamma

En teoría de probabilidad y estadística , la distribución gamma es una familia versátil de distribuciones de probabilidad continuas de dos parámetros . La distribución exponencial , la distribución de Erlang y la distribución chi-cuadrado son casos especiales de la distribución gamma. Hay dos parametrizaciones equivalentes de uso común:

  1. Con un parámetro de forma k y un parámetro de escala θ
  2. Con un parámetro de forma y un parámetro de escala inversa , llamado parámetro de velocidad .

En cada una de estas formas, ambos parámetros son números reales positivos.

La distribución tiene aplicaciones importantes en varios campos, incluida la econometría , la estadística bayesiana y las pruebas de vida. En econometría, la parametrización (k, θ) es común para modelar tiempos de espera, como el tiempo hasta la muerte, donde a menudo toma la forma de una distribución de Erlang para valores enteros de k. Las estadísticas bayesianas prefieren la parametrización (α, β), utilizando la distribución gamma como conjugado previo para varios parámetros de escala inversa, lo que facilita la manejabilidad analítica en los cálculos de distribución posterior. Las funciones de densidad de probabilidad y distribución acumulativa de la distribución gamma varían según la parametrización elegida, y ambas ofrecen información sobre el comportamiento de las variables aleatorias distribuidas gamma. La distribución gamma es fundamental para modelar una variedad de fenómenos debido a su forma flexible, que puede capturar varias distribuciones estadísticas, incluidas las distribuciones exponencial y chi-cuadrado en condiciones específicas. Sus propiedades matemáticas, como la media, la varianza, la asimetría y los momentos superiores, proporcionan un conjunto de herramientas para el análisis y la inferencia estadísticos. Las aplicaciones prácticas de la distribución abarcan varias disciplinas, lo que subraya su importancia en la estadística teórica y aplicada.

La distribución gamma es la distribución de probabilidad de entropía máxima (tanto con respecto a una medida base uniforme como a una medida base) para una variable aleatoria X para la cual E [ X ] = = α / β es fija y mayor que cero, y E [ ln X ] = ψ ( k ) + ln θ = ψ ( α ) − ln β es fijo ( ψ es la función digamma ). [1]

Definiciones

La parametrización con k y θ parece ser más común en econometría y otros campos aplicados, donde la distribución gamma se usa frecuentemente para modelar tiempos de espera. Por ejemplo, en las pruebas de vida , el tiempo de espera hasta la muerte es una variable aleatoria que frecuentemente se modela con una distribución gamma. Véase Hogg y Craig [2] para una motivación explícita.

La parametrización con α y β es más común en la estadística bayesiana , donde la distribución gamma se utiliza como distribución previa conjugada para varios tipos de parámetros de escala inversa (tasa), como el λ de una distribución exponencial o una distribución de Poisson [3]. – o, de hecho, la β de la propia distribución gamma. La distribución gamma inversa estrechamente relacionada se utiliza como conjugado previo para parámetros de escala, como la varianza de una distribución normal .

Si k es un entero positivo , entonces la distribución representa una distribución de Erlang ; es decir, la suma de k variables aleatorias independientes distribuidas exponencialmente , cada una de las cuales tiene una media de θ .

Caracterización utilizando la forma α y la tasa β.

La distribución gamma se puede parametrizar en términos de un parámetro de forma α = k y un parámetro de escala inversa β = 1/ θ , llamado parámetro de velocidad . Una variable aleatoria X que tiene distribución gamma con forma α y tasa β se denota

La función de densidad de probabilidad correspondiente en la parametrización de la tasa de forma es

¿Dónde está la función gamma ? Para todos los números enteros positivos, .

La función de distribución acumulativa es la función gamma regularizada:

¿Dónde está la función gamma incompleta inferior ?

Si α es un entero positivo (es decir, la distribución es una distribución de Erlang ), la función de distribución acumulativa tiene la siguiente expansión en serie: [4]

Caracterización utilizando la forma k y la escala θ.

Una variable aleatoria X que tiene distribución gamma con forma k y escala θ se denota por

Ilustración del PDF gamma para valores de parámetros sobre k y x con θ establecido en 1, 2, 3, 4, 56 . Se puede ver cada capa θ por sí misma aquí [2], así como por  k [3] y  x . [4].

La función de densidad de probabilidad que utiliza la parametrización de escala de forma es

Aquí Γ( k ) es la función gamma evaluada en k .

La función de distribución acumulativa es la función gamma regularizada:

¿Dónde está la función gamma incompleta inferior ?

También se puede expresar de la siguiente manera, si k es un número entero positivo (es decir, la distribución es una distribución de Erlang ): [4]

Ambas parametrizaciones son comunes porque cualquiera de ellas puede resultar más conveniente según la situación.

Propiedades

Media y varianza

La media de la distribución gamma viene dada por el producto de sus parámetros de forma y escala:

La varianza es:

La raíz cuadrada del parámetro de forma inversa da el coeficiente de variación :

Oblicuidad

La asimetría de la distribución gamma sólo depende de su parámetro de forma, k , y es igual a

Momentos más altos

El n -ésimo momento bruto viene dado por:

Aproximaciones y límites de la mediana

Límites y aproximaciones asintóticas a la mediana de la distribución gamma. La región de color cian indica la gran brecha entre los límites superior e inferior publicados.

A diferencia de la moda y la media, que tienen fórmulas fácilmente calculables basadas en los parámetros, la mediana no tiene una ecuación de forma cerrada. La mediana de esta distribución es el valor ν tal que

Chen y Rubin abordaron por primera vez un tratamiento riguroso del problema de determinar una expansión asintótica y los límites para la mediana de la distribución gamma, quienes demostraron que (para )

donde es la media y es la mediana de la distribución. [5] Para otros valores del parámetro de escala, la media se escala a , y los límites y aproximaciones de la mediana se escalarían de manera similar mediante θ .

KP Choi encontró los primeros cinco términos en una aproximación asintótica de la mediana en serie de Laurent comparando la mediana con la función de Ramanujan . [6] Berg y Pedersen encontraron más términos: [7]

Dos asíntotas medianas de distribución gamma que en 2023 se demostró que eran límites (rojo sólido superior y rojo discontinuo inferior) de from , y una interpolación entre ellos que hace una aproximación (rojo punteado) que es exacta en k = 1 y tiene máximo error relativo de alrededor del 0,6%. La región sombreada en cian es el espacio restante entre los límites superior e inferior (o límites conjeturados), incluidos estos nuevos límites y los límites de la figura anterior.
Gráfico log-log de los límites superior (sólido) e inferior (discontinuo) de la mediana de una distribución gamma y los espacios entre ellos. Las regiones verde, amarilla y cian representan la brecha antes del documento de Lyon 2021. Los verdes y amarillos acortan esa brecha con los límites inferiores que demostró el Lyon. Los límites conjeturados del Lyon estrechan aún más la amarilla. Principalmente dentro del amarillo, los límites interpolados de funciones racionales de forma cerrada se trazan junto con el valor mediano (punteado) calculado numéricamente. Existen límites interpolados más estrictos, pero no se trazan, ya que no se resolverían a esta escala.

Las sumas parciales de estas series son buenas aproximaciones para k suficientemente alto ; no están representados en la figura, que se centra en la región de k baja que no se aproxima tan bien.

Berg y Pedersen también demostraron muchas propiedades de la mediana, mostrando que es una función convexa de k , [8] y que el comportamiento asintótico cerca es (donde γ es la constante de Euler-Mascheroni ), y que para todos la mediana está acotada por . [7]

Gaunt y Merkle proporcionaron en 2021 un límite superior lineal más cercano, solo para , basándose en el resultado de Berg y Pedersen de que la pendiente de es menor que 1 en todas partes:

para (con igualdad en )

que se puede extender hasta un límite para todos tomando el máximo con la cuerda que se muestra en la figura, ya que se demostró que la mediana es convexa. [8]

De la transformación de Wilson-Hilferty se desprende una aproximación a la mediana que es asintóticamente precisa a k alta y razonable hasta o un poco menos :

que sale negativo para .

En 2021, Lyon propuso varias aproximaciones de la forma . Conjeturó valores de A y B para los cuales esta aproximación es un límite superior o inferior asintóticamente ajustado para todos . [10] En particular, propuso estos límites de forma cerrada, que demostró en 2023: [11]

es un límite inferior, asintóticamente ajustado como
es un límite superior, asintóticamente ajustado como

Lyon también mostró (informalmente en 2021, rigurosamente en 2023) otros dos límites inferiores que no son expresiones de forma cerrada , incluida esta que involucra la función gamma , basada en resolver la expresión integral sustituyendo 1 por :

(acercándose a la igualdad como )

y la recta tangente en donde se encontró que era la derivada :

(con igualdad en )

donde Ei es la integral exponencial . [10] [11]

Además, demostró que las interpolaciones entre límites podrían proporcionar aproximaciones excelentes o límites más estrechos a la mediana, incluida una aproximación que sea exacta en (donde ) y tenga un error relativo máximo inferior al 0,6%. Las aproximaciones y límites interpolados son todos de la forma

donde es una función de interpolación que se ejecuta monótonamente desde 0 en k bajo a 1 en k alto , aproximando un interpolador ideal o exacto :

Para la función de interpolación más simple considerada, una función racional de primer orden

el límite inferior más ajustado tiene

y el límite superior más ajustado tiene

Los límites interpolados se trazan (principalmente dentro de la región amarilla) en el gráfico log-log que se muestra. Se encuentran disponibles límites aún más estrictos utilizando diferentes funciones de interpolación, pero generalmente no con parámetros de forma cerrada como estos. [10]

Suma

Si X i tiene una distribución Gamma( k i , θ ) para i = 1, 2, ..., N (es decir, todas las distribuciones tienen el mismo parámetro de escala θ ), entonces

siempre que todos los X i sean independientes .

Para los casos en los que los X i son independientes pero tienen diferentes parámetros de escala, consulte Mathai [12] o Moschopoulos. [13]

La distribución gamma exhibe divisibilidad infinita .

Escalada

Si

entonces, para cualquier c > 0 ,

por funciones generadoras de momento,

o equivalente, si

(parametrización de la tasa de forma)

De hecho, sabemos que si X es un rv exponencial con tasa λ , entonces cX es un rv exponencial con tasa λ / c ; Lo mismo es válido con las variables Gamma (y esto se puede comprobar usando la función generadora de momento , véanse, por ejemplo, estas notas, 10.4-(ii)): la multiplicación por una constante positiva c divide la tasa (o, de manera equivalente, multiplica la escala).

familia exponencial

La distribución gamma es una familia exponencial de dos parámetros con parámetros naturales k − 1 y −1/ θ (equivalentemente, α − 1 y β ) y estadísticas naturales X y ln X .

Si el parámetro de forma k se mantiene fijo, la familia de distribuciones de un parámetro resultante es una familia exponencial natural .

Expectativa y varianza logarítmica

Uno puede demostrar que

o equivalente,

donde ψ es la función digamma . Asimismo,

¿Dónde está la función trigamma ?

Esto se puede derivar utilizando la fórmula de la familia exponencial para la función generadora de momento del estadístico suficiente , porque uno de los estadísticos suficientes de la distribución gamma es ln x .

Entropía de la información

La entropía de la información es

En la parametrización k , θ , la entropía de la información viene dada por

Divergencia Kullback-Leibler

Ilustración de la divergencia Kullback-Leibler (KL) para dos PDF gamma. Aquí β = β 0 + 1 que se establecen en 1, 2, 3, 4, 56 . La asimetría típica de la divergencia KL es claramente visible.

La divergencia Kullback-Leibler (divergencia KL), de Gamma ( α p , β p ) (distribución "verdadera") de Gamma ( α q , β q ) (distribución "aproximada") viene dada por [14]

Escrita usando la parametrización k , θ , la divergencia KL de Gamma ( k p , θ p ) de Gamma ( k q , θ q ) viene dada por

transformada de Laplace

La transformada de Laplace del PDF gamma es

Distribuciones relacionadas

General

entonces

gamma compuesta

Si se conoce el parámetro de forma de la distribución gamma, pero se desconoce el parámetro de escala inversa, entonces una distribución gamma para la escala inversa forma un a priori conjugado. La distribución compuesta , que resulta de integrar la escala inversa, tiene una solución de forma cerrada conocida como distribución gamma compuesta . [18]

Si, en cambio, se conoce el parámetro de forma pero se desconoce la media, y la prioridad de la media viene dada por otra distribución gamma, entonces se obtiene la distribución K.

Weibull y conteo estable

La distribución gamma se puede expresar como la distribución del producto de una distribución de Weibull y una forma variante de la distribución de conteo estable . Su parámetro de forma puede considerarse como el inverso del parámetro de estabilidad de Lévy en la distribución de recuento estable:

Inferencia estadística

Estimación de parámetros

Estimación de máxima verosimilitud

La función de verosimilitud para N observaciones iid ( x 1 , ..., x N ) es

a partir del cual calculamos la función log-verosimilitud

Encontrar el máximo con respecto a θ tomando la derivada e igualándola a cero produce el estimador de máxima verosimilitud del parámetro θ , que es igual a la media muestral dividida por el parámetro de forma k :

Sustituyendo esto en la función de probabilidad logarítmica se obtiene

Necesitamos al menos dos muestras: , porque para , la función aumenta sin límites a medida que . Porque se puede verificar que es estrictamente cóncava , utilizando las propiedades de desigualdad de la función poligamma . Encontrar el máximo con respecto a k tomando la derivada e igualándola a cero produce

donde ψ es la función digamma y es la media muestral de ln x . No existe una solución cerrada para k . La función se comporta numéricamente muy bien, por lo que si se desea una solución numérica, se puede encontrar utilizando, por ejemplo, el método de Newton . Un valor inicial de k se puede encontrar usando el método de los momentos o usando la aproximación

si dejamos

entonces k es aproximadamente

que está dentro del 1,5% del valor correcto. [19] Una forma explícita para la actualización de Newton-Raphson de esta suposición inicial es: [20]

En la estimación de máxima verosimilitud , los valores esperados para x y concuerdan con los promedios empíricos:

Advertencia para el parámetro de forma pequeña

Para los datos, que se representan en un formato de coma flotante que se desborda a 0 para valores menores que , los logaritmos que se necesitan para la estimación de máxima verosimilitud provocarán fallas si hay algún desbordamiento. Si asumimos que los datos fueron generados por una distribución gamma con cdf , entonces la probabilidad de que haya al menos un desbordamiento insuficiente es:

Esta probabilidad se aproximará a 1 para k pequeño y N grande . Por ejemplo, en , y , . Una solución alternativa es tener los datos en formato logarítmico.

Para probar una implementación de un estimador de máxima verosimilitud que toma datos logarítmicos como entrada, es útil poder generar logaritmos sin desbordamiento de variables gamma aleatorias, cuando . Siguiendo la implementación en , esto se puede hacer de la siguiente manera: [21] muestra e independientemente. Entonces la muestra logarítmica requerida es , de modo que .scipy.stats.loggamma

Estimadores de forma cerrada

Existen estimadores consistentes de forma cerrada de k y θ que se derivan de la probabilidad de la distribución gamma generalizada . [22]

La estimación para la forma k es

y la estimación para la escala θ es

Usando la media muestral de x , la media muestral de ln x y la media muestral del producto x ·ln x simplifica las expresiones a:

Si se utiliza la parametrización de la tasa, la estimación de .

Estos estimadores no son estrictamente estimadores de máxima verosimilitud, sino que se les conoce como estimadores de momento logarítmico de tipo mixto. Sin embargo, tienen una eficiencia similar a la de los estimadores de máxima verosimilitud.

Aunque estos estimadores son consistentes, tienen un pequeño sesgo. Una variante del estimador para la escala θ con corrección de sesgo es

Una corrección de sesgo para el parámetro de forma k viene dada por [23]

Error cuadrático medio mínimo bayesiano

Con k conocido y θ desconocido , la función de densidad posterior para theta (usando el estándar invariante de escala anterior para θ ) es

Denotando

La integración con respecto a θ se puede llevar a cabo utilizando un cambio de variables, revelando que 1/ θ tiene distribución gamma con parámetros α = Nk , β = y .

Los momentos se pueden calcular tomando la relación ( m por m = 0 )

lo que muestra que la estimación de la media ± desviación estándar de la distribución posterior para θ es

Inferencia bayesiana

Conjugado previo

En la inferencia bayesiana , la distribución gamma es la conjugada anterior a muchas distribuciones de probabilidad: Poisson , exponencial , normal (con media conocida), Pareto , gamma con forma conocida σ , gamma inversa con parámetro de forma conocido y Gompertz con parámetro de escala conocido.

El prior conjugado de la distribución gamma es: [24]

donde Z es la constante de normalización sin solución de forma cerrada. La distribución posterior se puede encontrar actualizando los parámetros de la siguiente manera:

donde n es el número de observaciones y x i es la i -ésima observación.

Ocurrencia y aplicaciones

Considere una secuencia de eventos, donde el tiempo de espera para cada evento es una distribución exponencial con tasa β . Entonces, el tiempo de espera para que ocurra el enésimo evento es la distribución gamma con forma de número entero . Esta construcción de la distribución gamma le permite modelar una amplia variedad de fenómenos en los que deben ocurrir en secuencia varios subeventos, cada uno de los cuales toma un tiempo con una distribución exponencial, para que ocurra un evento importante. [25] Los ejemplos incluyen el tiempo de espera de los eventos de división celular , [26] el número de mutaciones compensatorias para una mutación determinada, [27] el tiempo de espera hasta que sea necesaria una reparación para un sistema hidráulico, [28] y así sucesivamente.

En biofísica, el tiempo de permanencia entre los pasos de un motor molecular como la ATP sintasa es casi exponencial a una concentración constante de ATP, lo que revela que cada paso del motor requiere una única hidrólisis de ATP. Si hubiera n eventos de hidrólisis de ATP, entonces sería una distribución gamma con grado n. [29]

La distribución gamma se ha utilizado para modelar el tamaño de las reclamaciones de seguros [30] y las precipitaciones. [31] Esto significa que las reclamaciones de seguros agregadas y la cantidad de lluvia acumulada en un embalse se modelan mediante un proceso gamma , de forma muy parecida a como la distribución exponencial genera un proceso de Poisson .

La distribución gamma también se utiliza para modelar errores en modelos de regresión de Poisson multinivel porque una mezcla de distribuciones de Poisson con tasas distribuidas gamma tiene una distribución de forma cerrada conocida, llamada binomial negativa .

En la comunicación inalámbrica, la distribución gamma se utiliza para modelar el desvanecimiento multitrayecto de la potencia de la señal; [ cita requerida ] ver también Distribución de Rayleigh y Distribución de Rician .

En oncología , la distribución por edad de la incidencia del cáncer a menudo sigue la distribución gamma, en la que los parámetros de forma y escala predicen, respectivamente, el número de eventos determinantes y el intervalo de tiempo entre ellos. [32] [33]

En neurociencia , la distribución gamma se utiliza a menudo para describir la distribución de intervalos entre picos . [34] [35]

En la expresión de genes bacterianos , el número de copias de una proteína expresada constitutivamente a menudo sigue la distribución gamma, donde los parámetros de escala y forma son, respectivamente, el número medio de ráfagas por ciclo celular y el número medio de moléculas de proteína producidas por un solo ARNm durante su vida útil. [36]

En genómica , la distribución gamma se aplicó en el paso de llamada máxima (es decir, en el reconocimiento de la señal) en el análisis de datos ChIP-chip [37] y ChIP-seq [38] .

En la estadística bayesiana, la distribución gamma se utiliza ampliamente como prior conjugada . Es el conjugado previo para la precisión (es decir, la inversa de la varianza) de una distribución normal . También es el conjugado previo de la distribución exponencial .

En filogenética , la distribución gamma es el enfoque más comúnmente utilizado para modelar la variación de la tasa entre sitios [39] cuando se utilizan métodos de máxima verosimilitud , bayesianos o de matriz de distancia para estimar árboles filogenéticos. Los análisis filogenéticos que utilizan la distribución gamma para modelar la variación de la tasa estiman un solo parámetro a partir de los datos porque limitan la consideración a distribuciones donde α = β . Esta parametrización significa que la media de esta distribución es 1 y la varianza es 1/ α . Los métodos de máxima verosimilitud y bayesianos suelen utilizar una aproximación discreta a la distribución gamma continua. [40] [41]

Generación de variables aleatorias

Dada la propiedad de escala anterior, basta con generar variables gamma con θ = 1 , ya que luego podemos convertir a cualquier valor de β con una simple división.

Supongamos que deseamos generar variables aleatorias a partir de Gamma ( n + δ , 1) , donde n es un número entero no negativo y 0 < δ < 1 . Utilizando el hecho de que una distribución Gamma(1, 1) es lo mismo que una distribución Exp(1) , y observando el método de generación de variables exponenciales , concluimos que si U está uniformemente distribuido en (0, 1], entonces −ln U se distribuye Gamma (1, 1) (es decir, muestreo por transformación inversa ). Ahora, utilizando la propiedad " adición α " de la distribución gamma, ampliamos este resultado:

donde U k están todos distribuidos uniformemente en (0, 1] e independientes . Todo lo que queda ahora es generar una variable distribuida como Gamma ( δ , 1) para 0 < δ < 1 y aplicar la propiedad " α -suma" una vez más Esta es la parte más difícil.

Devroye, [42] : 401–428  analiza en detalle la generación aleatoria de variables gamma y señala que ninguna es uniformemente rápida para todos los parámetros de forma. Para valores pequeños del parámetro de forma, los algoritmos a menudo no son válidos. [42] : 406  Para valores arbitrarios del parámetro de forma, se puede aplicar el método de aceptación-rechazo modificado de Ahrens y Dieter [43], algoritmo GD (forma k ≥ 1 ), o el método de transformación [44] cuando 0 < k < 1 . Véase también el algoritmo Cheng y Feast GKM 3 [45] o el método de compresión de Marsaglia. [46]

La siguiente es una versión del método de aceptación-rechazo de Ahrens-Dieter : [43]

  1. Genere U , V y W como iid uniforme (0, 1] varía.
  2. Si entonces y . De lo contrario, y .
  3. Si entonces vaya al paso 1.
  4. ξ se distribuye como Γ( δ , 1) .

Un resumen de esto es

donde es la parte entera de k , ξ se genera mediante el algoritmo anterior con δ = { k } (la parte fraccionaria de k ) y U k son todos independientes.

Si bien el enfoque anterior es técnicamente correcto, Devroye señala que es lineal en el valor de k y, en general, no es una buena opción. En su lugar, recomienda utilizar métodos basados ​​en rechazos o basados ​​en tablas, según el contexto. [42] : 401–428 

Por ejemplo, el método simple de transformación-rechazo de Marsaglia se basa en una variable normal X y una variable uniforme U : [21]

  1. Establecer y .
  2. Colocar .
  3. Si y regresa , de lo contrario regrese al paso 2.

With genera un número aleatorio distribuido gamma en el tiempo que es aproximadamente constante con k . La tasa de aceptación depende de k , con una tasa de aceptación de 0,95, 0,98 y 0,99 para k=1, 2 y 4. Para k < 1 , se puede utilizar para aumentar k para que sea utilizable con este método.

Referencias

  1. ^ Parque, Sung Y.; Bera, Anil K. (2009). "Modelo de heterocedasticidad condicional autorregresiva de máxima entropía" (PDF) . Revista de Econometría . 150 (2): 219–230. CiteSeerX  10.1.1.511.9750 . doi :10.1016/j.jeconom.2008.12.014. Archivado desde el original (PDF) el 7 de marzo de 2016 . Consultado el 2 de junio de 2011 .
  2. ^ Hogg, RV ; Craig, AT (1978). Introducción a la estadística matemática (4ª ed.). Nueva York: Macmillan. págs. Observación 3.3.1. ISBN 0023557109.
  3. ^ Gopalan, Prem; Hofman, Jake M.; Blei, David M. (2013). "Recomendación escalable con factorización de Poisson". arXiv : 1311.1704 [cs.IR].
  4. ^ ab Papoulis, Pillai, probabilidad, variables aleatorias y procesos estocásticos , cuarta edición
  5. ^ Jeesen Chen, Herman Rubin, Límites de la diferencia entre la mediana y la media de las distribuciones gamma y de Poisson, Statistics & Probability Letters, volumen 4, número 6, octubre de 1986, páginas 281–283, ISSN  0167-7152, [1].
  6. ^ Choi, KP "Sobre las medianas de las distribuciones gamma y una ecuación de Ramanujan", Actas de la Sociedad Matemática Estadounidense, vol. 121, núm. 1 (mayo de 1994), págs.
  7. ^ ab Berg, Christian & Pedersen, Henrik L. (marzo de 2006). "La conjetura de Chen-Rubin en un entorno continuo" (PDF) . Métodos y aplicaciones de análisis . 13 (1): 63–88. doi : 10.4310/MAA.2006.v13.n1.a4 . S2CID  6704865 . Consultado el 1 de abril de 2020 .
  8. ^ ab Berg, Christian y Pedersen, Henrik L. "Convexidad de la mediana en la distribución gamma".
  9. ^ Gaunt, Robert E. y Milan Merkle (2021). "Sobre los límites de la moda y la mediana de las distribuciones hiperbólicas generalizadas y relacionadas". Revista de Análisis y Aplicaciones Matemáticas . 493 (1): 124508. arXiv : 2002.01884 . doi : 10.1016/j.jmaa.2020.124508. S2CID  221103640.{{cite journal}}: CS1 maint: multiple names: authors list (link)
  10. ^ abc Lyon, Richard F. (13 de mayo de 2021). "Sobre límites estrechos de forma cerrada y aproximaciones para la mediana de una distribución gamma". Más uno . 16 (5): e0251626. arXiv : 2011.04060 . Código Bib : 2021PLoSO..1651626L. doi : 10.1371/journal.pone.0251626 . PMC 8118309 . PMID  33984053. 
  11. ^ ab Lyon, Richard F. (13 de mayo de 2021). "Límites estrictos para la mediana de una distribución gamma". Más uno . 18 (9): e0288601. doi : 10.1371/journal.pone.0288601 . PMC 10490949 . PMID  37682854. 
  12. ^ Mathai, AM (1982). "Capacidad de almacenamiento de una presa con insumos tipo gamma". Anales del Instituto de Matemática Estadística . 34 (3): 591–597. doi :10.1007/BF02481056. ISSN  0020-3157. S2CID  122537756.
  13. ^ Moschopoulos, PG (1985). "La distribución de la suma de variables aleatorias gamma independientes". Anales del Instituto de Matemática Estadística . 37 (3): 541–544. doi :10.1007/BF02481123. S2CID  120066454.
  14. ^ WD Penny, [www.fil.ion.ucl.ac.uk/~wpenny/publications/densities.ps KL-Divergencias de densidades normales, gamma, Dirichlet y Wishart] [ se necesita cita completa ]
  15. ^ "ExpGammaDistribution: documentación de Wolfram Language".
  16. ^ "scipy.stats.loggamma - Manual de SciPy v1.8.0". docs.scipy.org .
  17. ^ Sol, Jingchao; Kong, Maiying; Pal, Subhadip (22 de junio de 2021). "La distribución seminormal modificada: propiedades y un esquema de muestreo eficiente". Comunicaciones en Estadística - Teoría y Métodos . 52 (5): 1591-1613. doi :10.1080/03610926.2021.1934700. ISSN  0361-0926. S2CID  237919587.
  18. ^ Dubey, Satya D. (diciembre de 1970). "Distribuciones compuestas gamma, beta y F". Métrica . 16 : 27–31. doi :10.1007/BF02613934. S2CID  123366328.
  19. ^ Minka, Thomas P. (2002). "Estimación de una distribución gamma" (PDF) . {{cite journal}}: Citar diario requiere |journal=( ayuda )
  20. ^ Choi, Carolina del Sur; Wette, R. (1969). "Estimación de máxima verosimilitud de los parámetros de la distribución gamma y su sesgo". Tecnometría . 11 (4): 683–690. doi :10.1080/00401706.1969.10490731.
  21. ^ ab Marsaglia, G.; Tsang, WW (2000). "Un método sencillo para generar variables gamma". Transacciones ACM sobre software matemático . 26 (3): 363–372. doi :10.1145/358407.358414. S2CID  2634158.
  22. ^ Vosotros, Zhi-Sheng; Chen, Nan (2017). "Estimadores de forma cerrada para la distribución gamma derivada de ecuaciones de probabilidad". El estadístico estadounidense . 71 (2): 177–181. doi :10.1080/00031305.2016.1209129. S2CID  124682698.
  23. ^ Louzada, Francisco; Ramos, Pedro L.; Ramos, Eduardo (2019). "Una nota sobre el sesgo de los estimadores de forma cerrada para la distribución gamma derivada de ecuaciones de probabilidad". El estadístico estadounidense . 73 (2): 195-199. doi :10.1080/00031305.2018.1513376. S2CID  126086375.
  24. ^ Fink, D. 1995 Un compendio de priores conjugados. Informe en curso: Ampliación y mejora de los métodos para establecer objetivos de calidad de datos. (Contrato DOE 95‑831).
  25. ^ Jessica., Scheiner, Samuel M., 1956- Gurevitch (2001). "13. Análisis del tiempo de falla". Diseño y análisis de experimentos ecológicos. Prensa de la Universidad de Oxford. ISBN 0-19-513187-8. OCLC  43694448.{{cite book}}: CS1 maint: multiple names: authors list (link) CS1 maint: numeric names: authors list (link)
  26. ^ Golubev, A. (marzo de 2016). "Aplicaciones e implicaciones de la distribución gamma modificada exponencialmente como modelo para variabilidades temporales relacionadas con la proliferación celular y la expresión génica". Revista de Biología Teórica . 393 : 203–217. Código Bib : 2016JThBi.393..203G. doi :10.1016/j.jtbi.2015.12.027. ISSN  0022-5193. PMID  26780652.
  27. ^ Poon, Arte; Davis, Bradley H; Chao, Lin (1 de julio de 2005). "El coleccionista de cupones y la mutación supresora". Genética . 170 (3): 1323-1332. doi :10.1534/genética.104.037259. ISSN  1943-2631. PMC 1451182 . PMID  15879511. 
  28. ^ Viñedo, Michael; Amoako-Gyampah, Kwasi; Meredith, Jack R (julio de 1999). "Distribuciones de tasas de falla para sistemas de fabricación flexibles: un estudio empírico". Revista europea de investigación operativa . 116 (1): 139-155. doi :10.1016/s0377-2217(98)00096-4. ISSN  0377-2217.
  29. ^ Rief, Matías; Roca, Ronald S.; Mehta, Amit D.; Mooseker, Mark S.; Cheney, Richard E.; Spudich, James A. (15 de agosto de 2000). "Cinética escalonada de miosina-V: un modelo molecular de procesividad". Procedimientos de la Academia Nacional de Ciencias . 97 (17): 9482–9486. doi : 10.1073/pnas.97.17.9482 . ISSN  0027-8424. PMC 16890 . PMID  10944217. 
  30. ^ pág. 43, Philip J. Boland, Métodos estadísticos y probabilísticos en ciencias actuariales, Chapman & Hall CRC 2007
  31. ^ Wilks, Daniel S. (1990). "Estimación de máxima verosimilitud para la distribución gamma utilizando datos que contienen ceros". Revista de Clima . 3 (12): 1495-1501. Código Bib : 1990JCli....3.1495W. doi : 10.1175/1520-0442(1990)003<1495:MLEFTG>2.0.CO;2 . ISSN  0894-8755. JSTOR  26196366.
  32. ^ Belikov, Aleksey V. (22 de septiembre de 2017). "El número de eventos cancerígenos clave se puede predecir a partir de la incidencia del cáncer". Informes científicos . 7 (1): 12170. Código bibliográfico : 2017NatSR...712170B. doi :10.1038/s41598-017-12448-7. PMC 5610194 . PMID  28939880. 
  33. ^ Belikov, Aleksey V.; Viatkin, Alexey; Leonov, Sergey V. (6 de agosto de 2021). "La distribución de Erlang se aproxima a la distribución por edades de la incidencia de cánceres infantiles y en adultos jóvenes". PeerJ . 9 : e11976. doi : 10.7717/peerj.11976 . ISSN  2167-8359. PMC 8351573 . PMID  34434669. 
  34. ^ JG Robson y JB Troy, "Naturaleza de la descarga mantenida de las células ganglionares de la retina Q, X e Y del gato", J. Opt. Soc. Soy. A 4, 2301-2307 (1987)
  35. ^ MCM Wright, IM Winter, JJ Forster, S. Bleeck "La respuesta a los estallidos de tono de mejor frecuencia en el núcleo coclear ventral se rige por estadísticas ordenadas de intervalos entre picos", Hearing Research 317 (2014)
  36. ^ N. Friedman, L. Cai y XS Xie (2006) "Vincular la dinámica estocástica con la distribución de la población: un marco analítico de la expresión genética", Phys. Rev. Lett. 97, 168302.
  37. ^ DJ Reiss, MT Facciotti y NS Baliga (2008) "Deconvolución basada en modelos de la unión del ADN en todo el genoma", Bioinformática , 24, 396–403
  38. ^ MA Mendoza-Parra, M Nowicka, W Van Gool, H Gronemeyer (2013) "Caracterización de patrones de unión de ChIP-seq mediante deconvolución de forma de pico basada en modelos", BMC Genomics , 14:834
  39. ^ Yang, Ziheng (septiembre de 1996). "Variación de la tasa entre sitios y su impacto en los análisis filogenéticos". Tendencias en ecología y evolución . 11 (9): 367–372. doi :10.1016/0169-5347(96)10041-0. PMID  21237881.
  40. ^ Yang, Ziheng (septiembre de 1994). "Estimación filogenética de máxima probabilidad a partir de secuencias de ADN con tasas variables en sitios: métodos aproximados". Revista de evolución molecular . 39 (3): 306–314. Código Bib : 1994JMolE..39..306Y. doi :10.1007/BF00160154. ISSN  0022-2844. PMID  7932792. S2CID  17911050.
  41. ^ Felsenstein, José (1 de octubre de 2001). "Tener en cuenta la variación de las tasas evolutivas entre sitios al inferir filogenias". Revista de evolución molecular . 53 (4–5): 447–455. Código Bib : 2001JMolE..53..447F. doi :10.1007/s002390010234. ISSN  0022-2844. PMID  11675604. S2CID  9791493.
  42. ^ a b C Devroye, Luc (1986). Generación de variables aleatorias no uniformes. Nueva York: Springer-Verlag. ISBN 978-0-387-96305-1.Consulte el Capítulo 9, Sección 3.
  43. ^ ab Ahrens, JH; Dieter, U (enero de 1982). "La generación de gamma varía mediante una técnica de rechazo modificada". Comunicaciones de la ACM . 25 (1): 47–54. doi : 10.1145/358315.358390 . S2CID  15128188.. Ver Algoritmo GD, p. 53.
  44. ^ Ahrens, JH; Dieter, U. (1974). "Métodos informáticos para muestreo de distribuciones gamma, beta, Poisson y binomial". Informática . 12 (3): 223–246. CiteSeerX 10.1.1.93.3828 . doi :10.1007/BF02293108. S2CID  37484126. 
  45. ^ Cheng, RCH; Fiesta, GM (1979). "Algunos generadores de variación gamma simples". Revista de la Real Sociedad de Estadística. Serie C (Estadística Aplicada) . 28 (3): 290–295. doi :10.2307/2347200. JSTOR  2347200.
  46. ^ Marsaglia, G. El método de compresión para generar variaciones gamma. Computación, Matemáticas. Aplica. 3 (1977), 321–325.

enlaces externos