stringtranslate.com

Distribución gamma

En teoría de probabilidad y estadística , la distribución gamma es una familia versátil de dos parámetros de distribuciones de probabilidad continuas . La distribución exponencial , la distribución de Erlang y la distribución de chi-cuadrado son casos especiales de la distribución gamma. Existen dos parametrizaciones equivalentes de uso común:

  1. Con un parámetro de forma k y un parámetro de escala θ
  2. Con un parámetro de forma y un parámetro de escala inverso , llamado parámetro de velocidad .

En cada una de estas formas, ambos parámetros son números reales positivos.

La distribución tiene aplicaciones importantes en varios campos, incluida la econometría , la estadística bayesiana y las pruebas de vida. En econometría, la parametrización (k, θ) es común para modelar tiempos de espera, como el tiempo hasta la muerte, donde a menudo toma la forma de una distribución de Erlang para valores enteros k. La estadística bayesiana prefiere la parametrización (α, β), utilizando la distribución gamma como un conjugado previo para varios parámetros de escala inversa, lo que facilita la manejabilidad analítica en los cálculos de distribución posterior. La densidad de probabilidad y las funciones de distribución acumulativa de la distribución gamma varían según la parametrización elegida, y ambas ofrecen información sobre el comportamiento de las variables aleatorias distribuidas en gamma. La distribución gamma es fundamental para modelar una variedad de fenómenos debido a su forma flexible, que puede capturar varias distribuciones estadísticas, incluidas las distribuciones exponencial y de chi-cuadrado en condiciones específicas. Sus propiedades matemáticas, como la media, la varianza, la asimetría y los momentos superiores, proporcionan un conjunto de herramientas para el análisis estadístico y la inferencia. Las aplicaciones prácticas de la distribución abarcan varias disciplinas, lo que subraya su importancia en la estadística teórica y aplicada.

La distribución gamma es la distribución de probabilidad de máxima entropía (tanto con respecto a una medida base uniforme como a una medida base) para una variable aleatoria X para la cual E [ X ] = = α / β es fija y mayor que cero, y E [ln X ] = ψ ( k ) + ln θ = ψ ( α ) − ln β es fija ( ψ es la función digamma ). [1]

Definiciones

La parametrización con k y θ parece ser más común en econometría y otros campos aplicados, donde la distribución gamma se utiliza con frecuencia para modelar los tiempos de espera. Por ejemplo, en las pruebas de vida , el tiempo de espera hasta la muerte es una variable aleatoria que se modela con frecuencia con una distribución gamma. Véase Hogg y Craig [2] para una motivación explícita.

La parametrización con α y β es más común en las estadísticas bayesianas , donde la distribución gamma se utiliza como una distribución previa conjugada para varios tipos de parámetros de escala inversa (tasa), como el λ de una distribución exponencial o una distribución de Poisson [3] – o, en ese sentido, el β de la distribución gamma en sí. La distribución gamma inversa estrechamente relacionada se utiliza como una distribución previa conjugada para parámetros de escala, como la varianza de una distribución normal .

Si k es un entero positivo , entonces la distribución representa una distribución de Erlang , es decir, la suma de k variables aleatorias independientes distribuidas exponencialmente , cada una de las cuales tiene una media de θ .

Caracterización mediante la formaalfay tasaβ

La distribución gamma se puede parametrizar en términos de un parámetro de forma α = k y un parámetro de escala inversa β = 1/ θ , llamado parámetro de tasa . Una variable aleatoria X que tiene una distribución gamma con forma α y tasa β se denota

La función de densidad de probabilidad correspondiente en la parametrización de la tasa de forma es

donde es la función gamma . Para todos los números enteros positivos, .

La función de distribución acumulativa es la función gamma regularizada:

¿Dónde está la función gamma incompleta inferior ?

Si α es un entero positivo (es decir, la distribución es una distribución de Erlang ), la función de distribución acumulativa tiene la siguiente expansión en serie: [4]

Caracterización mediante la formaay escalaθ

Una variable aleatoria X que tiene una distribución gamma con forma k y escala θ se denota por

Ilustración de la PDF gamma para valores de parámetros sobre k y x con θ establecido en 1, 2, 3, 4, 56. Se puede ver cada capa θ por sí misma aquí [2] así como por  k [3] y  x [4].

La función de densidad de probabilidad que utiliza la parametrización de forma-escala es

Aquí Γ( k ) es la función gamma evaluada en k .

La función de distribución acumulativa es la función gamma regularizada:

¿Dónde está la función gamma incompleta inferior ?

También se puede expresar de la siguiente manera, si k es un entero positivo (es decir, la distribución es una distribución de Erlang ): [4]

Ambas parametrizaciones son comunes porque cualquiera de ellas puede ser más conveniente dependiendo de la situación.

Propiedades

Media y varianza

La media de la distribución gamma viene dada por el producto de sus parámetros de forma y escala:

La varianza es:

La raíz cuadrada del parámetro de forma inversa da el coeficiente de variación :

Oblicuidad

La asimetría de la distribución gamma solo depende de su parámetro de forma, k , y es igual a

Momentos más elevados

El momento bruto n -ésimo viene dado por:

Aproximaciones y límites de mediana

Límites y aproximaciones asintóticas a la mediana de la distribución gamma. La región de color cian indica la gran brecha entre los límites inferior y superior publicados antes de 2021.

A diferencia de la moda y la media, que tienen fórmulas fácilmente calculables basadas en los parámetros, la mediana no tiene una ecuación de forma cerrada. La mediana para esta distribución es el valor ν tal que

Un tratamiento riguroso del problema de determinar una expansión asintótica y límites para la mediana de la distribución gamma fue manejado primero por Chen y Rubin, quienes demostraron que (para )

donde es la media y es la mediana de la distribución. [5] Para otros valores del parámetro de escala, la media se escala a , y los límites y aproximaciones de la mediana se escalarían de manera similar por θ .

KP Choi encontró los primeros cinco términos de una aproximación asintótica de la mediana en serie de Laurent comparando la mediana con la función de Ramanujan . [6] Berg y Pedersen encontraron más términos: [7]

Dos asíntotas medianas de la distribución gamma que se demostró en 2023 que son límites (superior sólido rojo e inferior discontinuo rojo), de la de , y una interpolación entre ellas que realiza una aproximación (rojo punteado) que es exacta en k = 1 y tiene un error relativo máximo de aproximadamente 0,6%. La región sombreada en cian es la brecha restante entre los límites superior e inferior (o límites conjeturados), incluidos estos nuevos límites y los límites de la figura anterior.
Gráfico logarítmico-logarítmico de los límites superior (sólido) e inferior (discontinuo) de la mediana de una distribución gamma y las brechas entre ellos. Las regiones verde, amarilla y cian representan la brecha antes del artículo de Lyon de 2021. El verde y el amarillo reducen esa brecha con los límites inferiores que Lyon demostró. Los límites de Lyon demostrados en 2023 reducen aún más el amarillo. Principalmente dentro del amarillo, se trazan los límites conjeturados interpolados de función racional de forma cerrada junto con el valor mediano calculado numéricamente (punteado). Existen límites interpolados más estrictos, pero no se trazan, ya que no se resolverían a esta escala.

Las sumas parciales de estas series son buenas aproximaciones para valores k suficientemente altos ; no se representan gráficamente en la figura, que se centra en la región de k bajo que está menos bien aproximada.

Berg y Pedersen también demostraron muchas propiedades de la mediana, mostrando que es una función convexa de k , [8] y que el comportamiento asintótico cerca de es (donde γ es la constante de Euler-Mascheroni ), y que para toda la mediana está limitada por . [7]

En 2021, Gaunt y Merkle proporcionaron un límite superior lineal más cercano, para solamente, [9] basándose en el resultado de Berg y Pedersen de que la pendiente de es en todas partes menor que 1:

para (con igualdad en )

que puede extenderse hasta un límite para todos tomando el máximo con la cuerda que se muestra en la figura, ya que se demostró que la mediana es convexa. [8]

Una aproximación a la mediana que es asintóticamente precisa a un valor k alto y razonable hasta un valor ligeramente inferior se desprende de la transformación de Wilson-Hilferty :

que se vuelve negativo para .

En 2021, Lyon propuso varias aproximaciones de la forma . Conjeturó valores de A y B para los cuales esta aproximación es un límite superior o inferior asintóticamente ajustado para todo . [10] En particular, propuso estos límites de forma cerrada, que demostró en 2023: [11]

es un límite inferior, asintóticamente ajustado como
es un límite superior, asintóticamente ajustado como

Lyon también mostró (informalmente en 2021, rigurosamente en 2023) otros dos límites inferiores que no son expresiones de forma cerrada , incluido este que involucra la función gamma , basado en la solución de la expresión integral sustituyendo 1 por :

(acercándose a la igualdad como )

y la línea tangente en el punto donde se encontró que la derivada era :

(con igualdad en )

donde Ei es la integral exponencial . [10] [11]

Además, demostró que las interpolaciones entre límites podrían proporcionar aproximaciones excelentes o límites más estrictos a la mediana, incluida una aproximación que es exacta en (donde ) y tiene un error relativo máximo menor al 0,6 %. Las aproximaciones y los límites interpolados son todos de la forma

donde es una función de interpolación que se ejecuta monótonamente desde 0 en k bajo hasta 1 en k alto , aproximándose a un interpolador ideal o exacto :

Para la función de interpolación más simple considerada, una función racional de primer orden

El límite inferior más estricto tiene

y el límite superior más estricto tiene

Los límites interpolados se representan gráficamente (en su mayoría dentro de la región amarilla) en el gráfico logarítmico que se muestra. Se pueden obtener límites aún más estrictos utilizando diferentes funciones de interpolación, pero no normalmente con parámetros de forma cerrada como estos. [10]

Suma

Si X i tiene una distribución Gamma( k i , θ ) para i = 1, 2, ..., N (es decir, todas las distribuciones tienen el mismo parámetro de escala θ ), entonces

siempre que todos los X i sean independientes .

Para los casos donde los X i son independientes pero tienen diferentes parámetros de escala, véase Mathai [12] o Moschopoulos. [13]

La distribución gamma exhibe divisibilidad infinita .

Escalada

Si

entonces, para cualquier c > 0 ,

por funciones generadoras de momentos,

o equivalentemente, si

(parametrización de la velocidad de forma)

De hecho, sabemos que si X es una variable aleatoria exponencial con tasa λ , entonces cX es una variable aleatoria exponencial con tasa λ / c ; lo mismo es válido con las variables Gamma (y esto se puede comprobar usando la función generadora de momentos , ver, por ejemplo, estas notas, 10.4-(ii)): la multiplicación por una constante positiva c divide la tasa (o, equivalentemente, multiplica la escala).

Familia exponencial

La distribución gamma es una familia exponencial de dos parámetros con parámetros naturales k − 1 y −1/ θ (equivalentemente, α − 1 y β ), y estadísticas naturales X y ln X .

Si el parámetro de forma k se mantiene fijo, la familia de distribuciones de un parámetro resultante es una familia exponencial natural .

Esperanza y varianza logarítmica

Se puede demostrar que

o equivalentemente,

donde ψ es la función digamma . Asimismo,

¿Dónde está la función trigamma ?

Esto se puede derivar utilizando la fórmula de la familia exponencial para la función generadora de momentos de la estadística suficiente , porque una de las estadísticas suficientes de la distribución gamma es ln x .

Entropía de la información

La entropía de la información es

En la parametrización k , θ , la entropía de la información está dada por

Divergencia de Kullback-Leibler

Ilustración de la divergencia de Kullback–Leibler (KL) para dos PDF gamma. Aquí β = β 0 + 1 que se establecen en 1, 2, 3, 4, 56. La asimetría típica de la divergencia de KL es claramente visible.

La divergencia de Kullback-Leibler (divergencia KL) de Gamma( α p , β p ) (distribución "verdadera") a partir de Gamma( α q , β q ) (distribución "aproximada") se da por [14]

Escrita utilizando la parametrización k , θ , la divergencia KL de Gamma( k p , θ p ) de Gamma( k q , θ q ) se da por

Transformada de Laplace

La transformada de Laplace de la función de densidad de probabilidad gamma es

Distribuciones relacionadas

General

entonces

Gamma compuesta

Si se conoce el parámetro de forma de la distribución gamma, pero se desconoce el parámetro de escala inversa, entonces una distribución gamma para la escala inversa forma una distribución conjugada previa. La distribución compuesta , que resulta de integrar la escala inversa, tiene una solución de forma cerrada conocida como distribución gamma compuesta . [18]

Si, en cambio, se conoce el parámetro de forma pero se desconoce la media, y la distribución anterior de la media viene dada por otra distribución gamma, entonces el resultado es una distribución K.

Weibull y recuento estable

La distribución gamma se puede expresar como la distribución del producto de una distribución de Weibull y una forma variante de la distribución de recuento estable . Su parámetro de forma se puede considerar como el inverso del parámetro de estabilidad de Lévy en la distribución de recuento estable: donde es una distribución de recuento estable estándar de forma , y es una distribución de Weibull estándar de forma .

Inferencia estadística

Estimación de parámetros

Estimación de máxima verosimilitud

La función de verosimilitud para N observaciones iid ( x 1 , ..., x N ) es

a partir de la cual calculamos la función de log-verosimilitud

Al encontrar el máximo con respecto a θ tomando la derivada y fijándola igual a cero se obtiene el estimador de máxima verosimilitud del parámetro θ , que es igual a la media de la muestra dividida por el parámetro de forma k :

Sustituyendo esto en la función de log-verosimilitud se obtiene

Necesitamos al menos dos muestras: , porque para , la función crece sin límites cuando . Para , se puede verificar que es estrictamente cóncava , utilizando las propiedades de desigualdad de la función poligamma . Encontrar el máximo con respecto a k tomando la derivada y fijándola igual a cero da como resultado

donde ψ es la función digamma y es la media muestral de ln x . No existe una solución en forma cerrada para k . La función se comporta numéricamente muy bien, por lo que si se desea una solución numérica, se puede encontrar utilizando, por ejemplo, el método de Newton . Se puede encontrar un valor inicial de k utilizando el método de momentos o utilizando la aproximación

Si lo dejamos

entonces k es aproximadamente

que está dentro del 1,5% del valor correcto. [19] Una forma explícita para la actualización de Newton-Raphson de esta suposición inicial es: [20]

En la estimación de máxima verosimilitud , los valores esperados para x y concuerdan con los promedios empíricos:

Advertencia sobre parámetros de forma pequeños

Para los datos, , que se representan en un formato de punto flotante que se desborda a 0 para valores menores que , los logaritmos que se necesitan para la estimación de máxima verosimilitud causarán un error si hay algún desbordamiento. Si asumimos que los datos fueron generados por una distribución gamma con función de distribución acumulativa , entonces la probabilidad de que haya al menos un desbordamiento es:

Esta probabilidad se acercará a 1 para k pequeño y N grande . Por ejemplo, en , y , . Una solución alternativa es tener los datos en formato logarítmico.

Para probar una implementación de un estimador de máxima verosimilitud que toma datos logarítmicos como entrada, es útil poder generar logaritmos sin desbordamiento de variables gamma aleatorias, cuando . Siguiendo la implementación en , esto se puede hacer de la siguiente manera: [21] muestrear y de forma independiente. Entonces, la muestra logarítmica requerida es , de modo que .scipy.stats.loggamma

Estimadores de forma cerrada

Existen estimadores consistentes de forma cerrada de k y θ que se derivan de la probabilidad de la distribución gamma generalizada . [22]

La estimación para la forma k es

y la estimación para la escala θ es

Utilizando la media muestral de x , la media muestral de ln x y la media muestral del producto x ·ln x se simplifican las expresiones a:

Si se utiliza la parametrización de velocidad, la estimación de .

Estos estimadores no son estrictamente estimadores de máxima verosimilitud, sino que se denominan estimadores de momento logarítmico de tipo mixto. Sin embargo, tienen una eficiencia similar a la de los estimadores de máxima verosimilitud.

Aunque estos estimadores son consistentes, tienen un pequeño sesgo. Una variante del estimador con corrección de sesgo para la escala θ es

Una corrección de sesgo para el parámetro de forma k se da como [23]

Error cuadrático medio mínimo bayesiano

Con k conocido y θ desconocido , la función de densidad posterior para theta (usando la escala invariante previa estándar para θ ) es

Denotando

La integración con respecto a θ se puede realizar utilizando un cambio de variables, revelando que 1/ θ tiene una distribución gamma con parámetros α = Nk , β = y .

Los momentos se pueden calcular tomando la relación ( m por m = 0 )

lo que muestra que la estimación de la media ± desviación estándar de la distribución posterior para θ es

Inferencia bayesiana

Conjugado anterior

En la inferencia bayesiana , la distribución gamma es la conjugada previa de muchas distribuciones de probabilidad: Poisson , exponencial , normal (con media conocida), Pareto , gamma con forma conocida σ , gamma inversa con parámetro de forma conocido y Gompertz con parámetro de escala conocido.

La distribución gamma conjugada a priori es: [24]

donde Z es la constante de normalización sin solución de forma cerrada. La distribución posterior se puede hallar actualizando los parámetros de la siguiente manera:

donde n es el número de observaciones y x i es la i -ésima observación.

Ocurrencia y aplicaciones

Considere una secuencia de eventos, con el tiempo de espera para cada evento siendo una distribución exponencial con tasa β . Entonces el tiempo de espera para que ocurra el n -ésimo evento es la distribución gamma con forma entera . Esta construcción de la distribución gamma le permite modelar una amplia variedad de fenómenos donde varios subeventos, cada uno tomando tiempo con distribución exponencial, deben suceder en secuencia para que ocurra un evento principal. [25] Los ejemplos incluyen el tiempo de espera de eventos de división celular , [26] número de mutaciones compensatorias para una mutación dada, [27] tiempo de espera hasta que es necesaria una reparación para un sistema hidráulico, [28] y así sucesivamente.

En biofísica, el tiempo de permanencia entre los pasos de un motor molecular como la ATP sintasa es casi exponencial a una concentración constante de ATP, lo que revela que cada paso del motor requiere una única hidrólisis de ATP. Si hubiera n eventos de hidrólisis de ATP, entonces sería una distribución gamma con grado n. [29]

La distribución gamma se ha utilizado para modelar el tamaño de las reclamaciones de seguros [30] y las precipitaciones. [31] Esto significa que las reclamaciones de seguros agregadas y la cantidad de lluvia acumulada en un embalse se modelan mediante un proceso gamma , de forma muy similar a como la distribución exponencial genera un proceso de Poisson .

La distribución gamma también se utiliza para modelar errores en modelos de regresión de Poisson multinivel porque una mezcla de distribuciones de Poisson con tasas distribuidas gamma tiene una distribución de forma cerrada conocida, llamada binomial negativa .

En la comunicación inalámbrica, la distribución gamma se utiliza para modelar el desvanecimiento por trayectos múltiples de la potencia de la señal; [ cita requerida ] consulte también distribución de Rayleigh y distribución de Rician .

En oncología , la distribución por edad de la incidencia del cáncer a menudo sigue la distribución gamma, en la que los parámetros de forma y escala predicen, respectivamente, el número de eventos impulsores y el intervalo de tiempo entre ellos. [32] [33]

En neurociencia , la distribución gamma se utiliza a menudo para describir la distribución de los intervalos entre picos . [34] [35]

En la expresión genética bacteriana , el número de copias de una proteína expresada de forma constitutiva a menudo sigue la distribución gamma, donde los parámetros de escala y forma son, respectivamente, el número medio de ráfagas por ciclo celular y el número medio de moléculas de proteína producidas por un solo ARNm durante su vida útil. [36]

En genómica , la distribución gamma se aplicó en el paso de llamada de pico (es decir, en el reconocimiento de la señal) en el análisis de datos de ChIP-chip [37] y ChIP-seq [38] .

En la estadística bayesiana, la distribución gamma se utiliza ampliamente como distribución conjugada previa . Es la distribución conjugada previa para la precisión (es decir, la inversa de la varianza) de una distribución normal . También es la distribución conjugada previa para la distribución exponencial .

En filogenética , la distribución gamma es el enfoque más comúnmente utilizado para modelar la variación de la tasa entre sitios [39] cuando se utilizan métodos de máxima verosimilitud , bayesianos o de matriz de distancia para estimar árboles filogenéticos. Los análisis filogenéticos que utilizan la distribución gamma para modelar la variación de la tasa estiman un solo parámetro a partir de los datos porque limitan la consideración a distribuciones donde α = β . Esta parametrización significa que la media de esta distribución es 1 y la varianza es 1/ α . Los métodos de máxima verosimilitud y bayesianos suelen utilizar una aproximación discreta a la distribución gamma continua. [40] [41]

Generación de variables aleatorias

Dada la propiedad de escala anterior, es suficiente generar variables gamma con θ = 1 , ya que luego podemos convertir a cualquier valor de β con una simple división.

Supongamos que deseamos generar variables aleatorias a partir de Gamma( n + δ , 1) , donde n es un entero no negativo y 0 < δ < 1 . Utilizando el hecho de que una distribución Gamma(1, 1) es la misma que una distribución Exp(1) y observando el método de generación de variables exponenciales , concluimos que si U se distribuye uniformemente en (0, 1], entonces −ln U se distribuye Gamma(1, 1) (es decir, muestreo por transformada inversa ). Ahora, utilizando la propiedad de " adición α " de la distribución gamma, desarrollamos este resultado:

donde U k están todos distribuidos uniformemente en (0, 1] e independientes . Todo lo que queda ahora es generar una variable distribuida como Gamma( δ , 1) para 0 < δ < 1 y aplicar la propiedad de " α -adición" una vez más. Esta es la parte más difícil.

La generación aleatoria de variables gamma es analizada en detalle por Devroye, [42] : 401–428,  señalando que ninguna es uniformemente rápida para todos los parámetros de forma. Para valores pequeños del parámetro de forma, los algoritmos a menudo no son válidos. [42] : 406  Para valores arbitrarios del parámetro de forma, se puede aplicar el método de aceptación-rechazo modificado de Ahrens y Dieter [43] Algoritmo GD (forma k ≥ 1 ), o el método de transformación [44] cuando 0 < k < 1 . Véase también el Algoritmo GKM 3 de Cheng y Feast [45] o el método de compresión de Marsaglia. [46]

La siguiente es una versión del método de aceptación-rechazo de Ahrens-Dieter : [43]

  1. Generar U , V y W como variables iid uniformes (0, 1).
  2. Si entonces y . En caso contrario, y .
  3. Si es así, vaya al paso 1.
  4. ξ se distribuye como Γ( δ , 1) .

Un resumen de esto es

donde es la parte entera de k , ξ se genera a través del algoritmo anterior con δ = { k } (la parte fraccionaria de k ) y U k son todos independientes.

Si bien el enfoque anterior es técnicamente correcto, Devroye señala que es lineal en el valor de k y, en general, no es una buena opción. En cambio, recomienda utilizar métodos basados ​​en rechazos o en tablas, según el contexto. [42] : 401–428 

Por ejemplo, el método simple de rechazo de transformación de Marsaglia que se basa en una variable normal X y una variable uniforme U : [21]

  1. Establecer y .
  2. Colocar .
  3. Si y retorna , de lo contrario vuelve al paso 2.

Con genera un número aleatorio distribuido gamma en el tiempo que es aproximadamente constante con k . La tasa de aceptación depende de k , con una tasa de aceptación de 0,95, 0,98 y 0,99 para k = 1, 2 y 4. Para k < 1 , se puede usar para aumentar k para que sea utilizable con este método.

En Matlab, los números se pueden generar utilizando la función gamrnd(), que utiliza la representación k, θ.

Referencias

  1. ^ Park, Sung Y.; Bera, Anil K. (2009). "Modelo de heterocedasticidad condicional autorregresiva de máxima entropía" (PDF) . Journal of Econometrics . 150 (2): 219–230. CiteSeerX  10.1.1.511.9750 . doi :10.1016/j.jeconom.2008.12.014. Archivado desde el original (PDF) el 2016-03-07 . Consultado el 2011-06-02 .
  2. ^ Hogg, RV ; Craig, AT (1978). Introducción a la estadística matemática (4.ª ed.). Nueva York: Macmillan. pp. Observación 3.3.1. ISBN 0023557109.
  3. ^ Gopalan, Prem; Hofman, Jake M.; Blei, David M. (2013). "Recomendación escalable con factorización de Poisson". arXiv : 1311.1704 [cs.IR].
  4. ^ ab Papoulis, Pillai, Probabilidad, variables aleatorias y procesos estocásticos , cuarta edición
  5. ^ Jeesen Chen, Herman Rubin, Límites para la diferencia entre la mediana y la media de las distribuciones gamma y Poisson, Statistics & Probability Letters, Volumen 4, Número 6, octubre de 1986, páginas 281–283, ISSN  0167-7152, [1].
  6. ^ Choi, KP "Sobre las medianas de las distribuciones gamma y una ecuación de Ramanujan", Actas de la American Mathematical Society, vol. 121, n.º 1 (mayo de 1994), págs. 245-251.
  7. ^ ab Berg, Christian y Pedersen, Henrik L. (marzo de 2006). "La conjetura de Chen-Rubin en un entorno continuo" (PDF) . Métodos y aplicaciones del análisis . 13 (1): 63–88. doi : 10.4310/MAA.2006.v13.n1.a4 . S2CID  6704865 . Consultado el 1 de abril de 2020 .
  8. ^ ab Berg, Christian y Pedersen, Henrik L. "Convexidad de la mediana en la distribución gamma".
  9. ^ Gaunt, Robert E. y Milan Merkle (2021). "Sobre los límites para la moda y la mediana de las distribuciones hiperbólicas generalizadas y relacionadas". Revista de análisis matemático y aplicaciones . 493 (1): 124508. arXiv : 2002.01884 . doi :10.1016/j.jmaa.2020.124508. S2CID  221103640.{{cite journal}}: CS1 maint: multiple names: authors list (link)
  10. ^ abc Lyon, Richard F. (13 de mayo de 2021). "Sobre límites ajustados de forma cerrada y aproximaciones para la mediana de una distribución gamma". PLOS One . 16 (5): e0251626. arXiv : 2011.04060 . Bibcode :2021PLoSO..1651626L. doi : 10.1371/journal.pone.0251626 . PMC 8118309 . PMID  33984053. 
  11. ^ ab Lyon, Richard F. (13 de mayo de 2021). "Límites estrictos para la mediana de una distribución gamma". PLOS One . 18 (9): e0288601. doi : 10.1371/journal.pone.0288601 . PMC 10490949 . PMID  37682854. 
  12. ^ Mathai, AM (1982). "Capacidad de almacenamiento de una presa con entradas de tipo gamma". Anales del Instituto de Matemática Estadística . 34 (3): 591–597. doi :10.1007/BF02481056. ISSN  0020-3157. S2CID  122537756.
  13. ^ Moschopoulos, PG (1985). "La distribución de la suma de variables aleatorias gamma independientes". Anales del Instituto de Matemática Estadística . 37 (3): 541–544. doi :10.1007/BF02481123. S2CID  120066454.
  14. ^ Penny, WD "KL-Divergencias de densidades normales, gamma, Dirichlet y Wishart".
  15. ^ "ExpGammaDistribution—Documentación del lenguaje Wolfram".
  16. ^ "scipy.stats.loggamma — Manual de SciPy v1.8.0". docs.scipy.org .
  17. ^ Sun, Jingchao; Kong, Maiying; Pal, Subhadip (22 de junio de 2021). "La distribución seminormal modificada: propiedades y un esquema de muestreo eficiente". Comunicaciones en estadística: teoría y métodos . 52 (5): 1591–1613. doi :10.1080/03610926.2021.1934700. ISSN  0361-0926. S2CID  237919587.
  18. ^ Dubey, Satya D. (diciembre de 1970). "Distribuciones de compuestos gamma, beta y F". Metrika . 16 : 27–31. doi :10.1007/BF02613934. S2CID  123366328.
  19. ^ Minka, Thomas P. (2002). "Estimación de una distribución gamma" (PDF) .
  20. ^ Choi, SC; Wette, R. (1969). "Estimación de máxima verosimilitud de los parámetros de la distribución gamma y su sesgo". Technometrics . 11 (4): 683–690. doi :10.1080/00401706.1969.10490731.
  21. ^ ab Marsaglia, G.; Tsang, WW (2000). "Un método simple para generar variables gamma". ACM Transactions on Mathematical Software . 26 (3): 363–372. doi :10.1145/358407.358414. S2CID  2634158.
  22. ^ Ye, Zhi-Sheng; Chen, Nan (2017). "Estimadores de forma cerrada para la distribución gamma derivados de ecuaciones de verosimilitud". The American Statistician . 71 (2): 177–181. doi :10.1080/00031305.2016.1209129. S2CID  124682698.
  23. ^ Louzada, Francisco; Ramos, Pedro L.; Ramos, Eduardo (2019). "Una nota sobre el sesgo de los estimadores de forma cerrada para la distribución gamma derivada de ecuaciones de verosimilitud". The American Statistician . 73 (2): 195–199. doi :10.1080/00031305.2018.1513376. S2CID  126086375.
  24. ^ Fink, D. 1995 Un compendio de priores conjugados. Informe en curso: Extensión y mejora de los métodos para establecer objetivos de calidad de datos. (Contrato DOE 95‑831).
  25. ^ Jessica., Scheiner, Samuel M., 1956- Gurevitch (2001). "13. Análisis del tiempo de falla". Diseño y análisis de experimentos ecológicos. Oxford University Press. ISBN 0-19-513187-8.OCLC 43694448  .{{cite book}}: CS1 maint: multiple names: authors list (link) CS1 maint: numeric names: authors list (link)
  26. ^ Golubev, A. (marzo de 2016). "Aplicaciones e implicaciones de la distribución gamma modificada exponencialmente como modelo para las variabilidades temporales relacionadas con la proliferación celular y la expresión génica". Journal of Theoretical Biology . 393 : 203–217. Bibcode :2016JThBi.393..203G. doi :10.1016/j.jtbi.2015.12.027. ISSN  0022-5193. PMID  26780652.
  27. ^ Poon, Art; Davis, Bradley H; Chao, Lin (1 de julio de 2005). "El recolector de cupones y la mutación supresora". Genética . 170 (3): 1323–1332. doi :10.1534/genetics.104.037259. ISSN  1943-2631. PMC 1451182 . PMID  15879511. 
  28. ^ Vineyard, Michael; Amoako-Gyampah, Kwasi; Meredith, Jack R (julio de 1999). "Distribuciones de tasas de fallos para sistemas de fabricación flexibles: un estudio empírico". Revista Europea de Investigación Operativa . 116 (1): 139–155. doi :10.1016/s0377-2217(98)00096-4. ISSN  0377-2217.
  29. ^ Rief, Matthias; Rock, Ronald S.; Mehta, Amit D.; Mooseker, Mark S.; Cheney, Richard E.; Spudich, James A. (15 de agosto de 2000). "Cinética de escalonamiento de miosina-V: un modelo molecular para la procesividad". Actas de la Academia Nacional de Ciencias . 97 (17): 9482–9486. Bibcode :2000PNAS...97.9482R. doi : 10.1073/pnas.97.17.9482 . ISSN  0027-8424. PMC 16890 . PMID  10944217. 
  30. ^ p. 43, Philip J. Boland, Métodos estadísticos y probabilísticos en la ciencia actuarial, Chapman & Hall CRC 2007
  31. ^ Wilks, Daniel S. (1990). "Estimación de máxima verosimilitud para la distribución gamma utilizando datos que contienen ceros". Journal of Climate . 3 (12): 1495–1501. Bibcode :1990JCli....3.1495W. doi : 10.1175/1520-0442(1990)003<1495:MLEFTG>2.0.CO;2 . ISSN  0894-8755. JSTOR  26196366.
  32. ^ Belikov, Aleksey V. (22 de septiembre de 2017). "El número de eventos cancerígenos clave se puede predecir a partir de la incidencia del cáncer". Scientific Reports . 7 (1): 12170. Bibcode :2017NatSR...712170B. doi :10.1038/s41598-017-12448-7. PMC 5610194 . PMID  28939880. 
  33. ^ Belikov, Aleksey V.; Vyatkin, Alexey; Leonov, Sergey V. (6 de agosto de 2021). "La distribución de Erlang se aproxima a la distribución por edad de la incidencia de cánceres en la niñez y la adultez temprana". PeerJ . 9 : e11976. doi : 10.7717/peerj.11976 . ISSN  2167-8359. PMC 8351573 . PMID  34434669. 
  34. ^ JG Robson y JB Troy, "Naturaleza de la descarga sostenida de las células ganglionares de la retina Q, X e Y del gato", J. Opt. Soc. Am. A 4, 2301–2307 (1987)
  35. ^ MCM Wright, IM Winter, JJ Forster, S. Bleeck "La respuesta a las ráfagas de tonos de mejor frecuencia en el núcleo coclear ventral está regida por estadísticas de intervalos entre picos ordenados", Hearing Research 317 (2014)
  36. ^ N. Friedman, L. Cai y XS Xie (2006) "Vinculación de la dinámica estocástica con la distribución de la población: un marco analítico de la expresión genética", Phys. Rev. Lett. 97, 168302.
  37. ^ DJ Reiss, MT Facciotti y NS Baliga (2008) "Deconvolución basada en modelos de la unión del ADN en todo el genoma", Bioinformatics , 24, 396–403
  38. ^ MA Mendoza-Parra, M Nowicka, W Van Gool, H Gronemeyer (2013) "Caracterización de los patrones de unión de ChIP-seq mediante deconvolución de la forma de pico basada en modelos", BMC Genomics , 14:834
  39. ^ Yang, Ziheng (septiembre de 1996). "Variación de la tasa entre sitios y su impacto en los análisis filogenéticos". Tendencias en ecología y evolución . 11 (9): 367–372. Bibcode :1996TEcoE..11..367Y. doi :10.1016/0169-5347(96)10041-0. PMID  21237881.
  40. ^ Yang, Ziheng (septiembre de 1994). "Estimación filogenética de máxima verosimilitud a partir de secuencias de ADN con tasas variables en los sitios: métodos aproximados". Journal of Molecular Evolution . 39 (3): 306–314. Bibcode :1994JMolE..39..306Y. doi :10.1007/BF00160154. ISSN  0022-2844. PMID  7932792. S2CID  17911050.
  41. ^ Felsenstein, Joseph (1 de octubre de 2001). "Tener en cuenta la variación de las tasas evolutivas entre sitios para inferir filogenias". Journal of Molecular Evolution . 53 (4–5): 447–455. Bibcode :2001JMolE..53..447F. doi :10.1007/s002390010234. ISSN  0022-2844. PMID  11675604. S2CID  9791493.
  42. ^ abc Devroye, Luc (1986). Generación de variables aleatorias no uniformes. Nueva York: Springer-Verlag. ISBN 978-0-387-96305-1.Véase el Capítulo 9, Sección 3.
  43. ^ ab Ahrens, JH; Dieter, U (enero de 1982). "Generación de variantes gamma mediante una técnica de rechazo modificada". Comunicaciones de la ACM . 25 (1): 47–54. doi : 10.1145/358315.358390 . S2CID  15128188.. Véase el algoritmo GD, pág. 53.
  44. ^ Ahrens, JH; Dieter, U. (1974). "Métodos informáticos para el muestreo de distribuciones gamma, beta, de Poisson y binomiales". Computing . 12 (3): 223–246. CiteSeerX 10.1.1.93.3828 . doi :10.1007/BF02293108. S2CID  37484126. 
  45. ^ Cheng, RCH; Feast, GM (1979). "Algunos generadores de variables gamma simples". Revista de la Royal Statistical Society. Serie C (Estadística aplicada) . 28 (3): 290–295. doi :10.2307/2347200. JSTOR  2347200.
  46. ^ Marsaglia, G. El método de compresión para generar variables gamma. Comput, Math. Appl. 3 (1977), 321–325.

Enlaces externos