stringtranslate.com

Distribución gaussiana inversa

En teoría de probabilidad , la distribución gaussiana inversa (también conocida como distribución de Wald ) es una familia de dos parámetros de distribuciones de probabilidad continuas con apoyo en (0,∞).

Su función de densidad de probabilidad está dada por

para x > 0, donde es la media y es el parámetro de forma. [1]

La distribución gaussiana inversa tiene varias propiedades análogas a una distribución gaussiana. El nombre puede ser engañoso: es una "inversa" solo en el sentido de que, mientras que la gaussiana describe el nivel de un movimiento browniano en un tiempo fijo, la gaussiana inversa describe la distribución del tiempo que tarda un movimiento browniano con deriva positiva en alcanzar un nivel positivo fijo.

Su función generadora cumulante (logaritmo de la función característica) [ contradictoria ] es la inversa de la función generadora cumulante de una variable aleatoria gaussiana.

Para indicar que una variable aleatoria X tiene una distribución gaussiana inversa con media μ y parámetro de forma λ, escribimos .

Propiedades

Formulario de parámetro único

La función de densidad de probabilidad (pdf) de la distribución gaussiana inversa tiene una forma de parámetro único dada por

En esta forma, la media y la varianza de la distribución son iguales,

Además, la función de distribución acumulativa (cdf) de la distribución gaussiana inversa de un solo parámetro está relacionada con la distribución normal estándar por

donde , y es la función acumulativa de distribución normal estándar. Las variables y están relacionadas entre sí por la identidad

En la forma de parámetro único, el MGF se simplifica a

Una distribución gaussiana inversa en forma de doble parámetro se puede transformar en una forma de un solo parámetro mediante una escala apropiada donde

La forma estándar de la distribución gaussiana inversa es

Suma

Si X i tiene una distribución para i  = 1, 2, ...,  n y todos los X i son independientes , entonces

Tenga en cuenta que

es constante para todo i . Esta es una condición necesaria para la suma. De lo contrario, S no tendría distribución gaussiana inversa.

Escalada

Para cualquier t > 0 se cumple que

Familia exponencial

La distribución gaussiana inversa es una familia exponencial de dos parámetros con parámetros naturalesλ /(2 μ 2 ) y − λ /2, y estadísticas naturales X y 1/ X .

Para los fijos, también es una distribución familiar exponencial natural de un solo parámetro [2] donde la distribución base tiene densidad

De hecho, con ,

es una densidad sobre los reales. Evaluando la integral, obtenemos

Sustituyendo la expresión anterior es igual a .

Relación con el movimiento browniano

Ejemplo de paseos aleatorios detenidos con . La figura superior muestra el histograma de tiempos de espera, junto con la predicción según la distribución gaussiana inversa. La figura inferior muestra las trayectorias.

Sea el proceso estocástico X t dado por

donde W t es un movimiento browniano estándar . Es decir, X t es un movimiento browniano con deriva .

Entonces el primer tiempo de paso para un nivel fijo por X t se distribuye según una gaussiana inversa:

es decir

(cf. Schrödinger [3], ecuación 19, Smoluchowski [4] , ecuación 8, y Folks [5] , ecuación 1).

Cuando la deriva es cero

Un caso especial común de lo anterior surge cuando el movimiento browniano no tiene deriva. En ese caso, el parámetro μ tiende a infinito y el tiempo de primer paso para el nivel fijo α tiene una función de densidad de probabilidad.

(ver también Bachelier [6] : 74  [7] : 39  ). Esta es una distribución de Lévy con parámetros y .

Máxima verosimilitud

El modelo donde

con todos los w i conocidos, ( μλ ) desconocidos y todos los X i independientes tiene la siguiente función de verosimilitud

Resolviendo la ecuación de probabilidad se obtienen las siguientes estimaciones de máxima verosimilitud

y son independientes y

Muestreo a partir de una distribución gaussiana inversa

Se puede utilizar el siguiente algoritmo. [8]

Generar una variable aleatoria a partir de una distribución normal con media 0 y desviación estándar igual a 1

Elevar al cuadrado el valor

y usa la relación

Generar otra variable aleatoria, esta vez muestreada a partir de una distribución uniforme entre 0 y 1

Si entonces vuelve de lo contrario vuelve

Código de muestra en Java :

public double inverseGaussian ( double mu , double lambda ) { Random rand = new Random (); double v = rand.nextGaussian (); // Muestra de una distribución normal con una media de 0 y una desviación estándar de 1 double y = v * v ; double x = mu + ( mu * mu * y ) / ( 2 * lambda ) - ( mu / ( 2 * lambda ) ) * Math.sqrt ( 4 * mu * lambda * y + mu * mu * y * y ) ; double test = rand.nextDouble ( ); // Muestra de una distribución uniforme entre 0 y 1 if ( test <= ( mu ) / ( mu + x ) ) return x ; else return ( mu * mu ) / x ; }                                                                                
Distribución de Wald usando Python con ayuda de matplotlib y NumPy

Y para trazar la distribución de Wald en Python usando matplotlib y NumPy :

importar  matplotlib.pyplot  como  plt importar  numpy  como  nph  =  plt . hist ( np . random . wald ( 3 ,  2 ,  100000 ),  bins = 200 ,  densidad = Verdadero )plt . mostrar ()

Distribuciones relacionadas

La convolución de una distribución gaussiana inversa (una distribución de Wald) y una exponencial (una distribución ex-Wald) se utiliza como modelo para los tiempos de respuesta en psicología, [10] siendo la búsqueda visual un ejemplo. [11]

Historia

Esta distribución parece haber sido derivada por primera vez en 1900 por Louis Bachelier [6] [7] como el momento en que una acción alcanza un cierto precio por primera vez. En 1915 fue utilizada independientemente por Erwin Schrödinger [3] y Marian v. Smoluchowski [4] como el tiempo hasta el primer paso de un movimiento browniano. En el campo del modelado de la reproducción se conoce como la función de Hadwiger, en honor a Hugo Hadwiger, quien la describió en 1940. [12] Abraham Wald volvió a derivar esta distribución en 1944 [13] como la forma límite de una muestra en una prueba de razón de probabilidad secuencial. El nombre de gaussiana inversa fue propuesto por Maurice Tweedie en 1945. [14] Tweedie investigó esta distribución en 1956 [15] y 1957 [16] [17] y estableció algunas de sus propiedades estadísticas. La distribución fue revisada ampliamente por Folks y Chhikara en 1978. [5]

Distribución gaussiana inversa calificada

Suponiendo que los intervalos de tiempo entre ocurrencias de un fenómeno aleatorio siguen una distribución gaussiana inversa, la distribución de probabilidad para el número de ocurrencias de este evento dentro de una ventana de tiempo especificada se denomina distribución gaussiana inversa calificada . [18] Si bien se calculan el primer y el segundo momento de esta distribución, la derivación de la función generadora de momentos sigue siendo un problema abierto.

Computación numérica y software

A pesar de la simple fórmula para la función de densidad de probabilidad, los cálculos numéricos de probabilidad para la distribución gaussiana inversa requieren, no obstante, un cuidado especial para lograr una precisión total de la máquina en la aritmética de punto flotante para todos los valores de los parámetros. [19] Las funciones para la distribución gaussiana inversa se proporcionan para el lenguaje de programación R mediante varios paquetes, incluidos rmutil, [20] [21] SuppDists, [22] STAR, [23] invGauss, [24] LaplacesDemon, [25] y statmod. [26]

Véase también

Referencias

  1. ^ ab Chhikara, Raj S.; Folks, J. Leroy (1989), La distribución gaussiana inversa: teoría, metodología y aplicaciones , Nueva York, NY, EE. UU.: Marcel Dekker, Inc., ISBN 0-8247-7997-5
  2. ^ Seshadri, V. (1999), La distribución gaussiana inversa , Springer-Verlag, ISBN 978-0-387-98618-0
  3. ^ ab Schrödinger, Erwin (1915), "Zur Theorie der Fall- und Steigversuche an Teilchen mit Brownscher Bewegung" [Sobre la teoría de los experimentos de caída y ascenso de partículas con movimiento browniano], Physikalische Zeitschrift (en alemán), 16 (16 ): 289–295
  4. ^ ab Smoluchowski, Marian (1915), "Notiz über die Berechnung der Brownschen Molekularbewegung bei der Ehrenhaft-Millikanschen Versuchsanordnung" [Nota sobre el cálculo del movimiento molecular browniano en el entorno experimental de Ehrenhaft-Millikan], Physikalische Zeitschrift (en alemán) , 16 (17/18): 318–321
  5. ^ ab Folks, J. Leroy; Chhikara, Raj S. (1978), "La distribución gaussiana inversa y su aplicación estadística: una revisión", Journal of the Royal Statistical Society , Serie B (Metodológica), 40 (3): 263–275, doi :10.1111/j.2517-6161.1978.tb01039.x, JSTOR  2984691, S2CID  125337421
  6. ^ ab Bachelier, Louis (1900), "Théorie de la spéculation" [La teoría de la especulación] (PDF) , Ann. Ciencia. CE. Norma. Súper. (en francés), Serie 3, 17: 21–89, doi : 10.24033/asens.476
  7. ^ ab Bachelier, Louis (1900), "La teoría de la especulación", Ann. Sci. Éc. Norm. Supér. , Serie 3, 17: 21–89 (traducción al inglés de David R. May, 2011), doi : 10.24033/asens.476
  8. ^ Michael, John R.; Schucany, William R.; Haas, Roy W. (1976), "Generación de variables aleatorias mediante transformaciones con múltiples raíces", The American Statistician , 30 (2): 88–90, doi :10.1080/00031305.1976.10479147, JSTOR  2683801
  9. ^ Shuster, J. (1968). "Sobre la función de distribución gaussiana inversa". Revista de la Asociación Estadounidense de Estadística . 63 (4): 1514–1516. doi :10.1080/01621459.1968.10480942.
  10. ^ Schwarz, Wolfgang (2001), "La distribución ex-Wald como modelo descriptivo de los tiempos de respuesta", Behavior Research Methods, Instruments, and Computers , 33 (4): 457–469, doi : 10.3758/bf03195403 , PMID  11816448
  11. ^ Palmer, EM; Horowitz, TS; Torralba, A.; Wolfe, JM (2011). "¿Cuáles son las formas de las distribuciones de tiempo de respuesta en la búsqueda visual?". Journal of Experimental Psychology: Human Perception and Performance . 37 (1): 58–71. doi :10.1037/a0020747. PMC 3062635 . PMID  21090905. 
  12. ^ Hadwiger, H. (1940). "Eine analytische Reproduktionsfunktion für biologische Gesamtheiten". Skandinavisk Aktuarietidskrijt . 7 (3–4): 101–113. doi :10.1080/03461238.1940.10404802.
  13. ^ Wald, Abraham (1944), "Sobre sumas acumulativas de variables aleatorias", Anales de estadística matemática , 15 (3): 283–296, doi : 10.1214/aoms/1177731235 , JSTOR  2236250
  14. ^ Tweedie, MCK (1945). "Variables estadísticas inversas". Nature . 155 (3937): 453. Bibcode :1945Natur.155..453T. doi : 10.1038/155453a0 . S2CID  4113244.
  15. ^ Tweedie, MCK (1956). "Algunas propiedades estadísticas de distribuciones gaussianas inversas". Virginia Journal of Science . Nueva serie. 7 (3): 160–165.
  16. ^ Tweedie, MCK (1957). "Propiedades estadísticas de distribuciones gaussianas inversas I". Anales de estadística matemática . 28 (2): 362–377. doi : 10.1214/aoms/1177706964 . JSTOR  2237158.
  17. ^ Tweedie, MCK (1957). "Propiedades estadísticas de distribuciones gaussianas inversas II". Anales de estadística matemática . 28 (3): 696–705. doi : 10.1214/aoms/1177706881 . JSTOR  2237229.
  18. ^ Distribución de entrada que logra la capacidad por costo unitario de neuronas biológicas gaussianas inversas nominales M Nasiraee, HM Kordy, J Kazemitabar IEEE Transactions on Communications 70 (6), 3788-3803
  19. ^ Giner, Göknur; Smyth, Gordon (agosto de 2016). «statmod: cálculos de probabilidad para la distribución gaussiana inversa». The R Journal . 8 (1): 339–351. arXiv : 1603.06687 . doi : 10.32614/RJ-2016-024 .
  20. ^ Lindsey, James (9 de septiembre de 2013). "rmutil: Utilidades para modelos de regresión no lineal y mediciones repetidas".
  21. ^ Swihart, Bruce; Lindsey, James (4 de marzo de 2019). "rmutil: Utilidades para modelos de regresión no lineal y mediciones repetidas".
  22. ^ Wheeler, Robert (23 de septiembre de 2016). "SuppDists: Distribuciones suplementarias".
  23. ^ Pouzat, Christophe (19 de febrero de 2015). "STAR: Análisis de trenes de picos con R".
  24. ^ Gjessing, Hakon K. (29 de marzo de 2014). "Regresión de umbral que ajusta la distribución gaussiana inversa (deriva aleatoria) a los datos de supervivencia".
  25. ^ Hall, Byron; Hall, Martina; Statisticat, LLC; Brown, Eric; Hermanson, Richard; Charpentier, Emmanuel; Heck, Daniel; Laurent, Stephane; Gronau, Quentin F.; Singmann, Henrik (29 de marzo de 2014). "LaplacesDemon: entorno completo para la inferencia bayesiana".
  26. ^ Giner, Göknur; Smyth, Gordon (18 de junio de 2017). "statmod: Modelado estadístico".

Lectura adicional

Enlaces externos