stringtranslate.com

Distribución gaussiana inversa

En teoría de la probabilidad , la distribución gaussiana inversa (también conocida como distribución de Wald ) es una familia de dos parámetros de distribuciones de probabilidad continuas con soporte en (0,∞).

Su función de densidad de probabilidad está dada por

para x > 0, donde es la media y es el parámetro de forma. [1]

La distribución gaussiana inversa tiene varias propiedades análogas a una distribución gaussiana. El nombre puede inducir a error: es una "inversa" sólo en el sentido de que, mientras que la gaussiana describe el nivel de un movimiento browniano en un tiempo fijo, la gaussiana inversa describe la distribución del tiempo que tarda un movimiento browniano con deriva positiva en alcanzar un nivel positivo fijo. nivel.

Su función generadora acumulativa (logaritmo de la función característica) [ contradictoria ] es la inversa de la función generadora acumulativa de una variable aleatoria gaussiana.

Para indicar que una variable aleatoria X tiene una distribución gaussiana inversa con media μ y parámetro de forma λ escribimos .

Propiedades

Formulario de parámetro único

La función de densidad de probabilidad (pdf) de la distribución gaussiana inversa tiene una forma de parámetro único dada por

De esta forma, la media y la varianza de la distribución son iguales,

Además, la función de distribución acumulativa (cdf) de la distribución gaussiana inversa de un solo parámetro está relacionada con la distribución normal estándar por

donde y es la CDF de la distribución normal estándar. Las variables y están relacionadas entre sí por la identidad.

En la forma de parámetro único, el MGF se simplifica a

Una distribución gaussiana inversa en forma de parámetro doble se puede transformar en una forma de parámetro único mediante el escalado apropiado donde

La forma estándar de distribución gaussiana inversa es

Suma

Si X i tiene una distribución para i  = 1, 2, ...,  n y todos los X i son independientes , entonces

Tenga en cuenta que

es constante para todo i . Esta es una condición necesaria para la suma. De lo contrario, S no tendría una distribución gaussiana inversa.

Escalada

Para cualquier t > 0 se cumple que

familia exponencial

La distribución gaussiana inversa es una familia exponencial de dos parámetros con parámetros naturalesλ /(2 μ 2 ) y − λ /2, y estadísticos naturales X y 1/ X .

Para fijo, también es una distribución familiar exponencial natural de un solo parámetro [2] donde la distribución base tiene densidad

De hecho, con ,

es una densidad sobre los reales. Evaluando la integral obtenemos

La sustitución hace que la expresión anterior sea igual a .

Relación con el movimiento browniano

Sea el proceso estocástico Xt dado por

donde Wt es un movimiento browniano estándar . Es decir, Xt es un movimiento browniano con deriva .

Entonces el primer tiempo de paso para un nivel fijo por X t se distribuye según una gaussiana inversa:

es decir

(cf. Schrödinger [3] ecuación 19, Smoluchowski [4] , ecuación 8, y Folks [5] , ecuación 1).

Cuando la deriva es cero

Un caso especial común de lo anterior surge cuando el movimiento browniano no tiene deriva. En ese caso, el parámetro μ tiende a infinito y el primer tiempo de paso para el nivel fijo α tiene una función de densidad de probabilidad.

(ver también Bachelier [6] : 74  [7] : 39  ). Esta es una distribución de Lévy con parámetros y .

Máxima verosimilitud

El modelo donde

con todo w i conocido, ( μλ ) desconocido y todo X i independiente tiene la siguiente función de probabilidad

Resolver la ecuación de verosimilitud produce las siguientes estimaciones de máxima verosimilitud

y son independientes y

Muestreo a partir de una distribución gaussiana inversa

Se puede utilizar el siguiente algoritmo. [8]

Genere una variable aleatoria a partir de una distribución normal con media 0 y desviación estándar igual a 1

Cuadrar el valor

y usar la relación

Genere otra variable aleatoria, esta vez muestreada a partir de una distribución uniforme entre 0 y 1

Si luego regresa, si no, regresa

Código de muestra en Java :

public double inverseGaussian ( doble mu , doble lambda ) { Random rand = new Random (); doble v = rand . siguienteGaussiano (); // Muestra de una distribución normal con media 0 y 1 desviación estándar double y = v * v ; doble x = mu + ( mu * mu * y ) / ( 2 * lambda ) - ( mu / ( 2 * lambda )) * Matemáticas . sqrt ( 4 * mu * lambda * y + mu * mu * y * y ); prueba doble = rand . siguienteDoble (); // Muestra de una distribución uniforme entre 0 y 1 if ( test <= ( mu ) / ( mu + x )) return x ; en caso contrario devolver ( mu * mu ) / x ; }                                                                                
Distribución Wald usando Python con ayuda de matplotlib y NumPy

Y para trazar la distribución de Wald en Python usando matplotlib y NumPy :

importar  matplotlib.pyplot  como  plt importar  numpy  como  nph  =  plt . hist ( np . aleatorio . wald ( 3 ,  2 ,  100000 ),  contenedores = 200 ,  densidad = Verdadero )pl . espectáculo ()

Distribuciones relacionadas

La convolución de una distribución gaussiana inversa (una distribución de Wald) y una exponencial (una distribución ex-Wald) se utiliza como modelo para los tiempos de respuesta en psicología, [10] con la búsqueda visual como ejemplo. [11]

Historia

Esta distribución parece haber sido deducida por primera vez en 1900 por Louis Bachelier [6] [7] como el momento en que una acción alcanza un determinado precio por primera vez. En 1915, Erwin Schrödinger [3] y Marian v. Smoluchowski [4] lo utilizaron de forma independiente como el momento de la primera aprobación de una moción browniana. En el campo del modelado de reproducción se la conoce como función de Hadwiger, en honor a Hugo Hadwiger , quien la describió en 1940. [12] Abraham Wald volvió a derivar esta distribución en 1944 [13] como la forma límite de una muestra en una razón de probabilidad secuencial prueba. El nombre gaussiano inverso fue propuesto por Maurice Tweedie en 1945. [14] Tweedie investigó esta distribución en 1956 [15] y 1957 [16] [17] y estableció algunas de sus propiedades estadísticas. La distribución fue revisada exhaustivamente por Folks y Chhikara en 1978. [5]

Computación numérica y software.

A pesar de la fórmula simple para la función de densidad de probabilidad, los cálculos de probabilidad numérica para la distribución gaussiana inversa requieren especial cuidado para lograr la precisión total de la máquina en aritmética de coma flotante para todos los valores de los parámetros. [18] Las funciones para la distribución gaussiana inversa se proporcionan para el lenguaje de programación R mediante varios paquetes, incluidos rmutil, [19] [20] SuppDists, [21] STAR, [22] invGauss, [23] LaplacesDemon, [24] y statmod. . [25]

Ver también

Referencias

  1. ^ ab Chhikara, Raj S.; Folks, J. Leroy (1989), La distribución gaussiana inversa: teoría, metodología y aplicaciones , Nueva York, NY, EE. UU.: Marcel Dekker, Inc, ISBN 0-8247-7997-5
  2. ^ Seshadri, V. (1999), La distribución gaussiana inversa , Springer-Verlag, ISBN 978-0-387-98618-0
  3. ^ ab Schrödinger, Erwin (1915), "Zur Theorie der Fall- und Steigversuche an Teilchen mit Brownscher Bewegung" [Sobre la teoría de los experimentos de caída y ascenso de partículas con movimiento browniano], Physikalische Zeitschrift (en alemán), 16 (16 ): 289–295
  4. ^ ab Smoluchowski, Marian (1915), "Notiz über die Berechnung der Brownschen Molekularbewegung bei der Ehrenhaft-Millikanschen Versuchsanordnung" [Nota sobre el cálculo del movimiento molecular browniano en el entorno experimental de Ehrenhaft-Millikan], Physikalische Zeitschrift (en alemán) , 16 (17/18): 318–321
  5. ^ ab Gente, J. Leroy; Chhikara, Raj S. (1978), "La distribución gaussiana inversa y su aplicación estadística: una revisión", Revista de la Royal Statistical Society , Serie B (metodológica), 40 (3): 263–275, doi :10.1111/j .2517-6161.1978.tb01039.x, JSTOR  2984691, S2CID  125337421
  6. ^ ab Bachelier, Louis (1900), "Théorie de la spéculation" [La teoría de la especulación] (PDF) , Ann. Ciencia. CE. Norma. Súper. (en francés), Serie 3, 17: 21–89, doi : 10.24033/asens.476
  7. ^ ab Bachelier, Louis (1900), "La teoría de la especulación", Ann. Ciencia. CE. Norma. Súper. , Serie 3, 17: 21–89 (traducción al inglés de David R. May, 2011), doi : 10.24033/asens.476
  8. ^ Michael, John R.; Schucany, William R.; Haas, Roy W. (1976), "Generación de variables aleatorias mediante transformaciones con raíces múltiples", The American Statistician , 30 (2): 88–90, doi :10.1080/00031305.1976.10479147, JSTOR  2683801
  9. ^ Shuster, J. (1968). "Sobre la función de distribución gaussiana inversa". Revista de la Asociación Estadounidense de Estadística . 63 (4): 1514-1516. doi :10.1080/01621459.1968.10480942.
  10. ^ Schwarz, Wolfgang (2001), "La distribución ex-Wald como modelo descriptivo de tiempos de respuesta", Métodos, instrumentos y computadoras de investigación del comportamiento , 33 (4): 457–469, doi : 10.3758/bf03195403 , PMID  11816448
  11. ^ Palmer, EM; Horowitz, TS; Torralba, A.; Wolfe, JM (2011). "¿Cuáles son las formas de las distribuciones del tiempo de respuesta en la búsqueda visual?". Revista de Psicología Experimental: Percepción y desempeño humanos . 37 (1): 58–71. doi :10.1037/a0020747. PMC 3062635 . PMID  21090905. 
  12. ^ Hadwiger, H. (1940). "Eine analytische Reproduktionsfunktion für biologische Gesamtheiten". Skandinavisk Aktuarietidskrijt . 7 (3–4): 101–113. doi :10.1080/03461238.1940.10404802.
  13. ^ Wald, Abraham (1944), "Sobre sumas acumulativas de variables aleatorias", Annals of Mathematical Statistics , 15 (3): 283–296, doi : 10.1214/aoms/1177731235 , JSTOR  2236250
  14. ^ Tweedie, MCK (1945). "Variaciones estadísticas inversas". Naturaleza . 155 (3937): 453. Bibcode :1945Natur.155..453T. doi : 10.1038/155453a0 . S2CID  4113244.
  15. ^ Tweedie, MCK (1956). "Algunas propiedades estadísticas de las distribuciones gaussianas inversas". Revista de ciencia de Virginia . Series nuevas. 7 (3): 160–165.
  16. ^ Tweedie, MCK (1957). "Propiedades estadísticas de las distribuciones gaussianas inversas I". Anales de estadística matemática . 28 (2): 362–377. doi : 10.1214/aoms/1177706964 . JSTOR  2237158.
  17. ^ Tweedie, MCK (1957). "Propiedades estadísticas de las distribuciones gaussianas inversas II". Anales de estadística matemática . 28 (3): 696–705. doi : 10.1214/aoms/1177706881 . JSTOR  2237229.
  18. ^ Giner, Göknur; Smyth, Gordon (agosto de 2016). "statmod: cálculos de probabilidad para la distribución gaussiana inversa". El Diario R. 8 (1): 339–351. arXiv : 1603.06687 . doi : 10.32614/RJ-2016-024 .
  19. ^ Lindsey, James (9 de septiembre de 2013). "rmutil: Utilidades para modelos de regresión no lineal y medidas repetidas".
  20. ^ Swihart, Bruce; Lindsey, James (4 de marzo de 2019). "rmutil: Utilidades para modelos de regresión no lineal y medidas repetidas".
  21. ^ Wheeler, Robert (23 de septiembre de 2016). "SuppDists: distribuciones complementarias".
  22. ^ Pouzat, Christophe (19 de febrero de 2015). "STAR: Análisis del tren de púas con R".
  23. ^ Gjessing, Hakon K. (29 de marzo de 2014). "Regresión de umbral que ajusta la distribución gaussiana inversa (deriva aleatoria) a los datos de supervivencia".
  24. ^ Salón, Byron; Salón, Martina; Estadística, LLC; Marrón, Eric; Hermanson, Richard; Charpentier, Emmanuel; Diablos, Daniel; Laurent, Stéphane; Gronau, Quentin F.; Singmann, Henrik (29 de marzo de 2014). "LaplacesDemon: entorno completo para la inferencia bayesiana".
  25. ^ Giner, Göknur; Smyth, Gordon (18 de junio de 2017). "statmod: modelado estadístico".

Otras lecturas

enlaces externos