stringtranslate.com

Distribución normal generalizada

La distribución normal generalizada ( GND ) o distribución gaussiana generalizada ( GGD ) es una de dos familias de distribuciones de probabilidad continuas paramétricas en la línea real . Ambas familias añaden un parámetro de forma a la distribución normal . Para distinguirlas, a continuación se las denomina "simétricas" y "asimétricas"; sin embargo, esta no es una nomenclatura estándar.

Versión simétrica

La distribución normal generalizada simétrica , también conocida como distribución de potencia exponencial o distribución de error generalizada , es una familia paramétrica de distribuciones simétricas . Incluye todas las distribuciones normales y de Laplace , y como casos límite incluye todas las distribuciones uniformes continuas en intervalos acotados de la línea real.

Esta familia incluye la distribución normal cuando (con media y varianza ) e incluye la distribución de Laplace cuando . Como , la densidad converge puntualmente a una densidad uniforme en .

Esta familia permite colas que son más pesadas que lo normal (cuando ) o más livianas que lo normal (cuando ). Es una forma útil de parametrizar un continuo de densidades platicúrticas simétricas que abarcan desde la normal ( ) hasta la densidad uniforme ( ), y un continuo de densidades leptocúrticas simétricas que abarcan desde la Laplace ( ) hasta la densidad normal ( ). El parámetro de forma también controla el grado de pico además de las colas.

Estimación de parámetros

Se ha estudiado la estimación de parámetros mediante el método de máxima verosimilitud y el método de momentos [3] . Las estimaciones no tienen una forma cerrada y deben obtenerse numéricamente. También se han propuesto estimadores que no requieren cálculo numérico [4] .

La función de log-verosimilitud normal generalizada tiene infinitas derivadas continuas (es decir, pertenece a la clase C de funciones suaves ) solo si es un entero positivo par. De lo contrario, la función tiene derivadas continuas. Como resultado, los resultados estándar para la consistencia y normalidad asintótica de las estimaciones de máxima verosimilitud de solo se aplican cuando .

Estimador de máxima verosimilitud

Es posible ajustar la distribución normal generalizada adoptando un método de máxima verosimilitud aproximada . [5] [6] Con inicialmente establecido en el primer momento de la muestra , se estima utilizando un procedimiento iterativo de Newton-Raphson , a partir de una estimación inicial de ,

dónde

es el primer momento estadístico de los valores absolutos y es el segundo momento estadístico . La iteración es

dónde

y

y donde y son la función digamma y la función trigamma .

Dado un valor para , es posible estimarlo encontrando el mínimo de:

Finalmente se evalúa como

Para , la mediana es un estimador más apropiado de . Una vez que se estima, se puede estimar como se describió anteriormente. [7]

Aplicaciones

La distribución normal generalizada simétrica se ha utilizado en la modelización cuando la concentración de valores alrededor de la media y el comportamiento de la cola son de particular interés. [8] [9] Se pueden utilizar otras familias de distribuciones si el foco está en otras desviaciones de la normalidad. Si la simetría de la distribución es el interés principal, se puede utilizar la familia normal sesgada o la versión asimétrica de la familia normal generalizada que se analiza a continuación. Si el comportamiento de la cola es el interés principal, se puede utilizar la familia t de Student , que se aproxima a la distribución normal a medida que los grados de libertad crecen hasta el infinito. La distribución t, a diferencia de esta distribución normal generalizada, obtiene colas más pesadas que las normales sin adquirir una cúspide en el origen. Encuentra usos en la física del plasma bajo el nombre de distribución de Langdon resultante de la radiación de frenado inversa. [10]

Propiedades

Momentos

Sea distribución gaussiana generalizada de media cero con forma y parámetro de escala . Los momentos de existen y son finitos para cualquier k mayor que −1. Para cualquier entero no negativo k, los momentos centrales simples son [2]

Conexión a la distribución de recuento estable

Desde el punto de vista de la distribución de recuento estable , se puede considerar como el parámetro de estabilidad de Lévy. Esta distribución se puede descomponer en una integral de densidad de kernel donde el kernel es una distribución de Laplace o una distribución de Gauss :

donde es la distribución de conteo estable y es la distribución de volumen estable .

Conexión con funciones definidas positivas

La función de densidad de probabilidad de la distribución normal generalizada simétrica es una función definida positiva para . [11] [12]

Divisibilidad infinita

La distribución gaussiana generalizada simétrica es una distribución infinitamente divisible si y sólo si . [13]

Generalizaciones

La distribución normal generalizada multivariada, es decir, el producto de distribuciones de potencia exponencial con los mismos parámetros y , es la única densidad de probabilidad que se puede escribir en la forma y tiene marginales independientes. [14] Los resultados para el caso especial de la distribución normal multivariada se atribuyen originalmente a Maxwell . [15]

Versión asimétrica

La distribución normal generalizada asimétrica es una familia de distribuciones de probabilidad continuas en las que el parámetro de forma se puede utilizar para introducir asimetría o asimetría. [16] [17] Cuando el parámetro de forma es cero, resulta la distribución normal. Los valores positivos del parámetro de forma producen distribuciones sesgadas a la izquierda limitadas a la derecha, y los valores negativos del parámetro de forma producen distribuciones sesgadas a la derecha limitadas a la izquierda. Solo cuando el parámetro de forma es cero, la función de densidad para esta distribución es positiva en toda la línea real: en este caso, la distribución es una distribución normal ; de lo contrario, las distribuciones están desplazadas y posiblemente sean distribuciones log-normales invertidas .

Estimación de parámetros

Los parámetros se pueden estimar mediante la estimación de máxima verosimilitud o el método de momentos. Las estimaciones de parámetros no tienen una forma cerrada, por lo que se deben utilizar cálculos numéricos para calcularlas. Dado que el espacio muestral (el conjunto de números reales donde la densidad no es cero) depende del valor real del parámetro, algunos resultados estándar sobre el rendimiento de las estimaciones de parámetros no se aplicarán automáticamente al trabajar con esta familia.

Aplicaciones

La distribución normal generalizada asimétrica se puede utilizar para modelar valores que pueden estar distribuidos normalmente o que pueden estar sesgados hacia la derecha o hacia la izquierda en relación con la distribución normal. La distribución normal sesgada es otra distribución que resulta útil para modelar desviaciones de la normalidad debido a la sesgo. Otras distribuciones utilizadas para modelar datos sesgados incluyen las distribuciones gamma , lognormal y Weibull , pero estas no incluyen las distribuciones normales como casos especiales.

Divergencia de Kullback-Leibler entre dos PDF

La divergencia de Kullback-Leibler (KLD) es un método que se utiliza para calcular la divergencia o similitud entre dos funciones de densidad de probabilidad. [18]

Sean y dos distribuciones gaussianas generalizadas con parámetros y sujetas a la restricción . [19] Entonces esta divergencia está dada por:

Otras distribuciones relacionadas con la normal

Las dos familias normales generalizadas descritas aquí, al igual que la familia normal asimétrica , son familias paramétricas que extienden la distribución normal al agregar un parámetro de forma. Debido al papel central de la distribución normal en la probabilidad y la estadística, muchas distribuciones se pueden caracterizar en términos de su relación con la distribución normal. Por ejemplo, las distribuciones log-normal , normal plegada y normal inversa se definen como transformaciones de un valor distribuido normalmente, pero a diferencia de las familias normal generalizada y normal asimétrica, estas no incluyen las distribuciones normales como casos especiales.

En realidad, todas las distribuciones con varianza finita están en el límite muy relacionadas con la distribución normal. La distribución t de Student, la distribución Irwin-Hall y la distribución Bates también extienden la distribución normal e incluyen en el límite la distribución normal. Por lo tanto, no hay una razón de peso para preferir la distribución normal "generalizada" de tipo 1, por ejemplo, sobre una combinación de t de Student y una distribución Irwin-Hall extendida normalizada; esto incluiría, por ejemplo, la distribución triangular (que no puede ser modelada por la distribución gaussiana generalizada de tipo 1).

Se podría derivar una distribución simétrica que pueda modelar tanto el comportamiento de la cola (larga y corta) como el del centro (como plano, triangular o gaussiano) de forma completamente independiente, por ejemplo, utilizando  X  = IH/chi.

La distribución g y h de Tukey también permite una desviación de la normalidad, tanto por asimetría como por colas gruesas<ref>La distribución g y h de Tukey Yuan Yan, Marc G. Genton Significance, Volumen 16, Número 3, junio de 2019, Páginas 12-13, https://doi.org/10.1111/j.1740-9713.2019.01273.x, https://academic.oup.com/jrssig/article/16/3/12/7037766?login=false<ref>.

Véase también

Referencias

  1. ^ Griffin, Maryclare. "Trabajar con la distribución de potencia exponencial utilizando gnorm". Github, paquete gnorm . Consultado el 26 de junio de 2020 .
  2. ^ ab Nadarajah, Saralees (septiembre de 2005). "Una distribución normal generalizada". Journal of Applied Statistics . 32 (7): 685–694. Bibcode :2005JApSt..32..685N. doi :10.1080/02664760500079464. S2CID  121914682.
  3. ^ Varanasi, MK; Aazhang, B. (octubre de 1989). "Estimación de densidad gaussiana generalizada paramétrica". Revista de la Sociedad Acústica de América . 86 (4): 1404–1415. Código Bibliográfico :1989ASAJ...86.1404V. doi :10.1121/1.398700.
  4. ^ Domínguez-Molina, J. Armando; González-Farías, Graciela ; Rodríguez-Dagnino, Ramón M. "Un procedimiento práctico para estimar el parámetro de forma en la distribución gaussiana generalizada" (PDF) . Archivado desde el original (PDF) el 28 de septiembre de 2007 . Consultado el 3 de marzo de 2009 .
  5. ^ Varanasi, MK; Aazhang B. (1989). "Estimación de densidad gaussiana generalizada paramétrica". J. Acoust. Soc. Am. 86 (4): 1404–1415. Bibcode :1989ASAJ...86.1404V. doi :10.1121/1.398700.
  6. ^ Do, MN; Vetterli, M. (febrero de 2002). "Recuperación de textura basada en wavelets utilizando densidad gaussiana generalizada y distancia de Kullback-Leibler". IEEE Transactions on Image Processing . 11 (2): 146–158. Bibcode :2002ITIP...11..146D. doi :10.1109/83.982822. PMID  18244620.
  7. ^ Varanasi, Mahesh K.; Aazhang, Behnaam (1989-10-01). "Estimación de densidad gaussiana generalizada paramétrica". Revista de la Sociedad Acústica de América . 86 (4): 1404–1415. Bibcode :1989ASAJ...86.1404V. doi :10.1121/1.398700. ISSN  0001-4966.
  8. ^ Liang, Faming; Liu, Chuanhai; Wang, Naisyin (abril de 2007). "Un método bayesiano secuencial robusto para la identificación de genes expresados ​​diferencialmente". Statistica Sinica . 17 (2): 571–597. Archivado desde el original el 2007-10-09 . Consultado el 2009-03-03 .
  9. ^ Box, George EP ; Tiao, George C. (1992). Inferencia bayesiana en análisis estadístico . Nueva York: Wiley. ISBN 978-0-471-57428-6.
  10. ^ Milder, Avram L. (2021). Funciones de distribución de velocidad de electrones y dispersión de Thomson (tesis doctoral). Universidad de Rochester. hdl : 1802/36536 .
  11. ^ Dytso, Alex; Bustin, Ronit; Poor, H. Vincent; Shamai, Shlomo (2018). "Propiedades analíticas de distribuciones gaussianas generalizadas". Revista de distribuciones estadísticas y aplicaciones . 5 (1): 6. doi : 10.1186/s40488-018-0088-5 .
  12. ^ Bochner, Salomon (1937). "Leyes estables de probabilidad y funciones completamente monótonas". Duke Mathematical Journal . 3 (4): 726–728. doi :10.1215/s0012-7094-37-00360-0.
  13. ^ Dytso, Alex; Bustin, Ronit; Poor, H. Vincent; Shamai, Shlomo (2018). "Propiedades analíticas de distribuciones gaussianas generalizadas". Revista de distribuciones estadísticas y aplicaciones . 5 (1): 6. doi : 10.1186/s40488-018-0088-5 .
  14. ^ Sinz, Fabian; Gerwinn, Sebastian; Bethge, Matthias (mayo de 2009). "Caracterización de la distribución normal p-generalizada". Journal of Multivariate Analysis . 100 (5): 817–820. doi : 10.1016/j.jmva.2008.07.006 .
  15. ^ Kac, M. (1939). "Sobre una caracterización de la distribución normal". American Journal of Mathematics . 61 (3): 726–728. doi :10.2307/2371328. JSTOR  2371328.
  16. ^ Hosking, JRM, Wallis, JR (1997) Análisis de frecuencia regional: un enfoque basado en momentos L , Cambridge University Press. ISBN 0-521-43045-3 . Sección A.8. 
  17. ^ Documentación del paquete R de lmomco
  18. ^ Kullback, S.; Leibler, RA (1951). "Sobre información y suficiencia". Anales de estadística matemática . 22 (1): 79-86. doi : 10.1214/aoms/1177729694 .
  19. ^ Quintero-Rincón, A.; Pereyra, M.; D'Giano, C.; Batatia, H.; Risk, M. (2017). "Un método visual de detección de epilepsia mediante EEG basado en una representación estadística wavelet y la divergencia de Kullback-Leibler". Actas del IFMBE . 60 : 13-16. doi : 10.1007/978-981-10-4086-3_4 . hdl : 11336/77054 .