stringtranslate.com

Distribución normal generalizada

La distribución normal generalizada o distribución gaussiana generalizada ( GGD ) es una de dos familias de distribuciones de probabilidad continua paramétricas en la línea real . Ambas familias añaden un parámetro de forma a la distribución normal . Para distinguir las dos familias, a continuación se las denomina "simétricas" y "asimétricas"; sin embargo, ésta no es una nomenclatura estándar.

Versión simétrica

La distribución normal generalizada simétrica , también conocida como distribución de potencia exponencial o distribución de error generalizado , es una familia paramétrica de distribuciones simétricas . Incluye todas las distribuciones normales y de Laplace y, como casos límite, incluye todas las distribuciones uniformes continuas en intervalos acotados de la recta real.

Esta familia incluye la distribución normal cuando (con media y varianza ) e incluye la distribución de Laplace cuando . Como , la densidad converge puntualmente a una densidad uniforme en .

Esta familia permite colas que son más pesadas de lo normal (cuando ) o más ligeras de lo normal (cuando ). Es una forma útil de parametrizar un continuo de densidades platicúrticas simétricas que abarca desde la densidad normal ( ) hasta la densidad uniforme ( ), y un continuo de densidades leptocúrticas simétricas que abarca desde Laplace ( ) hasta la densidad normal ( ). El parámetro de forma también controla el pico además de las colas.

Estimación de parámetros

Se ha estudiado la estimación de parámetros mediante máxima verosimilitud y el método de momentos . [3] Las estimaciones no tienen forma cerrada y deben obtenerse numéricamente. También se han propuesto estimadores que no requieren cálculo numérico. [4]

La función de probabilidad logarítmica normal generalizada tiene infinitas derivadas continuas (es decir, pertenece a la clase C de funciones suaves ) sólo si es un número entero positivo y par. De lo contrario, la función tiene derivadas continuas. Como resultado, los resultados estándar de consistencia y normalidad asintótica de las estimaciones de máxima verosimilitud solo se aplican cuando .

Estimador de máxima verosimilitud

Es posible ajustar la distribución normal generalizada adoptando un método aproximado de máxima verosimilitud . [5] [6] Con el primer momento establecido inicialmente en la muestra , , se estima utilizando un procedimiento iterativo de Newton-Raphson , a partir de una estimación inicial de ,

dónde

es el primer momento estadístico de los valores absolutos y es el segundo momento estadístico . La iteración es

dónde

y

y donde y son la función digamma y la función trigamma .

Dado un valor de , es posible estimarlo encontrando el mínimo de:

Finalmente se evalúa como

Para , la mediana es un estimador más apropiado de . Una vez se estima y se puede estimar como se describe anteriormente. [7]

Aplicaciones

La distribución normal generalizada simétrica se ha utilizado en la modelización cuando la concentración de valores alrededor de la media y el comportamiento de la cola son de particular interés. [8] [9] Se pueden utilizar otras familias de distribuciones si la atención se centra en otras desviaciones de la normalidad. Si la simetría de la distribución es el interés principal, se puede utilizar la familia normal sesgada o la versión asimétrica de la familia normal generalizada que se analiza a continuación. Si el comportamiento de la cola es el interés principal, se puede utilizar la familia t de Student , que se aproxima a la distribución normal a medida que los grados de libertad crecen hasta el infinito. La distribución t, a diferencia de esta distribución normal generalizada, obtiene colas más pesadas que las normales sin adquirir una cúspide en el origen. Encuentra usos en la física del plasma con el nombre de Distribución Langdon resultante de la bremsstrahlung inversa. [10]


Propiedades

Momentos

Sea cero la distribución gaussiana generalizada media de forma y parámetro de escala . Los momentos de existen y son finitos para cualquier k mayor que −1. Para cualquier entero no negativo k, los momentos centrales simples son [2]


Conexión a la distribución de recuento estable

Desde el punto de vista de la distribución de recuento estable , puede considerarse como el parámetro de estabilidad de Lévy. Esta distribución se puede descomponer en una integral de densidad del núcleo donde el núcleo es una distribución de Laplace o una distribución gaussiana :

donde es la distribución de recuento estable y es la distribución de volumen estable .

Conexión con funciones definidas positivas

La función de densidad de probabilidad de la distribución normal generalizada simétrica es una función definida positiva para . [11] [12]

Divisibilidad infinita

La distribución gaussiana generalizada simétrica es una distribución infinitamente divisible si y sólo si . [13]

Generalizaciones

La distribución normal generalizada multivariada, es decir, el producto de distribuciones de potencia exponenciales con los mismos parámetros y , es la única densidad de probabilidad que se puede escribir en la forma y tiene marginales independientes. [14] Los resultados para el caso especial de la distribución normal multivariada se atribuyen originalmente a Maxwell . [15]

Versión asimétrica

La distribución normal generalizada asimétrica es una familia de distribuciones de probabilidad continuas en las que el parámetro de forma se puede utilizar para introducir asimetría o asimetría. [16] [17] Cuando el parámetro de forma es cero, se obtiene la distribución normal. Los valores positivos del parámetro de forma producen distribuciones sesgadas a la izquierda limitadas a la derecha, y los valores negativos del parámetro de forma producen distribuciones sesgadas a la derecha limitadas a la izquierda. Solo cuando el parámetro de forma es cero la función de densidad para esta distribución es positiva en toda la línea real: en este caso la distribución es una distribución normal ; de lo contrario, las distribuciones se desplazan y posiblemente se invierten como distribuciones log-normales .

Estimación de parámetros

Los parámetros se pueden estimar mediante estimación de máxima verosimilitud o el método de momentos. Las estimaciones de los parámetros no tienen una forma cerrada, por lo que se deben utilizar cálculos numéricos para calcular las estimaciones. Dado que el espacio muestral (el conjunto de números reales donde la densidad es distinta de cero) depende del valor real del parámetro, algunos resultados estándar sobre el desempeño de las estimaciones de parámetros no se aplicarán automáticamente cuando se trabaje con esta familia.

Aplicaciones

La distribución normal generalizada asimétrica se puede utilizar para modelar valores que pueden estar distribuidos normalmente o que pueden estar sesgados hacia la derecha o hacia la izquierda en relación con la distribución normal. La distribución normal asimétrica es otra distribución útil para modelar desviaciones de la normalidad debido a la asimetría. Otras distribuciones utilizadas para modelar datos asimétricos incluyen las distribuciones gamma , lognormal y Weibull , pero no incluyen las distribuciones normales como casos especiales.

Divergencia de Kullback-Leibler entre dos PDF

La divergencia de Kullback-Leibler (KLD) es un método que se utiliza para calcular la divergencia o similitud entre dos funciones de densidad de probabilidad. [18]

Sean y dos distribuciones gaussianas generalizadas con parámetros y sujetas a la restricción . [19] Entonces esta divergencia viene dada por:


Otras distribuciones relacionadas con la normal

Las dos familias normales generalizadas que se describen aquí, al igual que la familia normal sesgada , son familias paramétricas que extienden la distribución normal agregando un parámetro de forma. Debido al papel central de la distribución normal en probabilidad y estadística, muchas distribuciones pueden caracterizarse en términos de su relación con la distribución normal. Por ejemplo, las distribuciones log-normal , normal plegada y normal inversa se definen como transformaciones de un valor distribuido normalmente, pero a diferencia de las familias normal generalizada y normal sesgada, estas no incluyen las distribuciones normales como casos especiales.

En realidad, todas las distribuciones con varianza finita están en el límite y están muy relacionadas con la distribución normal. La distribución t de Student, la distribución de Irwin-Hall y la distribución de Bates también extienden la distribución normal e incluyen en el límite la distribución normal. Por lo tanto, no hay ninguna razón importante para preferir la distribución normal "generalizada" del tipo 1, por ejemplo, a una combinación de t de Student y una Irwin-Hall extendida normalizada; esto incluiría, por ejemplo, la distribución triangular (que no puede modelarse mediante la distribución gaussiana generalizada). tipo 1).

Se podría derivar una distribución simétrica que pueda modelar tanto el comportamiento de la cola (larga y corta) como el del centro (como plano, triangular o gaussiano) de forma completamente independiente, por ejemplo, utilizando  X  = IH/chi.

Ver también

Referencias

  1. ^ Grifo, Maryclare. "Trabajar con la distribución de energía exponencial utilizando gnorm". Github, paquete gnorm . Consultado el 26 de junio de 2020 .
  2. ^ ab Nadarajah, Saralees (septiembre de 2005). "Una distribución normal generalizada". Revista de Estadística Aplicada . 32 (7): 685–694. Código Bib : 2005JApSt..32..685N. doi :10.1080/02664760500079464. S2CID  121914682.
  3. ^ Varanasi, MK; Aazhang, B. (octubre de 1989). "Estimación paramétrica de densidad gaussiana generalizada". Revista de la Sociedad de Acústica de América . 86 (4): 1404-1415. Código bibliográfico : 1989ASAJ...86.1404V. doi : 10.1121/1.398700.
  4. ^ Domínguez-Molina, J. Armando; González-Farías, Graciela ; Rodríguez-Dagnino, Ramón M. "Un procedimiento práctico para estimar el parámetro de forma en la distribución gaussiana generalizada" (PDF) . Consultado el 3 de marzo de 2009 .
  5. ^ Varanasi, MK; Aazhang B. (1989). "Estimación paramétrica de densidad gaussiana generalizada". J. acústico. Soc. Soy. 86 (4): 1404-1415. Código bibliográfico : 1989ASAJ...86.1404V. doi : 10.1121/1.398700.
  6. ^ Hazlo, MN; Vetterli, M. (febrero de 2002). "Recuperación de texturas basada en wavelets utilizando densidad gaussiana generalizada y distancia de Kullback-Leibler". Transacciones IEEE sobre procesamiento de imágenes . 11 (2): 146-158. Código Bib : 2002ITIP...11..146D. doi : 10.1109/83.982822. PMID  18244620.
  7. ^ Varanasi, Mahesh K.; Aazhang, Behnaam (1 de octubre de 1989). "Estimación paramétrica de densidad gaussiana generalizada". La Revista de la Sociedad de Acústica de América . 86 (4): 1404-1415. Código bibliográfico : 1989ASAJ...86.1404V. doi : 10.1121/1.398700. ISSN  0001-4966.
  8. ^ Liang, fama; Liu, Chuanhai; Wang, Naisyin (abril de 2007). "Un método bayesiano secuencial robusto para la identificación de genes expresados ​​diferencialmente". Estadística Sínica . 17 (2): 571–597. Archivado desde el original el 9 de octubre de 2007 . Consultado el 3 de marzo de 2009 .
  9. ^ Caja, George EP ; Tiao, George C. (1992). Inferencia bayesiana en análisis estadístico . Nueva York: Wiley. ISBN 978-0-471-57428-6.
  10. ^ Más suave, Avram L. (2021). Funciones de distribución de velocidad de electrones y dispersión de Thomson (tesis doctoral). Universidad de Rochester. hdl : 1802/36536 .
  11. ^ Dytso, Alex; Bustín, Ronit; Pobre, H. Vicente; Shamai, Shlomo (2018). "Propiedades analíticas de distribuciones gaussianas generalizadas". Revista de distribuciones y aplicaciones estadísticas . 5 (1): 6.doi : 10.1186 /s40488-018-0088-5 .
  12. ^ Bochner, Salomón (1937). "Leyes estables de probabilidad y funciones completamente monótonas". Revista de Matemáticas de Duke . 3 (4): 726–728. doi :10.1215/s0012-7094-37-00360-0.
  13. ^ Dytso, Alex; Bustín, Ronit; Pobre, H. Vicente; Shamai, Shlomo (2018). "Propiedades analíticas de distribuciones gaussianas generalizadas". Revista de distribuciones y aplicaciones estadísticas . 5 (1): 6.doi : 10.1186 /s40488-018-0088-5 .
  14. ^ Sinz, Fabián; Gerwinn, Sebastián; Bethge, Matthias (mayo de 2009). "Caracterización de la distribución normal p-generalizada". Revista de análisis multivariado . 100 (5): 817–820. doi : 10.1016/j.jmva.2008.07.006 .
  15. ^ Kac, M. (1939). "Sobre una caracterización de la distribución normal". Revista Estadounidense de Matemáticas . 61 (3): 726–728. doi :10.2307/2371328. JSTOR  2371328.
  16. ^ Hosking, JRM, Wallis, JR (1997) Análisis de frecuencia regional: un enfoque basado en momentos L , Cambridge University Press. ISBN 0-521-43045-3 . Sección A.8 
  17. ^ Documentación para el paquete lmomco R
  18. ^ Kullback, S.; Leibler, RA (1951). "Sobre información y suficiencia". Los anales de la estadística matemática . 22 (1): 79-86. doi : 10.1214/aoms/1177729694 .
  19. ^ Quintero Rincón, A.; Pereyra, M.; D'Giano, C.; Batatia, H.; Riesgo, M. (2017). "Un método visual de detección de epilepsia EEG basado en una representación estadística de ondas y la divergencia de Kullback-Leibler". Actas IFMBE . 60 : 13-16. doi : 10.1007/978-981-10-4086-3_4 .