stringtranslate.com

Distribución logística generalizada

El término distribución logística generalizada se utiliza como nombre para varias familias diferentes de distribuciones de probabilidad . Por ejemplo, Johnson et al. [1] enumera cuatro formas, que se enumeran a continuación.

El tipo I también ha sido denominado distribución logística sesgada . El tipo IV incluye los otros tipos y se obtiene al aplicar la transformada logit a variables aleatorias beta . Siguiendo la misma convención que para la distribución log-normal , el tipo IV puede denominarse distribución beta logística , con referencia a la función logística estándar , que es la inversa de la transformada logit.

Para otras familias de distribuciones que también han sido llamadas distribuciones logísticas generalizadas, consulte la distribución log-logística desplazada , que es una generalización de la distribución log-logística ; y la distribución metalog ("metalogística") , que es muy flexible en cuanto a forma y límites y puede ajustarse a datos con mínimos cuadrados lineales.

Definiciones

Las siguientes definiciones son para versiones estandarizadas de las familias, que se pueden expandir a la forma completa como una familia de escala de ubicación . Cada uno se define utilizando la función de distribución acumulativa ( F ) o la función de densidad de probabilidad ( ƒ ), y se define en (-∞,∞).

Tipo i

La función de densidad de probabilidad correspondiente es:

Este tipo también se ha denominado distribución "logística sesgada".

Tipo II

La función de densidad de probabilidad correspondiente es:

Tipo III

Aquí B es la función beta . La función generadora de momento para este tipo es

La función de distribución acumulativa correspondiente es:

Tipo IV

Donde B es la función beta y es la función logística estándar . La función generadora de momento para este tipo es

Este tipo también se denomina "beta generalizada exponencial del segundo tipo". [1]

La función de distribución acumulativa correspondiente es:

Relación entre tipos

El tipo IV es la forma más general de distribución. La distribución Tipo III se puede obtener a partir del Tipo IV fijando . La distribución Tipo II se puede obtener a partir del Tipo IV fijando (y cambiando el nombre a ). La distribución Tipo I se puede obtener a partir del Tipo IV fijando . La fijación proporciona la distribución logística estándar .

Propiedades de tipo IV (beta logística)

Las medias y varianzas se han estandarizado a 0,1 para comparar mejor las formas.
Funciones de densidad de probabilidad tipo IV (medias=0, varianzas=1)

La logística generalizada de Tipo IV , o distribución beta logística , con parámetros de soporte y forma , tiene (como se muestra arriba) la función de densidad de probabilidad (pdf):

¿Dónde está la función logística estándar ? Las funciones de densidad de probabilidad para tres conjuntos diferentes de parámetros de forma se muestran en el gráfico, donde las distribuciones se han escalado y desplazado para dar medias cero y varianzas unitarias, para facilitar la comparación de las formas.

En lo que sigue, la notación se utiliza para indicar la distribución de Tipo IV.

Relación con la Distribución Gamma

Esta distribución se puede obtener en términos de la distribución gamma de la siguiente manera. Dejar e independientemente , y dejar . Entonces . [2]

Simetría

Si entonces .

Media y varianza

Al utilizar las expectativas logarítmicas de la distribución gamma, la media y la varianza se pueden derivar como:

donde está la función digamma , mientras que es su primera derivada, también conocida como función trigamma , o primera función poligamma . Como es estrictamente creciente , el signo de la media es el mismo que el de . Dado que es estrictamente decreciente, los parámetros de forma también pueden interpretarse como parámetros de concentración. De hecho, como se muestra a continuación, las colas izquierda y derecha respectivamente se vuelven más delgadas a medida que aumentan o aumentan. Los dos términos de la varianza representan las contribuciones a la varianza de las partes izquierda y derecha de la distribución.

Acumulantes y asimetría

La función generadora acumulativa es , donde la función generadora de momento se proporciona arriba. Los cumulantes , , son las -ésimas derivadas de , evaluadas en :

donde y son las funciones digamma y poligamma. De acuerdo con la derivación anterior, el primer acumulante, es la media y el segundo, es la varianza.

El tercer cumulante, es el tercer momento central , que cuando se escala por la tercera potencia de la desviación estándar da la asimetría :

El signo (y por lo tanto la lateralidad ) de la asimetría es el mismo que el signo de .

Modo

La moda (pdf máxima) se puede derivar encontrando dónde la derivada log pdf es cero:

Esto se simplifica a , de modo que: [2]

Comportamiento de la cola

Las distribuciones de Tipo IV son las mismas que en los gráficos PDF. A excepción del Cauchy, las medias y las variaciones se han estandarizado.
Comparación de cola: tipo IV (medias = 0, variaciones = 1) frente a normal estándar , frente a Cauchy estándar

En cada una de las colas izquierda y derecha, uno de los sigmoideos en la pdf se satura en uno, de modo que la cola está formada por el otro sigmoide. Para negativos grandes , la cola izquierda de la función de densidad de probabilidad es proporcional a , mientras que la cola derecha (positiva grande ) es proporcional a . Esto significa que las colas están controladas independientemente por y . Aunque las colas de tipo IV son más pesadas que las de la distribución normal ( , para varianza ), las medias y varianzas de tipo IV siguen siendo finitas para todas . Esto contrasta con la distribución de Cauchy para la cual la media y la varianza no existen. En los gráficos log pdf que se muestran aquí, las colas de tipo IV son lineales, las colas de distribución normal son cuadráticas y las colas de Cauchy son logarítmicas.

Propiedades familiares exponenciales

forma una familia exponencial con parámetros naturales y estadísticas suficientes y . Los valores esperados de las estadísticas suficientes se pueden encontrar mediante la diferenciación del log-normalizador: [3]

Dado un conjunto de datos que se supone que se generó a partir de IID , la estimación del parámetro de máxima verosimilitud es:

donde las líneas superpuestas indican los promedios de las estadísticas suficientes. La estimación de máxima verosimilitud depende de los datos únicamente a través de estas estadísticas promedio. De hecho, en la estimación de máxima verosimilitud los valores esperados y los promedios coinciden:

que es también donde las derivadas parciales del máximo anterior desaparecen.

Relaciones con otras distribuciones

Las relaciones con otras distribuciones incluyen:

Parámetros de forma grandes

Distribución tipo IV versus distribución normal con media y varianza emparejadas. Para valores grandes de , las PDF son muy similares, excepto valores muy raros de .

Para valores grandes de los parámetros de forma, la distribución se vuelve más gaussiana , con:

Esto se demuestra en los gráficos pdf y log pdf aquí.

Generación de variables aleatorias

Dado que el muestreo aleatorio de las distribuciones gamma y beta está disponible en muchas plataformas de software, las relaciones anteriores con esas distribuciones se pueden utilizar para generar variaciones de la distribución de tipo IV.

Generalización con parámetros de ubicación y escala.

Se puede obtener una familia flexible de cuatro parámetros agregando parámetros de ubicación y escala . Una forma de hacer esto es si , entonces let , donde está el parámetro de escala y es el parámetro de ubicación. La familia de cuatro parámetros obtenida tiene así la flexibilidad adicional deseada, pero los nuevos parámetros pueden ser difíciles de interpretar debido a y . Además, la estimación de máxima verosimilitud con esta parametrización es difícil. Estos problemas se pueden abordar de la siguiente manera.

Recuerde que la media y la varianza de son:

Ahora expanda la familia con el parámetro de ubicación y el parámetro de escala , mediante la transformación:

de modo que y ahora son interpretables. Cabe señalar que permitir que sea positivo o negativo no generaliza esta familia, debido a la propiedad de simetría mencionada anteriormente. Adoptamos la notación para esta familia.

Si el pdf es , entonces el pdf es:

donde se entiende que se calcula como se detalló anteriormente, en función de . Los gráficos pdf y log-pdf anteriores, donde los títulos contienen (medias = 0, variaciones = 1), son para .

Estimación de parámetros de máxima verosimilitud

En esta sección, se analiza a su vez la estimación de máxima verosimilitud de los parámetros de distribución, dado un conjunto de datos, para las familias y .

Máxima probabilidad para el estándar Tipo IV

Como se señaló anteriormente, es una familia exponencial con parámetros naturales , cuyas estimaciones de máxima verosimilitud dependen únicamente de estadísticas suficientes promediadas:

Una vez acumuladas estas estadísticas, la estimación de máxima verosimilitud viene dada por:

Mediante el uso de parametrización y se puede utilizar un algoritmo de optimización numérica sin restricciones como BFGS . Las iteraciones de optimización son rápidas porque son independientes del tamaño del conjunto de datos.

Una alternativa es utilizar un algoritmo EM basado en la composición: if y . Debido a la autoconjugación de la distribución gamma , las expectativas posteriores y que se requieren para el paso E se pueden calcular en forma cerrada. La actualización del parámetro de paso M se puede resolver de manera análoga a la máxima verosimilitud para la distribución gamma .

Máxima verosimilitud para la familia de cuatro parámetros

El problema de máxima verosimilitud para tener pdf es:

Esta ya no es una familia exponencial, por lo que cada iteración de optimización tiene que atravesar todo el conjunto de datos. Además, el cálculo de las derivadas parciales (como lo requiere, por ejemplo, BFGS) es considerablemente más complejo que en el caso anterior de dos parámetros. Sin embargo, todas las funciones de los componentes están disponibles en paquetes de software con diferenciación automática . Nuevamente, los parámetros positivos se pueden parametrizar en términos de sus logaritmos para obtener un problema de optimización numérica sin restricciones.

Para este problema, la optimización numérica puede fallar a menos que la ubicación inicial y los parámetros de escala se elijan adecuadamente. Sin embargo , para ello se puede aprovechar la interpretabilidad de estos parámetros antes mencionada en la parametrización . Específicamente, los valores iniciales de y se pueden establecer en la media empírica y la varianza de los datos.

Ver también

Referencias

  1. ^ ab Johnson, NL, Kotz, S., Balakrishnan, N. (1995) Distribuciones univariadas continuas, volumen 2 , Wiley. ISBN  0-471-58494-0 (páginas 140 a 142)
  2. ^ ab Leigh J. Halliwell (2018). "La distribución Log-Gamma y el error no normal". S2CID  173176687. {{cite journal}}: Citar diario requiere |journal=( ayuda )
  3. ^ CMBishop, Reconocimiento de patrones y aprendizaje automático , Springer 2006.