stringtranslate.com

Distribución normal sesgada

En teoría de probabilidad y estadística , la distribución normal sesgada es una distribución de probabilidad continua que generaliza la distribución normal para permitir una asimetría distinta de cero .

Definición

Denotemos la función de densidad de probabilidad normal estándar.

con la función de distribución acumulativa dada por

donde "erf" es la función de error . Entonces, la función de densidad de probabilidad (pdf) de la distribución normal sesgada con parámetro viene dada por

Esta distribución fue introducida por primera vez por O'Hagan y Leonard (1976). [1] Ashour y Abdel-Hamid [2] y Mudholkar y Hutson han proporcionado formas alternativas a esta distribución, con la correspondiente función cuantil. [3]

Andel, Netuka y Zvara (1984) describieron un proceso estocástico que sustenta la distribución. [4] Tanto la distribución como sus fundamentos del proceso estocástico fueron consecuencias del argumento de simetría desarrollado en Chan y Tong (1986), [5] que se aplica a casos multivariados más allá de la normalidad, por ejemplo, distribución t multivariada sesgada y otros. La distribución es un caso particular de una clase general de distribuciones con funciones de densidad de probabilidad de la forma donde es cualquier PDF simétrica con respecto a cero y es cualquier CDF cuya PDF es simétrica con respecto a cero. [6]

Para agregar parámetros de ubicación y escala a esto, se realiza la transformación habitual . Se puede verificar que la distribución normal se recupera cuando , y que el valor absoluto de la asimetría aumenta a medida que aumenta el valor absoluto de. La distribución está asimétrica a la derecha si y a la izquierda si . La función de densidad de probabilidad con ubicación , escala y parámetro se convierte en

La asimetría ( ) de la distribución se limita a un poco menos que el intervalo ( ver Estimación ).

Como se ha mostrado, [7] la moda (máxima) de la distribución es única. En general, no existe una expresión analítica para , pero una aproximación (numérica) bastante precisa es:

Estimacion

Las estimaciones de máxima verosimilitud para , y se pueden calcular numéricamente, pero no hay disponible ninguna expresión cerrada para las estimaciones a menos que . Por el contrario, el método de los momentos tiene una expresión de forma cerrada ya que la ecuación de asimetría se puede invertir con

donde y el signo de es el mismo que el signo de . En consecuencia, , y donde y son la media y la desviación estándar. Siempre que la asimetría de la muestra no sea demasiado grande, estas fórmulas proporcionan estimaciones del método de momentos , y basadas en , y de una muestra .

La asimetría máxima (teórica) se obtiene estableciendo en la ecuación de asimetría, dando . Sin embargo, es posible que la asimetría de la muestra sea mayor y entonces no pueda determinarse a partir de estas ecuaciones. Cuando se utiliza el método de los momentos de forma automática, por ejemplo para dar valores iniciales para una iteración de máxima verosimilitud, se debe permitir (por ejemplo) .

Se ha expresado preocupación por el impacto de los métodos normales sesgados en la confiabilidad de las inferencias basadas en ellos. [8]

Distribuciones relacionadas

La distribución normal exponencialmente modificada es otra distribución de 3 parámetros que es una generalización de la distribución normal a casos asimétricos. La normal sesgada todavía tiene una cola similar a la normal en la dirección de la sesgo, con una cola más corta en la otra dirección; es decir, su densidad es asintóticamente proporcional a para algún positivo . Por lo tanto, en términos de los siete estados de aleatoriedad , muestra una "aleatoriedad leve adecuada". Por el contrario, la normal modificada exponencialmente tiene una cola exponencial en la dirección del sesgo; su densidad es asintóticamente proporcional a . En los mismos términos, muestra una "leve aleatoriedad límite".

Por lo tanto, la normal asimétrica es útil para modelar distribuciones asimétricas que, sin embargo, no tienen más valores atípicos que la normal, mientras que la normal modificada exponencialmente es útil para casos con una mayor incidencia de valores atípicos en (sólo) una dirección.

Ver también

Referencias

  1. ^ O'Hagan, A.; Leonard, Tom (1976). "Estimación de Bayes sujeta a incertidumbre sobre las restricciones de los parámetros". Biometrika . 63 (1): 201–203. doi :10.1093/biomet/63.1.201. ISSN  0006-3444.
  2. ^ Ashour, Samir K.; Abdel-hameed, Mahmood A. (octubre de 2010). "Distribución normal sesgada aproximada". Revista de investigación avanzada . 1 (4): 341–350. doi : 10.1016/j.jare.2010.06.004 . ISSN  2090-1232.
  3. ^ Mudholkar, Govind S.; Hutson, Alan D. (febrero de 2000). "La distribución épsilon-sesgada-normal para analizar datos casi normales". Revista de planificación e inferencia estadística . 83 (2): 291–309. doi :10.1016/s0378-3758(99)00096-8. ISSN  0378-3758.
  4. ^ Andel, J., Netuka, I. y Zvara, K. (1984) Sobre procesos autorregresivos de umbral. Kybernetika, 20, 89-106
  5. ^ Chan, KS; Tong, H. (marzo de 1986). "Una nota sobre ciertas ecuaciones integrales asociadas con el análisis de series de tiempo no lineales". Teoría de la probabilidad y campos relacionados . 73 (1): 153-158. doi : 10.1007/bf01845999 . ISSN  0178-8051. S2CID  121106515.
  6. ^ Azzalini, A. (1985). "Una clase de distribuciones que incluye las normales". Revista escandinava de estadística . 12 : 171-178.
  7. ^ Azzalini, Adelchi; Capitán, Antonella (2014). Las familias asimétricas y relacionadas . págs. 32-33. ISBN 978-1-107-02927-9.
  8. ^ Pewsey, Arturo. "Problemas de inferencia para la distribución normal sesgada de Azzalini". Revista de Estadística Aplicada 27.7 (2000): 859-870

enlaces externos