Distribución de probabilidad
En teoría de probabilidad y estadística , la distribución normal sesgada es una distribución de probabilidad continua que generaliza la distribución normal para permitir una asimetría distinta de cero .
Definición
Sea la función de densidad de probabilidad normal estándar
con la función de distribución acumulativa dada por
donde "erf" es la función de error . Entonces la función de densidad de probabilidad (pdf) de la distribución antinormal con parámetro está dada por
Esta distribución fue introducida por primera vez por O'Hagan y Leonard (1976). [1] Ashour y Abdel-Hamid [2] y Mudholkar y Hutson [3] han propuesto formas alternativas de esta distribución, con la función cuantil correspondiente.
Andel, Netuka y Zvara (1984) describieron un proceso estocástico que sustenta la distribución. [4] Tanto la distribución como sus fundamentos de proceso estocástico fueron consecuencias del argumento de simetría desarrollado en Chan y Tong (1986), [5] que se aplica a casos multivariados más allá de la normalidad, por ejemplo, distribución t multivariada sesgada y otros. La distribución es un caso particular de una clase general de distribuciones con funciones de densidad de probabilidad de la forma donde es cualquier PDF simétrica respecto de cero y es cualquier CDF cuya PDF sea simétrica respecto de cero. [6]
Para añadir a esto los parámetros de escala y ubicación , se realiza la transformación habitual . Se puede verificar que la distribución normal se recupera cuando , y que el valor absoluto de la asimetría aumenta a medida que aumenta el valor absoluto de . La distribución está sesgada hacia la derecha si y está sesgada hacia la izquierda si . La función de densidad de probabilidad con ubicación , escala y parámetro se convierte en
La asimetría ( ) de la distribución está limitada a un valor ligeramente menor que el intervalo ( ver Estimación ).
Como se ha demostrado, [7] la moda (máxima) de la distribución es única. En general, no existe una expresión analítica para , pero una aproximación (numérica) bastante precisa es:
Estimación
Las estimaciones de máxima verosimilitud para , , y se pueden calcular numéricamente, pero no hay una expresión de forma cerrada para las estimaciones a menos que . Por el contrario, el método de momentos tiene una expresión de forma cerrada ya que la ecuación de asimetría se puede invertir con
donde y el signo de es el mismo que el signo de . En consecuencia, , , y donde y son la media y la desviación estándar. Siempre que la asimetría de la muestra no sea demasiado grande, estas fórmulas proporcionan estimaciones del método de momentos , , y basadas en , , y de una muestra .
La asimetría máxima (teórica) se obtiene estableciendo en la ecuación de asimetría, lo que da . Sin embargo, es posible que la asimetría de la muestra sea mayor y, en ese caso, no se pueda determinar a partir de estas ecuaciones. Cuando se utiliza el método de momentos de manera automática, por ejemplo para dar valores iniciales para la iteración de máxima verosimilitud, se debería dejar (por ejemplo) .
Se ha expresado preocupación acerca del impacto de los métodos normales sesgados en la confiabilidad de las inferencias basadas en ellos. [8]
Distribuciones relacionadas
La distribución normal modificada exponencialmente es otra distribución de 3 parámetros que es una generalización de la distribución normal a casos sesgados. La distribución normal sesgada todavía tiene una cola similar a la normal en la dirección de la sesgada, con una cola más corta en la otra dirección; es decir, su densidad es asintóticamente proporcional a para algún positivo . Por lo tanto, en términos de los siete estados de aleatoriedad , muestra "aleatoriedad leve adecuada". Por el contrario, la distribución normal modificada exponencialmente tiene una cola exponencial en la dirección de la sesgada; su densidad es asintóticamente proporcional a . En los mismos términos, muestra "aleatoriedad leve limítrofe".
Por lo tanto, la normal sesgada es útil para modelar distribuciones sesgadas que, sin embargo, no tienen más valores atípicos que la normal, mientras que la normal modificada exponencialmente es útil para casos con una mayor incidencia de valores atípicos en (solo) una dirección.
Véase también
Referencias
- ^ O'Hagan, A.; Leonard, Tom (1976). "Estimación bayesiana sujeta a incertidumbre sobre restricciones de parámetros". Biometrika . 63 (1): 201–203. doi :10.1093/biomet/63.1.201. ISSN 0006-3444.
- ^ Ashour, Samir K.; Abdel-hameed, Mahmood A. (octubre de 2010). "Distribución normal sesgada aproximada". Revista de investigación avanzada . 1 (4): 341–350. doi : 10.1016/j.jare.2010.06.004 . ISSN 2090-1232.
- ^ Mudholkar, Govind S.; Hutson, Alan D. (febrero de 2000). "La distribución épsilon-sesgada-normal para analizar datos casi normales". Journal of Statistical Planning and Inference . 83 (2): 291–309. doi :10.1016/s0378-3758(99)00096-8. ISSN 0378-3758.
- ^ Andel, J., Netuka, I. y Zvara, K. (1984) Sobre los procesos autorregresivos de umbral. Kybernetika, 20, 89-106
- ^ Chan, KS; Tong, H. (marzo de 1986). "Una nota sobre ciertas ecuaciones integrales asociadas con el análisis de series temporales no lineales". Probability Theory and Related Fields . 73 (1): 153–158. doi : 10.1007/bf01845999 . ISSN 0178-8051. S2CID 121106515.
- ^ Azzalini, A. (1985). "Una clase de distribuciones que incluye las normales". Scandinavian Journal of Statistics . 12 : 171–178.
- ^ Azzalini, Adelchi; Capitán, Antonella (2014). Las familias asimétricas y relacionadas . págs. 32-33. ISBN 978-1-107-02927-9.
- ^ Pewsey, Arthur. "Problemas de inferencia para la distribución antinormal de Azzalini". Journal of Applied Statistics 27.7 (2000): 859-870
Enlaces externos
- Distribución antinormal multivariada con aplicación a la masa corporal, la altura y el índice de masa corporal
- Una introducción muy breve a la distribución antinormal
- La distribución de probabilidad normal sesgada (y distribuciones relacionadas, como la t sesgada)
- OWENS: Función T de Owen Archivado el 14 de junio de 2010 en Wayback Machine.
- Distribuciones de asimetría cerrada: simulación, inversión y estimación de parámetros