En probabilidad y estadística , una distribución de probabilidad compuesta (también conocida como distribución mixta o distribución contagiosa ) es la distribución de probabilidad que resulta de suponer que una variable aleatoria se distribuye según alguna distribución parametrizada, con (algunos de) los parámetros de esa distribución. ellos mismos son variables aleatorias. Si el parámetro es un parámetro de escala , la mezcla resultante también se llama mezcla de escala .
La distribución compuesta ("distribución incondicional") es el resultado de marginar (integrar) sobre las variables aleatorias latentes que representan los parámetros de la distribución parametrizada ("distribución condicional").
Definición
Una distribución de probabilidad compuesta es la distribución de probabilidad que resulta de suponer que una variable aleatoria se distribuye según alguna distribución parametrizada con un parámetro desconocido que nuevamente se distribuye según alguna otra distribución . Se dice que la distribución resultante es la distribución que resulta de la capitalización con . La distribución del parámetro también se denomina distribución mixta o distribución latente . Técnicamente, la distribución incondicional resulta de marginar a , es decir, de integrar los parámetros desconocidos . Su función de densidad de probabilidad viene dada por:
La misma fórmula se aplica de manera análoga si algunas o todas las variables son vectores.
De la fórmula anterior, se puede ver que una distribución compuesta es esencialmente un caso especial de distribución marginal : la distribución conjunta de y está dada por , y el resultado compuesto es su distribución marginal :. Si el dominio de es discreto, entonces la distribución es nuevamente un caso especial de distribución mixta .
Propiedades
General
La distribución compuesta dependerá de la expresión específica de cada distribución, así como de qué parámetro de se distribuye según la distribución , y los parámetros de incluirán cualquier parámetro de que no esté marginado o integrado. El soporte de es el mismo que el de , y si este último es una distribución de dos parámetros parametrizada con la media y la varianza, existen algunas propiedades generales.
Media y varianza
Los dos primeros momentos de la distribución compuesta están dados por la ley de expectativa total y la ley de varianza total :
Si la media de se distribuye como , que a su vez tiene media y varianza, las expresiones anteriores implican y , donde está la varianza de .
Prueba
sean y sean distribuciones de probabilidad parametrizadas con una media de una varianza como
La varianza de está dada por , y
Aplicaciones
Pruebas
Las distribuciones de estadísticas de prueba comunes resultan como distribuciones compuestas bajo su hipótesis nula, por ejemplo en la prueba t de Student (donde la estadística de prueba resulta como la proporción de una variable aleatoria normal y chi-cuadrado ), o en la prueba F (donde el estadístico de prueba es la proporción de dos variables aleatorias de chi-cuadrado ).
Modelado de sobredispersión
Las distribuciones compuestas son útiles para modelar resultados que muestran sobredispersión , es decir, una mayor cantidad de variabilidad de la que se esperaría bajo un determinado modelo. Por ejemplo, los datos de recuento se modelan comúnmente utilizando la distribución de Poisson , cuya varianza es igual a su media. La distribución se puede generalizar permitiendo la variabilidad en su parámetro de tasa , implementada mediante una distribución gamma , que da como resultado una distribución binomial negativa marginal . Esta distribución es similar en su forma a la distribución de Poisson, pero permite variaciones mayores. De manera similar, una distribución binomial se puede generalizar para permitir una variabilidad adicional combinándola con una distribución beta para su parámetro de probabilidad de éxito, lo que da como resultado una distribución beta-binomial .
Inferencia bayesiana
Además de las distribuciones marginales ubicuas que pueden verse como casos especiales de distribuciones compuestas, en la inferencia bayesiana , las distribuciones compuestas surgen cuando, en la notación anterior, F representa la distribución de observaciones futuras y G es la distribución posterior de los parámetros de F , dada la información en un conjunto de datos observados. Esto da una distribución predictiva posterior . En consecuencia, para la distribución predictiva previa , F es la distribución de un nuevo punto de datos, mientras que G es la distribución previa de los parámetros.
Circunvolución
La convolución de distribuciones de probabilidad (para derivar la distribución de probabilidad de sumas de variables aleatorias) también puede verse como un caso especial de capitalización; aquí la distribución de la suma resulta esencialmente de considerar un sumando como un parámetro de ubicación aleatoria para el otro sumando. [1]
Cálculo
Las distribuciones compuestas derivadas de distribuciones familiares exponenciales suelen tener una forma cerrada. Si la integración analítica no es posible, pueden ser necesarios métodos numéricos.
Las distribuciones compuestas pueden investigarse con relativa facilidad utilizando métodos de Monte Carlo , es decir, generando muestras aleatorias. A menudo es fácil generar números aleatorios a partir de las distribuciones y luego utilizarlos para realizar un muestreo de Gibbs colapsado para generar muestras .
Por lo general, una distribución compuesta también puede aproximarse en un grado suficiente mediante una distribución de mezcla utilizando un número finito de componentes de la mezcla, lo que permite derivar densidad aproximada, función de distribución, etc. [1]
La estimación de parámetros ( estimación de máxima verosimilitud o estimación máxima a posteriori ) dentro de un modelo de distribución compuesto a veces puede simplificarse utilizando el algoritmo EM . [2]
Ejemplos
- Mezclas de escala gaussiana : [3] [4]
- otras mezclas gaussianas :
Términos similares
La noción de "distribución compuesta" tal como se utiliza, por ejemplo, en la definición de distribución de Poisson compuesta o proceso de Poisson compuesto es diferente de la definición que se encuentra en este artículo. El significado de este artículo corresponde a lo que se utiliza, por ejemplo, en el modelado jerárquico bayesiano .
El caso especial de distribuciones de probabilidad compuestas donde la distribución parametrizada es la distribución de Poisson también se denomina distribución de Poisson mixta .
Ver también
Referencias
- ^ ab Röver, C.; Friede, T. (2017). "Aproximación discreta de la distribución de una mezcla mediante divergencia restringida". Revista de Estadística Computacional y Gráfica . 26 (1): 217–222. arXiv : 1602.04060 . doi : 10.1080/10618600.2016.1276840 .
- ^ Gelman, A.; Carlín, JB; popa, H.; Rubin, DB (1997). "9.5 Encontrar modos posteriores marginales utilizando EM y algoritmos relacionados ". Análisis de datos bayesianos (1ª ed.). Boca Ratón: Chapman & Hall / CRC. pag. 276.
- ^ ab Lee, SX; McLachlan, GJ (2019). "Distribución de mezclas a escala". Wiley StatsRef: referencia de estadísticas en línea . doi : 10.1002/9781118445112.stat08201.
- ^ Gneiting, T. (1997). "Mezclas de escala normal y densidades de probabilidad duales". Revista de simulación y computación estadística . 59 (4): 375–384. doi :10.1080/00949659708811867.
- ^ Estado de ánimo, mañana; Graybill, FA; Boes, CC (1974). Introducción a la teoría de la estadística (3ª ed.). Nueva York: McGraw-Hill.
- ^ Andrews, DF; Mallows, CL (1974), "Mezclas de escalas de distribuciones normales", Revista de la Royal Statistical Society, Serie B , 36 (1): 99–102, doi :10.1111/j.2517-6161.1974.tb00989.x
- ^ Johnson, Países Bajos; Kemp, AW; Kotz, S. (2005). "6.2.2". Distribuciones discretas univariadas (3ª ed.). Nueva York: Wiley. pag. 253.
- ^ Gelman, A.; Carlín, JB; popa, H.; Dunson, DB; Vehtari, A.; Rubin, DB (2014). Análisis de datos bayesianos (3ª ed.). Boca Ratón: Chapman & Hall / CRC.
- ^ Sin ley, JF (1987). "Regresión de Poisson binomial negativa y mixta". La Revista Canadiense de Estadísticas . 15 (3): 209–225. doi :10.2307/3314912. JSTOR 3314912.
- ^ Teich, MC; Diament, P. (1989). "Multiplicar representaciones estocásticas para distribuciones K y sus transformadas de Poisson". Revista de la Sociedad Óptica de América A. 6 (1): 80–91. Código Bib : 1989JOSAA...6...80T. CiteSeerX 10.1.1.64.596 . doi :10.1364/JOSAA.6.000080.
- ^ Johnson, Países Bajos; Kotz, S.; Balakrishnan, N. (1994). "20 distribuciones de Pareto ". Distribuciones univariadas continuas . vol. 1 (2ª ed.). Nueva York: Wiley. pag. 573.
- ^ Dubey, SD (1970). "Distribuciones compuestas gamma, beta y F". Métrica . 16 : 27–31. doi :10.1007/BF02613934.
Otras lecturas
- Lindsay, BG (1995), Modelos de mezclas: teoría, geometría y aplicaciones , Serie de conferencias regionales NSF-CBMS sobre probabilidad y estadística, vol. 5, Hayward, CA, EE. UU.: Instituto de Estadística Matemática, págs. i–163, ISBN 978-0-940600-32-4, JSTOR 4153184
- Seidel, W. (2010), "Mixture models", en Lovric, M. (ed.), Enciclopedia internacional de ciencia estadística , Heidelberg: Springer, págs. 827–829, doi :10.1007/978-3-642-04898 -2_368, ISBN 978-3-642-04898-2
- Estado de ánimo, mañana; Graybill, FA; Boes, DC (1974), "III.4.3 Distribuciones contagiosas y distribuciones truncadas ", Introducción a la teoría de la estadística (3.ª ed.), Nueva York: McGraw-Hill, ISBN 978-0-07-042864-5
- Johnson, NL; Kemp, AW; Kotz, S. (2005), "8 Distribuciones de mezclas ", Distribuciones discretas univariadas , Nueva York: Wiley, ISBN 978-0-471-27246-5