stringtranslate.com

Distribución del producto de dos variables aleatorias

Una distribución de producto es una distribución de probabilidad construida como la distribución del producto de variables aleatorias que tienen otras dos distribuciones conocidas. Dadas dos variables aleatorias estadísticamente independientes X e Y , la distribución de la variable aleatoria Z que se forma como producto es una distribución de producto .

La distribución del producto es la función de densidad de probabilidad del producto de los valores de la muestra. No es lo mismo que el producto de sus funciones de densidad de probabilidad, pero los conceptos suelen denominarse de forma ambigua como "producto de gaussianas".

Álgebra de variables aleatorias

El producto es un tipo de álgebra para variables aleatorias: relacionadas con la distribución del producto están la distribución de razón , la distribución de suma (ver Lista de convoluciones de distribuciones de probabilidad ) y la distribución de diferencia. De manera más general, se puede hablar de combinaciones de sumas, diferencias, productos y razones.

Muchas de estas distribuciones se describen en el libro de Melvin D. Springer de 1979 The Algebra of Random Variables . [1]

Derivación para variables aleatorias independientes

Si y son dos variables aleatorias independientes y continuas, descritas por funciones de densidad de probabilidad y entonces la función de densidad de probabilidad de es [2]

Prueba

Primero escribimos la función de distribución acumulativa comenzando con su definición

Hallamos la función de densidad de probabilidad deseada tomando la derivada de ambos lados con respecto a . Dado que en el lado derecho, aparece solo en los límites de integración, la derivada se realiza fácilmente utilizando el teorema fundamental del cálculo y la regla de la cadena . (Obsérvese el signo negativo que se necesita cuando la variable se encuentra en el límite inferior de la integración).

donde se utiliza el valor absoluto para combinar convenientemente los dos términos. [3]

Prueba alternativa

Una prueba más rápida y compacta comienza con el mismo paso de escribir la distribución acumulativa comenzando con su definición:

donde es la función escalón de Heaviside y sirve para limitar la región de integración a valores de y que satisfacen .

Encontramos la función de densidad de probabilidad deseada tomando la derivada de ambos lados con respecto a .

donde utilizamos las propiedades de traducción y escala de la función delta de Dirac .

En la figura siguiente se ilustra una descripción más intuitiva del procedimiento. La función de densidad de probabilidad conjunta existe en el plano y se muestra un arco de valor constante como la línea sombreada. Para encontrar la probabilidad marginal en este arco, integre sobre incrementos de área en este contorno.

Diagrama para ilustrar la distribución del producto de dos variables.

Comenzando con , tenemos . Por lo tanto, el incremento de probabilidad es . Como implica , podemos relacionar el incremento de probabilidad con el incremento , es decir . Entonces, la integración sobre , da como resultado .

Una interpretación bayesiana

Sea una muestra aleatoria extraída de una distribución de probabilidad . El escalamiento por genera una muestra de una distribución escalada que puede escribirse como una distribución condicional .

Si se deja que sea una variable aleatoria con función de densidad de probabilidad , la distribución de la muestra escalada se convierte en y al integrar obtenemos que se extrae de esta distribución . Sin embargo, si se sustituye la definición de también tenemos que tiene la misma forma que la distribución del producto anterior. Por lo tanto, la distribución posterior bayesiana es la distribución del producto de las dos muestras aleatorias independientes y .

Para el caso de que una variable sea discreta, supongamos que la probabilidad se encuentra en niveles con . La densidad condicional es . Por lo tanto .

Expectativa del producto de variables aleatorias

Cuando dos variables aleatorias son estadísticamente independientes, la expectativa de su producto es el producto de sus expectativas . Esto se puede demostrar a partir de la ley de la expectativa total :

En la expresión interna, Y es una constante. Por lo tanto:

Esto es cierto incluso si X e Y son estadísticamente dependientes, en cuyo caso es una función de Y. En el caso especial en el que X e Y son estadísticamente independientes, es una constante independiente de Y. Por lo tanto:

Varianza del producto de variables aleatorias independientes

Sean variables aleatorias no correlacionadas con medias y varianzas . Si, además, las variables aleatorias y no están correlacionadas, entonces la varianza del producto XY es [4]

En el caso del producto de más de dos variables, si son estadísticamente independientes entonces [5] la varianza de su producto es

Función característica del producto de variables aleatorias

Supongamos que X , Y son variables aleatorias independientes. La función característica de X es y la distribución de Y es conocida. Entonces, a partir de la ley de la esperanza total , tenemos [6]

Si se conocen las funciones características y distribuciones de X e Y , entonces alternativamente, también se cumple.

Transformación de Mellin

La transformada de Mellin de una distribución con soporte solo en y que tiene una muestra aleatoria es

La transformada inversa es

Si son dos muestras aleatorias independientes de distribuciones diferentes, entonces la transformada de Mellin de su producto es igual al producto de sus transformadas de Mellin:

Si s está restringido a valores enteros, un resultado más simple es

Por lo tanto, los momentos del producto aleatorio son el producto de los momentos correspondientes de y esto se extiende a los momentos no enteros, por ejemplo

La función de densidad de probabilidad de una función se puede reconstruir a partir de sus momentos utilizando el método de aproximación de punto de silla .

Un resultado adicional es que para X , Y independientes

Ejemplo de distribución gamma Para ilustrar cómo el producto de momentos produce un resultado mucho más simple que encontrar los momentos de la distribución del producto, supongamos que se toma una muestra de dos distribuciones gamma , con parámetros cuyos momentos son

Multiplicando los momentos correspondientes se obtiene el resultado de la transformada de Mellin

Independientemente, se sabe que el producto de dos muestras independientes distribuidas Gamma (~Gamma(α,1) y Gamma(β,1)) tiene una distribución K :

Para encontrar los momentos de esta, realiza el cambio de variable , simplificando integrales semejantes a:

de este modo

La integral definida

Está bien documentado y finalmente lo hemos logrado.

que, después de algunas dificultades, ha concordado con el resultado del producto del momento anterior.

Si X , Y se dibujan independientemente de las distribuciones Gamma con parámetros de forma , entonces

Este tipo de resultado es universalmente cierto, ya que para las variables independientes bivariadas así

o equivalentemente es claro que son variables independientes.

Casos especiales

Distribuciones lognormales

La distribución del producto de dos variables aleatorias que tienen distribuciones lognormales es nuevamente lognormal. Este es en sí mismo un caso especial de un conjunto más general de resultados donde el logaritmo del producto puede escribirse como la suma de los logaritmos. Por lo tanto, en los casos donde se puede encontrar un resultado simple en la lista de convoluciones de distribuciones de probabilidad , donde las distribuciones a convolucionar son las de los logaritmos de los componentes del producto, el resultado podría transformarse para proporcionar la distribución del producto. Sin embargo, este enfoque solo es útil cuando los logaritmos de los componentes del producto se encuentran en algunas familias estándar de distribuciones.

Variables aleatorias independientes distribuidas uniformemente

Sea el producto de dos variables independientes, cada una uniformemente distribuida en el intervalo [0,1], posiblemente el resultado de una transformación de cópula . Como se señaló en "Distribuciones lognormales" más arriba, las operaciones de convolución de PDF en el dominio log corresponden al producto de los valores de muestra en el dominio original. Por lo tanto, al realizar la transformación , de modo que , cada variable se distribuye independientemente en u como

.

y la convolución de las dos distribuciones es la autoconvolución

A continuación, vuelva a transformar la variable para obtener la distribución.

en el intervalo [0,1]

Para el producto de múltiples (> 2) muestras independientes, la ruta de la función característica es favorable. Si definimos entonces que la anterior es una distribución Gamma de forma 1 y factor de escala 1, y su CF conocido es . Nótese que, por lo tanto, el jacobiano de la transformación es la unidad.

Por lo tanto, la convolución de muestras independientes tiene CF , que se sabe que es el CF de una distribución gamma de forma :

.

Realice la transformación inversa para extraer la PDF del producto de las n muestras:

La siguiente derivación, más convencional, de Stackexchange [7] es coherente con este resultado. En primer lugar, dejando que su CDF sea

La densidad de

Al multiplicar por una tercera muestra independiente se obtiene la función de distribución

Tomando los rendimientos derivados

El autor de la nota conjetura que, en general,

La geometría de la distribución del producto de dos variables aleatorias en el cuadrado unitario.

La figura ilustra la naturaleza de las integrales anteriores. El área de la selección dentro del cuadrado unitario y debajo de la línea z = xy representa la CDF de z. Esta se divide en dos partes. La primera es para 0 < x < z donde el incremento del área en la ranura vertical es exactamente igual a dx . La segunda parte se encuentra debajo de la línea xy , tiene una altura y z/x y un área incremental dx z/x .

Distribuciones centrales-normales independientes

El producto de dos muestras normales independientes sigue una función de Bessel modificada . Sean muestras independientes de una distribución Normal(0,1) y . Entonces


La varianza de esta distribución podría determinarse, en principio, mediante una integral definida de Gradsheyn y Ryzhik, [8]

de este modo

Un resultado mucho más simple, indicado en una sección anterior, es que la varianza del producto de muestras independientes de media cero es igual al producto de sus varianzas. Como la varianza de cada muestra normal es uno, la varianza del producto también es uno.

El producto de dos muestras gaussianas suele confundirse con el producto de dos PDF gaussianas. Este último simplemente da como resultado una distribución gaussiana bivariada.

Distribuciones normales centrales correlacionadas

El caso del producto de muestras normales correlacionadas fue abordado recientemente por Nadarajaha y Pogány. [9] Sea media cero, varianza unitaria, variables distribuidas normalmente con coeficiente de correlación.

Entonces

Media y varianza : Para la media tenemos la definición de coeficiente de correlación. La varianza se puede encontrar transformando de dos unidades de varianza a media cero las variables no correlacionadas U, V. Sea

Entonces X, Y son variables de varianza unitaria con coeficiente de correlación y

Eliminando los términos de potencia impar, cuyas expectativas son obviamente cero, obtenemos

Ya que tenemos

Asíntota de alta correlación En el caso de alta correlación, el producto converge al cuadrado de una muestra. En este caso, la asíntota es y

que es una distribución Chi-cuadrado con un grado de libertad.

Muestras correlacionadas múltiples . Nadarajaha et al. muestran además que si las variables aleatorias iid muestreadas de y es su media, entonces

donde W es la función de Whittaker mientras que .

Usando la identidad , véase por ejemplo la compilación DLMF. eqn(13.13.9), [10] esta expresión se puede simplificar un poco a

La pdf proporciona la distribución marginal de una covarianza normal bivariada de muestra, un resultado que también se muestra en el artículo Distribución de Wishart. La distribución aproximada de un coeficiente de correlación se puede encontrar mediante la transformación de Fisher .

Múltiples muestras no correlacionadas centralmente . La distribución del producto de muestras normales no centrales correlacionadas fue derivada por Cui et al. [11] y toma la forma de una serie infinita de funciones de Bessel modificadas del primer tipo.

Momentos del producto de muestras normales centrales correlacionadas

Para una distribución normal central N(0,1) los momentos son

donde denota el factorial doble .

Si son variables correlacionadas centrales, el caso bivariado más simple del problema del momento normal multivariado descrito por Kan, [12] entonces

dónde

es el coeficiente de correlación y

[Necesita revisión]

Distribuciones normales no centrales correlacionadas

La distribución del producto de muestras normales no correlacionadas centralmente fue derivada por Cui et al. [11] y toma la forma de una serie infinita.

Estas distribuciones de producto son comparables en cierta medida a la distribución de Wishart . Esta última es la distribución conjunta de los cuatro elementos (en realidad, solo tres elementos independientes) de una matriz de covarianza de muestras. Si son muestras de una serie temporal bivariada, entonces es una matriz de Wishart con K grados de libertad. Las distribuciones de producto anteriores son la distribución incondicional del agregado de K > 1 muestras de .

Distribuciones centrales normales independientes de valores complejos

Sean muestras independientes de una distribución normal (0,1). El ajuste son muestras normales complejas de media cero independientes con simetría circular. Sus varianzas complejas son

Las funciones de densidad de

Las distribuciones de Rayleigh se definen como:

La variable es claramente Chi-cuadrado con dos grados de libertad y tiene PDF

Wells et al. [13] muestran que la función de densidad de es

y la función de distribución acumulativa de es

Por lo tanto, la representación polar del producto de dos muestras gaussianas complejas no correlacionadas es

.

El primer y segundo momento de esta distribución se pueden encontrar a partir de la integral en Distribuciones normales anteriores.

Por lo tanto su varianza es .

Además, la densidad de corresponde al producto de dos muestras de Chi-cuadrado independientes , cada una con dos grados de libertad. Escribiéndolas como distribuciones Gamma escaladas , a partir de los productos Gamma a continuación, la densidad del producto es

Distribuciones normales no centrales independientes y de valores complejos

El producto de gaussianas complejas independientes no centrales es descrito por O'Donoughue y Moura [14] y forma una serie doble infinita de funciones de Bessel modificadas del primer y segundo tipo.

Distribuciones gamma

El producto de dos muestras Gamma independientes, , que define , se deduce [15]

Distribuciones beta

Nagar et al. [16] definen una distribución beta bivariada correlacionada

dónde

Entonces la función de densidad de probabilidad de Z = XY está dada por

¿Dónde está la función hipergeométrica de Gauss definida por la integral de Euler?

Tenga en cuenta que las distribuciones multivariadas generalmente no son únicas, aparte del caso gaussiano, y puede haber alternativas.

Distribuciones uniformes y gamma

La distribución del producto de una variable aleatoria que tiene una distribución uniforme en (0,1) con una variable aleatoria que tiene una distribución gamma con un parámetro de forma igual a 2, es una distribución exponencial . [17] Un caso más general de esto se refiere a la distribución del producto de una variable aleatoria que tiene una distribución beta con una variable aleatoria que tiene una distribución gamma : para algunos casos donde los parámetros de las dos distribuciones componentes están relacionados de cierta manera, el resultado es nuevamente una distribución gamma pero con un parámetro de forma modificado. [17]

La distribución K es un ejemplo de una distribución no estándar que puede definirse como una distribución de producto (donde ambos componentes tienen una distribución gamma).

Distribuciones gamma y Pareto

Nadarajah obtuvo el producto de n muestras Gamma y m muestras independientes de Pareto. [18]

Véase también

Notas

  1. ^ Springer, Melvin Dale (1979). El álgebra de variables aleatorias . Wiley . ISBN. 978-0-471-01406-5. Recuperado el 24 de septiembre de 2012 .
  2. ^ Rohatgi, VK (1976). Introducción a la teoría de la probabilidad y la estadística matemática . Serie Wiley sobre probabilidad y estadística. Nueva York: Wiley. doi :10.1002/9781118165676. ISBN 978-0-19-853185-2.
  3. ^ Grimmett, GR; Stirzaker, DR (2001). Probabilidad y procesos aleatorios. Oxford: Oxford University Press. ISBN 978-0-19-857222-0. Recuperado el 4 de octubre de 2015 .
  4. ^ Goodman, Leo A. (1960). "Sobre la varianza exacta de los productos". Revista de la Asociación Estadounidense de Estadística . 55 (292): 708–713. doi :10.2307/2281592. JSTOR  2281592.
  5. ^ Sarwate, Dilip (9 de marzo de 2013). "Varianza del producto de múltiples variables aleatorias". Stack Exchange .
  6. ^ "Cómo encontrar la función característica del producto de variables aleatorias". Stack Exchange . 3 de enero de 2013.
  7. ^ heropup (1 de febrero de 2014). "distribución del producto de dos distribuciones uniformes, ¿qué pasa con 3 o más?". Stack Exchange .
  8. ^ Gradsheyn, IS; Ryzhik, IM (1980). Tablas de integrales, series y productos . Academic Press. pp. sección 6.561.
  9. ^ Nadarajá, Saralees; Pogány, Tibor (2015). "Sobre la distribución del producto de variables aleatorias normales correlacionadas". Cuentas Rendus de la Academia de Ciencias, Serie I. 354 (2): 201–204. doi : 10.1016/j.crma.2015.10.019 .
  10. ^ Equ(13.18.9). "Biblioteca digital de funciones matemáticas". NIST: Instituto Nacional de Estándares y Tecnología .{{cite web}}: CS1 maint: numeric names: authors list (link)
  11. ^ ab Cui, Guolong (2016). "Distribución exacta para el producto de dos variables aleatorias gaussianas correlacionadas". IEEE Signal Processing Letters . 23 (11): 1662–1666. Bibcode :2016ISPL...23.1662C. doi :10.1109/LSP.2016.2614539. S2CID  15721509.
  12. ^ Kan, Raymond (2008). "De momentos de suma a momentos de producto". Revista de análisis multivariante . 99 (3): 542–554. doi : 10.1016/j.jmva.2007.01.013 .
  13. ^ Wells, RT; Anderson, RL; Cell, JW (1962). "La distribución del producto de dos variables de chi-cuadrado centrales o no centrales". Anales de estadística matemática . 33 (3): 1016–1020. doi : 10.1214/aoms/1177704469 .
  14. ^ O'Donoughue, N; Moura, JMF (marzo de 2012). "Sobre el producto de gaussianas complejas independientes". IEEE Transactions on Signal Processing . 60 (3): 1050–1063. Bibcode :2012ITSP...60.1050O. doi :10.1109/TSP.2011.2177264. S2CID  1069298.
  15. ^ Wolfies (agosto de 2017). "PDF del producto de dos variables aleatorias Gamma independientes". stackexchange .
  16. ^ Nagar, DK; Orozco-Castañeda, JM; Gupta, AK (2009). "Producto y cociente de variables beta correlacionadas". Applied Mathematics Letters . 22 : 105–109. doi : 10.1016/j.aml.2008.02.014 .
  17. ^ ab Johnson, Norman L.; Kotz, Samuel; Balakrishnan, N. (1995). Distribuciones univariadas continuas, volumen 2, segunda edición. Wiley. pág. 306. ISBN 978-0-471-58494-0. Recuperado el 24 de septiembre de 2012 .
  18. ^ Nadarajah, Saralees (junio de 2011). "Distribución exacta del producto de n variables aleatorias gamma y m de Pareto". Journal of Computational and Applied Mathematics . 235 (15): 4496–4512. doi : 10.1016/j.cam.2011.04.018 .

Referencias