stringtranslate.com

Suma de variables aleatorias distribuidas normalmente

En la teoría de la probabilidad , el cálculo de la suma de variables aleatorias distribuidas normalmente es una instancia de la aritmética de variables aleatorias .

Esto no debe confundirse con la suma de distribuciones normales que forman una distribución mixta .

Variables aleatorias independientes

Sean X e Y variables aleatorias independientes que se distribuyen normalmente (y, por lo tanto , también conjuntamente), entonces su suma también se distribuye normalmente, es decir, si

entonces

Esto significa que la suma de dos variables aleatorias independientes distribuidas normalmente es normal, siendo su media la suma de las dos medias y su varianza la suma de las dos varianzas (es decir, el cuadrado de la desviación estándar es la suma de los cuadrados de las desviaciones estándar). [1]

Para que este resultado sea válido, no se puede descartar el supuesto de que X e Y son independientes, aunque se puede debilitar al supuesto de que X e Y se distribuyen normalmente de manera conjunta , en lugar de por separado. [2] (Véase aquí un ejemplo ).

El resultado sobre la media es válido en todos los casos, mientras que el resultado sobre la varianza requiere falta de correlación, pero no independencia.

Pruebas

Demostración mediante funciones características

La función característica

de la suma de dos variables aleatorias independientes X e Y es simplemente el producto de dos funciones características separadas:

de X e Y.

La función característica de la distribución normal con valor esperado μ y varianza σ 2 es

Entonces

Esta es la función característica de la distribución normal con valor esperado y varianza.

Por último, recuerde que no hay dos distribuciones distintas que puedan tener la misma función característica, por lo que la distribución de X  +  Y debe ser exactamente esta distribución normal.

Demostración mediante convoluciones

Para las variables aleatorias independientes X e Y , la distribución f Z de Z = X  +  Y es igual a la convolución de f X y f Y :

Dado que f X y f Y son densidades normales,

Sustituyendo en la convolución:

Definiendo y completando el cuadrado :

La expresión en la integral es una distribución de densidad normal en x , por lo que la integral evalúa a 1. El resultado deseado es el siguiente:

Usando elteorema de convolución

Se puede demostrar que la transformada de Fourier de una gaussiana, , es [3]

Por el teorema de convolución :

Prueba geométrica

Consideremos primero el caso normalizado cuando X , Y ~ N (0, 1), de modo que sus PDF son

y

Sea Z = X  +  Y . Entonces la CDF para Z será

Esta integral es sobre el semiplano que se encuentra debajo de la línea x + y = z .

La observación clave es que la función

es radialmente simétrica. Por lo tanto, rotamos el plano de coordenadas sobre el origen, eligiendo nuevas coordenadas de modo que la línea x + y = z esté descrita por la ecuación donde se determina geométricamente. Debido a la simetría radial, tenemos , y la CDF para Z es

Esto es fácil de integrar; encontramos que la CDF para Z es

Para determinar el valor , observe que giramos el plano de modo que la línea x + y = z ahora corre verticalmente con la intersección en x igual a c . Por lo tanto, c es simplemente la distancia desde el origen hasta la línea x + y = z a lo largo de la bisectriz perpendicular, que se encuentra con la línea en su punto más cercano al origen, en este caso . Por lo tanto, la distancia es , y la CDF para Z es , es decir,

Ahora bien, si a , b son constantes reales (no ambas cero), entonces la probabilidad de que se encuentre mediante la misma integral que la anterior, pero con la línea límite . El mismo método de rotación funciona, y en este caso más general encontramos que el punto más cercano en la línea al origen se encuentra a una distancia (con signo)

lejos, para que

El mismo argumento en dimensiones superiores muestra que si

entonces

Ahora hemos terminado esencialmente, porque

Así que, en general, si

entonces

Variables aleatorias correlacionadas

En el caso de que las variables X e Y sean variables aleatorias distribuidas normalmente de manera conjunta, entonces X  +  Y sigue estando distribuida normalmente (ver Distribución normal multivariante ) y la media es la suma de las medias. Sin embargo, las varianzas no son aditivas debido a la correlación. De hecho,

donde ρ es la correlación . En particular, siempre que ρ < 0, entonces la varianza es menor que la suma de las varianzas de X e Y.

Se pueden realizar extensiones de este resultado para más de dos variables aleatorias, utilizando la matriz de covarianza .

Prueba

En este caso (con X e Y teniendo medias cero), es necesario considerar

Como arriba, se hace la sustitución

Esta integral es más complicada de simplificar analíticamente, pero se puede hacer fácilmente utilizando un programa de matemáticas simbólicas. La distribución de probabilidad f Z ( z ) está dada en este caso por

dónde

Si en cambio se considera Z = X  −  Y , entonces se obtiene

que también se puede reescribir con

Las desviaciones estándar de cada distribución son obvias en comparación con la distribución normal estándar.

Referencias

  1. ^ Lemons, Don S. (2002), Introducción a los procesos estocásticos en física , The Johns Hopkins University Press, pág. 34, ISBN 0-8018-6866-1
  2. ^ Limones (2002) págs. 35-36
  3. ^ Derpanis, Konstantinos G. (20 de octubre de 2005). "Transformada de Fourier de la gaussiana" (PDF) .

Véase también