stringtranslate.com

Distribución de probabilidad conjunta

Dadas dos variables aleatorias que se definen en el mismo espacio de probabilidad , [1] la distribución de probabilidad conjunta es la distribución de probabilidad correspondiente en todos los pares posibles de resultados. La distribución conjunta también puede considerarse para cualquier número dado de variables aleatorias. La distribución conjunta codifica las distribuciones marginales , es decir, las distribuciones de cada una de las variables aleatorias individuales y las distribuciones de probabilidad condicional , que tratan de cómo se distribuyen los resultados de una variable aleatoria cuando se proporciona información sobre los resultados de las otras variables aleatorias. .

En la configuración matemática formal de la teoría de la medida , la distribución conjunta está dada por la medida de avance , por el mapa obtenido al emparejar las variables aleatorias dadas, de la medida de probabilidad del espacio muestral .

En el caso de variables aleatorias de valor real, la distribución conjunta, como una distribución multivariada particular , puede expresarse mediante una función de distribución acumulativa multivariada , o mediante una función de densidad de probabilidad multivariada junto con una función de masa de probabilidad multivariada . En el caso especial de variables aleatorias continuas , es suficiente considerar funciones de densidad de probabilidad, y en el caso de variables aleatorias discretas , es suficiente considerar funciones de masa de probabilidad.

Ejemplos

Se extrae de una urna.

Cada una de las dos urnas contiene el doble de bolas rojas que azules, y ninguna otra, y se selecciona una bola al azar de cada urna, siendo los dos sorteos independientes entre sí. Sean y variables aleatorias discretas asociadas con los resultados del sorteo de la primera y segunda urna, respectivamente. La probabilidad de sacar una bola roja de cualquiera de las urnas es 2/3 y la probabilidad de sacar una bola azul es 1/3. La distribución de probabilidad conjunta se presenta en la siguiente tabla:

Cada una de las cuatro celdas internas muestra la probabilidad de una combinación particular de resultados de los dos sorteos; estas probabilidades son la distribución conjunta. En cualquier celda, la probabilidad de que ocurra una combinación particular es (dado que los sorteos son independientes) el producto de la probabilidad del resultado especificado para A y la probabilidad del resultado especificado para B. Las probabilidades en estas cuatro celdas suman 1, como ocurre con todas las distribuciones de probabilidad.

Además, la última fila y la última columna dan la distribución de probabilidad marginal para A y la distribución de probabilidad marginal para B, respectivamente. Por ejemplo, para A, la primera de estas celdas da la suma de las probabilidades de que A sea rojo, independientemente de qué posibilidad para B en la columna sobre la celda ocurra, como 2/3. Por lo tanto, la distribución de probabilidad marginal para da las probabilidades incondicionales de , en un margen de la tabla.

Lanzamientos de monedas

Considere el lanzamiento de dos monedas justas ; sean y sean variables aleatorias discretas asociadas con los resultados del primer y segundo lanzamiento de moneda, respectivamente. Cada lanzamiento de moneda es una prueba de Bernoulli y tiene una distribución de Bernoulli . Si una moneda muestra "cara", entonces la variable aleatoria asociada toma el valor 1 y, en caso contrario, toma el valor 0. La probabilidad de cada uno de estos resultados es 1/2, por lo que las funciones de densidad marginales (incondicionales) son

La función de masa de probabilidad conjunta de y define las probabilidades de cada par de resultados. Todos los resultados posibles son

Dado que cada resultado es igualmente probable, la función de masa de probabilidad conjunta se convierte en

Dado que los lanzamientos de moneda son independientes, la función de masa de probabilidad conjunta es el producto de los marginales:

Lanzar un dado

Considere la tirada de un dado justo y considere si el número es par (es decir, 2, 4 o 6) y en caso contrario. Además, sea si el número es primo (es decir, 2, 3 o 5) y en caso contrario.

Entonces, la distribución conjunta de y , expresada como función de masa de probabilidad, es

Estas probabilidades necesariamente suman 1, ya que la probabilidad de que ocurra alguna combinación de y es 1.

Distribución de probabilidad marginal

Si se define más de una variable aleatoria en un experimento aleatorio, es importante distinguir entre la distribución de probabilidad conjunta de X e Y y la distribución de probabilidad de cada variable individualmente. La distribución de probabilidad individual de una variable aleatoria se denomina distribución de probabilidad marginal. En general, la distribución de probabilidad marginal de X se puede determinar a partir de la distribución de probabilidad conjunta de X y otras variables aleatorias.

Si la función de densidad de probabilidad conjunta de las variables aleatorias X e Y es , la función de densidad de probabilidad marginal de X e Y, que define la distribución marginal , viene dada por:


donde la primera integral está sobre todos los puntos en el rango de (X,Y) para los cuales X=x y la segunda integral está sobre todos los puntos en el rango de (X,Y) para los cuales Y=y. [2]

Función de distribución acumulativa conjunta

Para un par de variables aleatorias , la función de distribución acumulativa conjunta (CDF) viene dada por [3] : p. 89 

donde el lado derecho representa la probabilidad de que la variable aleatoria tome un valor menor o igual a y que tome un valor menor o igual a .

Para variables aleatorias , la CDF conjunta viene dada por

Interpretar las variables aleatorias como un vector aleatorio produce una notación más corta:

Función de densidad articular o función de masa

Caso discreto

La función de masa de probabilidad conjunta de dos variables aleatorias discretas es:

o escrito en términos de distribuciones condicionales

¿Dónde está la probabilidad de que se dé eso ?

La generalización del caso anterior de dos variables es la distribución de probabilidad conjunta de variables aleatorias discretas que es:

o equivalente

.

Esta identidad se conoce como regla de la cadena de probabilidad .

Dado que estas son probabilidades, en el caso de dos variables

que generaliza para variables aleatorias discretas a

Caso continuo

La función de densidad de probabilidad conjunta para dos variables aleatorias continuas se define como la derivada de la función de distribución acumulativa conjunta (ver Ec.1 ):

Esto es igual a:

donde y son las distribuciones condicionales de dado y de dado respectivamente, y y son las distribuciones marginales de y respectivamente.

La definición se extiende naturalmente a más de dos variables aleatorias:

Nuevamente, dado que estas son distribuciones de probabilidad, se tiene

respectivamente

Caso mixto

La "densidad conjunta mixta" puede definirse donde una o más variables aleatorias son continuas y las otras variables aleatorias son discretas. Con una variable de cada tipo.

Un ejemplo de una situación en la que se puede desear encontrar la distribución acumulativa de una variable aleatoria que es continua y otra variable aleatoria que es discreta surge cuando se desea utilizar una regresión logística para predecir la probabilidad de un resultado binario Y condicional a la valor de un resultado distribuido continuamente . Se debe utilizar la densidad conjunta "mixta" al encontrar la distribución acumulativa de este resultado binario porque las variables de entrada se definieron inicialmente de tal manera que no se podía asignar colectivamente ni una función de densidad de probabilidad ni una función de masa de probabilidad. Formalmente, es la función de densidad de probabilidad de con respecto a la medida del producto sobre los respectivos soportes de y . Luego, cualquiera de estas dos descomposiciones se puede utilizar para recuperar la función de distribución acumulativa conjunta:

La definición se generaliza a una mezcla de números arbitrarios de variables aleatorias discretas y continuas.

Propiedades adicionales

Distribución conjunta de variables independientes.

En general, dos variables aleatorias son independientes si y sólo si la función de distribución acumulativa conjunta satisface

Dos variables aleatorias discretas y son independientes si y sólo si la función de masa de probabilidad conjunta satisface

para todos y .

Mientras el número de eventos aleatorios independientes crece, el valor de probabilidad conjunta relacionada disminuye rápidamente hasta cero, de acuerdo con una ley exponencial negativa.

De manera similar, dos variables aleatorias absolutamente continuas son independientes si y sólo si

para todos y . Esto significa que adquirir cualquier información sobre el valor de una o más variables aleatorias conduce a una distribución condicional de cualquier otra variable que sea idéntica a su distribución incondicional (marginal); por tanto, ninguna variable proporciona información sobre ninguna otra variable.

Distribución conjunta de variables condicionalmente dependientes.

Si un subconjunto de variables es condicionalmente dependiente dado otro subconjunto de estas variables, entonces la función de masa de probabilidad de la distribución conjunta es . es igual a . Por lo tanto, puede representarse eficientemente mediante distribuciones de probabilidad de dimensiones inferiores y . Estas relaciones de independencia condicional se pueden representar con una red bayesiana o funciones de cópula .

Covarianza

Cuando se definen dos o más variables aleatorias en un espacio de probabilidad, resulta útil describir cómo varían juntas; es decir, es útil para medir la relación entre las variables. Una medida común de la relación entre dos variables aleatorias es la covarianza. La covarianza es una medida de relación lineal entre las variables aleatorias. Si la relación entre las variables aleatorias no es lineal, la covarianza podría no ser sensible a la relación, lo que significa que no relaciona la correlación entre dos variables.

La covarianza entre la variable aleatoria X e Y, denotada como cov(X,Y), es:

[4]

Correlación

Existe otra medida de la relación entre dos variables aleatorias que suele ser más fácil de interpretar que la covarianza.

La correlación simplemente escala la covarianza por el producto de la desviación estándar de cada variable. En consecuencia, la correlación es una cantidad adimensional que se puede utilizar para comparar las relaciones lineales entre pares de variables en diferentes unidades. Si los puntos en la distribución de probabilidad conjunta de X e Y que reciben probabilidad positiva tienden a caer a lo largo de una línea de pendiente positiva (o negativa), ρ XY está cerca de +1 (o −1). Si ρ XY es igual a +1 o −1, se puede demostrar que los puntos en la distribución de probabilidad conjunta que reciben probabilidad positiva caen exactamente a lo largo de una línea recta. Se dice que dos variables aleatorias con correlación distinta de cero están correlacionadas. Similar a la covarianza, la correlación es una medida de la relación lineal entre variables aleatorias.

La correlación entre la variable aleatoria X e Y, denotada como

Distribuciones con nombre importantes

Las distribuciones conjuntas nombradas que surgen con frecuencia en estadística incluyen la distribución normal multivariada , la distribución estable multivariada , la distribución multinomial , la distribución multinomial negativa , la distribución hipergeométrica multivariada y la distribución elíptica .

Ver también

Referencias

  1. ^ Feller, William (1957). Una introducción a la teoría de la probabilidad y sus aplicaciones, vol 1, 3.ª edición . págs. 217-218. ISBN 978-0471257080.
  2. ^ Montgomery, Douglas C. (19 de noviembre de 2013). Estadística aplicada y probabilidad para ingenieros . Runger, George C. (Sexta ed.). Hoboken, Nueva Jersey. ISBN 978-1-118-53971-2. OCLC  861273897.{{cite book}}: CS1 maint: location missing publisher (link)
  3. ^ Parque, Kun Il (2018). Fundamentos de Probabilidad y Procesos Estocásticos con Aplicaciones a las Comunicaciones . Saltador. ISBN 978-3-319-68074-3.
  4. ^ Montgomery, Douglas C. (19 de noviembre de 2013). Estadística aplicada y probabilidad para ingenieros . Runger, George C. (Sexta ed.). Hoboken, Nueva Jersey. ISBN 978-1-118-53971-2. OCLC  861273897.{{cite book}}: CS1 maint: location missing publisher (link)

enlaces externos