Dadas dos variables aleatorias que están definidas en el mismo espacio de probabilidad , [1] la distribución de probabilidad conjunta es la distribución de probabilidad correspondiente en todos los pares posibles de salidas. La distribución conjunta también puede considerarse para cualquier número dado de variables aleatorias. La distribución conjunta codifica las distribuciones marginales , es decir, las distribuciones de cada una de las variables aleatorias individuales y las distribuciones de probabilidad condicional , que tratan de cómo se distribuyen las salidas de una variable aleatoria cuando se da información sobre las salidas de la(s) otra(s) variable(s) aleatoria(s).
En la configuración matemática formal de la teoría de la medida , la distribución conjunta está dada por la medida de empuje hacia adelante , por el mapa obtenido al emparejar las variables aleatorias dadas, de la medida de probabilidad del espacio muestral .
En el caso de variables aleatorias de valor real, la distribución conjunta, como una distribución multivariante particular , puede expresarse mediante una función de distribución acumulativa multivariante o mediante una función de densidad de probabilidad multivariante junto con una función de masa de probabilidad multivariante . En el caso especial de variables aleatorias continuas , es suficiente considerar funciones de densidad de probabilidad y, en el caso de variables aleatorias discretas , es suficiente considerar funciones de masa de probabilidad.
Cada una de las dos urnas contiene el doble de bolas rojas que de bolas azules, y ninguna otra, y se selecciona una bola al azar de cada urna, y las dos extracciones son independientes entre sí. Sean y variables aleatorias discretas asociadas con los resultados de la extracción de la primera y la segunda urna respectivamente. La probabilidad de extraer una bola roja de cualquiera de las urnas es 2/3, y la probabilidad de extraer una bola azul es 1/3. La distribución de probabilidad conjunta se presenta en la siguiente tabla:
Cada una de las cuatro celdas internas muestra la probabilidad de una combinación particular de resultados de los dos sorteos; estas probabilidades son la distribución conjunta. En cualquier celda, la probabilidad de que ocurra una combinación particular es (ya que los sorteos son independientes) el producto de la probabilidad del resultado especificado para A y la probabilidad del resultado especificado para B. Las probabilidades en estas cuatro celdas suman 1, como en todas las distribuciones de probabilidad.
Además, la última fila y la última columna dan la distribución de probabilidad marginal para A y la distribución de probabilidad marginal para B respectivamente. Por ejemplo, para A, la primera de estas celdas da la suma de las probabilidades de que A sea rojo, independientemente de qué posibilidad de B en la columna sobre la celda ocurra, como 2/3. Por lo tanto, la distribución de probabilidad marginal para da las probabilidades de incondicionales en , en un margen de la tabla.
Consideremos el lanzamiento de dos monedas justas ; sean y variables aleatorias discretas asociadas con los resultados del primer y segundo lanzamiento de moneda respectivamente. Cada lanzamiento de moneda es un ensayo de Bernoulli y tiene una distribución de Bernoulli . Si una moneda muestra "cara", entonces la variable aleatoria asociada toma el valor 1, y toma el valor 0 en caso contrario. La probabilidad de cada uno de estos resultados es 1/2, por lo que las funciones de densidad marginales (incondicionales) son
La función de masa de probabilidad conjunta de y define las probabilidades para cada par de resultados. Todos los resultados posibles son
Dado que cada resultado es igualmente probable, la función de masa de probabilidad conjunta se convierte en
Dado que los lanzamientos de moneda son independientes, la función de masa de probabilidad conjunta es el producto de los marginales:
Consideremos el lanzamiento de un dado justo y supongamos que el número es par (es decir, 2, 4 o 6) y en los demás casos. Además, supongamos que el número es primo (es decir, 2, 3 o 5) y en los demás casos.
Entonces, la distribución conjunta de y , expresada como una función de masa de probabilidad, es
Estas probabilidades necesariamente suman 1, ya que la probabilidad de que ocurra alguna combinación de y es 1.
Si se define más de una variable aleatoria en un experimento aleatorio, es importante distinguir entre la distribución de probabilidad conjunta de X e Y y la distribución de probabilidad de cada variable individualmente. La distribución de probabilidad individual de una variable aleatoria se denomina distribución de probabilidad marginal. En general, la distribución de probabilidad marginal de X se puede determinar a partir de la distribución de probabilidad conjunta de X y otras variables aleatorias.
Si la función de densidad de probabilidad conjunta de las variables aleatorias X e Y es , la función de densidad de probabilidad marginal de X e Y, que define la distribución marginal , viene dada por:
donde la primera integral es sobre todos los puntos en el rango de (X,Y) para los cuales X=x y la segunda integral es sobre todos los puntos en el rango de (X,Y) para los cuales Y=y. [2]
Para un par de variables aleatorias , la función de distribución acumulativa conjunta (CDF) viene dada por [3] : p. 89
donde el lado derecho representa la probabilidad de que la variable aleatoria tome un valor menor o igual a y que tome un valor menor o igual a .
Para las variables aleatorias , la CDF conjunta viene dada por
Interpretar las variables aleatorias como un vector aleatorio produce una notación más corta:
La función de masa de probabilidad conjunta de dos variables aleatorias discretas es:
o escrito en términos de distribuciones condicionales
¿Dónde está la probabilidad de dado que ?
La generalización del caso anterior de dos variables es la distribución de probabilidad conjunta de variables aleatorias discretas que es:
o equivalentemente
Esta identidad se conoce como la regla de la cadena de probabilidad .
Dado que se trata de probabilidades, en el caso de dos variables
que se generaliza para variables aleatorias discretas a
La función de densidad de probabilidad conjunta para dos variables aleatorias continuas se define como la derivada de la función de distribución acumulativa conjunta (ver ecuación 1 ):
Esto es igual a:
donde y son las distribuciones condicionales de dado y de dado respectivamente, y y son las distribuciones marginales para y respectivamente.
La definición se extiende naturalmente a más de dos variables aleatorias:
Nuevamente, dado que se trata de distribuciones de probabilidad, uno tiene
respectivamente
La "densidad mixta conjunta" puede definirse cuando una o más variables aleatorias son continuas y las otras variables aleatorias son discretas. Con una variable de cada tipo
Un ejemplo de una situación en la que se puede desear encontrar la distribución acumulativa de una variable aleatoria que es continua y otra variable aleatoria que es discreta surge cuando se desea utilizar una regresión logística para predecir la probabilidad de un resultado binario Y condicional al valor de un resultado distribuido continuamente . Se debe utilizar la densidad conjunta "mixta" al encontrar la distribución acumulativa de este resultado binario porque las variables de entrada se definieron inicialmente de tal manera que no se podía asignar colectivamente ni una función de densidad de probabilidad ni una función de masa de probabilidad. Formalmente, es la función de densidad de probabilidad de con respecto a la medida del producto en los respectivos soportes de y . Cualquiera de estas dos descomposiciones se puede utilizar entonces para recuperar la función de distribución acumulativa conjunta:
La definición se generaliza a una mezcla de números arbitrarios de variables aleatorias discretas y continuas.
En general, dos variables aleatorias y son independientes si y solo si la función de distribución acumulativa conjunta satisface
Dos variables aleatorias discretas y son independientes si y solo si la función de masa de probabilidad conjunta satisface
para todos y .
A medida que el número de eventos aleatorios independientes crece, el valor de probabilidad conjunta relacionada disminuye rápidamente a cero, de acuerdo con una ley exponencial negativa.
De manera similar, dos variables aleatorias absolutamente continuas son independientes si y sólo si
para todos y . Esto significa que la adquisición de cualquier información sobre el valor de una o más de las variables aleatorias conduce a una distribución condicional de cualquier otra variable que sea idéntica a su distribución incondicional (marginal); por lo tanto, ninguna variable proporciona información sobre ninguna otra variable.
Si un subconjunto de las variables es condicionalmente dependiente dado otro subconjunto de estas variables, entonces la función de masa de probabilidad de la distribución conjunta es . es igual a . Por lo tanto, puede representarse eficientemente mediante las distribuciones de probabilidad de menor dimensión y . Tales relaciones de independencia condicional pueden representarse con una red bayesiana o funciones de cópula .
Cuando se definen dos o más variables aleatorias en un espacio de probabilidad, resulta útil describir cómo varían entre sí; es decir, resulta útil medir la relación entre las variables. Una medida común de la relación entre dos variables aleatorias es la covarianza. La covarianza es una medida de la relación lineal entre las variables aleatorias. Si la relación entre las variables aleatorias no es lineal, la covarianza podría no ser sensible a la relación, lo que significa que no relaciona la correlación entre dos variables.
La covarianza entre las variables aleatorias X e Y, denotada como cov(X,Y), es:
[4]
Hay otra medida de la relación entre dos variables aleatorias que a menudo es más fácil de interpretar que la covarianza.
La correlación simplemente escala la covarianza por el producto de la desviación estándar de cada variable. En consecuencia, la correlación es una cantidad adimensional que se puede utilizar para comparar las relaciones lineales entre pares de variables en diferentes unidades. Si los puntos en la distribución de probabilidad conjunta de X e Y que reciben probabilidad positiva tienden a caer a lo largo de una línea de pendiente positiva (o negativa), ρ XY está cerca de +1 (o −1). Si ρ XY es igual a +1 o −1, se puede demostrar que los puntos en la distribución de probabilidad conjunta que reciben probabilidad positiva caen exactamente a lo largo de una línea recta. Se dice que dos variables aleatorias con correlación distinta de cero están correlacionadas. De manera similar a la covarianza, la correlación es una medida de la relación lineal entre variables aleatorias.
La correlación entre la variable aleatoria X e Y, denotada como
Las distribuciones conjuntas con nombre que surgen con frecuencia en estadística incluyen la distribución normal multivariada , la distribución estable multivariada , la distribución multinomial , la distribución multinomial negativa , la distribución hipergeométrica multivariada y la distribución elíptica .
{{cite book}}
: CS1 maint: location missing publisher (link){{cite book}}
: CS1 maint: location missing publisher (link)