stringtranslate.com

Distribución marginal

En teoría de probabilidad y estadística , la distribución marginal de un subconjunto de una colección de variables aleatorias es la distribución de probabilidad de las variables contenidas en el subconjunto. Proporciona las probabilidades de varios valores de las variables en el subconjunto sin referencia a los valores de las otras variables. Esto contrasta con una distribución condicional , que proporciona las probabilidades contingentes a los valores de las otras variables.

Las variables marginales son aquellas variables del subconjunto de variables que se retienen. Estos conceptos son "marginales" porque se pueden encontrar sumando valores en una tabla a lo largo de filas o columnas y escribiendo la suma en los márgenes de la tabla. [1] La distribución de las variables marginales (la distribución marginal) se obtiene marginalizando (es decir, centrándose en las sumas en el margen) sobre la distribución de las variables que se descartan, y se dice que las variables descartadas han sido marginadas .

El contexto aquí es que los estudios teóricos que se están realizando, o el análisis de datos que se está haciendo, involucran un conjunto más amplio de variables aleatorias, pero que la atención se está limitando a un número reducido de esas variables. En muchas aplicaciones, un análisis puede comenzar con una colección dada de variables aleatorias, luego extender el conjunto definiendo otras nuevas (como la suma de las variables aleatorias originales) y finalmente reducir el número colocando el interés en la distribución marginal de un subconjunto (como la suma). Se pueden realizar varios análisis diferentes, cada uno de los cuales trata un subconjunto diferente de variables como la distribución marginal.

Definición

Función de masa de probabilidad marginal

Dada una distribución conjunta conocida de dos variables aleatorias discretas , digamos, X e Y , la distribución marginal de cualquiera de las variables ( X, por ejemplo) es la distribución de probabilidad de X cuando no se toman en consideración los valores de Y. Esto se puede calcular sumando la distribución de probabilidad conjunta sobre todos los valores de Y. Naturalmente, lo inverso también es cierto: la distribución marginal se puede obtener para Y sumando los valores separados de X.

, y

Una probabilidad marginal siempre se puede escribir como un valor esperado :

Intuitivamente, la probabilidad marginal de X se calcula examinando la probabilidad condicional de X dado un valor particular de Y y luego promediando esta probabilidad condicional sobre la distribución de todos los valores de Y.

Esto se desprende de la definición de valor esperado (después de aplicar la ley del estadístico inconsciente ).

Por lo tanto, la marginalización proporciona la regla para la transformación de la distribución de probabilidad de una variable aleatoria Y y otra variable aleatoria X = g ( Y ) :

Función de densidad de probabilidad marginal

Dadas dos variables aleatorias continuas X e Y cuya distribución conjunta es conocida, entonces la función de densidad de probabilidad marginal se puede obtener integrando la distribución de probabilidad conjunta , f , sobre Y, y viceversa. Es decir

donde , y .

Función de distribución marginal acumulativa

Encontrar la función de distribución acumulativa marginal a partir de la función de distribución acumulativa conjunta es fácil. Recordemos que:

Si X e Y toman conjuntamente valores en [ a , b ] × [ c , d ] entonces

y

Si d es ∞, entonces se convierte en un límite . Lo mismo ocurre con .

Distribución marginal vs. distribución condicional

Definición

La probabilidad marginal es la probabilidad de que ocurra un único evento, independientemente de otros eventos. Una probabilidad condicional , por otro lado, es la probabilidad de que ocurra un evento dado que otro evento específico ya ha ocurrido. Esto significa que el cálculo para una variable depende de otra variable. [2]

La distribución condicional de una variable dada otra variable es la distribución conjunta de ambas variables dividida por la distribución marginal de la otra variable. [3] Es decir,

Ejemplo

Supongamos que hay datos de un aula de 200 estudiantes sobre la cantidad de tiempo estudiado ( X ) y el porcentaje de respuestas correctas ( Y ). [4] Suponiendo que X e Y son variables aleatorias discretas, la distribución conjunta de X e Y se puede describir enumerando todos los valores posibles de p ( x i , y j ), como se muestra en la Tabla 3.

La distribución marginal se puede utilizar para determinar cuántos estudiantes obtuvieron una puntuación de 20 o menos: , es decir, 10 estudiantes o el 5%.

La distribución condicional se puede utilizar para determinar la probabilidad de que un estudiante que estudió 60 minutos o más obtenga una puntuación de 20 o menos: , lo que significa que hay alrededor de un 11% de probabilidad de obtener una puntuación de 20 después de haber estudiado durante al menos 60 minutos.

Ejemplo del mundo real

Supongamos que se desea calcular la probabilidad de que un peatón sea atropellado por un coche al cruzar la calle en un paso de peatones sin prestar atención al semáforo. Sea H una variable aleatoria discreta que toma un valor de {Atropellado, No atropellado}. Sea L (semáforo) una variable aleatoria discreta que toma un valor de {Rojo, Amarillo, Verde}.

De manera realista, H dependerá de L. Es decir, P(H = Atropellado) tomará valores diferentes dependiendo de si L es roja, amarilla o verde (y lo mismo para P(H = No Atropellado)). Por ejemplo, es mucho más probable que una persona sea atropellada por un coche cuando intenta cruzar mientras el semáforo del tráfico perpendicular está en verde que si está en rojo. En otras palabras, para cualquier par posible de valores dados para H y L, se debe considerar la distribución de probabilidad conjunta de H y L para encontrar la probabilidad de que ese par de eventos ocurran juntos si el peatón ignora el estado del semáforo.

Sin embargo, al intentar calcular la probabilidad marginal P(H = Atropello), lo que se busca es la probabilidad de que H = Atropello en la situación en la que se desconoce el valor particular de L y en la que el peatón ignora el estado de la luz. En general, un peatón puede ser atropellado si las luces están en rojo O si las luces están en amarillo O si las luces están en verde. Por lo tanto, la respuesta para la probabilidad marginal se puede encontrar sumando P(H | L) para todos los valores posibles de L, con cada valor de L ponderado por su probabilidad de ocurrencia.

A continuación se muestra una tabla que muestra las probabilidades condicionales de ser golpeado, según el estado de las luces. (Tenga en cuenta que las columnas de esta tabla deben sumar 1 porque la probabilidad de ser golpeado o no es 1 independientemente del estado de la luz).

Para hallar la distribución de probabilidad conjunta, se requieren más datos. Por ejemplo, supongamos que P(L = rojo) = 0,2, P(L = amarillo) = 0,1 y P(L = verde) = 0,7. Al multiplicar cada columna de la distribución condicional por la probabilidad de que aparezca esa columna, se obtiene la distribución de probabilidad conjunta de H y L, que se muestra en el bloque central de 2×3 entradas. (Observe que las celdas de este bloque de 2×3 suman 1).

La probabilidad marginal P(H = Hit) es la suma de 0,572 a lo largo de la fila H = Hit de esta tabla de distribución conjunta, ya que esta es la probabilidad de ser golpeado cuando las luces están en rojo O amarillo O verde. De manera similar, la probabilidad marginal de que P(H = Not Hit) es la suma a lo largo de la fila H = Not Hit.

Distribuciones multivariadas

Muchas muestras de una distribución normal bivariada. Las distribuciones marginales se muestran en rojo y azul. La distribución marginal de X también se aproxima creando un histograma de las coordenadas X sin tener en cuenta las coordenadas Y.

Para distribuciones multivariadas , se aplican fórmulas similares a las anteriores, con los símbolos X y/o Y interpretándose como vectores. En particular, cada suma o integración se aplicaría a todas las variables excepto las contenidas en X. [ 5]

Esto significa que si X 1 , X 2 ,…, X n son variables aleatorias discretas , entonces la función de masa de probabilidad marginal debería ser si X 1 , X 2 ,…, X n son variables aleatorias continuas , entonces la función de densidad de probabilidad marginal debería ser

Véase también

Referencias

  1. ^ Trumpler, Robert J. y Harold F. Weaver (1962). Astronomía estadística . Publicaciones de Dover. págs. 32-33.
  2. ^ "Distribuciones de probabilidad marginal y condicional: definición y ejemplos". Study.com . Consultado el 16 de noviembre de 2019 .
  3. ^ "Examen P [FSU Math]" www.math.fsu.edu . Consultado el 16 de noviembre de 2019 .
  4. ^ Distribuciones marginales y condicionales , consultado el 16 de noviembre de 2019
  5. ^ Una introducción moderna a la probabilidad y la estadística: comprender por qué y cómo . Dekking, Michel, 1946-. Londres: Springer. 2005. ISBN 9781852338961.OCLC 262680588  .{{cite book}}: CS1 maint: others (link)

Bibliografía