stringtranslate.com

Independencia por parejas

En teoría de la probabilidad , una colección independiente por pares de variables aleatorias es un conjunto de variables aleatorias de las cuales dos son independientes . [1] Cualquier colección de variables aleatorias mutuamente independientes es independiente por pares, pero algunas colecciones independientes por pares no son mutuamente independientes. Las variables aleatorias independientes por pares con varianza finita no están correlacionadas .

Un par de variables aleatorias X e Y son independientes si y sólo si el vector aleatorio ( X , Y ) con función de distribución acumulativa conjunta (CDF) satisface

o equivalentemente, su densidad conjunta satisface

Es decir, la distribución conjunta es igual al producto de las distribuciones marginales. [2]

A menos que no quede claro en el contexto, en la práctica el modificador "mutuo" generalmente se elimina, de modo que independencia significa independencia mutua . Una afirmación como " X , Y , Z son variables aleatorias independientes" significa que X , Y , Z son mutuamente independientes.

Ejemplo

La independencia por pares no implica independencia mutua, como lo muestra el siguiente ejemplo atribuido a S. Bernstein. [3]

Supongamos que X e Y son dos lanzamientos independientes de una moneda justa, donde designamos 1 para cara y 0 para cruz. Sea la tercera variable aleatoria Z igual a 1 si exactamente uno de esos lanzamientos de moneda resultó en "cara", y 0 en caso contrario (es decir, ). Entonces en conjunto el triplete ( X , Y , Z ) tiene la siguiente distribución de probabilidad :

Aquí las distribuciones de probabilidad marginal son idénticas: y Las distribuciones bivariadas también concuerdan: donde

Dado que cada una de las distribuciones conjuntas por pares es igual al producto de sus respectivas distribuciones marginales, las variables son independientes por pares:

Sin embargo, X , Y y Z no son mutuamente independientes , ya que el lado izquierdo equivale, por ejemplo, a 1/4 para ( x , y , z ) = (0, 0, 0) mientras que el lado derecho equivale a 1/8 para ( x , y , z ) = (0, 0, 0). De hecho, cualquiera de está completamente determinado por los otros dos (cualquiera de X , Y , Z es la suma (módulo 2) de los demás). Esto es lo más lejos que pueden estar de la independencia las variables aleatorias.

Probabilidad de la unión de eventos independientes por pares.

Los límites de la probabilidad de que la suma de las variables aleatorias de Bernoulli sea al menos uno, comúnmente conocido como límite de unión , los proporcionan las desigualdades de Boole-Fréchet [4] [5] . Si bien estos límites suponen sólo información univariada , también se han propuesto varios límites con conocimiento de probabilidades bivariadas generales. Denota por un conjunto de eventos de Bernoulli con probabilidad de ocurrencia para cada uno . Supongamos que las probabilidades bivariadas están dadas por para cada par de índices . Kounias [6] derivó el siguiente límite superior :


que resta el peso máximo de un árbol de expansión de estrellas en un gráfico completo con nodos (donde los pesos de los bordes están dados por ) de la suma de las probabilidades marginales . Hunter-Worsley [7] [8] apretó este límite superior optimizando de la siguiente manera:

¿Dónde está el conjunto de todos los árboles generadores del gráfico? Estos límites no son los más estrictos posibles con las variables bivariadas generales , incluso cuando la viabilidad está garantizada, como se muestra en Boros et.al. [9] Sin embargo, cuando las variables son independientes por pares ( ), Ramachandra—Natarajan [10] demostraron que el límite de Kounias-Hunter-Worsley [6] [7] [8] es ajustado al demostrar que la probabilidad máxima de la unión de events admite una expresión en forma cerrada dada como:

donde las probabilidades se ordenan en orden creciente como . La cota estrecha en la ecuación. 1 depende sólo de la suma de las probabilidades más pequeñas y la probabilidad más grande . Por lo tanto, si bien el orden de las probabilidades juega un papel en la derivación del límite, el orden entre las probabilidades más pequeñas es intrascendente ya que sólo se utiliza su suma.

Comparación con el sindicato Boole-Fréchet

Es útil comparar los límites más pequeños de la probabilidad de la unión con dependencia arbitraria e independencia por pares, respectivamente. El límite de unión superior de Boole-Fréchet más estricto (asumiendo solo información univariada ) viene dado por:

Como se muestra en Ramachandra-Natarajan, [10] se puede verificar fácilmente que la relación de los dos límites estrechos en la ecuación. 2 y la ecuación. 1 tiene el límite superior donde se alcanza el valor máximo de cuando

,

donde las probabilidades se ordenan en orden creciente como . En otras palabras, en el mejor de los casos, la independencia por pares ligada en la ecuación. 1 proporciona una mejora sobre el límite univariado en la ecuación. 2 .

Generalización

De manera más general, podemos hablar de k -independencia, para cualquier k  ≥ 2. La idea es similar: un conjunto de variables aleatorias es k -independiente si cada subconjunto de tamaño k de esas variables es independiente. La independencia k se ha utilizado en informática teórica, donde se utilizó para demostrar un teorema sobre el problema MAXEkSAT .

La independencia k -sabia se utiliza en la prueba de que las funciones hash independientes k son códigos de autenticación de mensajes seguros e imposibles de falsificar .

Ver también

Referencias

  1. ^ Gut, A. (2005) Probabilidad: un curso de posgrado , Springer-Verlag. ISBN  0-387-27332-8 . págs. 71–72.
  2. ^ Hogg, RV, McKean, JW, Craig, AT (2005). Introducción a la estadística matemática (6 ed.). Upper Saddle River, Nueva Jersey: Pearson Prentice Hall. ISBN 0-13-008507-3.{{cite book}}: CS1 maint: multiple names: authors list (link)Definición 2.5.1, página 109.
  3. ^ Hogg, RV, McKean, JW, Craig, AT (2005). Introducción a la estadística matemática (6 ed.). Upper Saddle River, Nueva Jersey: Pearson Prentice Hall. ISBN 0-13-008507-3.{{cite book}}: CS1 maint: multiple names: authors list (link)Observación 2.6.1, pág. 120.
  4. ^ Boole, G. (1854). Una investigación de las leyes del pensamiento en las que se basan las teorías matemáticas de la lógica y la probabilidad. Walton y Maberly, Londres. Consulte los límites "mayores" y "menores" de una conjunción de Boole en la página 299.
  5. ^ Fréchet, M. (1935). Generalizaciones del teoría de las probabilidades totales. Fundamentos Mathematicae 25 : 379–387.
  6. ^ ab EG Kounias (1968). "Límites para la probabilidad de unión, con aplicaciones". Los anales de la estadística matemática . 39 (6): 2154–2158. doi : 10.1214/aoms/1177698049 .
  7. ^ ab D. Hunter (1976). "Un límite superior para la probabilidad de una unión". Revista de probabilidad aplicada . 13 (3): 597–603. doi :10.2307/3212481. JSTOR  3212481.
  8. ^ ab KJ Worsley (1982). "Una desigualdad y aplicaciones de Bonferroni mejoradas". Biometrika . 69 (2): 297–302. doi :10.1093/biomet/69.2.297.
  9. ^ Boros, Endre ; Scozzari, Andrea; Tardela, Fabio; Veneziani, Pierangela (2014). "Límites polinomialmente computables para la probabilidad de la unión de eventos". Matemáticas de la Investigación de Operaciones . 39 (4): 1311-1329. doi :10.1287/moor.2014.0657.
  10. ^ ab Ramachandra, Arjun Kodagehalli; Natarajan, Karthik (2023). "Límites de probabilidad estrechos con independencia por pares". Revista SIAM de Matemática Discreta . 37 (2): 516–555. arXiv : 2006.00516 . doi :10.1137/21M140829.