En teoría de probabilidad , una colección de variables aleatorias independientes por pares es un conjunto de variables aleatorias, dos de las cuales son independientes . [1] Cualquier colección de variables aleatorias mutuamente independientes es independiente por pares, pero algunas colecciones independientes por pares no son mutuamente independientes. Las variables aleatorias independientes por pares con varianza finita no están correlacionadas .
Un par de variables aleatorias X e Y son independientes si y solo si el vector aleatorio ( X , Y ) con función de distribución acumulativa conjunta (CDF) satisface
o equivalentemente, su densidad conjunta satisface
Es decir, la distribución conjunta es igual al producto de las distribuciones marginales. [2]
A menos que no quede claro en el contexto, en la práctica el modificador "mutuo" suele omitirse para que independencia signifique independencia mutua . Una afirmación como " X , Y , Z son variables aleatorias independientes" significa que X , Y , Z son mutuamente independientes.
La independencia por pares no implica independencia mutua, como lo demuestra el siguiente ejemplo atribuido a S. Bernstein. [3]
Supongamos que X e Y son dos lanzamientos independientes de una moneda justa, donde designamos 1 para cara y 0 para cruz. Sea la tercera variable aleatoria Z igual a 1 si exactamente uno de esos lanzamientos de moneda resultó en "cara", y 0 en caso contrario (es decir, ). Entonces, en conjunto, la tripleta ( X , Y , Z ) tiene la siguiente distribución de probabilidad :
Aquí las distribuciones de probabilidad marginal son idénticas: y Las distribuciones bivariadas también concuerdan: donde
Dado que cada una de las distribuciones conjuntas por pares es igual al producto de sus respectivas distribuciones marginales, las variables son independientes por pares:
Sin embargo, X , Y y Z no son mutuamente independientes , ya que el lado izquierdo es igual, por ejemplo, a 1/4 para ( x , y , z ) = (0, 0, 0), mientras que el lado derecho es igual a 1/8 para ( x , y , z ) = (0, 0, 0). De hecho, cualquiera de las dos está completamente determinada por las otras dos (cualquiera de las dos X , Y , Z es la suma (módulo 2) de las otras). Esto es lo más lejos que pueden llegar de la independencia las variables aleatorias.
Los límites de la probabilidad de que la suma de las variables aleatorias de Bernoulli sea al menos uno, comúnmente conocidos como el límite de unión , son proporcionados por las desigualdades de Boole–Fréchet [4] [5] . Si bien estos límites suponen solo información univariante , también se han propuesto varios límites con conocimiento de probabilidades bivariadas generales. Denote por un conjunto de eventos de Bernoulli con probabilidad de ocurrencia para cada . Suponga que las probabilidades bivariadas están dadas por para cada par de índices . Kounias [6] derivó el siguiente límite superior :
que resta el peso máximo de un árbol de expansión en estrella en un gráfico completo con nodos (donde los pesos de los bordes están dados por ) de la suma de las probabilidades marginales .
Hunter-Worsley [7] [8] ajustó este límite superior al optimizar de la siguiente manera:
donde es el conjunto de todos los árboles de expansión en el gráfico. Estos límites no son los más estrictos posibles con bivariantes generales incluso cuando se garantiza la viabilidad como se muestra en Boros et.al. [9] Sin embargo, cuando las variables son independientes por pares ( ), Ramachandra—Natarajan [10] demostró que el límite de Kounias-Hunter-Worsley [6] [7] [8] es estricto al probar que la probabilidad máxima de la unión de eventos admite una expresión de forma cerrada dada como:
donde las probabilidades se ordenan en orden creciente como . El límite estricto en la ecuación 1 depende solo de la suma de las probabilidades más pequeñas y la probabilidad más grande . Por lo tanto, si bien el orden de las probabilidades juega un papel en la derivación del límite, el orden entre las probabilidades más pequeñas es intrascendente ya que solo se utiliza su suma.
Resulta útil comparar los límites más pequeños de la probabilidad de la unión con dependencia arbitraria e independencia por pares respectivamente. El límite superior de la unión de Boole-Fréchet más estricto (suponiendo solo información univariante ) se da como:
Como se muestra en Ramachandra-Natarajan, [10] se puede verificar fácilmente que la relación de los dos límites estrictos en la ecuación 2 y la ecuación 1 está limitada superiormente por donde se alcanza el valor máximo de cuando
donde las probabilidades se ordenan en orden creciente como . En otras palabras, en el mejor de los casos, el límite de independencia por pares en la ecuación 1 proporciona una mejora de sobre el límite univariante en la ecuación 2 .
De manera más general, podemos hablar de independencia k -wise, para cualquier k ≥ 2. La idea es similar: un conjunto de variables aleatorias es k -wise independiente si cada subconjunto de tamaño k de esas variables es independiente. La independencia k -wise se ha utilizado en informática teórica, donde se utilizó para demostrar un teorema sobre el problema MAXEkSAT .
La independencia k -wise se utiliza en la prueba de que las funciones hash k-independientes son códigos de autenticación de mensajes seguros e infalsificables .
{{cite book}}
: CS1 maint: multiple names: authors list (link)Definición 2.5.1, página 109.{{cite book}}
: CS1 maint: multiple names: authors list (link)Observación 2.6.1, pág. 120.