stringtranslate.com

Acoplamiento (probabilidad)

En teoría de la probabilidad , el acoplamiento es una técnica de prueba que permite comparar dos variables aleatorias (distribuciones) X e Y no relacionadas mediante la creación de un vector aleatorio W cuyas distribuciones marginales corresponden a X e Y respectivamente. La elección de W generalmente no es única, y toda la idea de "acoplamiento" consiste en hacer esa elección de modo que X e Y puedan relacionarse de una manera particularmente deseable.

Definición

Usando el formalismo estándar de probabilidad, sean y dos variables aleatorias definidas en espacios de probabilidad y . Entonces un acoplamiento de y es un nuevo espacio de probabilidad sobre el cual hay dos variables aleatorias y que tiene la misma distribución que mientras que tiene la misma distribución que .

Un caso interesante es cuando y no son independientes.

Ejemplos

Caminata aleatoria

Supongamos que dos partículas A y B realizan un paseo aleatorio simple en dos dimensiones, pero parten de puntos diferentes. La forma más sencilla de acoplarlos es simplemente obligarlos a caminar juntos. En cada paso, si A sube, también lo hace B , si A se mueve hacia la izquierda, también lo hace B , etc. Por lo tanto, la diferencia entre las posiciones de las dos partículas permanece fija. En lo que respecta a A , está realizando un paseo aleatorio perfecto, mientras que B es el imitador. B sostiene la opinión opuesta, es decir, que es, en efecto, el original y que A es la copia. Y en cierto sentido ambos tienen razón. En otras palabras, cualquier teorema matemático o resultado que sea válido para un paseo aleatorio regular también será válido tanto para A como para B.

Consideremos ahora un ejemplo más elaborado. Supongamos que A comienza desde el punto (0,0) y B desde (10,10). Primero, combínelos para que caminen juntos en dirección vertical, es decir, si A sube, B también , etc., pero son imágenes especulares en dirección horizontal, es decir, si A va hacia la izquierda, B va hacia la derecha y viceversa. Continuamos este acoplamiento hasta que A y B tengan la misma coordenada horizontal, o en otras palabras estén en la línea vertical (5, y ). Si nunca se encuentran, continuamos este proceso para siempre (aunque la probabilidad de que eso ocurra es cero). Después de este evento, cambiamos la regla de acoplamiento. Los dejamos caminar juntos en dirección horizontal, pero siguiendo una regla de imagen especular en dirección vertical. Continuamos con esta regla hasta que se encuentren también en dirección vertical (si es que lo hacen), y a partir de ese momento, simplemente los dejamos caminar juntos.

Se trata de un acoplamiento en el sentido de que ninguna partícula, tomada por sí sola, puede "sentir" nada de lo que hicimos. Ni el hecho de que la otra partícula la siga de una manera u otra, ni el hecho de que hayamos cambiado la regla de acoplamiento o cuándo lo hicimos. Cada partícula realiza un paseo aleatorio simple. Y, sin embargo, nuestra regla de acoplamiento los obliga a encontrarse casi con seguridad y a continuar juntos a partir de ese momento de forma permanente. Esto permite probar muchos resultados interesantes que dicen que "a largo plazo", no es importante dónde empezó para obtener ese resultado en particular.

Monedas sesgadas

Supongamos dos monedas sesgadas, la primera con probabilidad p de salir cara y la segunda con probabilidad q > p de salir cara. Intuitivamente, si ambas monedas se lanzan el mismo número de veces, deberíamos esperar que la primera moneda arroje menos caras que la segunda. Más específicamente, para cualquier k fijo , la probabilidad de que la primera moneda produzca al menos k caras debe ser menor que la probabilidad de que la segunda moneda produzca al menos k caras. Sin embargo, demostrar tal hecho puede resultar difícil con un argumento de conteo estándar. [1] El acoplamiento evita fácilmente este problema.

Sean X 1 , X 2 , ..., X n variables indicadoras de cara en una secuencia de lanzamientos de la primera moneda. Para la segunda moneda, defina una nueva secuencia Y 1 , Y 2 , ..., Y n tal que

Entonces la secuencia de Y i tiene exactamente la distribución de probabilidad de los lanzamientos realizados con la segunda moneda. Sin embargo, debido a que Y i depende de X i , ahora es posible realizar una comparación tirada por tirada de las dos monedas. Es decir, para cualquier kn

Convergencia de Cadenas de Markov a una distribución estacionaria

Inicialice un proceso fuera de la distribución estacionaria e inicialice otro proceso dentro de la distribución estacionaria. Junte estos dos procesos independientes . A medida que dejes correr el tiempo, estos dos procesos evolucionarán de forma independiente. Bajo ciertas condiciones, estos dos procesos eventualmente se encontrarán y pueden considerarse el mismo proceso en ese momento. Esto significa que el proceso fuera de la distribución estacionaria converge a la distribución estacionaria.

Ver también

Notas

  1. ^ Dubhashi, Devdatt; Panconesi, Alessandro (15 de junio de 2009). Concentración de medida para el análisis de algoritmos aleatorios (1ª ed.). Prensa de la Universidad de Cambridge. pag. 91.ISBN​ 978-0-521-88427-3.

Referencias