stringtranslate.com

Acoplamiento (probabilidad)

En teoría de la probabilidad , el acoplamiento es una técnica de prueba que permite comparar dos variables aleatorias no relacionadas (distribuciones) X e Y mediante la creación de un vector aleatorio W cuyas distribuciones marginales corresponden a X e Y respectivamente. La elección de W no suele ser única, y la idea del "acoplamiento" consiste en hacer esa elección de modo que X e Y puedan estar relacionadas de una manera particularmente deseable.

Definición

Utilizando el formalismo estándar de la teoría de la probabilidad , sean y dos variables aleatorias definidas en espacios de probabilidad y . Entonces, un acoplamiento de y es un nuevo espacio de probabilidad sobre el cual hay dos variables aleatorias y tales que tienen la misma distribución que mientras que tienen la misma distribución que .

Un caso interesante es cuando y no son independientes.

Ejemplos

Paseo aleatorio

Supongamos que dos partículas A y B realizan un paseo aleatorio simple en dos dimensiones, pero parten de puntos diferentes. La forma más sencilla de acoplarlas es simplemente obligarlas a caminar juntas. En cada paso, si A camina hacia arriba, también lo hace B , si A se mueve hacia la izquierda, también lo hace B , etc. De este modo, la diferencia entre las posiciones de las dos partículas permanece fija. En lo que respecta a A , está haciendo un paseo aleatorio perfecto, mientras que B es la copia. B sostiene la opinión opuesta, es decir, que es, en efecto, el original y que A es la copia. Y en cierto sentido ambos tienen razón. En otras palabras, cualquier teorema matemático, o resultado que se cumpla para un paseo aleatorio regular, también se cumplirá para A y B .

Consideremos ahora un ejemplo más elaborado. Supongamos que A empieza en el punto (0,0) y B en el punto (10,10). Primero los acoplamos de modo que caminen juntos en dirección vertical, es decir, si A sube, también lo hace B , etc., pero son imágenes especulares en dirección horizontal, es decir, si A va hacia la izquierda, B va hacia la derecha y viceversa. Continuamos este acoplamiento hasta que A y B tengan la misma coordenada horizontal, o en otras palabras, estén en la línea vertical (5, y ). Si nunca se encuentran, continuamos este proceso para siempre (la probabilidad de que eso ocurra es cero, sin embargo). Después de este evento, cambiamos la regla de acoplamiento. Los dejamos caminar juntos en dirección horizontal, pero en una regla de imagen especular en dirección vertical. Continuamos esta regla hasta que también se encuentren en dirección vertical (si lo hacen), y a partir de ese punto, simplemente los dejamos caminar juntos.

Se trata de un acoplamiento en el sentido de que ninguna de las partículas, tomadas por sí solas, puede "sentir" nada de lo que hemos hecho. Ni el hecho de que la otra partícula la siga en un sentido u otro, ni el hecho de que hayamos cambiado la regla de acoplamiento o cuándo lo hayamos hecho. Cada partícula realiza un simple paseo aleatorio. Y, sin embargo, nuestra regla de acoplamiento las obliga a encontrarse casi con toda seguridad y a continuar juntas a partir de ese punto de forma permanente. Esto permite demostrar muchos resultados interesantes que dicen que "a largo plazo", no es importante dónde se empezó para obtener ese resultado en particular.

Monedas sesgadas

Supongamos dos monedas sesgadas, la primera con probabilidad p de que salga cara y la segunda con probabilidad q > p de que salga cara. Intuitivamente, si ambas monedas se lanzan el mismo número de veces, deberíamos esperar que la primera salga menos cara que la segunda. Más específicamente, para cualquier k fijo , la probabilidad de que la primera moneda salga al menos k caras debería ser menor que la probabilidad de que la segunda salga al menos k caras. Sin embargo, probar tal hecho puede ser difícil con un argumento de conteo estándar. [1] El acoplamiento evita fácilmente este problema.

Sean X 1 , X 2 , ..., X n variables indicadoras de cara en una secuencia de lanzamientos de la primera moneda. Para la segunda moneda, defina una nueva secuencia Y 1 , Y 2 , ..., Y n tal que

Entonces la secuencia de Y i tiene exactamente la distribución de probabilidad de lanzamientos realizados con la segunda moneda. Sin embargo, como Y i depende de X i , ahora es posible una comparación lanzamiento por lanzamiento de las dos monedas. Es decir, para cualquier kn

Convergencia de cadenas de Markov a una distribución estacionaria

Inicialice un proceso fuera de la distribución estacionaria e inicialice otro proceso dentro de la distribución estacionaria. Junte estos dos procesos independientes . A medida que deje que transcurra el tiempo, estos dos procesos evolucionarán de forma independiente. En determinadas condiciones, estos dos procesos acabarán encontrándose y podrán considerarse el mismo proceso en ese momento. Esto significa que el proceso fuera de la distribución estacionaria converge a la distribución estacionaria.

Véase también

Notas

  1. ^ Dubhashi, Devdatt; Panconesi, Alessandro (15 de junio de 2009). Concentración de medida para el análisis de algoritmos aleatorios (1.ª ed.). Cambridge University Press. pág. 91. ISBN 978-0-521-88427-3.

Referencias