Proceso de Bernoulli

La independencia de los ensayos implica que el proceso no tiene memoria.

se llaman a menudo "éxito" y "fracaso".

Bajo cualquier interpretación de los dos valores, las variables individuales

En muchas aplicaciones, el tiempo pasa entre ensayos a medida que aumenta el índice

Ese paso del tiempo y las nociones asociadas de "pasado" Y "futuro" no son necesarios, sin embargo.

El número de ensayos necesarios para obtener un éxito, que tiene una distribución geométrica

Las variables binomiales negativas pueden interpretarse como tiempos de espera aleatorios.

El espacio de estados para un valor individual se denomina

, entonces se puede definir una medida natural en el espacio del producto dada por

la probabilidad de observar esta secuencia particular viene dada por

Donde k es el número de veces que H aparece en la secuencia y n-k es el número de veces que T aparece en la secuencia.

Hay varias clases de notaciones para lo anterior; Una común es escribir

Esta probabilidad P se denomina comúnmente la medida de Bernoulli.

Dice que cualquier secuencia infinita dada tiene una medida cero.

Para concluir la definición formal, un proceso de Bernoulli se da entonces por la probabilidad triple

, acercará el valor esperado casi con certeza, es decir, los eventos que no satisfacen este límite tienen probabilidad cero.

En este caso, se puede hacer uso de la aproximación de Stirling al factorial, y escribir Insertando esto en la expresión para P (k, n), uno obtiene la distribución Normal; Este es el contenido del teorema del límite central, y este es el ejemplo más simple de ello.

La combinación de la ley de los grandes números, junto con el teorema del límite central, conduce a un resultado interesante y quizás sorprendente: la propiedad equipartición asintótica.

Puesto de manera informal, se observa que, sí, sobre muchos lanzamientos de monedas, se observará H exactamente p fracción del tiempo, y que esto corresponde exactamente con el pico de Gauss.

La propiedad de equipartición asintótica afirma esencialmente que este pico es infinitamente agudo, con una caída infinita a ambos lados.

Es decir, dado el conjunto de todas las posibles cadenas infinitamente largas de H y T que ocurren en el proceso de Bernoulli, este conjunto se divide en dos: las cadenas que ocurren con la probabilidad 1 y las que ocurren con la probabilidad 0.

Esta partición se conoce como Ley cero-uno de Kolmogorov.

Usando la aproximación de Stirling, poniéndolo en la expresión para P (k , N), resolviendo la localización y el ancho del pico, y finalmente tomando

John von Neumann planteó una pregunta curiosa sobre el proceso de Bernoulli: ¿es posible que un proceso determinado sea isomorfo a otro, en el sentido del isomorfismo de los sistemas dinámicos?

La pregunta desafió largamente el análisis, pero fue finalmente y completamente contestada con el teorema del isomorfismo de Ornstein.

Este avance resultó en la comprensión de que el proceso de Bernoulli es único y universal; En cierto sentido, es el proceso más aleatorio posible; Nada es "más" aleatorio que el proceso de Bernoulli (aunque hay que tener cuidado con esta declaración informal, ciertamente, los sistemas que se mezclan son en cierto sentido "más fuertes" que el proceso de Bernoulli, que es meramente ergódico pero no mezclado.

Sin embargo, tales procesos no consisten en variables aleatorias independientes: de hecho, muchos sistemas puramente determinísticos, no aleatorios pueden ser mezclados).

Esto se debe a que hay una versión natural simétrica en el espacio de producto (bilateral)

Es interesante considerar las funciones propias de este operador, y cómo difieren cuando se restringen a diferentes subespacios de

Cuando se limita a la topología estándar de los números reales, las funciones propias son curiosamente los Polinomios Bernoulli.

Máquina de Galton, demostrando una distribución normal. Este es un ejemplo de un Proceso de Bernoulli.