Una cadena de Markov de tiempo continuo ( CTMC ) es un proceso estocástico continuo en el que, para cada estado, el proceso cambiará de estado según una variable aleatoria exponencial y luego pasará a un estado diferente según lo especificado por las probabilidades de una matriz estocástica . Una formulación equivalente describe el proceso como un proceso que cambia de estado según el valor más bajo de un conjunto de variables aleatorias exponenciales, una para cada estado posible al que puede pasar, con los parámetros determinados por el estado actual.
Un ejemplo de un CTMC con tres estados es el siguiente: el proceso realiza una transición después de la cantidad de tiempo especificada por el tiempo de espera , una variable aleatoria exponencial , donde i es su estado actual. Cada variable aleatoria es independiente y tal que , y . Cuando se debe realizar una transición, el proceso se mueve de acuerdo con la cadena de salto , una cadena de Markov de tiempo discreto con matriz estocástica:
De manera equivalente, por la propiedad de las exponenciales en competencia , este CTMC cambia de estado desde el estado i de acuerdo con el mínimo de dos variables aleatorias, que son independientes y tales que para donde los parámetros están dados por la matriz Q
Cada entrada no diagonal se puede calcular como la probabilidad de que la cadena de salto se mueva del estado i al estado j , dividida por el tiempo de retención esperado del estado i . Las entradas diagonales se eligen de modo que cada fila sume 0.
Un CTMC satisface la propiedad de Markov , de que su comportamiento depende sólo de su estado actual y no de su comportamiento pasado, debido a la falta de memoria de la distribución exponencial y de las cadenas de Markov de tiempo discreto.
Definición
Sea un espacio de probabilidad, sea un conjunto numerable no vacío y sea ( para "tiempo"). Equipe con la métrica discreta , de modo que podamos entender la continuidad correcta de funciones . Una cadena de Markov de tiempo continuo se define por: [1]
Un vector de probabilidad en (que a continuación interpretaremos como la distribución inicial de la cadena de Markov), y
para todos (Incluso si es infinito, esta suma está bien definida a priori (posiblemente igual a ) porque cada término que aparece en la suma no es negativo. A posteriori , sabemos que la suma también debe ser finita (no igual a ), ya que estamos asumiendo que es igual a y hemos asumido que tiene un valor real. Algunos autores, en cambio, utilizan una definición que es palabra por palabra la misma excepto por una estipulación modificada , y dicen que es estable o totalmente estable para significar , es decir, cada entrada tiene un valor real.) [2] [3] [4]
Nótese que las sumas de filas de son 0: o, más sucintamente, . Esta situación contrasta con la situación de las cadenas de Markov de tiempo discreto , donde todas las sumas de filas de la matriz de transición son iguales a la unidad.
Ahora, sea tal que sea -medible. Hay tres formas equivalentes de definir ser Markov con distribución inicial y matriz de velocidad : a través de probabilidades de transición o a través de la cadena de salto y tiempos de retención. [5]
Como preludio a una definición de probabilidad de transición, primero motivamos la definición de una matriz de velocidad regular . Usaremos la matriz de velocidad de transición para especificar la dinámica de la cadena de Markov mediante la generación de una colección de matrices de transición en ( ), a través del siguiente teorema.
Decimos que es regular para significar que tenemos unicidad para el sistema anterior, es decir, que existe exactamente una solución. [7] [8] Decimos que es irregular para significar que no es regular. Si es finito, entonces hay exactamente una solución, a saber y por lo tanto es regular. De lo contrario, es infinito, y existen matrices de velocidad de transición irregulares en . [a] Si es regular, entonces para la solución única , para cada , será una matriz estocástica . [6] Supondremos que es regular desde el comienzo de la siguiente subsección hasta el final de esta sección, aunque es convencional [10] [11] [12] no incluir esta suposición. (Nota para el experto: por lo tanto, no estamos definiendo cadenas de Markov de tiempo continuo en general, sino solo cadenas de Markov de tiempo continuo no explosivas ).
Definición de probabilidad de transición
Sea la solución (única) del sistema ( 0 ). (Unicidad garantizada por nuestra suposición de que es regular). Decimos que es Markov con distribución inicial y matriz de velocidad para significar: para cualquier entero no negativo , para todos tales que para todos
Usando la inducción y el hecho de que podemos mostrar la equivalencia de la afirmación anterior que contiene ( 1 ) y la siguiente afirmación: para todos y para cualquier entero no negativo , para todos tales que para todos tales que (se sigue que ),
De la continuidad de las funciones ( ) se deduce que la trayectoria es casi seguramente continua hacia la derecha (con respecto a la métrica discreta en ): existe un conjunto -nulo tal que . [13]
Definición de cadena de salto/tiempo de retención
Sucesiones asociadas a una función continua por la derecha
Sea continua derecha (cuando equipamos con la métrica discreta ). Definir
dejar
sea la secuencia de tiempo de retención asociada a , elija y deje
sea "la secuencia de estados " asociada a .
Definición de la matriz de salto Π
La matriz de salto , escrita alternativamente si deseamos enfatizar la dependencia de , es la matriz
donde es el conjunto cero de la función [14]
Propiedad de tiempo de retención/salto de cadena
Decimos que es Markov con distribución inicial y matriz de velocidad para significar: las trayectorias de son casi seguramente continuas derechas, sea una modificación de para tener (en todas partes) trayectorias continuas derechas, casi seguramente (nota para expertos: esta condición dice que no es explosiva), la secuencia de estados es una cadena de Markov de tiempo discreto con distribución inicial (propiedad de cadena de salto) y matriz de transición y (propiedad de tiempo de retención).
Definición infinitesimal
Decimos que es Markov con distribución inicial y matriz de velocidad para significar: para todos y para todos , para todos y para pequeños valores estrictamente positivos de , se cumple lo siguiente para todos tales que :
,
donde el término es si y en caso contrario , y el término con o minúscula depende de cierta manera de . [15] [16]
La ecuación anterior muestra que puede considerarse como una medición de la rapidez con la que ocurre la transición de a para , y de la rapidez con la que ocurre la transición desde para .
Propiedades
Clases de comunicación
Las clases comunicantes, transitoriedad, recurrencia y recurrencia positiva y nula se definen de forma idéntica a las cadenas de Markov de tiempo discreto .
Comportamiento transitorio
Escriba P( t ) para la matriz con entradas p ij = P( X t = j | X 0 = i ). Entonces la matriz P( t ) satisface la ecuación directa, una ecuación diferencial de primer orden.
,
donde la prima denota diferenciación respecto de t . La solución de esta ecuación viene dada por una matriz exponencial.
.
En un caso simple como un CTMC en el espacio de estados {1,2}, la matriz Q general para un proceso de este tipo es la siguiente matriz 2 × 2 con α , β > 0
La relación anterior para la matriz directa se puede resolver explícitamente en este caso para obtener
.
Calcular soluciones directas es complicado en matrices más grandes. El hecho de que Q sea el generador de un semigrupo de matrices
se utiliza
Distribución estacionaria
La distribución estacionaria para un CTMC recurrente irreducible es la distribución de probabilidad a la que converge el proceso para valores grandes de t . Observe que para el proceso de dos estados considerado anteriormente con P( t ) dado por
,
cuando t → ∞ la distribución tiende a
.
Observe que cada fila tiene la misma distribución, ya que esto no depende del estado inicial. El vector de fila π se puede encontrar resolviendo
Con la restricción
.
Ejemplo 1
La imagen de la derecha describe una cadena de Markov de tiempo continuo con espacio de estados {mercado alcista, mercado bajista, mercado estancado} y matriz de tasa de transición .
La distribución estacionaria de esta cadena se puede encontrar resolviendo , sujeta a la restricción de que los elementos deben sumar 1 para obtener
Ejemplo 2
La imagen de la derecha describe una cadena de Markov de tiempo discreto que modela a Pac-Man con espacio de estados {1,2,3,4,5,6,7,8,9}. El jugador controla a Pac-Man a través de un laberinto, comiendo pac-dots. Mientras tanto, es perseguido por fantasmas. Para mayor comodidad, el laberinto será una pequeña cuadrícula de 3x3 y los fantasmas se moverán aleatoriamente en direcciones horizontales y verticales. Se puede usar un pasadizo secreto entre los estados 2 y 8 en ambas direcciones. Las entradas con probabilidad cero se eliminan en la siguiente matriz de tasa de transición:
Esta cadena de Markov es irreducible, porque los fantasmas pueden volar de cada estado a cada estado en una cantidad finita de tiempo. Debido al pasadizo secreto, la cadena de Markov también es aperiódica, porque los fantasmas pueden moverse de cualquier estado a cualquier estado tanto en un número par como en un número impar de transiciones de estado. Por lo tanto, existe una distribución estacionaria única y se puede encontrar resolviendo , sujeta a la restricción de que los elementos deben sumar 1. La solución de esta ecuación lineal sujeta a la restricción es
El estado central y los estados fronterizos 2 y 8 del pasadizo secreto adyacente son los más visitados y los estados de las esquinas son los menos visitados.
Inversión del tiempo
Para un CTMC X t , el proceso invertido en el tiempo se define como . Según el lema de Kelly, este proceso tiene la misma distribución estacionaria que el proceso directo.
Se dice que una cadena es reversible si el proceso inverso es el mismo que el proceso directo. El criterio de Kolmogorov establece que la condición necesaria y suficiente para que un proceso sea reversible es que el producto de las velocidades de transición alrededor de un bucle cerrado debe ser el mismo en ambas direcciones.
Cadena de Markov incorporada
Un método para encontrar la distribución de probabilidad estacionaria , π , de una cadena de Markov ergódica de tiempo continuo, Q , es encontrar primero su cadena de Markov incrustada (EMC) . Estrictamente hablando, la EMC es una cadena de Markov regular de tiempo discreto. Cada elemento de la matriz de probabilidad de transición de un paso de la EMC, S , se denota por s ij y representa la probabilidad condicional de transición del estado i al estado j . Estas probabilidades condicionales se pueden encontrar mediante
Para encontrar el vector de distribución de probabilidad estacionaria, debemos encontrar a continuación tal que
siendo un vector fila, de modo que todos los elementos en son mayores que 0 y = 1. A partir de esto, π puede encontrarse como
( S puede ser periódico, incluso si Q no lo es. Una vez que se encuentra π , debe normalizarse a un vector unitario ).
Otro proceso de tiempo discreto que puede derivarse de una cadena de Markov de tiempo continuo es un δ-esqueleto: la cadena de Markov (de tiempo discreto) formada al observar X ( t ) a intervalos de δ unidades de tiempo. Las variables aleatorias X (0), X (δ), X (2δ), ... dan la secuencia de estados visitados por el δ-esqueleto.
AA Markov (1971). "Extensión de los teoremas límite de la teoría de la probabilidad a una suma de variables conectadas en una cadena". Reimpreso en el Apéndice B de: R. Howard. Sistemas probabilísticos dinámicos, volumen 1: Cadenas de Markov . John Wiley and Sons.
Markov, AA (2006). "Un ejemplo de investigación estadística del texto Eugene Onegin sobre la conexión de muestras en cadenas". Science in Context . 19 (4). Traducido por Link, David: 591–600. doi :10.1017/s0269889706001074. S2CID 144854176.
SP Meyn y RL Tweedie (1993) Markov Chains and Stochastic Stability . Londres: Springer-Verlag ISBN 0-387-19832-6 . en línea: MCSS . Segunda edición en aparecer, Cambridge University Press, 2009.
Kemeny, John G.; Hazleton Mirkil; J. Laurie Snell; Gerald L. Thompson (1959). Estructuras matemáticas finitas (1.ª ed.). Englewood Cliffs, NJ: Prentice-Hall, Inc. Catálogo de fichas de la Biblioteca del Congreso, número 59-12841.Texto clásico. Véase el Capítulo 6 Cadenas de Markov finitas, págs. 384 y siguientes.
E. Nummelin. Cadenas de Markov irreducibles generales y operadores no negativos . Cambridge University Press, 1984, 2004. ISBN 0-521-60494-X
Norris, JR (1997). Cadenas de Markov . doi :10.1017/CBO9780511810633.005. ISBN 9780511810633.
Seneta, E. Matrices no negativas y cadenas de Markov . 2.ª ed. rev., 1981, XVI, 288 págs., Tapa blanda Springer Series in Statistics. (Publicado originalmente por Allen & Unwin Ltd., Londres, 1973) ISBN 978-0-387-29765-1
Suhov, Yuri; Kelbert, Mark (2008). Cadenas de Markov: una introducción a los procesos aleatorios y sus aplicaciones . Cambridge University Press.
^ Por ejemplo, considere el ejemplo y siendo la matriz de tasa de transición (única) en tal que . (Entonces las entradas restantes de serán todas cero. Cf. proceso de nacimiento ). Entonces es irregular. Entonces, para el infinito general , la indexación por los números enteros no negativos da como resultado que una versión modificada adecuadamente de la matriz anterior será irregular. [9]