stringtranslate.com

Cadena de Markov de tiempo continuo

Una cadena de Markov de tiempo continuo ( CTMC ) es un proceso estocástico continuo en el que, para cada estado, el proceso cambiará de estado de acuerdo con una variable aleatoria exponencial y luego se moverá a un estado diferente según lo especificado por las probabilidades de una matriz estocástica . Una formulación equivalente describe el proceso como un cambio de estado de acuerdo con el valor mínimo de un conjunto de variables aleatorias exponenciales, una para cada estado posible al que puede moverse, con los parámetros determinados por el estado actual.

Un ejemplo de un CTMC con tres estados es el siguiente: el proceso realiza una transición después del tiempo especificado por el tiempo de espera , una variable aleatoria exponencial , donde i es su estado actual. Cada variable aleatoria es independiente y tal que , y . Cuando se va a realizar una transición, el proceso se mueve según la cadena de salto , una cadena de Markov de tiempo discreto con matriz estocástica:

De manera equivalente, por la propiedad de las exponenciales en competencia , este CTMC cambia de estado desde el estado i de acuerdo con el mínimo de dos variables aleatorias, que son independientes y tales que los parámetros están dados por la matriz Q.

Cada entrada no diagonal se puede calcular como la probabilidad de que la cadena de salto se mueva del estado i al estado j , dividida por el tiempo de espera esperado del estado i . Las entradas diagonales se eligen de modo que cada fila sume 0.

Un CTMC satisface la propiedad de Markov , de que su comportamiento depende sólo de su estado actual y no de su comportamiento pasado, debido a la falta de memoria de la distribución exponencial y de las cadenas de Markov en tiempo discreto.

Definición

Sea un espacio de probabilidad, sea un conjunto contable no vacío y sea ( para "tiempo"). Equipado con la métrica discreta , para que podamos entender la continuidad correcta de las funciones . Una cadena de Markov de tiempo continuo se define por: [1]

  1. para todos los distintos ,
  2. para todos (Incluso si es infinita, esta suma está a priori bien definida (posiblemente igual a ) porque cada término que aparece en la suma no es negativo. A posteriori , sabemos que la suma también debe ser finita (no igual a ), ya que estamos asumiendo que es igual a y hemos asumido que tiene un valor real. Algunos autores en cambio usan una definición que es palabra por palabra la misma excepto por una estipulación modificada , y dicen es estable o totalmente estable para significar , es decir, cada entrada tiene un valor real .) [2] [3] [4]

Tenga en cuenta que las sumas de las filas son 0: o más sucintamente ,. Esta situación contrasta con la situación de las cadenas de Markov de tiempo discreto , donde todas las sumas de filas de la matriz de transición son iguales a la unidad.

Ahora, dejemos algo que sea mensurable. Hay tres formas equivalentes de definir ser Markov con distribución inicial y matriz de tasas : mediante probabilidades de transición o mediante la cadena de salto y tiempos de espera. [5]

Como preludio a una definición de probabilidad de transición, primero motivamos la definición de una matriz de tasas regular . Usaremos la matriz de tasa de transición para especificar la dinámica de la cadena de Markov generando una colección de matrices de transición en ( ), mediante el siguiente teorema.

Teorema: Existencia de solución a las ecuaciones hacia atrás de Kolmogorov . [6]  -  Existetal que para todosla entradaes diferenciable ysatisface las ecuaciones hacia atrás de Kolmogorov :

Decimos que es regular en el sentido de que tenemos unicidad para el sistema anterior, es decir, que existe exactamente una solución. [7] [8] Decimos que es irregular para decir que no es regular. Si es finito, entonces hay exactamente una solución, es decir, y por tanto es regular. De lo contrario, es infinito y existen matrices de tasas de transición irregulares en . [a] Si es regular, entonces para la solución única , para cada uno , será una matriz estocástica . [6] Supondremos que es regular desde el comienzo de la siguiente subsección hasta el final de esta sección, aunque es convencional [10] [11] [12] no incluir esta suposición. (Nota para el experto: por lo tanto, no estamos definiendo cadenas de Markov de tiempo continuo en general, sino sólo cadenas de Markov de tiempo continuo no explosivas ).

Definición de probabilidad de transición

Sea la solución (única) del sistema ( 0 ). (La unicidad está garantizada por nuestra suposición de que es regular). Decimos que Markov tiene una distribución inicial y una matriz de tasas que significa: para cualquier entero no negativo , para todos tal que para todos

Usando la inducción y el hecho de que podemos mostrar la equivalencia del enunciado anterior que contiene ( 1 ) y el siguiente enunciado: para todos y para cualquier entero no negativo , para todos los tales que para todos los tales que (se deduce que ),

De la continuidad de las funciones ( ) se deduce que la trayectoria es casi con seguridad continua (con respecto a la métrica discreta de ): existe un conjunto nulo tal que . [13]

Definición de cadena de salto/tiempo de espera

Secuencias asociadas a una función continua por la derecha

Sea continuo a la derecha (cuando equipamos con la métrica discreta ). Definir

dejar

Sea la secuencia de tiempo de espera asociada a , elija y deje

ser "la secuencia de estados " asociada a .

Definición de la matriz de salto Π

La matriz de salto , escrita alternativamente si deseamos enfatizar la dependencia de , es la matriz

conjunto cero[14]?

Propiedad de cadena de salto/tiempo de espera

Decimos que es Markov con distribución inicial y matriz de tasas para significar: las trayectorias de son casi con seguridad continuas correctas, sea una modificación de para tener (en todas partes) trayectorias continuas correctas, casi con seguridad (nota para los expertos: esta condición dice que no es explosivo), la secuencia de estados es una cadena de Markov de tiempo discreto con distribución inicial (propiedad de cadena de salto) y matriz de transición ( propiedad de tiempo de retención).

Definición infinitesimal

La cadena de Markov de tiempo continuo se caracteriza por las tasas de transición, las derivadas con respecto al tiempo de las probabilidades de transición entre los estados i y j.

Decimos que es Markov con distribución inicial y matriz de tasas para significar: para todos y para todos , para todos y para pequeños valores estrictamente positivos de , lo siguiente se cumple para todos tales que :

,

donde el término es if y else , y el término little-o depende de cierta manera de . [15] [16]

La ecuación anterior muestra que se puede considerar que mide la rapidez con la que se produce la transición de a y la rapidez con la que se produce la transición de .

Propiedades

Clases comunicativas

Las clases comunicantes, la fugacidad, la recurrencia y la recurrencia positiva y nula se definen de manera idéntica a las cadenas de Markov de tiempo discreto .

Comportamiento transitorio

Escriba P( t ) para la matriz con entradas p ij = P( X t  =  j  |  X 0  =  i ). Entonces la matriz P( t ) satisface la ecuación directa, una ecuación diferencial de primer orden

,

donde el primo denota diferenciación con respecto a t . La solución a esta ecuación viene dada por una matriz exponencial.

.

En un caso simple como CTMC en el espacio de estados {1,2}. La matriz Q general para tal proceso es la siguiente matriz 2 × 2 con α , β  > 0

La relación anterior para la matriz directa se puede resolver explícitamente en este caso para dar

.

Calcular soluciones directas es complicado en matrices más grandes. El hecho de que Q sea el generador de un semigrupo de matrices.

se utiliza.

Distribución estacionaria

La distribución estacionaria para un CTMC recurrente irreducible es la distribución de probabilidad a la que converge el proceso para valores grandes de t . Observe que para el proceso de dos estados considerado anteriormente con P( t ) dada por

,

cuando t  → ∞ la distribución tiende a

.

Observe que cada fila tiene la misma distribución ya que esto no depende del estado inicial. El vector fila π se puede encontrar resolviendo

con la restricción

.

Ejemplo 1

Representación gráfica dirigida de una cadena de Markov de tiempo continuo que describe el estado de los mercados financieros (nota: los números son inventados).

La imagen de la derecha describe una cadena de Markov de tiempo continuo con espacio de estados {mercado alcista, mercado bajista, mercado estancado} y matriz de tasas de transición.

La distribución estacionaria de esta cadena se puede encontrar resolviendo , sujeto a la restricción de que los elementos deben sumar 1 para obtener

Ejemplo 2

Gráfico de transición con probabilidades de transición, ejemplar para los estados 1, 5, 6 y 8. Existe un pasaje secreto bidireccional entre los estados 2 y 8.

La imagen de la derecha describe una cadena de Markov de tiempo discreto que modela Pac-Man con espacio de estados {1,2,3,4,5,6,7,8,9}. El jugador controla a Pac-Man a través de un laberinto, comiendo pac-dots. Mientras tanto, los fantasmas lo persiguen. Para mayor comodidad, el laberinto será una pequeña cuadrícula de 3x3 y los monstruos se moverán aleatoriamente en direcciones horizontales y verticales. Se puede utilizar un pasadizo secreto entre los estados 2 y 8 en ambas direcciones. Las entradas con probabilidad cero se eliminan en la siguiente matriz de tasa de transición:

Esta cadena de Markov es irreductible, porque los fantasmas pueden volar de cada estado a cada estado en un tiempo finito. Debido al pasadizo secreto, la cadena de Markov también es aperiódica, porque los monstruos pueden moverse de cualquier estado a cualquier estado tanto en un número par como en un número impar de transiciones de estado. Por lo tanto, existe una distribución estacionaria única y se puede encontrar resolviendo , sujeta a la restricción de que los elementos deben sumar 1. La solución de esta ecuación lineal sujeta a la restricción es El estado central y los estados fronterizos 2 y 8 del secreto adyacente los pasillos son los más visitados y los estados de las esquinas son los menos visitados.

Inversión del tiempo

Para un CTMC Xt , el proceso inverso en el tiempo se define como . Según el lema de Kelly, este proceso tiene la misma distribución estacionaria que el proceso directo.

Se dice que una cadena es reversible si el proceso inverso es el mismo que el proceso directo. El criterio de Kolmogorov establece que la condición necesaria y suficiente para que un proceso sea reversible es que el producto de las velocidades de transición alrededor de un circuito cerrado debe ser el mismo en ambas direcciones.

Cadena de Markov integrada

Un método para encontrar la distribución de probabilidad estacionaria , π , de una cadena de Markov ergódica de tiempo continuo, Q , es encontrar primero su cadena de Markov incorporada (EMC) . Estrictamente hablando, la EMC es una cadena de Markov regular en tiempo discreto. Cada elemento de la matriz de probabilidad de transición de un paso del EMC, S , se denota por s ij y representa la probabilidad condicional de transición del estado i al estado j . Estas probabilidades condicionales se pueden encontrar mediante

A partir de esto, S puede escribirse como

donde I es la matriz identidad y diag( Q ) es la matriz diagonal formada seleccionando la diagonal principal de la matriz Q y estableciendo todos los demás elementos en cero.

Para encontrar el vector de distribución de probabilidad estacionaria, a continuación debemos encontrar tal que

siendo un vector fila, tal que todos los elementos son mayores que 0 y = 1. A partir de esto, π se puede encontrar como

( S puede ser periódico, incluso si Q no lo es. Una vez que se encuentra π , se debe normalizar a un vector unitario ).

Otro proceso de tiempo discreto que puede derivarse de una cadena de Markov de tiempo continuo es un esqueleto δ: la cadena de Markov (de tiempo discreto) formada al observar X ( t ) a intervalos de δ unidades de tiempo. Las variables aleatorias X (0),  X (δ),  X (2δ), ... dan la secuencia de estados visitados por el δ-esqueleto.

Ver también

Notas

  1. ^ Ross, SM (2010). Introducción a los modelos de probabilidad (10 ed.). Elsevier. ISBN 978-0-12-375686-2.
  2. ^ Anderson 1991, consulte la definición en la página 64.
  3. ^ Chen y Mao 2021, Definición 2.2.
  4. ^ Chen 2004, Definición 0.1 (4).
  5. ^ Norris 1997, Teorema 2.8.4 y Teorema 2.8.2 (b).
  6. ^ ab Anderson 1991, Teorema 2.2.2 (1), página 70.
  7. ^ Anderson 1991, Definición en la página 81.
  8. ^ Chen 2004, página 2.
  9. ^ Anderson 1991, página 20.
  10. ^ ab Suhov y Kelbert 2008, Definición 2.6.3.
  11. ^ Chen y Mao 2021, Definición 2.1.
  12. ^ Chen 2004, Definición 0.1.
  13. ^ Chen & Mao 2021, página 56, justo debajo de la Definición 2.2.
  14. ^ Norris 1997, página 87.
  15. ^ Suhov y Kelbert 2008, Teorema 2.6.6.
  16. ^ Norris 1997, Teorema 2.8.2 (c).

Referencias

  1. ^ Por ejemplo, considere el ejemplo y ser la matriz de tasa de transición (única) tal que . (Entonces las entradas restantes de serán todas cero. Cf. proceso de nacimiento ). Entonces es irregular. Entonces, para el infinito general , la indexación por números enteros no negativos produce que una versión adecuadamente modificada de la matriz anterior será irregular. [9]