stringtranslate.com

Cadena de Markov de tiempo continuo

Una cadena de Markov de tiempo continuo ( CTMC ) es un proceso estocástico continuo en el que, para cada estado, el proceso cambiará de estado según una variable aleatoria exponencial y luego pasará a un estado diferente según lo especificado por las probabilidades de una matriz estocástica . Una formulación equivalente describe el proceso como un proceso que cambia de estado según el valor más bajo de un conjunto de variables aleatorias exponenciales, una para cada estado posible al que puede pasar, con los parámetros determinados por el estado actual.

Un ejemplo de un CTMC con tres estados es el siguiente: el proceso realiza una transición después de la cantidad de tiempo especificada por el tiempo de espera , una variable aleatoria exponencial , donde i es su estado actual. Cada variable aleatoria es independiente y tal que , y . Cuando se debe realizar una transición, el proceso se mueve de acuerdo con la cadena de salto , una cadena de Markov de tiempo discreto con matriz estocástica:

De manera equivalente, por la propiedad de las exponenciales en competencia , este CTMC cambia de estado desde el estado i de acuerdo con el mínimo de dos variables aleatorias, que son independientes y tales que para donde los parámetros están dados por la matriz Q

Cada entrada no diagonal se puede calcular como la probabilidad de que la cadena de salto se mueva del estado i al estado j , dividida por el tiempo de retención esperado del estado i . Las entradas diagonales se eligen de modo que cada fila sume 0.

Un CTMC satisface la propiedad de Markov , de que su comportamiento depende sólo de su estado actual y no de su comportamiento pasado, debido a la falta de memoria de la distribución exponencial y de las cadenas de Markov de tiempo discreto.

Definición

Sea un espacio de probabilidad, sea un conjunto numerable no vacío y sea ( para "tiempo"). Equipe con la métrica discreta , de modo que podamos entender la continuidad correcta de funciones . Una cadena de Markov de tiempo continuo se define por: [1]

  1. para todos los distintos ,
  2. para todos (Incluso si es infinito, esta suma está bien definida a priori (posiblemente igual a ) porque cada término que aparece en la suma no es negativo. A posteriori , sabemos que la suma también debe ser finita (no igual a ), ya que estamos asumiendo que es igual a y hemos asumido que tiene un valor real. Algunos autores, en cambio, utilizan una definición que es palabra por palabra la misma excepto por una estipulación modificada , y dicen que es estable o totalmente estable para significar , es decir, cada entrada tiene un valor real.) [2] [3] [4]

Nótese que las sumas de filas de son 0: o, más sucintamente, . Esta situación contrasta con la situación de las cadenas de Markov de tiempo discreto , donde todas las sumas de filas de la matriz de transición son iguales a la unidad.

Ahora, sea tal que sea -medible. Hay tres formas equivalentes de definir ser Markov con distribución inicial y matriz de velocidad : a través de probabilidades de transición o a través de la cadena de salto y tiempos de retención. [5]

Como preludio a una definición de probabilidad de transición, primero motivamos la definición de una matriz de velocidad regular . Usaremos la matriz de velocidad de transición para especificar la dinámica de la cadena de Markov mediante la generación de una colección de matrices de transición en ( ), a través del siguiente teorema.

Teorema: Existencia de solución para las ecuaciones de Kolmogorov hacia atrás . [6]  —  Existetal que para todala entradaes diferenciable ysatisface las ecuaciones de Kolmogorov hacia atrás :

Decimos que es regular para significar que tenemos unicidad para el sistema anterior, es decir, que existe exactamente una solución. [7] [8] Decimos que es irregular para significar que no es regular. Si es finito, entonces hay exactamente una solución, a saber y por lo tanto es regular. De lo contrario, es infinito, y existen matrices de velocidad de transición irregulares en . [a] Si es regular, entonces para la única solución , para cada , será una matriz estocástica . [6] Supondremos que es regular desde el principio de la siguiente subsección hasta el final de esta sección, aunque es convencional [10] [11] [12] no incluir esta suposición. (Nota para el experto: por lo tanto, no estamos definiendo cadenas de Markov de tiempo continuo en general, sino solo cadenas de Markov de tiempo continuo no explosivas ).

Definición de probabilidad de transición

Sea la solución (única) del sistema ( 0 ). (Unicidad garantizada por nuestra suposición de que es regular). Decimos que es Markov con distribución inicial y matriz de velocidad para significar: para cualquier entero no negativo , para todos tales que para todos

Usando la inducción y el hecho de que podemos mostrar la equivalencia de la afirmación anterior que contiene ( 1 ) y la siguiente afirmación: para todos y para cualquier entero no negativo , para todos tales que para todos tales que (se sigue que ),

De la continuidad de las funciones ( ) se deduce que la trayectoria es casi seguramente continua hacia la derecha (con respecto a la métrica discreta en ): existe un conjunto -nulo tal que . [13]

Definición de cadena de salto/tiempo de retención

Sucesiones asociadas a una función continua por la derecha

Sea continua derecha (cuando equipamos con la métrica discreta ). Definir

dejar

sea ​​la secuencia de tiempo de retención asociada a , elija y deje

sea ​​"la secuencia de estados " asociada a .

Definición de la matriz de salto Π

La matriz de salto , escrita alternativamente si deseamos enfatizar la dependencia de , es la matriz donde es el conjunto cero de la función [14]

Propiedad de cadena de salto/tiempo de retención

Decimos que es Markov con distribución inicial y matriz de velocidad para significar: las trayectorias de son casi seguramente continuas derechas, sea una modificación de para tener (en todas partes) trayectorias continuas derechas, casi seguramente (nota para expertos: esta condición dice que no es explosiva), la secuencia de estados es una cadena de Markov de tiempo discreto con distribución inicial (propiedad de cadena de salto) y matriz de transición y (propiedad de tiempo de retención).

Definición infinitesimal

La cadena de Markov de tiempo continuo se caracteriza por las tasas de transición, las derivadas con respecto al tiempo de las probabilidades de transición entre los estados i y j.

Decimos que es Markov con distribución inicial y matriz de velocidad , es decir: para todos y para todos , para todos y para pequeños valores estrictamente positivos de , se cumple lo siguiente para todos tales que :

,

donde el término es si y en caso contrario , y el término con o minúscula depende de cierta manera de . [15] [16]

La ecuación anterior muestra que puede considerarse como una medición de la rapidez con la que ocurre la transición de a para , y de la rapidez con la que ocurre la transición desde para .

Propiedades

Clases de comunicación

Las clases comunicantes, transitoriedad, recurrencia y recurrencia positiva y nula se definen de forma idéntica a las cadenas de Markov de tiempo discreto .

Comportamiento transitorio

Escriba P( t ) para la matriz con entradas p ij = P( X t  =  j  |  X 0  =  i ). Entonces la matriz P( t ) satisface la ecuación directa, una ecuación diferencial de primer orden.

,

donde la prima denota diferenciación respecto de t . La solución de esta ecuación viene dada por una matriz exponencial.

.

En un caso simple como un CTMC en el espacio de estados {1,2}, la matriz Q general para un proceso de este tipo es la siguiente matriz 2 × 2 con α , β  > 0

La relación anterior para la matriz directa se puede resolver explícitamente en este caso para obtener

.

Calcular soluciones directas es complicado en matrices más grandes. El hecho de que Q sea el generador de un semigrupo de matrices

se utiliza

Distribución estacionaria

La distribución estacionaria para un CTMC recurrente irreducible es la distribución de probabilidad a la que converge el proceso para valores grandes de t . Observe que para el proceso de dos estados considerado anteriormente con P( t ) dado por

,

cuando t  → ∞ la distribución tiende a

.

Observe que cada fila tiene la misma distribución, ya que esto no depende del estado inicial. El vector de fila π se puede encontrar resolviendo

Con la restricción

.

Ejemplo 1

Representación gráfica dirigida de una cadena de Markov en tiempo continuo que describe el estado de los mercados financieros (nota: los números son inventados).

La imagen de la derecha describe una cadena de Markov de tiempo continuo con espacio de estados {mercado alcista, mercado bajista, mercado estancado} y matriz de tasa de transición .

La distribución estacionaria de esta cadena se puede encontrar resolviendo , sujeta a la restricción de que los elementos deben sumar 1 para obtener

Ejemplo 2

Gráfico de transición con probabilidades de transición, ejemplar para los estados 1, 5, 6 y 8. Hay un pasaje secreto bidireccional entre los estados 2 y 8.

La imagen de la derecha describe una cadena de Markov de tiempo discreto que modela a Pac-Man con espacio de estados {1,2,3,4,5,6,7,8,9}. El jugador controla a Pac-Man a través de un laberinto, comiendo pac-dots. Mientras tanto, es perseguido por fantasmas. Para mayor comodidad, el laberinto será una pequeña cuadrícula de 3x3 y los fantasmas se moverán aleatoriamente en direcciones horizontales y verticales. Se puede usar un pasadizo secreto entre los estados 2 y 8 en ambas direcciones. Las entradas con probabilidad cero se eliminan en la siguiente matriz de tasa de transición:

Esta cadena de Markov es irreducible, porque los fantasmas pueden volar de cada estado a cada estado en una cantidad finita de tiempo. Debido al pasadizo secreto, la cadena de Markov también es aperiódica, porque los fantasmas pueden moverse de cualquier estado a cualquier estado tanto en un número par como en un número impar de transiciones de estado. Por lo tanto, existe una distribución estacionaria única y se puede encontrar resolviendo , sujeta a la restricción de que los elementos deben sumar 1. La solución de esta ecuación lineal sujeta a la restricción es El estado central y los estados fronterizos 2 y 8 del pasadizo secreto adyacente son los más visitados y los estados de las esquinas son los menos visitados.

Inversión del tiempo

Para un CTMC X t , el proceso invertido en el tiempo se define como . Según el lema de Kelly, este proceso tiene la misma distribución estacionaria que el proceso directo.

Se dice que una cadena es reversible si el proceso inverso es el mismo que el proceso directo. El criterio de Kolmogorov establece que la condición necesaria y suficiente para que un proceso sea reversible es que el producto de las velocidades de transición alrededor de un bucle cerrado debe ser el mismo en ambas direcciones.

Cadena de Markov incorporada

Un método para encontrar la distribución de probabilidad estacionaria , π , de una cadena de Markov ergódica de tiempo continuo, Q , es encontrar primero su cadena de Markov incrustada (EMC) . Estrictamente hablando, la EMC es una cadena de Markov regular de tiempo discreto. Cada elemento de la matriz de probabilidad de transición de un paso de la EMC, S , se denota por s ij y representa la probabilidad condicional de transición del estado i al estado j . Estas probabilidades condicionales se pueden encontrar mediante

A partir de esto, S puede escribirse como

donde I es la matriz identidad y diag( Q ) es la matriz diagonal formada al seleccionar la diagonal principal de la matriz Q y establecer todos los demás elementos en cero.

Para encontrar el vector de distribución de probabilidad estacionaria, debemos encontrar a continuación tal que

siendo un vector fila, de modo que todos los elementos en son mayores que 0 y = 1. A partir de esto, π se puede encontrar como

( S puede ser periódico, incluso si Q no lo es. Una vez que se encuentra π , debe normalizarse a un vector unitario ).

Otro proceso de tiempo discreto que puede derivarse de una cadena de Markov de tiempo continuo es un δ-esqueleto: la cadena de Markov (de tiempo discreto) formada al observar X ( t ) a intervalos de δ unidades de tiempo. Las variables aleatorias X (0),  X (δ),  X (2δ), ... dan la secuencia de estados visitados por el δ-esqueleto.

Véase también

Notas

  1. ^ Ross, SM (2010). Introducción a los modelos de probabilidad (10.ª ed.). Elsevier. ISBN 978-0-12-375686-2.
  2. ^ Anderson 1991, Véase la definición en la página 64.
  3. ^ Chen y Mao 2021, Definición 2.2.
  4. ^ Chen 2004, Definición 0.1(4).
  5. ^ Norris 1997, Teorema 2.8.4 y Teorema 2.8.2(b).
  6. ^ ab Anderson 1991, Teorema 2.2.2(1), página 70.
  7. ^ Anderson 1991, Definición en la página 81.
  8. ^ Chen 2004, página 2.
  9. ^ Anderson 1991, página 20.
  10. ^ ab Suhov y Kelbert 2008, Definición 2.6.3.
  11. ^ Chen y Mao 2021, Definición 2.1.
  12. ^ Chen 2004, Definición 0.1.
  13. ^ Chen y Mao 2021, página 56, justo debajo de la Definición 2.2.
  14. ^ Norris 1997, página 87.
  15. ^ Suhov y Kelbert 2008, Teorema 2.6.6.
  16. ^ Norris 1997, Teorema 2.8.2(c).

Referencias

  1. ^ Por ejemplo, considere el ejemplo y siendo la matriz de tasa de transición (única) en tal que . (Entonces las entradas restantes de serán todas cero. Cf. proceso de nacimiento ). Entonces es irregular. Entonces, para el infinito general , la indexación por los números enteros no negativos da como resultado que una versión modificada adecuadamente de la matriz anterior será irregular. [9]