stringtranslate.com

Proceso de renovación de Markov

Los procesos de renovación de Markov son una clase de procesos aleatorios en probabilidad y estadística que generalizan la clase de procesos de salto de Markov . Otras clases de procesos aleatorios, como las cadenas de Markov y los procesos de Poisson , pueden derivarse como casos especiales entre la clase de procesos de renovación de Markov, mientras que los procesos de renovación de Markov son casos especiales entre la clase más general de procesos de renovación .

Definición

Una ilustración de un proceso de renovación de Markov

En el contexto de un proceso de salto que toma estados en un espacio de estados , considere el conjunto de variables aleatorias , donde representa los tiempos de salto y representa los estados asociados en la secuencia de estados (ver Figura). Sea la secuencia de tiempos entre llegadas . Para que la secuencia se considere un proceso de renovación de Markov, se debe cumplir la siguiente condición:

Relación con otros procesos estocásticos

  1. Sea y tal como se definió en la declaración anterior. Si se define un nuevo proceso estocástico para , entonces el proceso se denomina proceso semimarkoviano, ya que ocurre en una cadena markoviana de tiempo continuo . El proceso es markoviano solo en los instantes de salto especificados, lo que justifica el nombre semimarkoviano . [1] [2] [3] (Véase también: modelo semimarkoviano oculto ).
  2. Un proceso semimarkoviano (definido en el punto anterior) en el que todos los tiempos de espera se distribuyen exponencialmente se denomina cadena de Markov de tiempo continuo . En otras palabras, si los tiempos entre llegadas se distribuyen exponencialmente y si el tiempo de espera en un estado y el siguiente estado alcanzado son independientes, tenemos una cadena de Markov de tiempo continuo.
  3. La secuencia en el proceso de renovación de Markov es una cadena de Markov de tiempo discreto . En otras palabras, si se ignoran las variables de tiempo en la ecuación del proceso de renovación de Markov, terminamos con una cadena de Markov de tiempo discreto .
  4. Si la secuencia de s es independiente y se distribuye de forma idéntica, y si su distribución no depende del estado , entonces el proceso es una renovación . Por lo tanto, si se ignoran los estados y tenemos una cadena de tiempos iid , entonces tenemos un proceso de renovación.

Véase también

Referencias

  1. ^ Medhi, J. (1982). Procesos estocásticos . Nueva York: Wiley & Sons. ISBN 978-0-470-27000-4.
  2. ^ Ross, Sheldon M. (1999). Procesos estocásticos (2.ª ed.). Nueva York [ua]: Routledge. ISBN 978-0-471-12062-9.
  3. ^ Barbu, Vlad Stefan; Limnios, Nikolaos (2008). Cadenas semimarkovianas y modelos semimarkovianos ocultos hacia aplicaciones: su uso en confiabilidad y análisis de ADN . Nueva York: Springer. ISBN 978-0-387-73171-1.