En teoría de la probabilidad , la constante de Kemeny es el número esperado de pasos de tiempo necesarios para que una cadena de Markov pase de un estado inicial i a un estado de destino aleatorio muestreado de la distribución estacionaria de la cadena de Markov. Sorprendentemente, esta cantidad no depende de qué estado inicial i se elija. [1] En ese sentido, es una constante, aunque es diferente para diferentes cadenas de Markov. Cuando John Kemeny publicó por primera vez en 1960, se ofreció un premio a quien diera una explicación intuitiva de por qué la cantidad era constante. [2] [3]
Para una cadena de Markov ergódica finita [4] con matriz de transición P y distribución invariante π , escriba m ij para el tiempo medio de primer paso del estado i al estado j (que denota el tiempo medio de recurrencia para el caso i = j ). Luego
es una constante y no depende de i . [5]
Kemeny escribió, (para i el estado inicial de la cadena de Markov) “Se ofrece un premio a la primera persona que dé una razón intuitivamente plausible de que la suma anterior sea independiente de i ”. [2] Grinstead y Snell ofrecen una explicación de Peter Doyle como ejercicio, con la solución “¡lo consiguió!” [6] [7]
En el transcurso de un paseo con Snell por la avenida Minnehaha en Minneapolis en el otoño de 1983, Peter Doyle sugirió la siguiente explicación para la constancia de la constante de Kemeny. Elija un estado objetivo de acuerdo con el vector fijo w . Comience desde el estado i y espere hasta el momento T en que el estado objetivo ocurra por primera vez. Sea K i el valor esperado de T . Observe que
y por lo tanto
Por el principio del máximo , K i es una constante. ¿Debería haberle dado el premio a Peter?
{{cite web}}
: CS1 maint: URL no apta ( enlace )