En matemáticas, una matriz estocástica es una matriz cuadrada que se utiliza para describir las transiciones de una cadena de Markov . Cada una de sus entradas es un número real no negativo que representa una probabilidad . [1] [2] : 10 También se denomina matriz de probabilidad , matriz de transición , matriz de sustitución o matriz de Markov . La matriz estocástica fue desarrollada por primera vez por Andrey Markov a principios del siglo XX y se ha utilizado en una amplia variedad de campos científicos, incluida la teoría de la probabilidad , la estadística, las finanzas matemáticas y el álgebra lineal , así como la informática y la genética de poblaciones . Existen varias definiciones y tipos diferentes de matrices estocásticas:
En la misma línea, se puede definir un vector de probabilidad como un vector cuyos elementos son números reales no negativos que suman 1. Por lo tanto, cada fila de una matriz estocástica derecha (o columna de una matriz estocástica izquierda) es un vector de probabilidad. Las matrices estocásticas derechas actúan sobre los vectores fila de probabilidades mediante la multiplicación por la derecha, y las matrices estocásticas izquierdas actúan sobre los vectores columna de probabilidades mediante la multiplicación por la izquierda. Este artículo sigue la convención anterior. Además, una matriz subestocástica es una matriz cuadrada real cuyas sumas de filas son todas
La matriz estocástica fue desarrollada junto con la cadena de Markov por Andrey Markov , un matemático ruso y profesor de la Universidad de San Petersburgo que publicó por primera vez sobre el tema en 1906. [3] Sus usos iniciales previstos eran para el análisis lingüístico y otros temas matemáticos como el barajado de cartas , pero tanto las cadenas como las matrices de Markov encontraron rápidamente uso en otros campos. [3] [4]
Las matrices estocásticas fueron desarrolladas aún más por académicos como Andrey Kolmogorov , quien amplió sus posibilidades al permitir procesos de Markov en tiempo continuo. [5] En la década de 1950, aparecieron artículos que utilizaban matrices estocásticas en los campos de la econometría [6] y la teoría de circuitos . [7] En la década de 1960, las matrices estocásticas aparecieron en una variedad aún más amplia de trabajos científicos, desde la ciencia del comportamiento [8] hasta la geología [9] [10] y la planificación residencial . [11] Además, también se realizó mucho trabajo matemático durante estas décadas para mejorar la gama de usos y la funcionalidad de la matriz estocástica y los procesos markovianos en general.
Desde la década de 1970 hasta la actualidad, las matrices estocásticas han encontrado uso en casi todos los campos que requieren análisis formal, desde la ciencia estructural [12] hasta el diagnóstico médico [13] y la gestión de personal . [14] Además, las matrices estocásticas han encontrado un amplio uso en el modelado de cambios en la tierra , generalmente bajo el término matriz de Markov. [15]
Una matriz estocástica describe una cadena de Markov X t sobre un espacio de estados finitos S con cardinalidad α .
Si la probabilidad de pasar de i a j en un paso de tiempo es Pr( j | i ) = P i , j , la matriz estocástica P se da utilizando P i , j como el elemento de la fila i y la columna j , por ejemplo,
Dado que la suma de la probabilidad de transición de un estado i a todos los demás estados debe ser 1,
Por lo tanto, esta matriz es una matriz estocástica derecha.
La suma elemento por elemento anterior en cada fila i de P se puede escribir de forma más concisa como P 1 = 1 , donde 1 es el vector columna α -dimensional de todos los unos. Usando esto, se puede ver que el producto de dos matrices estocásticas derechas P ′ y P ′′ también es estocástico derecho: P ′ P ′′ 1 = P ′ ( P ′′ 1 ) = P ′ 1 = 1 . En general, la k -ésima potencia P k de una matriz estocástica derecha P también es estocástica derecha. La probabilidad de transición de i a j en dos pasos está dada entonces por el ( i , j ) -ésimo elemento del cuadrado de P :
En general, la transición de probabilidad de pasar de cualquier estado a otro estado en una cadena de Markov finita dada por la matriz P en k pasos está dada por P k .
Una distribución de probabilidad inicial de estados, que especifica dónde podría estar inicialmente el sistema y con qué probabilidades, se proporciona como un vector de fila .
Un vector de probabilidad estacionario π se define como una distribución, escrita como un vector fila, que no cambia bajo la aplicación de la matriz de transición; es decir, se define como una distribución de probabilidad en el conjunto {1, …, n } que también es un vector propio de fila de la matriz de probabilidad, asociado con el valor propio 1:
Se puede demostrar que el radio espectral de cualquier matriz estocástica es uno. Por el teorema del círculo de Gershgorin , todos los valores propios de una matriz estocástica tienen valores absolutos menores o iguales a uno. Además, cada matriz estocástica derecha tiene un vector propio de columna "obvio" asociado al valor propio 1: el vector 1 utilizado anteriormente, cuyas coordenadas son todas iguales a 1. Como los valores propios izquierdo y derecho de una matriz cuadrada son los mismos, cada matriz estocástica tiene, al menos, un vector propio de fila asociado al valor propio 1 y el valor absoluto más grande de todos sus valores propios también es 1. Finalmente, el teorema del punto fijo de Brouwer (aplicado al conjunto convexo compacto de todas las distribuciones de probabilidad del conjunto finito {1, …, n } ) implica que hay algún vector propio izquierdo que también es un vector de probabilidad estacionario.
Por otra parte, el teorema de Perron-Frobenius también asegura que cada matriz estocástica irreducible tiene un vector estacionario y que el valor absoluto más grande de un valor propio es siempre 1. Sin embargo, este teorema no se puede aplicar directamente a dichas matrices porque no necesitan ser irreducibles.
En general, puede haber varios vectores de este tipo. Sin embargo, para una matriz con entradas estrictamente positivas (o, más generalmente, para una matriz estocástica aperiódica irreducible), este vector es único y se puede calcular observando que para cualquier i tenemos el siguiente límite,
donde π j es el j -ésimo elemento del vector fila π . Entre otras cosas, esto dice que la probabilidad a largo plazo de estar en un estado j es independiente del estado inicial i . El hecho de que ambos cálculos den el mismo vector estacionario es una forma de teorema ergódico , que generalmente es cierto en una amplia variedad de sistemas dinámicos disipativos : el sistema evoluciona, con el tiempo, a un estado estacionario .
Intuitivamente, una matriz estocástica representa una cadena de Markov; la aplicación de la matriz estocástica a una distribución de probabilidad redistribuye la masa de probabilidad de la distribución original, al tiempo que conserva su masa total. Si este proceso se aplica repetidamente, la distribución converge a una distribución estacionaria para la cadena de Markov. [2] : 14–17 [16] : 116
Las matrices estocásticas y su producto forman una categoría , que es a la vez una subcategoría de la categoría de matrices y de la de núcleos de Markov .
Supongamos que hay un cronómetro y una fila de cinco casillas adyacentes. En el momento cero, un gato está en la primera casilla y un ratón en la quinta. Tanto el gato como el ratón saltan a una casilla adyacente al azar cuando avanza el cronómetro. Por ejemplo, si el gato está en la segunda casilla y el ratón en la cuarta, la probabilidad de que el gato esté en la primera casilla y el ratón en la quinta después de que avance el cronómetro es de un cuarto. Si el gato está en la primera casilla y el ratón en la quinta, la probabilidad de que el gato esté en la casilla dos y el ratón en la casilla cuatro después de que avance el cronómetro es de uno. El gato se come al ratón si ambos terminan en la misma casilla, momento en el que termina el juego. Sea la variable aleatoria K el tiempo que el ratón permanece en el juego.
La cadena de Markov que representa este juego contiene los siguientes cinco estados especificados por la combinación de posiciones (gato, ratón). Nótese que, si bien una enumeración ingenua de estados enumeraría 25 estados, muchos son imposibles, ya sea porque el ratón nunca puede tener un índice menor que el gato (ya que eso significaría que el ratón ocupó la casilla del gato y sobrevivió para pasarla), o porque la suma de los dos índices siempre tendrá paridad par . Además, los 3 estados posibles que conducen a la muerte del ratón se combinan en uno:
Utilizamos una matriz estocástica (abajo) para representar las probabilidades de transición de este sistema (las filas y columnas de esta matriz están indexadas por los estados posibles enumerados arriba, con el estado anterior a la transición como la fila y el estado posterior a la transición como la columna). Por ejemplo, a partir del estado 1 (primera fila), es imposible que el sistema permanezca en este estado, por lo que ; el sistema tampoco puede pasar al estado 2 (porque el gato se habría quedado en la misma caja), por lo que , y por un argumento similar para el ratón, . Se permiten las transiciones a los estados 3 o 5, y por lo tanto .
No importa cuál sea el estado inicial, el gato acabará atrapando al ratón (con probabilidad 1) y se aproxima un estado estacionario π = (0,0,0,0,1) como límite. Para calcular el promedio a largo plazo o el valor esperado de una variable estocástica , para cada estado y tiempo hay una contribución de . La supervivencia se puede tratar como una variable binaria con para un estado superviviente y para el estado terminado. Los estados con no contribuyen al promedio a largo plazo.
Como el estado 5 es un estado absorbente, la distribución del tiempo hasta la absorción se distribuye de forma discreta por fases . Supongamos que el sistema comienza en el estado 2, representado por el vector . Los estados en los que el ratón ha muerto no contribuyen al promedio de supervivencia, por lo que se puede ignorar el estado cinco. La matriz de estado inicial y de transición se puede reducir a:
y
donde es la matriz identidad , y representa una matriz columna de todos los unos que actúa como una suma sobre los estados.
Dado que cada estado está ocupado durante un paso de tiempo, el tiempo esperado de supervivencia del ratón es simplemente la suma de la probabilidad de ocupación sobre todos los estados y pasos de tiempo sobrevivientes.
Los momentos de orden superior están dados por