En teoría de matrices , el teorema de Perron-Frobenius , demostrado por Oskar Perron (1907) y Georg Frobenius (1912), afirma que una matriz cuadrada real con elementos positivos tiene un único autovalor de mayor magnitud y que ese autovalor es real. El vector propio correspondiente puede elegirse para que tenga componentes estrictamente positivos, y también afirma una afirmación similar para ciertas clases de matrices no negativas . Este teorema tiene importantes aplicaciones en la teoría de la probabilidad ( ergodicidad de las cadenas de Markov ); en la teoría de sistemas dinámicos ( subdesplazamientos de tipo finito ); en la economía ( teorema de Okishio , [1] condición de Hawkins-Simon [2] ); en la demografía ( modelo de distribución por edad de la población de Leslie ); [3] en las redes sociales ( proceso de aprendizaje de DeGroot ); en los motores de búsqueda de Internet ( PageRank ); [4] e incluso en la clasificación de equipos de fútbol americano. [5] El primero en discutir el ordenamiento de los jugadores dentro de los torneos utilizando vectores propios de Perron-Frobenius fue Edmund Landau . [6] [7]
Sea positivo y no negativo , respectivamente, el que describe matrices con números reales exclusivamente positivos como elementos y matrices con números reales exclusivamente no negativos como elementos. Los valores propios de una matriz cuadrada real A son números complejos que forman el espectro de la matriz. La tasa de crecimiento exponencial de las potencias matriciales A k cuando k → ∞ está controlada por el valor propio de A con el mayor valor absoluto ( módulo ). El teorema de Perron-Frobenius describe las propiedades del valor propio principal y de los vectores propios correspondientes cuando A es una matriz cuadrada real no negativa. Los primeros resultados se debieron a Oskar Perron (1907) y se referían a matrices positivas. Más tarde, Georg Frobenius (1912) encontró su extensión a ciertas clases de matrices no negativas.
Sea una matriz positiva: para . Entonces se cumplen las siguientes afirmaciones.
Todas estas propiedades se extienden más allá de las matrices estrictamente positivas a las matrices primitivas (ver más abajo). Los hechos 1–7 se pueden encontrar en Meyer [12] capítulo 8, afirmaciones 8.2.11–15 página 667 y ejercicios 8.2.5,7,9 páginas 668–669.
Los vectores propios izquierdo y derecho w y v a veces se normalizan de modo que la suma de sus componentes sea igual a 1; en este caso, a veces se los llama vectores propios estocásticos . A menudo se normalizan de modo que el vector propio derecho v sume uno, mientras que .
Existe una extensión para matrices con elementos no negativos. Puesto que cualquier matriz no negativa puede obtenerse como límite de matrices positivas, se obtiene la existencia de un vector propio con componentes no negativos; el valor propio correspondiente será no negativo y mayor o igual que , en valor absoluto, a todos los demás valores propios. [13] [14] Sin embargo, para el ejemplo , el valor propio máximo r = 1 tiene el mismo valor absoluto que el otro valor propio −1; mientras que para , el valor propio máximo es r = 0, que no es una raíz simple del polinomio característico, y el vector propio correspondiente (1, 0) no es estrictamente positivo.
Sin embargo, Frobenius encontró una subclase especial de matrices no negativas ( matrices irreducibles ) para las que es posible una generalización no trivial. Para una matriz de este tipo, aunque los valores propios que alcanzan el valor absoluto máximo pueden no ser únicos, su estructura está bajo control: tienen la forma , donde es un valor propio real estrictamente positivo, y abarca las raíces complejas h' ésimas de 1 para algún entero positivo h llamado período de la matriz. El vector propio correspondiente a tiene componentes estrictamente positivos (en contraste con el caso general de matrices no negativas, donde los componentes son solo no negativos). Además, todos estos valores propios son raíces simples del polinomio característico. A continuación se describen otras propiedades.
Sea A una matriz cuadrada n × n sobre el cuerpo F. La matriz A es irreducible si se cumple alguna de las siguientes propiedades equivalentes.
Definición 1: A no tiene subespacios de coordenadas invariantes no triviales. Aquí, un subespacio de coordenadas no trivial significa un subespacio lineal abarcado por cualquier subconjunto propio de vectores base estándar de F n . Más explícitamente, para cualquier subespacio lineal abarcado por vectores base estándar e i 1 , ..., e i k , 0 < k < n su imagen bajo la acción de A no está contenida en el mismo subespacio.
Definición 2: A no puede conjugarse en forma triangular superior de bloque mediante una matriz de permutación P :
donde E y G son matrices cuadradas no triviales (es decir, de tamaño mayor que cero).
Definición 3: Se puede asociar a una matriz A un cierto grafo dirigido G A . Tiene n vértices etiquetados 1,..., n , y hay una arista del vértice i al vértice j precisamente cuando a ij ≠ 0. Entonces la matriz A es irreducible si y solo si su grafo asociado G A es fuertemente conexo .
Si F es el campo de números reales o complejos, entonces también tenemos la siguiente condición.
Definición 4: La representación grupal de en o en dada por no tiene subespacios de coordenadas invariantes no triviales. (En comparación, esta sería una representación irreducible si no hubiera subespacios invariantes no triviales en absoluto, no solo considerando subespacios de coordenadas).
Una matriz es reducible si no es irreducible.
Una matriz real A es primitiva si no es negativa y su potencia m es positiva para algún número natural m (es decir, todas las entradas de A m son positivas).
Sea A real y no negativo. Fijemos un índice i y definamos el periodo del índice i como el máximo común divisor de todos los números naturales m tales que ( A m ) ii > 0. Cuando A es irreducible, el periodo de cada índice es el mismo y se denomina periodo de A . De hecho, cuando A es irreducible, el periodo se puede definir como el máximo común divisor de las longitudes de los caminos cerrados dirigidos en G A (véase Kitchens [15] página 16). El periodo también se denomina índice de imprimitividad (Meyer [12] página 674) u orden de ciclicidad. Si el periodo es 1, A es aperiódico . Se puede demostrar que las matrices primitivas son las mismas que las matrices aperiódicas irreducibles no negativas.
Todas las afirmaciones del teorema de Perron-Frobenius para matrices positivas siguen siendo válidas para matrices primitivas. Las mismas afirmaciones también son válidas para una matriz irreducible no negativa, excepto que puede poseer varios valores propios cuyo valor absoluto sea igual a su radio espectral, por lo que las afirmaciones deben modificarse en consecuencia. De hecho, el número de dichos valores propios es igual al período.
Los resultados para matrices no negativas fueron obtenidos por primera vez por Frobenius en 1912.
Sea una matriz irreducible no negativa con período y radio espectral . Entonces se cumplen las siguientes afirmaciones.
donde denota una matriz cero y los bloques a lo largo de la diagonal principal son matrices cuadradas.
El ejemplo muestra que las matrices cero (cuadradas) a lo largo de la diagonal pueden ser de diferentes tamaños, los bloques A j no necesitan ser cuadrados y h no necesita dividir a n .
Sea A una matriz no negativa irreducible, entonces:
Una matriz A es primitiva siempre que no sea negativa y A m sea positiva para algún m , y por lo tanto A k sea positiva para todo k ≥ m . Para comprobar la primitividad, se necesita un límite sobre cuán grande puede ser el mínimo de dicha m , dependiendo del tamaño de A : [24]
Se han escrito numerosos libros sobre el tema de las matrices no negativas, y la teoría de Perron-Frobenius es invariablemente un tema central. Los ejemplos que se dan a continuación son apenas una muestra de su amplio campo de aplicación.
El teorema de Perron-Frobenius no se aplica directamente a matrices no negativas. Sin embargo, cualquier matriz cuadrada reducible A puede escribirse en forma de bloque triangular superior (conocida como la forma normal de una matriz reducible ) [25]
donde P es una matriz de permutación y cada B i es una matriz cuadrada que es irreducible o nula. Ahora bien, si A no es negativo, entonces también lo es cada bloque de PAP −1 ; además, el espectro de A es simplemente la unión de los espectros de B i .
También se puede estudiar la invertibilidad de A. La inversa de PAP −1 (si existe) debe tener bloques diagonales de la forma B i −1 , por lo que si cualquier B i no es invertible, entonces tampoco lo es PAP −1 ni A . Inversamente, sea D la matriz diagonal por bloques correspondiente a PAP −1 , en otras palabras PAP −1 con los asteriscos puestos a cero. Si cada B i es invertible, entonces también lo es D y D −1 ( PAP −1 ) es igual a la identidad más una matriz nilpotente. Pero dicha matriz es siempre invertible (si N k = 0 la inversa de 1 − N es 1 + N + N 2 + ... + N k −1 ) por lo que PAP −1 y A son ambas invertibles.
Por lo tanto, muchas de las propiedades espectrales de A pueden deducirse aplicando el teorema al irreducible B i . Por ejemplo, la raíz de Perron es el máximo de ρ( B i ). Si bien seguirá habiendo vectores propios con componentes no negativos, es muy posible que ninguno de ellos sea positivo.
Una matriz estocástica de filas (columnas) es una matriz cuadrada en la que cada una de sus filas (columnas) está formada por números reales no negativos cuya suma es la unidad. El teorema no se puede aplicar directamente a dichas matrices porque no es necesario que sean irreducibles.
Si A es estocástica por filas, entonces el vector columna con cada entrada 1 es un vector propio correspondiente al valor propio 1, que también es ρ( A ) según la observación anterior. Puede que no sea el único valor propio en el círculo unitario: y el espacio propio asociado puede ser multidimensional. Si A es estocástica por filas e irreducible, entonces la proyección de Perron también es estocástica por filas y todas sus filas son iguales.
El teorema tiene un uso particular en la teoría de grafos algebraicos . El "grafo subyacente" de una matriz n -cuadrada no negativa es el grafo con vértices numerados 1, ..., n y arco ij si y solo si A ij ≠ 0. Si el grafo subyacente de dicha matriz es fuertemente conexo, entonces la matriz es irreducible y, por lo tanto, se aplica el teorema. En particular, la matriz de adyacencia de un grafo fuertemente conexo es irreducible. [26] [27]
El teorema tiene una interpretación natural en la teoría de cadenas de Markov finitas (donde es el equivalente matricial de la convergencia de una cadena de Markov finita irreducible a su distribución estacionaria, formulada en términos de la matriz de transición de la cadena; véase, por ejemplo, el artículo sobre el subdesplazamiento de tipo finito ).
En términos más generales, se puede extender al caso de los operadores compactos no negativos , que, en muchos sentidos, se parecen a las matrices de dimensión finita. Estos se estudian comúnmente en física, bajo el nombre de operadores de transferencia , o a veces operadores de Ruelle–Perron–Frobenius (en honor a David Ruelle ). En este caso, el valor propio principal corresponde al equilibrio termodinámico de un sistema dinámico , y los valores propios menores a los modos de decaimiento de un sistema que no está en equilibrio. Por lo tanto, la teoría ofrece una forma de descubrir la flecha del tiempo en lo que de otro modo parecerían ser procesos dinámicos deterministas y reversibles, cuando se examinan desde el punto de vista de la topología de conjuntos puntuales . [28]
Un hilo conductor en muchas demostraciones es el teorema del punto fijo de Brouwer . Otro método popular es el de Wielandt (1950). Utilizó la fórmula de Collatz -Wielandt descrita anteriormente para ampliar y aclarar el trabajo de Frobenius. [29] Otra demostración se basa en la teoría espectral [30] de la que se tomaron prestados parte de los argumentos.
Si A es una matriz positiva (o más generalmente primitiva), entonces existe un valor propio positivo real r (valor propio de Perron-Frobenius o raíz de Perron), que es estrictamente mayor en valor absoluto que todos los demás valores propios, por lo tanto r es el radio espectral de A.
Esta afirmación no es válida para matrices irreducibles no negativas generales, que tienen h valores propios con el mismo valor propio absoluto que r , donde h es el período de A .
Sea A una matriz positiva, supongamos que su radio espectral ρ( A ) = 1 (de lo contrario, consideremos A/ρ(A) ). Por lo tanto, existe un valor propio λ en el círculo unitario, y todos los demás valores propios son menores o iguales a 1 en valor absoluto. Supongamos que otro valor propio λ ≠ 1 también cae en el círculo unitario. Entonces existe un entero positivo m tal que A m es una matriz positiva y la parte real de λ m es negativa. Sea ε la mitad de la entrada diagonal más pequeña de A m y establezcamos T = A m − εI que es otra matriz positiva. Además, si Ax = λx entonces A m x = λ m x por lo tanto λ m − ε es un valor propio de T . Debido a la elección de m, este punto se encuentra fuera del disco unitario, en consecuencia ρ ( T ) > 1. Por otro lado, todas las entradas en T son positivas y menores o iguales que las de A m, por lo que, por la fórmula de Gelfand, ρ ( T ) ≤ ρ ( A m ) ≤ ρ ( A ) m = 1. Esta contradicción significa que λ=1 y no puede haber otros valores propios en el círculo unitario.
Se pueden aplicar exactamente los mismos argumentos al caso de matrices primitivas; sólo hay que mencionar el siguiente lema simple, que aclara las propiedades de las matrices primitivas.
Dado un A no negativo , supongamos que existe m , tal que A m es positivo, entonces A m +1 , A m +2 , A m +3 ,... son todos positivos.
A m +1 = AA m , por lo que puede tener cero elementos solo si alguna fila de A es completamente cero, pero en este caso la misma fila de A m será cero.
Aplicando los mismos argumentos que anteriormente para las matrices primitivas, demuestre la afirmación principal.
Para una matriz A positiva (o más generalmente irreducible no negativa), el vector propio dominante es real y estrictamente positivo (para A no negativa, respectivamente no negativo).
Esto se puede establecer utilizando el método de potencia , que establece que para una matriz A suficientemente genérica (en el sentido que se indica a continuación) , la secuencia de vectores b k +1 = Ab k / | Ab k | converge al vector propio con el valor propio máximo . (El vector inicial b 0 se puede elegir arbitrariamente, excepto para alguna medida de puesta a cero). Comenzar con un vector no negativo b 0 produce la secuencia de vectores no negativos b k . Por lo tanto, el vector límite también es no negativo. Por el método de potencia, este vector límite es el vector propio dominante para A , lo que demuestra la afirmación. El valor propio correspondiente no es negativo.
La demostración requiere dos argumentos adicionales. En primer lugar, el método de potencia converge para matrices que no tienen varios valores propios del mismo valor absoluto que el máximo. El argumento de la sección anterior garantiza esto.
En segundo lugar, para garantizar la positividad estricta de todos los componentes del vector propio en el caso de matrices irreducibles. Esto se desprende del siguiente hecho, que es de interés independiente:
Demostración. Una de las definiciones de irreducibilidad para matrices no negativas es que para todos los índices i,j existe m , tal que ( A m ) ij es estrictamente positivo. Dado un vector propio no negativo v , y que al menos uno de sus componentes, digamos el j -ésimo, es estrictamente positivo, el valor propio correspondiente es estrictamente positivo, de hecho, dado n tal que ( A n ) ii >0, por lo tanto: r n v i = A n v i ≥ ( A n ) ii v i >0. Por lo tanto, r es estrictamente positivo. El vector propio es positividad estricta. Luego, dado m , tal que ( A m ) ij >0, por lo tanto: r m v j = ( A m v ) j ≥ ( A m ) ij v i >0, por lo tanto v j es estrictamente positivo, es decir, el vector propio es estrictamente positivo.
Esta sección demuestra que el valor propio de Perron-Frobenius es una raíz simple del polinomio característico de la matriz. Por lo tanto, el espacio propio asociado al valor propio de Perron-Frobenius r es unidimensional. Los argumentos aquí son similares a los de Meyer. [12]
Dado un vector propio estrictamente positivo v correspondiente a r y otro vector propio w con el mismo valor propio. (Los vectores v y w pueden elegirse como reales, porque A y r son ambos reales, por lo que el espacio nulo de Ar tiene una base que consiste en vectores reales). Suponiendo que al menos uno de los componentes de w es positivo (de lo contrario, multiplique w por −1). Dado el α máximo posible tal que u = v - α w es no negativo, entonces uno de los componentes de u es cero, de lo contrario α no es máximo. El vector u es un vector propio. No es negativo, por lo tanto, por el lema descrito en la sección anterior, la no negatividad implica positividad estricta para cualquier vector propio. Por otro lado, como antes, al menos un componente de u es cero. La contradicción implica que w no existe.
Caso: No hay celdas de Jordan correspondientes al valor propio de Perron-Frobenius r y todos los demás valores propios que tienen el mismo valor absoluto.
Si hay una celda de Jordan, entonces la norma de infinito (A/r) k ∞ tiende a infinito para k → ∞ , pero eso contradice la existencia del vector propio positivo.
Dado r = 1, o A/r . Si v es un vector propio estrictamente positivo de Perron-Frobenius, Av=v , entonces:
Por lo tanto, A k ∞ está acotado para todo k . Esto proporciona otra prueba de que no existen valores propios que tengan un valor absoluto mayor que el de Perron-Frobenius. También contradice la existencia de la celda de Jordan para cualquier valor propio que tenga un valor absoluto igual a 1 (en particular para el de Perron-Frobenius), porque la existencia de la celda de Jordan implica que A k ∞ no está acotado. Para una matriz de dos por dos:
por lo tanto, J k ∞ = | k + λ | (para | λ | = 1), por lo que tiende a infinito cuando k lo hace. Como J k = C −1 A k C , entonces A k ≥ J k / ( C −1 C ), por lo que también tiende a infinito. La contradicción resultante implica que no hay celdas de Jordan para los valores propios correspondientes.
La combinación de las dos afirmaciones anteriores revela que el valor propio de Perron-Frobenius r es una raíz simple del polinomio característico. En el caso de matrices no primitivas, existen otros valores propios que tienen el mismo valor absoluto que r . La misma afirmación es válida para ellos, pero requiere más trabajo.
Dada una matriz positiva (o más generalmente irreducible no negativa) A , el vector propio de Perron-Frobenius es el único vector propio no negativo (hasta la multiplicación por una constante) para A .
Otros vectores propios deben contener componentes negativos o complejos ya que los vectores propios para diferentes valores propios son ortogonales en algún sentido, pero dos vectores propios positivos no pueden ser ortogonales, por lo que deben corresponder al mismo valor propio, pero el espacio propio para Perron-Frobenius es unidimensional.
Suponiendo que existe un par propio ( λ , y ) para A , tal que el vector y es positivo, y dado ( r , x ), donde x – es el vector propio izquierdo de Perron-Frobenius para A (es decir, el vector propio para A T ), entonces rx T y = ( x T A ) y = x T ( Ay ) = λx T y , también x T y > 0, por lo que se tiene: r = λ . Dado que el espacio propio para el valor propio de Perron-Frobenius r es unidimensional, el vector propio no negativo y es un múltiplo del de Perron-Frobenius. [31]
Dada una matriz positiva (o más generalmente irreducible no negativa) A , se define la función f en el conjunto de todos los vectores no negativos no cero x tales que f(x) es el valor mínimo de [ Ax ] i / x i tomado sobre todos aquellos i tales que x i ≠ 0. Entonces f es una función de valor real, cuyo máximo es el valor propio de Perron-Frobenius r .
Para la prueba denotamos el máximo de f por el valor R . La prueba requiere mostrar R = r . Insertando el vector propio de Perron-Frobenius v en f , obtenemos f(v) = r y concluimos que r ≤ R . Para la desigualdad opuesta, consideramos un vector arbitrario no negativo x y sea ξ=f(x) . La definición de f da 0 ≤ ξx ≤ Ax (componente por componente). Ahora, usamos el vector propio positivo derecho w para A para el valor propio de Perron-Frobenius r , luego ξ w T x = w T ξx ≤ w T (Ax) = (w T A)x = rw T x . Por lo tanto f(x) = ξ ≤ r , lo que implica R ≤ r . [32]
Sea A una matriz positiva (o más generalmente, primitiva) y sea r su valor propio de Perron-Frobenius.
Por lo tanto, P es una proyección espectral del valor propio de Perron-Frobenius r y se denomina proyección de Perron. La afirmación anterior no es cierta para matrices irreducibles no negativas generales.
En realidad, las reivindicaciones anteriores (excepto la reivindicación 5) son válidas para cualquier matriz M tal que exista un valor propio r que sea estrictamente mayor que los otros valores propios en valor absoluto y sea la raíz simple del polinomio característico . (Estos requisitos son válidos para matrices primitivas como las anteriores).
Dado que M es diagonalizable, M es conjugada a una matriz diagonal con valores propios r 1 , ... , r n en la diagonal (denotemos r 1 = r ). La matriz M k / r k será conjugada (1, ( r 2 / r ) k , ... , ( r n / r ) k ), que tiende a (1,0,0,...,0), para k → ∞ , por lo que el límite existe. El mismo método funciona para M general (sin suponer que M es diagonalizable).
Las propiedades de proyección y conmutatividad son corolarios elementales de la definición: MM k / r k = M k / r k M ; P 2 = lim M 2 k / r 2 k = P . El tercer hecho también es elemental: M ( Pu ) = M lim M k / r k u = lim rM k +1 / r k +1 u , por lo que al tomar el límite se obtiene M ( Pu ) = r ( Pu ), por lo que la imagen de P se encuentra en el r -espacio propio para M , que es unidimensional según los supuestos.
Denotando por v , r -vector propio para M (por w para M T ). Las columnas de P son múltiplos de v , porque la imagen de P está abarcada por él. Respectivamente, filas de w . Entonces P toma una forma (avw T ) , para algún a . Por lo tanto, su traza es igual a (aw T v) . La traza del proyector es igual a la dimensión de su imagen. Se demostró antes que no es más que unidimensional. De la definición se ve que P actúa idénticamente en el r -vector propio para M . Por lo tanto, es unidimensional. Entonces, elegir ( w T v ) = 1, implica P = vw T .
Para cualquier matriz no negativa A, su valor propio de Perron-Frobenius r satisface la desigualdad:
Esto no es específico de las matrices no negativas: para cualquier matriz A con un valor propio es cierto que . Este es un corolario inmediato del teorema del círculo de Gershgorin . Sin embargo, otra prueba es más directa:
Cualquier norma inducida por matriz satisface la desigualdad para cualquier valor propio porque, si es un vector propio correspondiente, . La norma de infinito de una matriz es el máximo de las sumas de filas: Por lo tanto, la desigualdad deseada se aplica exactamente a la matriz no negativa A .
Otra desigualdad es:
Este hecho es específico de las matrices no negativas; para las matrices generales no hay nada similar. Dado que A es positivo (no solo no negativo), entonces existe un vector propio positivo w tal que Aw = rw y el componente más pequeño de w (digamos w i ) es 1. Entonces r = ( Aw ) i ≥ la suma de los números en la fila i de A . Por lo tanto, la suma mínima de filas da un límite inferior para r y esta observación se puede extender a todas las matrices no negativas por continuidad.
Otra forma de argumentarlo es mediante la fórmula de Collatz -Wielandt. Se toma el vector x = (1, 1, ..., 1) y se obtiene inmediatamente la desigualdad.
La prueba ahora procede mediante la descomposición espectral . El truco aquí es separar la raíz de Perron de los otros valores propios. La proyección espectral asociada con la raíz de Perron se llama proyección de Perron y tiene la siguiente propiedad:
La proyección de Perron de una matriz cuadrada no negativa irreducible es una matriz positiva.
Los hallazgos de Perron y también (1)–(5) del teorema son corolarios de este resultado. El punto clave es que una proyección positiva siempre tiene rango uno. Esto significa que si A es una matriz cuadrada no negativa irreducible, entonces las multiplicidades algebraica y geométrica de su raíz de Perron son ambas uno. Además, si P es su proyección de Perron, entonces AP = PA = ρ( A ) P , por lo que cada columna de P es un vector propio positivo derecho de A y cada fila es un vector propio positivo izquierdo. Además, si Ax = λ x , entonces PAx = λ Px = ρ( A ) Px, lo que significa que Px = 0 si λ ≠ ρ( A ). Por lo tanto, los únicos vectores propios positivos son aquellos asociados con ρ( A ). Si A es una matriz primitiva con ρ( A ) = 1 entonces se puede descomponer como P ⊕ (1 − P ) A de modo que A n = P + (1 − P ) A n . A medida que n aumenta, el segundo de estos términos decae a cero, dejando a P como el límite de A n cuando n → ∞.
El método de potencia es una forma conveniente de calcular la proyección de Perron de una matriz primitiva. Si v y w son los vectores positivos de fila y columna que genera, entonces la proyección de Perron es simplemente wv / vw . Las proyecciones espectrales no están claramente bloqueadas como en la forma de Jordan. Aquí están superpuestas y cada una generalmente tiene entradas complejas que se extienden a las cuatro esquinas de la matriz cuadrada. Sin embargo, conservan su ortogonalidad mutua, que es lo que facilita la descomposición.
El análisis cuando A es irreducible y no negativo es similar en líneas generales. La proyección de Perron sigue siendo positiva, pero ahora puede haber otros valores propios de módulo ρ( A ) que niegan el uso del método de potencias y evitan que las potencias de (1 − P ) A decaigan como en el caso primitivo siempre que ρ( A ) = 1. Por lo tanto, consideramos la proyección periférica , que es la proyección espectral de A correspondiente a todos los valores propios que tienen módulo ρ ( A ). Entonces, se puede demostrar que la proyección periférica de una matriz cuadrada no negativa irreducible es una matriz no negativa con una diagonal positiva.
Supongamos además que ρ( A ) = 1 y que A tiene h valores propios en el círculo unitario. Si P es la proyección periférica, entonces la matriz R = AP = PA no es negativa e irreducible, R h = P , y el grupo cíclico P , R , R 2 , ...., R h −1 representa los armónicos de A . La proyección espectral de A en el valor propio λ en el círculo unitario está dada por la fórmula . Todas estas proyecciones (incluida la proyección de Perron) tienen la misma diagonal positiva, además, elegir cualquiera de ellas y luego tomar el módulo de cada entrada invariablemente da como resultado la proyección de Perron. Todavía se necesita algo de trabajo pesado para establecer las propiedades cíclicas (6)–(8) pero esencialmente es solo una cuestión de girar la manija. La descomposición espectral de A se da por A = R ⊕ (1 − P ) A por lo que la diferencia entre A n y R n es A n − R n = (1 − P ) A n representando los transitorios de A n que eventualmente decaen a cero. P puede calcularse como el límite de A nh cuando n → ∞.
Las matrices L = , P = , T = , M = proporcionan ejemplos simples de lo que puede salir mal si no se cumplen las condiciones necesarias. Se ve fácilmente que las proyecciones de Perron y periféricas de L son ambas iguales a P , por lo tanto, cuando la matriz original es reducible, las proyecciones pueden perder la no negatividad y no hay posibilidad de expresarlas como límites de sus potencias. La matriz T es un ejemplo de una matriz primitiva con diagonal cero. Si la diagonal de una matriz cuadrada no negativa irreducible es distinta de cero, entonces la matriz debe ser primitiva, pero este ejemplo demuestra que lo inverso es falso. M es un ejemplo de una matriz con varios dientes espectrales faltantes. Si ω = e iπ/3 entonces ω 6 = 1 y los valores propios de M son {1,ω 2 ,ω 3 =-1,ω 4 } con un espacio propio de dimensión 2 para +1, por lo que ω y ω 5 están ausentes. Más precisamente, dado que M es cíclico en diagonal de bloques, entonces los valores propios son {1,-1} para el primer bloque, y {1,ω 2 ,ω 4 } para el inferior [ cita requerida ]
Un problema que causa confusión es la falta de estandarización en las definiciones. Por ejemplo, algunos autores usan los términos estrictamente positivo y positivo para significar > 0 y ≥ 0 respectivamente. En este artículo positivo significa > 0 y no negativo significa ≥ 0. Otro tema controvertido se refiere a la descomponibilidad y reducibilidad : irreducible es un término sobrecargado. Para evitar dudas, a veces se dice que una matriz cuadrada no negativa y distinta de cero A tal que 1 + A es primitiva es conexa . Entonces, las matrices cuadradas no negativas irreducibles y las matrices conexas son sinónimas. [33]
El vector propio no negativo a menudo se normaliza de modo que la suma de sus componentes sea igual a la unidad; en este caso, el vector propio es el vector de una distribución de probabilidad y a veces se denomina vector propio estocástico .
El valor propio de Perron-Frobenius y el valor propio dominante son nombres alternativos para la raíz de Perron. Las proyecciones espectrales también se conocen como proyectores espectrales e idempotentes espectrales . El período a veces se denomina índice de imprimitividad u orden de ciclicidad .
{{cite web}}
: CS1 maint: archived copy as title (link){{cite web}}
: CS1 maint: archived copy as title (link){{cite book}}
: CS1 maint: bot: original URL status unknown (link){{cite web}}
: CS1 maint: archived copy as title (link){{cite web}}
: CS1 maint: archived copy as title (link){{cite web}}
: CS1 maint: archived copy as title (link){{cite web}}
: CS1 maint: archived copy as title (link){{cite web}}
: CS1 maint: archived copy as title (link){{cite web}}
: CS1 maint: archived copy as title (link){{cite web}}
: CS1 maint: archived copy as title (link){{cite web}}
: CS1 maint: archived copy as title (link){{cite web}}
: CS1 maint: archived copy as title (link)