En teoría de matrices , el teorema de Perron-Frobenius , demostrado por Oskar Perron (1907) y Georg Frobenius (1912), afirma que una matriz cuadrada real con entradas positivas tiene un valor propio único de mayor magnitud y que ese valor propio es real. Se puede elegir que el vector propio correspondiente tenga componentes estrictamente positivos y también afirma una afirmación similar para ciertas clases de matrices no negativas . Este teorema tiene importantes aplicaciones a la teoría de la probabilidad ( ergodicidad de las cadenas de Markov ); a la teoría de sistemas dinámicos ( subdesplazamientos de tipo finito ); a la economía ( teorema de Okishio , [1] condición de Hawkins-Simon [2] ); a la demografía ( modelo de distribución de edades de la población de Leslie ); [3] a las redes sociales ( proceso de aprendizaje de DeGroot ); a los motores de búsqueda de Internet ( PageRank ); [4] e incluso al ranking de equipos de fútbol americano. [5] El primero en discutir el orden de los jugadores dentro de los torneos usando vectores propios de Perron-Frobenius es Edmund Landau . [6] [7]
Dejemos que positivo y no negativo describan respectivamente matrices con números reales exclusivamente positivos como elementos y matrices con números reales exclusivamente no negativos como elementos. Los valores propios de una matriz cuadrada real A son números complejos que forman el espectro de la matriz. La tasa de crecimiento exponencial de las potencias matriciales A k cuando k → ∞ está controlada por el valor propio de A con el valor absoluto más grande ( módulo ). El teorema de Perron-Frobenius describe las propiedades del valor propio principal y de los vectores propios correspondientes cuando A es una matriz cuadrada real no negativa. Los primeros resultados se debieron a Oskar Perron (1907) y se referían a matrices positivas. Posteriormente, Georg Frobenius (1912) encontró su extensión a ciertas clases de matrices no negativas.
Sea una matriz positiva: para . Entonces se cumplen las siguientes afirmaciones.
Todas estas propiedades se extienden más allá de las matrices estrictamente positivas hasta las matrices primitivas (ver más abajo). Los hechos 1 a 7 se pueden encontrar en Meyer [12] capítulo 8, reclamaciones 8.2.11–15 página 667 y ejercicios 8.2.5,7,9 páginas 668–669.
Los vectores propios izquierdo y derecho w y v a veces se normalizan de modo que la suma de sus componentes sea igual a 1; en este caso, a veces se les llama vectores propios estocásticos . A menudo se normalizan para que el vector propio derecho v sume uno, mientras que .
Existe una extensión para matrices con entradas no negativas. Dado que cualquier matriz no negativa se puede obtener como límite de matrices positivas, se obtiene la existencia de un vector propio con componentes no negativos; el valor propio correspondiente no será negativo y será mayor o igual , en valor absoluto, a todos los demás valores propios. [13] [14] Sin embargo, para el ejemplo , el valor propio máximo r = 1 tiene el mismo valor absoluto que el otro valor propio −1; mientras que para , el valor propio máximo es r = 0, que no es una raíz simple del polinomio característico, y el vector propio correspondiente (1, 0) no es estrictamente positivo.
Sin embargo, Frobenius encontró una subclase especial de matrices no negativas ( matrices irreducibles ) para las cuales es posible una generalización no trivial. Para tal matriz, aunque los valores propios que alcanzan el valor absoluto máximo pueden no ser únicos, su estructura está bajo control: tienen la forma , donde es un valor propio real estrictamente positivo y abarca las raíces complejas h'ésimas de 1 para algunos entero positivo h llamado período de la matriz. El vector propio correspondiente a tiene componentes estrictamente positivos (en contraste con el caso general de matrices no negativas, donde los componentes solo son no negativos). Además, todos estos valores propios son raíces simples del polinomio característico. Otras propiedades se describen a continuación.
Sea A una matriz cuadrada de n × n sobre el campo F. La matriz A es irreducible si se cumple alguna de las siguientes propiedades equivalentes.
Definición 1: A no tiene subespacios de coordenadas invariantes no triviales . Aquí, un subespacio de coordenadas no trivial significa un subespacio lineal abarcado por cualquier subconjunto adecuado de vectores de base estándar de F n . Más explícitamente, para cualquier subespacio lineal abarcado por vectores de base estándar e i 1 , ..., e i k , 0 < k < n su imagen bajo la acción de A no está contenida en el mismo subespacio.
Definición 2: A no se puede conjugar en forma triangular superior en bloque mediante una matriz de permutación P :
donde E y G son matrices cuadradas no triviales (es decir, de tamaño mayor que cero).
Definición 3: Se puede asociar a una matriz A un determinado gráfico dirigido G A . Tiene n vértices etiquetados 1,..., n , y hay una arista del vértice i al vértice j precisamente cuando a ij ≠ 0. Entonces la matriz A es irreducible si y sólo si su gráfico asociado G A está fuertemente conexo .
Si F es el cuerpo de números reales o complejos, entonces también tenemos la siguiente condición.
Definición 4: La representación grupal de on o on dada por no tiene subespacios de coordenadas invariantes no triviales. (En comparación, esta sería una representación irreducible si no hubiera ningún subespacio invariante no trivial, no solo considerando los subespacios de coordenadas).
Una matriz es reducible si no es irreducible.
Una matriz real A es primitiva si no es negativa y su m -ésima potencia es positiva para algún número natural m (es decir , todas las entradas de Am son positivas).
Sea A real y no negativo. Fije un índice i y defina el período del índice i como el máximo común divisor de todos los números naturales m tal que ( A m ) ii > 0. Cuando A es irreducible, el período de cada índice es el mismo y se llama período de A. De hecho, cuando A es irreducible, el período se puede definir como el máximo común divisor de las longitudes de los caminos dirigidos cerrados en G A (ver Cocinas [15] página 16). El período también se llama índice de imprimitividad (Meyer [12] página 674) o orden de ciclicidad. Si el período es 1, A es aperiódico . Se puede demostrar que las matrices primitivas son lo mismo que las matrices no negativas aperiódicas irreducibles.
Todas las afirmaciones del teorema de Perron-Frobenius para matrices positivas siguen siendo válidas para matrices primitivas. Las mismas afirmaciones también son válidas para una matriz irreducible no negativa, excepto que puede poseer varios valores propios cuyo valor absoluto es igual a su radio espectral, por lo que las afirmaciones deben modificarse en consecuencia. De hecho, el número de dichos valores propios es igual al período.
Frobenius obtuvo por primera vez resultados para matrices no negativas en 1912.
Sea una matriz irreducible no negativa con período y radio espectral . Entonces se cumplen las siguientes afirmaciones.
donde denota una matriz cero y los bloques a lo largo de la diagonal principal son matrices cuadradas.
El ejemplo muestra que las matrices cero (cuadradas) a lo largo de la diagonal pueden ser de diferentes tamaños, los bloques A j no necesitan ser cuadrados y h no necesita dividir a n .
Sea A una matriz no negativa irreducible, entonces:
Una matriz A es primitiva siempre que no sea negativa y Am sea positiva para algunos m y, por tanto, A k sea positiva para todos los k ≥ m . Para comprobar la primitividad, se necesita un límite de cuán grande puede ser el mínimo m , dependiendo del tamaño de A : [24]
Se han escrito numerosos libros sobre el tema de las matrices no negativas, y la teoría de Perron-Frobenius es invariablemente una característica central. Los siguientes ejemplos que se dan a continuación sólo tocan la superficie de su vasto dominio de aplicación.
El teorema de Perron-Frobenius no se aplica directamente a matrices no negativas. Sin embargo, cualquier matriz cuadrada reducible A puede escribirse en forma de bloque triangular superior (conocida como forma normal de una matriz reducible ) [25]
donde P es una matriz de permutación y cada B i es una matriz cuadrada que es irreducible o cero. Ahora bien , si A no es negativo, también lo será cada bloque de PAP −1 ; además, el espectro de A es solo la unión de los espectros de Bi .
También se puede estudiar la invertibilidad de A. La inversa de PAP −1 (si existe) debe tener bloques diagonales de la forma B i −1, por lo que si algún B i no es invertible , tampoco lo es PAP −1 o A. Por el contrario, sea D la matriz diagonal de bloques correspondiente a PAP −1 , en otras palabras, PAP −1 con los asteriscos puestos a cero. Si cada B i es invertible entonces también lo es D y D −1 ( PAP −1 ) es igual a la identidad más una matriz nilpotente. Pero dicha matriz es siempre invertible (si N k = 0, la inversa de 1 − N es 1 + N + N 2 + ... + N k −1 ), por lo que PAP −1 y A son ambos invertibles.
Por lo tanto, muchas de las propiedades espectrales de A pueden deducirse aplicando el teorema al irreducible Bi . Por ejemplo, la raíz de Perron es el máximo de ρ( B i ). Si bien todavía habrá vectores propios con componentes no negativos, es muy posible que ninguno de ellos sea positivo.
Una matriz estocástica de filas (columnas) es una matriz cuadrada, cada una de cuyas filas (columnas) consta de números reales no negativos cuya suma es la unidad. El teorema no se puede aplicar directamente a tales matrices porque no es necesario que sean irreducibles.
Si A es estocástico por filas, entonces el vector columna con cada entrada 1 es un vector propio correspondiente al valor propio 1, que también es ρ( A ) según la observación anterior. Puede que no sea el único valor propio en el círculo unitario: y el espacio propio asociado puede ser multidimensional. Si A es estocástica por filas e irreducible, entonces la proyección de Perron también es estocástica por filas y todas sus filas son iguales.
El teorema tiene un uso particular en la teoría de grafos algebraicos . El "gráfico subyacente" de una matriz n -cuadrada no negativa es el gráfico con vértices numerados 1, ..., n y arco ij si y sólo si A ij ≠ 0. Si el gráfico subyacente de dicha matriz está fuertemente conexo, entonces la matriz es irreducible y, por tanto, se aplica el teorema. En particular, la matriz de adyacencia de un gráfico fuertemente conexo es irreducible. [26] [27]
El teorema tiene una interpretación natural en la teoría de cadenas de Markov finitas (donde es el equivalente teórico matricial de la convergencia de una cadena de Markov finita irreducible a su distribución estacionaria, formulada en términos de la matriz de transición de la cadena; ver, para (por ejemplo, el artículo sobre el subdesplazamiento de tipo finito ).
De manera más general, se puede extender al caso de operadores compactos no negativos , que, en muchos sentidos, se parecen a matrices de dimensión finita. Estos se estudian comúnmente en física, bajo el nombre de operadores de transferencia o, a veces, operadores de Ruelle-Perron-Frobenius (en honor a David Ruelle ). En este caso, el valor propio principal corresponde al equilibrio termodinámico de un sistema dinámico , y los valores propios menores a los modos de desintegración de un sistema que no está en equilibrio. Por lo tanto, la teoría ofrece una manera de descubrir la flecha del tiempo en lo que de otro modo parecerían ser procesos dinámicos deterministas y reversibles, cuando se examinan desde el punto de vista de la topología de conjuntos de puntos . [28]
Un hilo conductor en muchas demostraciones es el teorema del punto fijo de Brouwer . Otro método popular es el de Wielandt (1950). Utilizó la fórmula de Collatz -Wielandt descrita anteriormente para ampliar y aclarar el trabajo de Frobenius. [29] Otra prueba se basa en la teoría espectral [30] de la que se toman prestados parte de los argumentos.
Si A es una matriz positiva (o más generalmente primitiva), entonces existe un valor propio positivo real r (valor propio de Perron-Frobenius o raíz de Perron), que es estrictamente mayor en valor absoluto que todos los demás valores propios, por lo tanto, r es el radio espectral de A .
Esta afirmación no es válida para matrices irreducibles no negativas generales, que tienen h valores propios con el mismo valor propio absoluto que r , donde h es el período de A.
Sea A una matriz positiva, supongamos que su radio espectral ρ( A ) = 1 (de lo contrario, considere A/ρ(A) ). Por lo tanto, existe un valor propio λ en el círculo unitario, y todos los demás valores propios son menores o iguales a 1 en valor absoluto. Supongamos que otro valor propio λ ≠ 1 también cae en el círculo unitario. Entonces existe un entero positivo m tal que Am es una matriz positiva y la parte real de λ m es negativa. Sea ε la mitad de la entrada diagonal más pequeña de Am y establezca T = Am − εI , que es otra matriz positiva más. Además, si Ax = λx entonces A m x = λ m x por lo tanto λ m − ε es un valor propio de T . Debido a la elección de m, este punto se encuentra fuera del disco unitario, por lo que ρ ( T ) > 1. Por otro lado, todas las entradas en T son positivas y menores o iguales que las de Am , por lo que según la fórmula de Gelfand ρ ( T ) ≤ ρ ( A m ) ≤ ρ ( A ) m = 1. Esta contradicción significa que λ=1 y no puede haber otros valores propios en el círculo unitario.
Se pueden aplicar absolutamente los mismos argumentos al caso de matrices primitivas; sólo necesitamos mencionar el siguiente lema simple, que aclara las propiedades de las matrices primitivas.
Dado un A no negativo , supongamos que existe m , tal que Am es positivo, entonces Am +1 , Am +2 , Am +3 ,... son todos positivos .
Am +1 = AA m , por lo que puede tener elemento cero solo si alguna fila de A es completamente cero, pero en este caso la misma fila de Am será cero .
Aplicando los mismos argumentos anteriores para las matrices primitivas, pruebe la afirmación principal.
Para una matriz A positiva (o más generalmente irreducible y no negativa), el vector propio dominante es real y estrictamente positivo (para A no negativa, respectivamente, no negativa).
Esto se puede establecer utilizando el método de potencia , que establece que para una matriz A suficientemente genérica (en el sentido siguiente) la secuencia de vectores b k +1 = Ab k / | Ab k | converge al vector propio con el valor propio máximo . (El vector inicial b 0 se puede elegir arbitrariamente excepto por alguna medida establecida en cero). Comenzar con un vector no negativo b 0 produce la secuencia de vectores no negativos b k . Por tanto, el vector límite tampoco es negativo. Por el método de potencia, este vector limitante es el vector propio dominante para A , lo que demuestra la afirmación. El valor propio correspondiente no es negativo.
La prueba requiere dos argumentos adicionales. Primero, el método de la potencia converge para matrices que no tienen varios valores propios del mismo valor absoluto que el máximo. El argumento de la sección anterior lo garantiza.
En segundo lugar, garantizar la positividad estricta de todos los componentes del vector propio para el caso de matrices irreducibles. Esto se desprende del siguiente hecho, que es de interés independiente:
Prueba. Una de las definiciones de irreductibilidad para matrices no negativas es que para todos los índices i,j existe m , tal que ( A m ) ij es estrictamente positivo. Dado un vector propio no negativo v , y que al menos uno de sus componentes dice j -ésimo es estrictamente positivo, el valor propio correspondiente es estrictamente positivo, de hecho, dado n tal que ( A n ) ii >0, por lo tanto: r n v yo = Una norte v yo ≥ ( Una norte ) ii v yo >0. Por tanto, r es estrictamente positivo. El vector propio es la positividad estricta. Entonces dado m , tal que ( A m ) ij >0, por lo tanto: r m v j = ( A m v ) j ≥ ( A m ) ij v i >0, por lo tanto v j es estrictamente positivo, es decir, el vector propio es estrictamente positivo.
Esta sección demuestra que el valor propio de Perron-Frobenius es una raíz simple del polinomio característico de la matriz. Por tanto, el espacio propio asociado al valor propio r de Perron-Frobenius es unidimensional. Los argumentos aquí son similares a los de Meyer. [12]
Dado un vector propio estrictamente positivo v correspondiente a r y otro vector propio w con el mismo valor propio. (Los vectores v y w pueden elegirse como reales, porque A y r son ambos reales, por lo que el espacio nulo de Ar tiene una base que consta de vectores reales). Suponiendo que al menos uno de los componentes de w es positivo (en caso contrario, multiplique w por −1). Dado el máximo posible α tal que u=v- α w no es negativo, entonces uno de los componentes de u es cero; de lo contrario, α no es máximo. El vector u es un vector propio. No es negativo, por lo tanto, según el lema descrito en la sección anterior, la no negatividad implica positividad estricta para cualquier vector propio. Por otro lado, como antes, al menos una componente de u es cero. La contradicción implica que w no existe.
Caso: No hay celdas de Jordan correspondientes al valor propio de Perron-Frobenius r ni a todos los demás valores propios que tienen el mismo valor absoluto.
Si hay una celda de Jordan, entonces la norma infinita (A/r) k ∞ tiende al infinito para k → ∞ , pero eso contradice la existencia del vector propio positivo.
Dado r = 1, o A/r . Dejando que v sea un vector propio estrictamente positivo de Perron-Frobenius, entonces Av=v , entonces:
Entonces A k ∞ está acotado para todo k . Esto da otra prueba de que no hay valores propios que tengan mayor valor absoluto que el de Perron-Frobenius. También contradice la existencia de la celda de Jordan para cualquier valor propio que tenga un valor absoluto igual a 1 (en particular para el de Perron-Frobenius), porque la existencia de la celda de Jordan implica que A k ∞ es ilimitado. Para una matriz de dos por dos:
por tanto J k ∞ = | k + λ | (para | λ | = 1), por lo que tiende al infinito cuando k lo hace. Dado que J k = C −1 A k C , entonces A k ≥ J k / ( C −1 C ), por lo que también tiende al infinito. La contradicción resultante implica que no hay celdas de Jordan para los valores propios correspondientes.
La combinación de las dos afirmaciones anteriores revela que el valor propio de Perron-Frobenius r es una raíz simple del polinomio característico. En el caso de matrices no primitivas, existen otros valores propios que tienen el mismo valor absoluto que r . Lo mismo se aplica a ellos, pero requiere más trabajo.
Dada una matriz positiva (o más generalmente irreducible y no negativa) A , el vector propio de Perron-Frobenius es el único (hasta la multiplicación por constante) no negativo para A .
Otros vectores propios deben contener componentes negativos o complejos, ya que los vectores propios para diferentes valores propios son ortogonales en algún sentido, pero dos vectores propios positivos no pueden ser ortogonales, por lo que deben corresponder al mismo valor propio, pero el espacio propio de Perron-Frobenius es unidimensional.
Suponiendo que existe un par propio ( λ , y ) para A , tal que el vector y es positivo, y dado ( r , x ), donde x – es el vector propio izquierdo de Perron-Frobenius para A (es decir, vector propio para A T ), entonces rx T y = ( x T A ) y = x T ( Ay ) = λx T y , también x T y > 0, por lo que se tiene: r = λ . Dado que el espacio propio del valor propio de Perron-Frobenius r es unidimensional, el vector propio no negativo y es un múltiplo del de Perron-Frobenius. [31]
Dada una matriz A positiva (o más generalmente irreducible y no negativa) , se define la función f en el conjunto de todos los vectores no negativos distintos de cero x tal que f(x) es el valor mínimo de [ Ax ] i / x Tomé todos aquellos i tales que x i ≠ 0. Entonces f es una función de valor real, cuyo máximo es el valor propio de Perron-Frobenius r .
Para la prueba denotamos el máximo de f por el valor R . La prueba requiere mostrar R = r . Insertando el vector propio v de Perron-Frobenius en f , obtenemos f(v) = r y concluimos r ≤ R . Para la desigualdad opuesta, consideramos un vector arbitrario no negativo x y dejamos que ξ=f(x) . La definición de f da 0 ≤ ξx ≤ Ax (por componentes). Ahora, usamos el vector propio derecho positivo w para A para el valor propio de Perron-Frobenius r , entonces ξ w T x = w T ξx ≤ w T (Ax) = (w T A)x = rw T x . Por tanto f(x) = ξ ≤ r , lo que implica R ≤ r . [32]
Sea A una matriz positiva (o más generalmente, primitiva) y sea r su valor propio de Perron-Frobenius.
Por tanto, P es una proyección espectral del valor propio de Perron-Frobenius r , y se denomina proyección de Perron. La afirmación anterior no es cierta para matrices irreducibles no negativas generales.
En realidad, las afirmaciones anteriores (excepto la reivindicación 5) son válidas para cualquier matriz M tal que exista un valor propio r que sea estrictamente mayor que los otros valores propios en valor absoluto y sea la raíz simple del polinomio característico . (Estos requisitos son válidos para matrices primitivas como se indicó anteriormente).
Dado que M es diagonalizable, M se conjuga con una matriz diagonal con valores propios r 1 , ... , r n en la diagonal (denota r 1 = r ). La matriz M k / r k será conjugada (1, ( r 2 / r ) k , ... , ( r n / r ) k ), que tiende a (1,0,0,...,0) , para k → ∞ , entonces el límite existe. El mismo método funciona para M general (sin asumir que M es diagonalizable).
Las propiedades de proyección y conmutatividad son corolarios elementales de la definición: MM k / r k = M k / r k M ; P 2 = lím M 2 k / r 2 k = P . El tercer hecho también es elemental: M ( Pu ) = M lim M k / r k u = lim rM k +1 / r k +1 u , por lo que tomando el límite se obtiene M ( Pu ) = r ( Pu ), entonces imagen de P se encuentra en el r -espacio propio para M , que es unidimensional según los supuestos.
Denotando por v , r -vector propio para M (por w para M T ). Las columnas de P son múltiplos de v , porque ésta abarca la imagen de P. Respectivamente, filas de w . Entonces P toma una forma (avw T ) , para algunos a . Por tanto su traza es igual a (aw T v) . La traza del proyector es igual a la dimensión de su imagen. Ya se demostró antes que no es más que unidimensional. De la definición se ve que P actúa de manera idéntica en el r -vector propio para M . Entonces es unidimensional. Entonces, elegir ( w T v ) = 1 implica P = vw T .
Para cualquier matriz A no negativa, su valor propio de Perron-Frobenius r satisface la desigualdad:
Esto no es específico de matrices no negativas: para cualquier matriz A con un valor propio es cierto que . Éste es un corolario inmediato del teorema del círculo de Gershgorin . Sin embargo, otra prueba es más directa:
Cualquier norma inducida por matriz satisface la desigualdad para cualquier valor propio porque, si es un vector propio correspondiente, . La norma infinita de una matriz es el máximo de las sumas de filas: por lo tanto , la desigualdad deseada se aplica exactamente a la matriz no negativa A.
Otra desigualdad es:
Este hecho es específico de las matrices no negativas; para matrices generales no hay nada similar. Dado que A es positivo (no sólo no negativo), entonces existe un vector propio positivo w tal que Aw = rw y el componente más pequeño de w (digamos w i ) es 1. Entonces r = ( Aw ) i ≥ la suma de los números en la fila i de A . Por lo tanto, la suma mínima de filas da un límite inferior para r y esta observación se puede extender a todas las matrices no negativas por continuidad.
Otra forma de argumentarlo es mediante la fórmula de Collatz -Wielandt. Se toma el vector x = (1, 1, ..., 1) e inmediatamente se obtiene la desigualdad.
La demostración procede ahora mediante descomposición espectral . El truco aquí consiste en separar la raíz de Perron de los otros valores propios. La proyección espectral asociada a la raíz de Perron se denomina proyección de Perron y goza de la siguiente propiedad:
La proyección de Perron de una matriz cuadrada no negativa irreducible es una matriz positiva.
Los hallazgos de Perron y también (1) a (5) del teorema son corolarios de este resultado. El punto clave es que una proyección positiva siempre ocupa el primer lugar. Esto significa que si A es una matriz cuadrada no negativa irreducible, entonces las multiplicidades algebraicas y geométricas de su raíz de Perron son ambas una. Además, si P es su proyección de Perron, entonces AP = PA = ρ( A ) P , entonces cada columna de P es un vector propio derecho positivo de A y cada fila es un vector propio izquierdo positivo. Además, si Ax = λ x entonces PAx = λ Px = ρ( A ) Px lo que significa Px = 0 si λ ≠ ρ( A ). Por tanto, los únicos vectores propios positivos son los asociados con ρ ( A ). Si A es una matriz primitiva con ρ( A ) = 1 entonces se puede descomponer como P ⊕ (1 − P ) A de modo que An = P + (1 − P ) A n . A medida que n aumenta, el segundo de estos términos decae a cero, dejando a P como el límite de An cuando n → ∞.
El método de la potencia es una forma conveniente de calcular la proyección de Perron de una matriz primitiva. Si v y w son los vectores positivos de fila y columna que genera, entonces la proyección de Perron es simplemente wv / vw . Las proyecciones espectrales no están claramente bloqueadas como en la forma de Jordan. Aquí están superpuestas y cada una generalmente tiene entradas complejas que se extienden a las cuatro esquinas de la matriz cuadrada. Sin embargo, conservan su ortogonalidad mutua que es lo que facilita la descomposición.
El análisis cuando A es irreducible y no negativo es muy similar. La proyección de Perron sigue siendo positiva, pero ahora puede haber otros valores propios del módulo ρ( A ) que niegan el uso del método de potencia y evitan que las potencias de (1 − P ) A decaigan como en el caso primitivo siempre que ρ( A ) = 1 Entonces consideramos la proyección periférica , que es la proyección espectral de A correspondiente a todos los valores propios que tienen módulo ρ ( A ). Entonces se puede demostrar que la proyección periférica de una matriz cuadrada no negativa irreducible es una matriz no negativa con una diagonal positiva.
Supongamos además que ρ( A ) = 1 y A tiene h valores propios en el círculo unitario. Si P es la proyección periférica entonces la matriz R = AP = PA no es negativa e irreducible, R h = P , y el grupo cíclico P , R , R 2 , ...., R h −1 representa los armónicos de A . La proyección espectral de A en el valor propio λ en el círculo unitario viene dada por la fórmula . Todas estas proyecciones (incluida la proyección de Perron) tienen la misma diagonal positiva; además, elegir cualquiera de ellas y luego tomar el módulo de cada entrada produce invariablemente la proyección de Perron. Todavía se necesita algo de trabajo duro para establecer las propiedades cíclicas (6)–(8), pero esencialmente es sólo cuestión de girar la manija. La descomposición espectral de A viene dada por A = R ⊕ (1 − P ) A , por lo que la diferencia entre A n y R n es A n − R n = (1 − P ) A n que representa los transitorios de A n que eventualmente decaen. a cero. P puede calcularse como el límite de A nh cuando n → ∞.
Las matrices L = , P = , T = , M = proporcionan ejemplos sencillos de lo que puede salir mal si no se cumplen las condiciones necesarias. Se ve fácilmente que las proyecciones de Perron y periféricas de L son ambas iguales a P , por lo que cuando la matriz original es reducible las proyecciones pueden perder no negatividad y no hay posibilidad de expresarlas como límites de sus poderes. La matriz T es un ejemplo de matriz primitiva con diagonal cero. Si la diagonal de una matriz cuadrada no negativa irreducible es distinta de cero, entonces la matriz debe ser primitiva, pero este ejemplo demuestra que lo contrario es falso. M es un ejemplo de una matriz a la que le faltan varios dientes espectrales. Si ω = e iπ/3 entonces ω 6 = 1 y los valores propios de M son {1,ω 2 ,ω 3 =-1,ω 4 } con un espacio propio de dimensión 2 para +1, por lo que ω y ω 5 están ausentes. Más precisamente, dado que M es cíclico en diagonal de bloque, entonces los valores propios son {1,-1} para el primer bloque y {1,ω 2 ,ω 4 } para el inferior [ cita necesaria ]
Un problema que genera confusión es la falta de estandarización en las definiciones. Por ejemplo, algunos autores utilizan los términos estrictamente positivo y positivo para significar > 0 y ≥ 0 respectivamente. En este artículo positivo significa > 0 y no negativo significa ≥ 0. Otra área controvertida tiene que ver con la descomponibilidad y la reducibilidad : irreducible es un término sobrecargado. Para evitar dudas , a veces se dice que una matriz cuadrada A distinta de cero y no negativa tal que 1 + A es primitiva es conexa . Entonces las matrices cuadradas no negativas irreducibles y las matrices conectadas son sinónimas. [33]
El vector propio no negativo a menudo se normaliza de modo que la suma de sus componentes sea igual a la unidad; en este caso, el vector propio es el vector de una distribución de probabilidad y a veces se le llama vector propio estocástico .
El valor propio de Perron-Frobenius y el valor propio dominante son nombres alternativos para la raíz de Perron. Las proyecciones espectrales también se conocen como proyectores espectrales e idempotentes espectrales . A veces se hace referencia al período como índice de imprimitividad o orden de ciclicidad .
{{cite web}}
: CS1 maint: archived copy as title (link){{cite web}}
: CS1 maint: archived copy as title (link){{cite book}}
: CS1 maint: bot: original URL status unknown (link){{cite web}}
: CS1 maint: archived copy as title (link){{cite web}}
: CS1 maint: archived copy as title (link){{cite web}}
: CS1 maint: archived copy as title (link){{cite web}}
: CS1 maint: archived copy as title (link){{cite web}}
: CS1 maint: archived copy as title (link){{cite web}}
: CS1 maint: archived copy as title (link){{cite web}}
: CS1 maint: archived copy as title (link){{cite web}}
: CS1 maint: archived copy as title (link){{cite web}}
: CS1 maint: archived copy as title (link)