stringtranslate.com

Teorema de Perron-Frobenius

En teoría de matrices , el teorema de Perron-Frobenius , demostrado por Oskar Perron  (1907) y Georg Frobenius  (1912), afirma que una matriz cuadrada real con elementos positivos tiene un único autovalor de mayor magnitud y que ese autovalor es real. El vector propio correspondiente puede elegirse para que tenga componentes estrictamente positivos, y también afirma una afirmación similar para ciertas clases de matrices no negativas . Este teorema tiene importantes aplicaciones en la teoría de la probabilidad ( ergodicidad de las cadenas de Markov ); en la teoría de sistemas dinámicos ( subdesplazamientos de tipo finito ); en la economía ( teorema de Okishio , [1] condición de Hawkins-Simon [2] ); en la demografía ( modelo de distribución por edad de la población de Leslie ); [3] en las redes sociales ( proceso de aprendizaje de DeGroot ); en los motores de búsqueda de Internet ( PageRank ); [4] e incluso en la clasificación de equipos de fútbol americano. [5] El primero en discutir el ordenamiento de los jugadores dentro de los torneos utilizando vectores propios de Perron-Frobenius fue Edmund Landau . [6] [7]

Declaración

Sea positivo y no negativo , respectivamente, el que describe matrices con números reales exclusivamente positivos como elementos y matrices con números reales exclusivamente no negativos como elementos. Los valores propios de una matriz cuadrada real A son números complejos que forman el espectro de la matriz. La tasa de crecimiento exponencial de las potencias matriciales A k cuando k → ∞ está controlada por el valor propio de A con el mayor valor absoluto ( módulo ). El teorema de Perron-Frobenius describe las propiedades del valor propio principal y de los vectores propios correspondientes cuando A es una matriz cuadrada real no negativa. Los primeros resultados se debieron a Oskar Perron  (1907) y se referían a matrices positivas. Más tarde, Georg Frobenius  (1912) encontró su extensión a ciertas clases de matrices no negativas.

Matrices positivas

Sea una matriz positiva: para . Entonces se cumplen las siguientes afirmaciones.

  1. Existe un número real positivo r , llamado raíz de Perron o valor propio de Perron-Frobenius (también llamado valor propio principal o valor propio dominante ) , tal que r es un valor propio de A y cualquier otro valor propio λ (posiblemente complejo ) en valor absoluto es estrictamente menor que r , | λ | < r . Por lo tanto, el radio espectral es igual a r . Si los coeficientes de la matriz son algebraicos, esto implica que el valor propio es un número de Perron .
  2. El valor propio de Perron-Frobenius es simple: r es una raíz simple del polinomio característico de A . En consecuencia, el espacio propio asociado a r es unidimensional. (Lo mismo es cierto para el espacio propio izquierdo, es decir, el espacio propio para A T , la transpuesta de A .)
  3. Existe un vector propio v = ( v 1 ,..., v n ) T de A con valor propio r tal que todos los componentes de v son positivos: A v = rv , v i > 0 para 1 ≤ in . (Respectivamente, existe un vector propio izquierdo positivo w  : w T A = w T r, w i > 0.) Se le conoce en la literatura bajo muchas variaciones como vector de Perron , vector propio de Perron , vector propio de Perron-Frobenius , vector propio principal , vector propio dominante o vector propio principal .
  4. No hay otros vectores propios positivos (y además no negativos) excepto múltiplos positivos de v (respectivamente, vectores propios izquierdos excepto ww'w ), es decir, todos los demás vectores propios deben tener al menos un componente negativo o no real.
  5. , donde los vectores propios izquierdo y derecho de A están normalizados de modo que w T v = 1. Además, la matriz vw T es la proyección sobre el espacio propio correspondiente a  r . Esta proyección se denomina proyección de Perron .
  6. Fórmula de Collatz -Wielandt : para todos los vectores no negativos y no nulos x , sea f ( x ) el valor mínimo de [ Ax ] i /  x i tomado sobre todos aquellos i tales que x i ≠ 0. Entonces f es una función de valor real cuyo máximo sobre todos los vectores no negativos y no nulos x es el valor propio de Perron-Frobenius.
  7. Una fórmula de Collatz-Wielandt "Mín-máx" ​​adopta una forma similar a la anterior: para todos los vectores estrictamente positivos x , sea g ( x ) el valor máximo de [ Ax ] i /  x i tomado sobre i . Entonces g es una función de valor real cuyo mínimo para todos los vectores estrictamente positivos x es el valor propio de Perron-Frobenius.
  8. Fórmula de Birkhoff - Varga : Sean x e y vectores estrictamente positivos. Entonces, [8]
  9. Fórmula de DonskerVaradhanFriedland : Sea p un vector de probabilidad y x un vector estrictamente positivo. Entonces, [9] [10]
  10. Fórmula de Fiedler : [11]
  11. El valor propio de Perron-Frobenius satisface las desigualdades

Todas estas propiedades se extienden más allá de las matrices estrictamente positivas a las matrices primitivas (ver más abajo). Los hechos 1–7 se pueden encontrar en Meyer [12] capítulo 8, afirmaciones 8.2.11–15 página 667 y ejercicios 8.2.5,7,9 páginas 668–669.

Los vectores propios izquierdo y derecho w y v a veces se normalizan de modo que la suma de sus componentes sea igual a 1; en este caso, a veces se los llama vectores propios estocásticos . A menudo se normalizan de modo que el vector propio derecho v sume uno, mientras que .

Matrices no negativas

Existe una extensión para matrices con elementos no negativos. Puesto que cualquier matriz no negativa puede obtenerse como límite de matrices positivas, se obtiene la existencia de un vector propio con componentes no negativos; el valor propio correspondiente será no negativo y mayor o igual que , en valor absoluto, a todos los demás valores propios. [13] [14] Sin embargo, para el ejemplo , el valor propio máximo r = 1 tiene el mismo valor absoluto que el otro valor propio −1; mientras que para , el valor propio máximo es r = 0, que no es una raíz simple del polinomio característico, y el vector propio correspondiente (1, 0) no es estrictamente positivo.

Sin embargo, Frobenius encontró una subclase especial de matrices no negativas ( matrices irreducibles ) para las que es posible una generalización no trivial. Para una matriz de este tipo, aunque los valores propios que alcanzan el valor absoluto máximo pueden no ser únicos, su estructura está bajo control: tienen la forma , donde es un valor propio real estrictamente positivo, y abarca las raíces complejas h' ésimas de 1 para algún entero positivo h llamado período de la matriz. El vector propio correspondiente a tiene componentes estrictamente positivos (en contraste con el caso general de matrices no negativas, donde los componentes son solo no negativos). Además, todos estos valores propios son raíces simples del polinomio característico. A continuación se describen otras propiedades.

Clasificación de matrices

Sea A una matriz cuadrada n  ×  n sobre el cuerpo F. La matriz A es irreducible si se cumple alguna de las siguientes propiedades equivalentes.

Definición 1: A no tiene subespacios de coordenadas invariantes no triviales. Aquí, un subespacio de coordenadas no trivial significa un subespacio lineal abarcado por cualquier subconjunto propio de vectores base estándar de F n . Más explícitamente, para cualquier subespacio lineal abarcado por vectores base estándar e i 1 , ..., e i k , 0 < k  <  n su imagen bajo la acción de A no está contenida en el mismo subespacio.

Definición 2: A no puede conjugarse en forma triangular superior de bloque mediante una matriz de permutación P :

donde E y G son matrices cuadradas no triviales (es decir, de tamaño mayor que cero).

Definición 3: Se puede asociar a una matriz A un cierto grafo dirigido G A . Tiene n vértices etiquetados 1,..., n , y hay una arista del vértice i al vértice j precisamente cuando a ij ≠ 0. Entonces la matriz A es irreducible si y solo si su grafo asociado G A es fuertemente conexo .

Si F es el campo de números reales o complejos, entonces también tenemos la siguiente condición.

Definición 4: La representación grupal de en o en dada por no tiene subespacios de coordenadas invariantes no triviales. (En comparación, esta sería una representación irreducible si no hubiera subespacios invariantes no triviales en absoluto, no solo considerando subespacios de coordenadas).

Una matriz es reducible si no es irreducible.

Una matriz real A es primitiva si no es negativa y su potencia m es positiva para algún número natural m (es decir, todas las entradas de A m son positivas).

Sea A real y no negativo. Fijemos un índice i y definamos el periodo del índice i como el máximo común divisor de todos los números naturales m tales que ( A m ) ii > 0. Cuando A es irreducible, el periodo de cada índice es el mismo y se denomina periodo de A . De hecho, cuando A es irreducible, el periodo se puede definir como el máximo común divisor de las longitudes de los caminos cerrados dirigidos en G A (véase Kitchens [15] página 16). El periodo también se denomina índice de imprimitividad (Meyer [12] página 674) u orden de ciclicidad. Si el periodo es 1, A es aperiódico . Se puede demostrar que las matrices primitivas son las mismas que las matrices aperiódicas irreducibles no negativas.

Todas las afirmaciones del teorema de Perron-Frobenius para matrices positivas siguen siendo válidas para matrices primitivas. Las mismas afirmaciones también son válidas para una matriz irreducible no negativa, excepto que puede poseer varios valores propios cuyo valor absoluto sea igual a su radio espectral, por lo que las afirmaciones deben modificarse en consecuencia. De hecho, el número de dichos valores propios es igual al período.

Los resultados para matrices no negativas fueron obtenidos por primera vez por Frobenius en 1912.

Teorema de Perron-Frobenius para matrices no negativas irreducibles

Sea una matriz irreducible no negativa con período y radio espectral . Entonces se cumplen las siguientes afirmaciones.

donde denota una matriz cero y los bloques a lo largo de la diagonal principal son matrices cuadradas.

El ejemplo muestra que las matrices cero (cuadradas) a lo largo de la diagonal pueden ser de diferentes tamaños, los bloques A j no necesitan ser cuadrados y h no necesita dividir  a n .

Otras propiedades

Sea A una matriz no negativa irreducible, entonces:

  1. (I+ A ) n −1 es una matriz positiva. (Meyer [12] reivindicación 8.3.5 p. 672). Para un A no negativo , esta también es una condición suficiente. [16]
  2. Teorema de Wielandt. [17] [ aclaración necesaria ] Si | B |< A , entonces ρ ( B )≤ ρ ( A ). Si se cumple la igualdad (es decir, si μ=ρ(A)e es el valor propio de B ), entonces B = e D AD −1 para alguna matriz unitaria diagonal D (es decir, los elementos diagonales de D son iguales a e l , los no diagonales son cero). [18]
  3. Si alguna potencia A q es reducible, entonces es completamente reducible, es decir, para alguna matriz de permutación P , es cierto que: , donde A i son matrices irreducibles que tienen el mismo valor propio máximo. El número de estas matrices d es el máximo común divisor de q y h , donde h es el período de A . [19]
  4. Si c ( x ) = x n + c k 1 x n-k 1 + c k 2 x n-k 2 + ... + c k s x n-k s es el polinomio característico de A en el que solo se enumeran los términos distintos de cero, entonces el período de A es igual al máximo común divisor de k 1 , k 2 , ... , k s . [20]
  5. Promedios de Cesàro : donde los vectores propios izquierdo y derecho de A están normalizados de modo que w T v = 1. Además, la matriz vw T es la proyección espectral correspondiente a r , la proyección de Perron. [21]
  6. Sea r el valor propio de Perron-Frobenius, entonces la matriz adjunta para ( r - A ) es positiva. [22]
  7. Si A tiene al menos un elemento diagonal distinto de cero, entonces A es primitivo. [23]
  8. Si 0 ≤ A < B , entonces r Ar B. Además, si B es irreducible, entonces la desigualdad es estricta: r A < r B .

Una matriz A es primitiva siempre que no sea negativa y A m sea positiva para algún m , y por lo tanto A k sea positiva para todo k ≥ m . Para comprobar la primitividad, se necesita un límite sobre cuán grande puede ser el mínimo de dicha m , dependiendo del tamaño de A : [24]

Aplicaciones

Se han escrito numerosos libros sobre el tema de las matrices no negativas, y la teoría de Perron-Frobenius es invariablemente un tema central. Los ejemplos que se dan a continuación son apenas una muestra de su amplio campo de aplicación.

Matrices no negativas

El teorema de Perron-Frobenius no se aplica directamente a matrices no negativas. Sin embargo, cualquier matriz cuadrada reducible A puede escribirse en forma de bloque triangular superior (conocida como la forma normal de una matriz reducible ) [25]

PAP −1 =

donde P es una matriz de permutación y cada B i es una matriz cuadrada que es irreducible o nula. Ahora bien, si A no es negativo, entonces también lo es cada bloque de PAP −1 ; además, el espectro de A es simplemente la unión de los espectros de B i .

También se puede estudiar la invertibilidad de A. La inversa de PAP −1 (si existe) debe tener bloques diagonales de la forma B i −1 , por lo que si cualquier B i no es invertible, entonces tampoco lo es PAP −1 ni A . Inversamente, sea D la matriz diagonal por bloques correspondiente a PAP −1 , en otras palabras PAP −1 con los asteriscos puestos a cero. Si cada B i es invertible, entonces también lo es D y D −1 ( PAP −1 ) es igual a la identidad más una matriz nilpotente. Pero dicha matriz es siempre invertible (si N k = 0 la inversa de 1 − N es 1 + N + N 2 + ... + N k −1 ) por lo que PAP −1 y A son ambas invertibles.

Por lo tanto, muchas de las propiedades espectrales de A pueden deducirse aplicando el teorema al irreducible B i . Por ejemplo, la raíz de Perron es el máximo de ρ( B i ). Si bien seguirá habiendo vectores propios con componentes no negativos, es muy posible que ninguno de ellos sea positivo.

Matrices estocásticas

Una matriz estocástica de filas (columnas) es una matriz cuadrada en la que cada una de sus filas (columnas) está formada por números reales no negativos cuya suma es la unidad. El teorema no se puede aplicar directamente a dichas matrices porque no es necesario que sean irreducibles.

Si A es estocástica por filas, entonces el vector columna con cada entrada 1 es un vector propio correspondiente al valor propio 1, que también es ρ( A ) según la observación anterior. Puede que no sea el único valor propio en el círculo unitario: y el espacio propio asociado puede ser multidimensional. Si A es estocástica por filas e irreducible, entonces la proyección de Perron también es estocástica por filas y todas sus filas son iguales.

Teoría de grafos algebraicos

El teorema tiene un uso particular en la teoría de grafos algebraicos . El "grafo subyacente" de una matriz n -cuadrada no negativa es el grafo con vértices numerados 1, ..., n y arco ij si y solo si A ij ≠ 0. Si el grafo subyacente de dicha matriz es fuertemente conexo, entonces la matriz es irreducible y, por lo tanto, se aplica el teorema. En particular, la matriz de adyacencia de un grafo fuertemente conexo es irreducible. [26] [27]

Cadenas finitas de Markov

El teorema tiene una interpretación natural en la teoría de cadenas de Markov finitas (donde es el equivalente matricial de la convergencia de una cadena de Markov finita irreducible a su distribución estacionaria, formulada en términos de la matriz de transición de la cadena; véase, por ejemplo, el artículo sobre el subdesplazamiento de tipo finito ).

Operadores compactos

En términos más generales, se puede extender al caso de los operadores compactos no negativos , que, en muchos sentidos, se parecen a las matrices de dimensión finita. Estos se estudian comúnmente en física, bajo el nombre de operadores de transferencia , o a veces operadores de Ruelle–Perron–Frobenius (en honor a David Ruelle ). En este caso, el valor propio principal corresponde al equilibrio termodinámico de un sistema dinámico , y los valores propios menores a los modos de decaimiento de un sistema que no está en equilibrio. Por lo tanto, la teoría ofrece una forma de descubrir la flecha del tiempo en lo que de otro modo parecerían ser procesos dinámicos deterministas y reversibles, cuando se examinan desde el punto de vista de la topología de conjuntos puntuales . [28]

Métodos de prueba

Un hilo conductor en muchas demostraciones es el teorema del punto fijo de Brouwer . Otro método popular es el de Wielandt (1950). Utilizó la fórmula de Collatz -Wielandt descrita anteriormente para ampliar y aclarar el trabajo de Frobenius. [29] Otra demostración se basa en la teoría espectral [30] de la que se tomaron prestados parte de los argumentos.

La raíz de Perron es un valor propio estrictamente máximo para matrices positivas (y primitivas)

Si A es una matriz positiva (o más generalmente primitiva), entonces existe un valor propio positivo real r (valor propio de Perron-Frobenius o raíz de Perron), que es estrictamente mayor en valor absoluto que todos los demás valores propios, por lo tanto r es el radio espectral de A.

Esta afirmación no es válida para matrices irreducibles no negativas generales, que tienen h valores propios con el mismo valor propio absoluto que r , donde h es el período de A .

Prueba de matrices positivas

Sea A una matriz positiva, supongamos que su radio espectral ρ( A ) = 1 (de lo contrario, consideremos A/ρ(A) ). Por lo tanto, existe un valor propio λ en el círculo unitario, y todos los demás valores propios son menores o iguales a 1 en valor absoluto. Supongamos que otro valor propio λ ≠ 1 también cae en el círculo unitario. Entonces existe un entero positivo m tal que A m es una matriz positiva y la parte real de λ m es negativa. Sea ε la mitad de la entrada diagonal más pequeña de A m y establezcamos T = A m  −  εI que es otra matriz positiva. Además, si Ax = λx entonces A m x = λ m x por lo tanto λ m  −  ε es un valor propio de T . Debido a la elección de m, este punto se encuentra fuera del disco unitario, en consecuencia ρ ( T ) > 1. Por otro lado, todas las entradas en T son positivas y menores o iguales que las de A m, por lo que, por la fórmula de Gelfand, ρ ( T ) ≤ ρ ( A m ) ≤ ρ ( A ) m = 1. Esta contradicción significa que λ=1 y no puede haber otros valores propios en el círculo unitario.

Se pueden aplicar exactamente los mismos argumentos al caso de matrices primitivas; sólo hay que mencionar el siguiente lema simple, que aclara las propiedades de las matrices primitivas.

Lema

Dado un A no negativo , supongamos que existe m , tal que A m es positivo, entonces A m +1 , A m +2 , A m +3 ,... son todos positivos.

A m +1 = AA m , por lo que puede tener cero elementos solo si alguna fila de A es completamente cero, pero en este caso la misma fila de A m será cero.

Aplicando los mismos argumentos que anteriormente para las matrices primitivas, demuestre la afirmación principal.

Método de potencia y pares propios positivos

Para una matriz A positiva (o más generalmente irreducible no negativa), el vector propio dominante es real y estrictamente positivo (para A no negativa, respectivamente no negativo).

Esto se puede establecer utilizando el método de potencia , que establece que para una matriz A suficientemente genérica (en el sentido que se indica a continuación) , la secuencia de vectores b k +1 = Ab k / | Ab k | converge al vector propio con el valor propio máximo . (El vector inicial b 0 se puede elegir arbitrariamente, excepto para alguna medida de puesta a cero). Comenzar con un vector no negativo b 0 produce la secuencia de vectores no negativos b k . Por lo tanto, el vector límite también es no negativo. Por el método de potencia, este vector límite es el vector propio dominante para A , lo que demuestra la afirmación. El valor propio correspondiente no es negativo.

La demostración requiere dos argumentos adicionales. En primer lugar, el método de potencia converge para matrices que no tienen varios valores propios del mismo valor absoluto que el máximo. El argumento de la sección anterior garantiza esto.

En segundo lugar, para garantizar la positividad estricta de todos los componentes del vector propio en el caso de matrices irreducibles. Esto se desprende del siguiente hecho, que es de interés independiente:

Lema: dada una matriz positiva (o más generalmente irreducible no negativa) A y v como cualquier vector propio no negativo para A , entonces es necesariamente estrictamente positiva y el valor propio correspondiente también es estrictamente positivo.

Demostración. Una de las definiciones de irreducibilidad para matrices no negativas es que para todos los índices i,j existe m , tal que ( A m ) ij es estrictamente positivo. Dado un vector propio no negativo v , y que al menos uno de sus componentes, digamos el j -ésimo, es estrictamente positivo, el valor propio correspondiente es estrictamente positivo, de hecho, dado n tal que ( A n ) ii >0, por lo tanto: r n v i = A n v i ≥ ( A n ) ii v i >0. Por lo tanto, r es estrictamente positivo. El vector propio es positividad estricta. Luego, dado m , tal que ( A m ) ij >0, por lo tanto: r m v j = ( A m v ) j ≥ ( A m ) ij v i >0, por lo tanto v j es estrictamente positivo, es decir, el vector propio es estrictamente positivo.

Multiplicidad uno

Esta sección demuestra que el valor propio de Perron-Frobenius es una raíz simple del polinomio característico de la matriz. Por lo tanto, el espacio propio asociado al valor propio de Perron-Frobenius r es unidimensional. Los argumentos aquí son similares a los de Meyer. [12]

Dado un vector propio estrictamente positivo v correspondiente a r y otro vector propio w con el mismo valor propio. (Los vectores v y w pueden elegirse como reales, porque A y r son ambos reales, por lo que el espacio nulo de Ar tiene una base que consiste en vectores reales). Suponiendo que al menos uno de los componentes de w es positivo (de lo contrario, multiplique w por −1). Dado el α máximo posible tal que u = v - α w es no negativo, entonces uno de los componentes de u es cero, de lo contrario α no es máximo. El vector u es un vector propio. No es negativo, por lo tanto, por el lema descrito en la sección anterior, la no negatividad implica positividad estricta para cualquier vector propio. Por otro lado, como antes, al menos un componente de u es cero. La contradicción implica que w no existe.

Caso: No hay celdas de Jordan correspondientes al valor propio de Perron-Frobenius r y todos los demás valores propios que tienen el mismo valor absoluto.

Si hay una celda de Jordan, entonces la norma de infinito (A/r) k tiende a infinito para k → ∞ , pero eso contradice la existencia del vector propio positivo.

Dado r = 1, o A/r . Si v es un vector propio estrictamente positivo de Perron-Frobenius, Av=v , entonces:

Por lo tanto, A k está acotado para todo k . Esto proporciona otra prueba de que no existen valores propios que tengan un valor absoluto mayor que el de Perron-Frobenius. También contradice la existencia de la celda de Jordan para cualquier valor propio que tenga un valor absoluto igual a 1 (en particular para el de Perron-Frobenius), porque la existencia de la celda de Jordan implica que A k no está acotado. Para una matriz de dos por dos:

por lo tanto, J k = | k + λ | (para | λ | = 1), por lo que tiende a infinito cuando k lo hace. Como J k = C −1 A k C , entonces A kJ k / ( C −1 C ), por lo que también tiende a infinito. La contradicción resultante implica que no hay celdas de Jordan para los valores propios correspondientes.

La combinación de las dos afirmaciones anteriores revela que el valor propio de Perron-Frobenius r es una raíz simple del polinomio característico. En el caso de matrices no primitivas, existen otros valores propios que tienen el mismo valor absoluto que r . La misma afirmación es válida para ellos, pero requiere más trabajo.

No hay otros vectores propios no negativos

Dada una matriz positiva (o más generalmente irreducible no negativa) A , el vector propio de Perron-Frobenius es el único vector propio no negativo (hasta la multiplicación por una constante) para A .

Otros vectores propios deben contener componentes negativos o complejos ya que los vectores propios para diferentes valores propios son ortogonales en algún sentido, pero dos vectores propios positivos no pueden ser ortogonales, por lo que deben corresponder al mismo valor propio, pero el espacio propio para Perron-Frobenius es unidimensional.

Suponiendo que existe un par propio ( λ , y ) para A , tal que el vector y es positivo, y dado ( r , x ), donde x – es el vector propio izquierdo de Perron-Frobenius para A (es decir, el vector propio para A T ), entonces rx T y = ( x T A ) y = x T ( Ay ) = λx T y , también x T y > 0, por lo que se tiene: r = λ . Dado que el espacio propio para el valor propio de Perron-Frobenius r es unidimensional, el vector propio no negativo y es un múltiplo del de Perron-Frobenius. [31]

Fórmula de Collatz-Wielandt

Dada una matriz positiva (o más generalmente irreducible no negativa) A , se define la función f en el conjunto de todos los vectores no negativos no cero x tales que f(x) es el valor mínimo de [ Ax ] i /  x i tomado sobre todos aquellos i tales que x i ≠ 0. Entonces f es una función de valor real, cuyo máximo es el valor propio de Perron-Frobenius r .

Para la prueba denotamos el máximo de f por el valor R . La prueba requiere mostrar R = r . Insertando el vector propio de Perron-Frobenius v en f , obtenemos f(v) = r y concluimos que r ≤ R . Para la desigualdad opuesta, consideramos un vector arbitrario no negativo x y sea ξ=f(x) . La definición de f da 0 ≤ ξx ≤ Ax (componente por componente). Ahora, usamos el vector propio positivo derecho w para A para el valor propio de Perron-Frobenius r , luego ξ w T x = w T ξx ≤ w T (Ax) = (w T A)x = rw T x . Por lo tanto f(x) = ξ ≤ r , lo que implica R ≤ r . [32]

Proyección de Perron como límite:Aa/aa

Sea A una matriz positiva (o más generalmente, primitiva) y sea r su valor propio de Perron-Frobenius.

  1. Existe un límite A k /r k para k → ∞ , denotándolo por P .
  2. P es un operador de proyección : P 2 = P , que conmuta con A : AP = PA .
  3. La imagen de P es unidimensional y está abarcada por el vector propio de Perron-Frobenius v (respectivamente para P T —por el vector propio de Perron-Frobenius w para A T ).
  4. P = vw T , donde v,w están normalizados de modo que w T v = 1.
  5. Por lo tanto P es un operador positivo.

Por lo tanto, P es una proyección espectral del valor propio de Perron-Frobenius r y se denomina proyección de Perron. La afirmación anterior no es cierta para matrices irreducibles no negativas generales.

En realidad, las reivindicaciones anteriores (excepto la reivindicación 5) son válidas para cualquier matriz M tal que exista un valor propio r que sea estrictamente mayor que los otros valores propios en valor absoluto y sea la raíz simple del polinomio característico . (Estos requisitos son válidos para matrices primitivas como las anteriores).

Dado que M es diagonalizable, M es conjugada a una matriz diagonal con valores propios r 1 , ... , r n en la diagonal (denotemos r 1 = r ). La matriz M k / r k será conjugada (1, ( r 2 / r ) k , ... , ( r n / r ) k ), que tiende a (1,0,0,...,0), para k → ∞ , por lo que el límite existe. El mismo método funciona para M general (sin suponer que M es diagonalizable).

Las propiedades de proyección y conmutatividad son corolarios elementales de la definición: MM k / r k = M k / r k M  ; P 2 = lim M 2 k / r 2 k = P . El tercer hecho también es elemental: M ( Pu ) = M lim M k / r k u = lim rM k +1 / r k +1 u , por lo que al tomar el límite se obtiene M ( Pu ) = r ( Pu ), por lo que la imagen de P se encuentra en el r -espacio propio para M , que es unidimensional según los supuestos.

Denotando por v , r -vector propio para M (por w para M T ). Las columnas de P son múltiplos de v , porque la imagen de P está abarcada por él. Respectivamente, filas de w . Entonces P toma una forma (avw T ) , para algún a . Por lo tanto, su traza es igual a (aw T v) . La traza del proyector es igual a la dimensión de su imagen. Se demostró antes que no es más que unidimensional. De la definición se ve que P actúa idénticamente en el r -vector propio para M . Por lo tanto, es unidimensional. Entonces, elegir ( w T v ) = 1, implica P = vw T .

Desigualdades para el valor propio de Perron-Frobenius

Para cualquier matriz no negativa A, su valor propio de Perron-Frobenius r satisface la desigualdad:

Esto no es específico de las matrices no negativas: para cualquier matriz A con un valor propio es cierto que . Este es un corolario inmediato del teorema del círculo de Gershgorin . Sin embargo, otra prueba es más directa:

Cualquier norma inducida por matriz satisface la desigualdad para cualquier valor propio porque, si es un vector propio correspondiente, . La norma de infinito de una matriz es el máximo de las sumas de filas: Por lo tanto, la desigualdad deseada se aplica exactamente a la matriz no negativa A .

Otra desigualdad es:

Este hecho es específico de las matrices no negativas; para las matrices generales no hay nada similar. Dado que A es positivo (no solo no negativo), entonces existe un vector propio positivo w tal que Aw = rw y el componente más pequeño de w (digamos w i ) es 1. Entonces r = ( Aw ) i ≥ la suma de los números en la fila i de A . Por lo tanto, la suma mínima de filas da un límite inferior para r y esta observación se puede extender a todas las matrices no negativas por continuidad.

Otra forma de argumentarlo es mediante la fórmula de Collatz -Wielandt. Se toma el vector x  = (1, 1, ..., 1) y se obtiene inmediatamente la desigualdad.

Más pruebas

Proyección de Perron

La prueba ahora procede mediante la descomposición espectral . El truco aquí es separar la raíz de Perron de los otros valores propios. La proyección espectral asociada con la raíz de Perron se llama proyección de Perron y tiene la siguiente propiedad:

La proyección de Perron de una matriz cuadrada no negativa irreducible es una matriz positiva.

Los hallazgos de Perron y también (1)–(5) del teorema son corolarios de este resultado. El punto clave es que una proyección positiva siempre tiene rango uno. Esto significa que si A es una matriz cuadrada no negativa irreducible, entonces las multiplicidades algebraica y geométrica de su raíz de Perron son ambas uno. Además, si P es su proyección de Perron, entonces AP = PA = ρ( A ) P , por lo que cada columna de P es un vector propio positivo derecho de A y cada fila es un vector propio positivo izquierdo. Además, si Ax = λ x , entonces PAx = λ Px = ρ( A ) Px, lo que significa que Px = 0 si λ ≠ ρ( A ). Por lo tanto, los únicos vectores propios positivos son aquellos asociados con ρ( A ). Si A es una matriz primitiva con ρ( A ) = 1 entonces se puede descomponer como P ⊕ (1 −  P ) A de modo que A n = P + (1 −  P ) A n . A medida que n aumenta, el segundo de estos términos decae a cero, dejando a P como el límite de A n cuando n  → ∞.

El método de potencia es una forma conveniente de calcular la proyección de Perron de una matriz primitiva. Si v y w son los vectores positivos de fila y columna que genera, entonces la proyección de Perron es simplemente wv / vw . Las proyecciones espectrales no están claramente bloqueadas como en la forma de Jordan. Aquí están superpuestas y cada una generalmente tiene entradas complejas que se extienden a las cuatro esquinas de la matriz cuadrada. Sin embargo, conservan su ortogonalidad mutua, que es lo que facilita la descomposición.

Proyección periférica

El análisis cuando A es irreducible y no negativo es similar en líneas generales. La proyección de Perron sigue siendo positiva, pero ahora puede haber otros valores propios de módulo ρ( A ) que niegan el uso del método de potencias y evitan que las potencias de (1 −  P ) A decaigan como en el caso primitivo siempre que ρ( A ) = 1. Por lo tanto, consideramos la proyección periférica , que es la proyección espectral de A correspondiente a todos los valores propios que tienen módulo ρ ( A ). Entonces, se puede demostrar que la proyección periférica de una matriz cuadrada no negativa irreducible es una matriz no negativa con una diagonal positiva.

Ciclicidad

Supongamos además que ρ( A ) = 1 y que A tiene h valores propios en el círculo unitario. Si P es la proyección periférica, entonces la matriz R = AP = PA no es negativa e irreducible, R h = P , y el grupo cíclico P , R , R 2 , ...., R h −1 representa los armónicos de A . La proyección espectral de A en el valor propio λ en el círculo unitario está dada por la fórmula . Todas estas proyecciones (incluida la proyección de Perron) tienen la misma diagonal positiva, además, elegir cualquiera de ellas y luego tomar el módulo de cada entrada invariablemente da como resultado la proyección de Perron. Todavía se necesita algo de trabajo pesado para establecer las propiedades cíclicas (6)–(8) pero esencialmente es solo una cuestión de girar la manija. La descomposición espectral de A se da por A  =  R  ⊕ (1 −  P ) A por lo que la diferencia entre A n y R n es A n  −  R n = (1 −  P ) A n representando los transitorios de A n que eventualmente decaen a cero. P puede calcularse como el límite de A nh cuando n  → ∞.

Contraejemplos

Las matrices L = , P = , T = , M = proporcionan ejemplos simples de lo que puede salir mal si no se cumplen las condiciones necesarias. Se ve fácilmente que las proyecciones de Perron y periféricas de L son ambas iguales a P , por lo tanto, cuando la matriz original es reducible, las proyecciones pueden perder la no negatividad y no hay posibilidad de expresarlas como límites de sus potencias. La matriz T es un ejemplo de una matriz primitiva con diagonal cero. Si la diagonal de una matriz cuadrada no negativa irreducible es distinta de cero, entonces la matriz debe ser primitiva, pero este ejemplo demuestra que lo inverso es falso. M es un ejemplo de una matriz con varios dientes espectrales faltantes. Si ω = e iπ/3 entonces ω 6 = 1 y los valores propios de M son {1,ω 23 =-1,ω 4 } con un espacio propio de dimensión 2 para +1, por lo que ω y ω 5 están ausentes. Más precisamente, dado que M es cíclico en diagonal de bloques, entonces los valores propios son {1,-1} para el primer bloque, y {1,ω 24 } para el inferior [ cita requerida ]

Terminología

Un problema que causa confusión es la falta de estandarización en las definiciones. Por ejemplo, algunos autores usan los términos estrictamente positivo y positivo para significar > 0 y ≥ 0 respectivamente. En este artículo positivo significa > 0 y no negativo significa ≥ 0. Otro tema controvertido se refiere a la descomponibilidad y reducibilidad : irreducible es un término sobrecargado. Para evitar dudas, a veces se dice que una matriz cuadrada no negativa y distinta de cero A tal que 1 +  A es primitiva es conexa . Entonces, las matrices cuadradas no negativas irreducibles y las matrices conexas son sinónimas. [33]

El vector propio no negativo a menudo se normaliza de modo que la suma de sus componentes sea igual a la unidad; en este caso, el vector propio es el vector de una distribución de probabilidad y a veces se denomina vector propio estocástico .

El valor propio de Perron-Frobenius y el valor propio dominante son nombres alternativos para la raíz de Perron. Las proyecciones espectrales también se conocen como proyectores espectrales e idempotentes espectrales . El período a veces se denomina índice de imprimitividad u orden de ciclicidad .

Véase también

Notas

  1. ^ Bowles, Samuel (1 de junio de 1981). "Cambio técnico y tasa de ganancia: una prueba simple del teorema de Okishio". Cambridge Journal of Economics . 5 (2): 183–186. doi :10.1093/oxfordjournals.cje.a035479. ISSN  0309-166X.
  2. ^ Meyer 2000, pp. 8.3.6 p. 681 «Copia archivada» (PDF) . Archivado desde el original (PDF) el 7 de marzo de 2010. Consultado el 7 de marzo de 2010 .{{cite web}}: CS1 maint: archived copy as title (link)
  3. ^ Meyer 2000, pp. 8.3.7 p. 683 «Copia archivada» (PDF) . Archivado desde el original (PDF) el 7 de marzo de 2010. Consultado el 7 de marzo de 2010 .{{cite web}}: CS1 maint: archived copy as title (link)
  4. ^ Langville & Meyer 2006, pág. 15.2 pág. 167 Langville, Amy N. ; Langville, Amy N.; Meyer, Carl D. (23 de julio de 2006). Google's PageRank and Beyond: The Science of Search Engine Rankings [El PageRank de Google y más allá: la ciencia de las clasificaciones en los motores de búsqueda]. Princeton University Press. ISBN 978-0691122021Archivado desde el original el 10 de julio de 2014 . Consultado el 31 de octubre de 2016 .{{cite book}}: CS1 maint: bot: original URL status unknown (link)
  5. ^ Keener 1993, pág. 80
  6. ^ Landau, Edmund (1895), "Zur relatedn Wertbemessung der Turnierresultaten", Deutsches Wochenschach , XI : 366–369
  7. ^ Landau, Edmund (1915), "Über Preisverteilung bei Spielturnieren", Zeitschrift für Mathematik und Physik , 63 : 192-202
  8. ^ Birkhoff, Garrett y Varga, Richard S., 1958. Criticidad del reactor y matrices no negativas. Journal of the Society for Industrial and Applied Mathematics, 6(4), pp.354-377.
  9. ^ Donsker, MD y Varadhan, SS, 1975. Sobre una fórmula variacional para el valor propio principal para operadores con principio máximo. Actas de la Academia Nacional de Ciencias, 72(3), págs. 780-783.
  10. ^ Friedland, S., 1981. Funciones espectrales convexas. Álgebra lineal y multilineal, 9(4), pp.299-316.
  11. ^ Miroslav Fiedler; Charles R. Johnson; Thomas L. Markham; Michael Neumann (1985). "Una desigualdad de traza para matrices M y la simetrización de una matriz real por una matriz diagonal positiva". Álgebra lineal y sus aplicaciones . 71 : 81–94. doi : 10.1016/0024-3795(85)90237-X .
  12. ^ abcd Meyer 2000, pp. capítulo 8 página 665 «Copia archivada» (PDF) . Archivado desde el original (PDF) el 7 de marzo de 2010. Consultado el 7 de marzo de 2010 .{{cite web}}: CS1 maint: archived copy as title (link)
  13. ^ Meyer 2000, pp. capítulo 8.3 página 670. «Copia archivada» (PDF) . Archivado desde el original (PDF) el 7 de marzo de 2010. Consultado el 7 de marzo de 2010 .{{cite web}}: CS1 maint: archived copy as title (link)
  14. ^ Gantmacher 2000, p. capítulo XIII.3 teorema 3 página 66
  15. ^ Kitchens, Bruce (1998), Dinámica simbólica: desplazamientos de Markov de estado unilaterales, bilaterales y contables., Springer, ISBN 9783540627388
  16. ^ Minc, Henryk (1988). Matrices no negativas . Nueva York: John Wiley & Sons. p. 6 [Corolario 2.2]. ISBN 0-471-83966-3.
  17. ^ Gradshtein, Izrailʹ Solomonovich (18 de septiembre de 2014). Tabla de integrales, series y productos. Elsevier. ISBN 978-0-12-384934-2.OCLC 922964628  .
  18. ^ Meyer 2000, pp. reivindicación 8.3.11 p. 675 «Copia archivada» (PDF) . Archivado desde el original (PDF) el 7 de marzo de 2010. Consultado el 7 de marzo de 2010 .{{cite web}}: CS1 maint: archived copy as title (link)
  19. ^ Gantmacher 2000, pág. sección XIII.5 teorema 9
  20. ^ Meyer 2000, pp. página 679 «Copia archivada» (PDF) . Archivado desde el original (PDF) el 7 de marzo de 2010. Consultado el 7 de marzo de 2010 .{{cite web}}: CS1 maint: archived copy as title (link)
  21. ^ Meyer 2000, pp. ejemplo 8.3.2 p. 677 «Copia archivada» (PDF) . Archivado desde el original (PDF) el 7 de marzo de 2010. Consultado el 7 de marzo de 2010 .{{cite web}}: CS1 maint: archived copy as title (link)
  22. ^ Gantmacher 2000, pág. sección XIII.2.2 página 62
  23. ^ Meyer 2000, pp. ejemplo 8.3.3 p. 678 «Copia archivada» (PDF) . Archivado desde el original (PDF) el 7 de marzo de 2010. Consultado el 7 de marzo de 2010 .{{cite web}}: CS1 maint: archived copy as title (link)
  24. ^ Meyer 2000, pp. capítulo 8 ejemplo 8.3.4 página 679 y ejercicio 8.3.9 p. 685 «Copia archivada» (PDF) . Archivado desde el original (PDF) el 7 de marzo de 2010. Consultado el 7 de marzo de 2010 .{{cite web}}: CS1 maint: archived copy as title (link)
  25. ^ Varga 2002, pág. 2.43 (página 51)
  26. ^ Brualdi, Richard A .; Ryser, Herbert J. (1992). Teoría de matrices combinatorias . Cambridge: Cambridge UP. ISBN 978-0-521-32265-2.
  27. ^ Brualdi, Richard A .; Cvetkovic, Dragos (2009). Un enfoque combinatorio de la teoría de matrices y sus aplicaciones . Boca Raton, FL: CRC Press. ISBN 978-1-4200-8223-4.
  28. ^ Mackey, Michael C. (1992). La flecha del tiempo: los orígenes del comportamiento termodinámico . Nueva York: Springer-Verlag. ISBN. 978-0-387-97702-7.
  29. ^ Gantmacher 2000, pág. sección XIII.2.2 página 54
  30. ^ Smith, Roger (2006), "Una prueba teórica espectral de Perron-Frobenius" (PDF) , Actas matemáticas de la Real Academia Irlandesa , 102 (1): 29–35, doi :10.3318/PRIA.2002.102.1.29
  31. ^ Meyer 2000, pp. capítulo 8 reivindicación 8.2.10 página 666 «Copia archivada» (PDF) . Archivado desde el original (PDF) el 7 de marzo de 2010. Consultado el 7 de marzo de 2010 .{{cite web}}: CS1 maint: archived copy as title (link)
  32. ^ Meyer 2000, pp. capítulo 8 página 666 «Copia archivada» (PDF) . Archivado desde el original (PDF) el 7 de marzo de 2010. Consultado el 7 de marzo de 2010 .{{cite web}}: CS1 maint: archived copy as title (link)
  33. ^ Para análisis de resultados sobre irreducibilidad, véase Olga Taussky-Todd y Richard A. Brualdi .

Referencias

Lectura adicional