stringtranslate.com

Teorema de Perron-Frobenius

En teoría de matrices , el teorema de Perron-Frobenius , demostrado por Oskar Perron  (1907) y Georg Frobenius  (1912), afirma que una matriz cuadrada real con entradas positivas tiene un valor propio único de mayor magnitud y que ese valor propio es real. Se puede elegir que el vector propio correspondiente tenga componentes estrictamente positivos y también afirma una afirmación similar para ciertas clases de matrices no negativas . Este teorema tiene importantes aplicaciones a la teoría de la probabilidad ( ergodicidad de las cadenas de Markov ); a la teoría de sistemas dinámicos ( subdesplazamientos de tipo finito ); a la economía ( teorema de Okishio , [1] condición de Hawkins-Simon [2] ); a la demografía ( modelo de distribución de edades de la población de Leslie ); [3] a las redes sociales ( proceso de aprendizaje de DeGroot ); a los motores de búsqueda de Internet ( PageRank ); [4] e incluso al ranking de equipos de fútbol americano. [5] El primero en discutir el orden de los jugadores dentro de los torneos utilizando vectores propios de Perron-Frobenius es Edmund Landau . [6] [7]

Declaración

Dejemos que positivo y no negativo describan respectivamente matrices con números reales exclusivamente positivos como elementos y matrices con números reales exclusivamente no negativos como elementos. Los valores propios de una matriz cuadrada real A son números complejos que forman el espectro de la matriz. La tasa de crecimiento exponencial de las potencias matriciales A k cuando k → ∞ está controlada por el valor propio de A con el valor absoluto más grande ( módulo ). El teorema de Perron-Frobenius describe las propiedades del valor propio principal y de los vectores propios correspondientes cuando A es una matriz cuadrada real no negativa. Los primeros resultados se debieron a Oskar Perron  (1907) y se referían a matrices positivas. Posteriormente, Georg Frobenius  (1912) encontró su extensión a ciertas clases de matrices no negativas.

Matrices positivas

Sea una matriz positiva: para . Entonces se cumplen las siguientes afirmaciones.

  1. Existe un número real positivo r , llamado raíz de Perron o valor propio de Perron-Frobenius (también llamado valor propio principal , valor propio principal o valor propio dominante ), tal que r es un valor propio de A y cualquier otro valor propio λ (posiblemente complejo ) en el valor absoluto es estrictamente menor que r , | λ | < r . Por tanto, el radio espectral es igual a r . Si los coeficientes de la matriz son algebraicos, esto implica que el valor propio es un número de Perron .
  2. El valor propio de Perron-Frobenius es simple: r es una raíz simple del polinomio característico de A. En consecuencia, el espacio propio asociado a r es unidimensional. (Lo mismo es cierto para el espacio propio izquierdo, es decir, el espacio propio para AT , la transpuesta de A ).
  3. Existe un vector propio v = ( v 1 ,..., v n ) T de A con valor propio r tal que todos los componentes de v son positivos: A v = rv , v i > 0 para 1 ≤ in . (Respectivamente, existe un vector propio izquierdo positivo w  : w T A = w T r, w i > 0.) Se conoce en la literatura con muchas variaciones como vector de Perron , vector propio de Perron , vector propio de Perron-Frobenius , vector propio principal , Vector propio principal o vector propio dominante .
  4. No hay otros vectores propios positivos (además no negativos) excepto múltiplos positivos de v (respectivamente, vectores propios izquierdos excepto ww'w ), es decir, todos los demás vectores propios deben tener al menos un componente negativo o no real.
  5. , donde los vectores propios izquierdo y derecho para A están normalizados de modo que w T v = 1. Además, la matriz vw T es la proyección en el espacio propio correspondiente a  r . Esta proyección se llama proyección de Perron .
  6. Fórmula de Collatz -Wielandt : para todos los vectores no negativos distintos de cero x , sea f ( x ) el valor mínimo de [ Ax ] i /  x i tomado sobre todos aquellos i tales que x i ≠ 0. Entonces f es un valor real función valorada cuyo máximo sobre todos los vectores x no negativos distintos de ceroes el valor propio de Perron-Frobenius.
  7. Una fórmula de Collatz-Wielandt "Min-max" toma una forma similar a la anterior: para todos los vectores x estrictamente positivos , sea g ( x ) el valor máximo de [ Ax ] i /  x i tomado sobre i . Entonces g es una función con valor real cuyo mínimo sobre todos los vectores x estrictamente positivos es el valor propio de Perron-Frobenius.
  8. Fórmula de Birkhoff - Varga : Sean xey vectores estrictamentepositivos. Entonces, [8]
  9. Fórmula de DonskerVaradhanFriedland : Sea p un vector de probabilidad y x un vector estrictamente positivo. Entonces, [9] [10]
  10. Fórmula de Fiedler : [11]
  11. El valor propio de Perron-Frobenius satisface las desigualdades

Todas estas propiedades se extienden más allá de las matrices estrictamente positivas hasta las matrices primitivas (ver más abajo). Los hechos 1 a 7 se pueden encontrar en Meyer [12] capítulo 8, reclamaciones 8.2.11–15 página 667 y ejercicios 8.2.5,7,9 páginas 668–669.

Los vectores propios izquierdo y derecho w y v a veces se normalizan de modo que la suma de sus componentes sea igual a 1; en este caso, a veces se les llama vectores propios estocásticos . A menudo se normalizan para que el vector propio derecho v sume uno, mientras que .

Matrices no negativas

Existe una extensión para matrices con entradas no negativas. Dado que cualquier matriz no negativa se puede obtener como límite de matrices positivas, se obtiene la existencia de un vector propio con componentes no negativos; el valor propio correspondiente no será negativo y será mayor o igual , en valor absoluto, a todos los demás valores propios. [13] [14] Sin embargo, para el ejemplo , el valor propio máximo r = 1 tiene el mismo valor absoluto que el otro valor propio −1; mientras que para , el valor propio máximo es r = 0, que no es una raíz simple del polinomio característico, y el vector propio correspondiente (1, 0) no es estrictamente positivo.

Sin embargo, Frobenius encontró una subclase especial de matrices no negativas ( matrices irreducibles ) para las cuales es posible una generalización no trivial. Para tal matriz, aunque los valores propios que alcanzan el valor absoluto máximo pueden no ser únicos, su estructura está bajo control: tienen la forma , donde es un valor propio real estrictamente positivo, y abarca las raíces complejas h'ésimas de 1 para algunos entero positivo h llamado período de la matriz. El vector propio correspondiente a tiene componentes estrictamente positivos (en contraste con el caso general de matrices no negativas, donde los componentes solo son no negativos). Además, todos estos valores propios son raíces simples del polinomio característico. Otras propiedades se describen a continuación.

Clasificación de matrices

Sea A una matriz cuadrada de n  ×  n sobre el campo F. La matriz A es irreducible si se cumple alguna de las siguientes propiedades equivalentes.

Definición 1: A no tiene subespacios de coordenadas invariantes no triviales . Aquí, un subespacio de coordenadas no trivial significa un subespacio lineal abarcado por cualquier subconjunto adecuado de vectores de base estándar de F n . Más explícitamente, para cualquier subespacio lineal abarcado por vectores de base estándar e i 1 , ..., e i k , 0 < k  <  n su imagen bajo la acción de A no está contenida en el mismo subespacio.

Definición 2: A no se puede conjugar en forma triangular superior en bloque mediante una matriz de permutación P :

donde E y G son matrices cuadradas no triviales (es decir, de tamaño mayor que cero).

Definición 3: Se puede asociar a una matriz A un determinado gráfico dirigido G A . Tiene n vértices etiquetados 1,..., n , y hay una arista desde el vértice i al vértice j precisamente cuando a ij ≠ 0. Entonces la matriz A es irreducible si y sólo si su gráfico asociado G A está fuertemente conexo .

Si F es el cuerpo de números reales o complejos, entonces también tenemos la siguiente condición.

Definición 4: La representación grupal de on o on dada por no tiene subespacios de coordenadas invariantes no triviales. (En comparación, esta sería una representación irreducible si no hubiera ningún subespacio invariante no trivial, no solo considerando los subespacios de coordenadas).

Una matriz es reducible si no es irreducible.

Una matriz real A es primitiva si no es negativa y su m -ésima potencia es positiva para algún número natural m (es decir , todas las entradas de Am son positivas).

Sea A real y no negativo. Fije un índice i y defina el período del índice i como el máximo común divisor de todos los números naturales m tal que ( A m ) ii > 0. Cuando A es irreducible, el período de cada índice es el mismo y se llama período de A. De hecho, cuando A es irreducible, el período se puede definir como el máximo común divisor de las longitudes de los caminos dirigidos cerrados en G A (ver Cocinas [15] página 16). El período también se llama índice de imprimitividad (Meyer [12] página 674) o orden de ciclicidad. Si el período es 1, A es aperiódico . Se puede demostrar que las matrices primitivas son lo mismo que las matrices no negativas aperiódicas irreducibles.

Todas las afirmaciones del teorema de Perron-Frobenius para matrices positivas siguen siendo válidas para matrices primitivas. Las mismas afirmaciones también son válidas para una matriz irreducible no negativa, excepto que puede poseer varios valores propios cuyo valor absoluto es igual a su radio espectral, por lo que las afirmaciones deben modificarse en consecuencia. De hecho, el número de dichos valores propios es igual al período.

Frobenius obtuvo por primera vez resultados para matrices no negativas en 1912.

Teorema de Perron-Frobenius para matrices no negativas irreducibles

Sea una matriz irreducible no negativa con período y radio espectral . Entonces se cumplen las siguientes afirmaciones.

donde denota una matriz cero y los bloques a lo largo de la diagonal principal son matrices cuadradas.

El ejemplo muestra que las matrices cero (cuadradas) a lo largo de la diagonal pueden ser de diferentes tamaños, los bloques A j no necesitan ser cuadrados y h no necesita dividir  a n .

Otras propiedades

Sea A una matriz no negativa irreducible, entonces:

  1. (I+ A ) n −1 es una matriz positiva. (Meyer [12] reivindicación 8.3.5 p. 672). Para una A no negativa , esta también es una condición suficiente. [dieciséis]
  2. Teorema de Wielandt. [17] [ se necesita aclaración ] Si | B |< A , entonces ρ ( B )≤ ρ ( A ). Si se cumple la igualdad (es decir, si μ=ρ(A)e es un valor propio para B ), entonces B = e D AD −1 para alguna matriz unitaria diagonal D (es decir, los elementos diagonales de D son iguales a e l , no diagonal son cero). [18]
  3. Si alguna potencia A q es reducible, entonces es completamente reducible, es decir, para alguna matriz de permutación P , es cierto que: , donde Ai son matrices irreducibles que tienen el mismo valor propio máximo. El número de estas matrices d es el máximo común divisor de q y h , donde h es el período de A. [19]
  4. Si c ( x ) = x n + c k 1 x n-k 1 + c k 2 x n-k 2 + ... + c k s x n-k s es el polinomio característico de A en el que solo se enumeran los términos distintos de cero, entonces el período de A es igual al máximo común divisor de k 1 , k 2 , ... , k s . [20]
  5. Promedios de Cesàro : donde los vectores propios izquierdo y derecho de A están normalizados de modo que w T v = 1. Además, la matriz vw T es la proyección espectral correspondiente a r , la proyección de Perron. [21]
  6. Sea r el valor propio de Perron-Frobenius, entonces la matriz adjunta para ( r - A ) es positiva. [22]
  7. Si A tiene al menos un elemento diagonal distinto de cero, entonces A es primitivo. [23]
  8. Si 0 ≤ A < B , entonces r Ar B. Además, si B es irreducible, entonces la desigualdad es estricta: r A < r B .

Una matriz A es primitiva siempre que no sea negativa y Am sea positiva para algunos m y, por tanto, A k sea positiva para todos los k ≥ m . Para comprobar la primitividad, se necesita un límite de cuán grande puede ser el mínimo m , dependiendo del tamaño de A : [24]

Aplicaciones

Se han escrito numerosos libros sobre el tema de las matrices no negativas, y la teoría de Perron-Frobenius es invariablemente una característica central. Los siguientes ejemplos que se dan a continuación sólo tocan la superficie de su vasto dominio de aplicación.

Matrices no negativas

El teorema de Perron-Frobenius no se aplica directamente a matrices no negativas. Sin embargo, cualquier matriz cuadrada reducible A puede escribirse en forma de bloque triangular superior (conocida como forma normal de una matriz reducible ) [25]

PAP −1 =

donde P es una matriz de permutación y cada B i es una matriz cuadrada que es irreducible o cero. Ahora bien , si A no es negativo, también lo será cada bloque de PAP −1 ; además, el espectro de A es solo la unión de los espectros de Bi .

También se puede estudiar la invertibilidad de A. La inversa de PAP −1 (si existe) debe tener bloques diagonales de la forma B i −1, por lo que si algún B i no es invertible , tampoco lo es PAP −1 o A. Por el contrario, sea D la matriz diagonal de bloques correspondiente a PAP −1 , en otras palabras, PAP −1 con los asteriscos puestos a cero. Si cada B i es invertible entonces también lo es D y D −1 ( PAP −1 ) es igual a la identidad más una matriz nilpotente. Pero dicha matriz es siempre invertible (si N k = 0, la inversa de 1 − N es 1 + N + N 2 + ... + N k −1 ), por lo que PAP −1 y A son ambos invertibles.

Por lo tanto, muchas de las propiedades espectrales de A pueden deducirse aplicando el teorema al irreducible Bi . Por ejemplo, la raíz de Perron es el máximo de ρ( B i ). Si bien todavía habrá vectores propios con componentes no negativos, es muy posible que ninguno de ellos sea positivo.

Matrices estocásticas

Una matriz estocástica de filas (columnas) es una matriz cuadrada, cada una de cuyas filas (columnas) consta de números reales no negativos cuya suma es la unidad. El teorema no se puede aplicar directamente a tales matrices porque no es necesario que sean irreducibles.

Si A es estocástico por filas, entonces el vector columna con cada entrada 1 es un vector propio correspondiente al valor propio 1, que también es ρ( A ) según la observación anterior. Puede que no sea el único valor propio en el círculo unitario: y el espacio propio asociado puede ser multidimensional. Si A es estocástica por filas e irreducible, entonces la proyección de Perron también es estocástica por filas y todas sus filas son iguales.

Teoría de grafos algebraicos

El teorema tiene un uso particular en la teoría de grafos algebraicos . El "gráfico subyacente" de una matriz n -cuadrada no negativa es el gráfico con vértices numerados 1, ..., n y arco ij si y sólo si A ij ≠ 0. Si el gráfico subyacente de dicha matriz está fuertemente conexo, entonces la matriz es irreducible y, por tanto, se aplica el teorema. En particular, la matriz de adyacencia de un gráfico fuertemente conexo es irreducible. [26] [27]

Cadenas finitas de Markov

El teorema tiene una interpretación natural en la teoría de cadenas de Markov finitas (donde es el equivalente teórico matricial de la convergencia de una cadena de Markov finita irreducible a su distribución estacionaria, formulada en términos de la matriz de transición de la cadena; ver, para (por ejemplo, el artículo sobre el subdesplazamiento de tipo finito ).

Operadores compactos

De manera más general, se puede extender al caso de operadores compactos no negativos , que, en muchos sentidos, se parecen a matrices de dimensión finita. Estos se estudian comúnmente en física, bajo el nombre de operadores de transferencia o, a veces, operadores de Ruelle-Perron-Frobenius (en honor a David Ruelle ). En este caso, el valor propio principal corresponde al equilibrio termodinámico de un sistema dinámico , y los valores propios menores a los modos de decaimiento de un sistema que no está en equilibrio. Por lo tanto, la teoría ofrece una manera de descubrir la flecha del tiempo en lo que de otro modo parecerían ser procesos dinámicos deterministas y reversibles, cuando se examinan desde el punto de vista de la topología de conjuntos de puntos . [28]

Métodos de prueba

Un hilo común en muchas demostraciones es el teorema del punto fijo de Brouwer . Otro método popular es el de Wielandt (1950). Utilizó la fórmula de Collatz -Wielandt descrita anteriormente para ampliar y aclarar el trabajo de Frobenius. [29] Otra prueba se basa en la teoría espectral [30] de la que se toman prestados parte de los argumentos.

La raíz de Perron es un valor propio estrictamente máximo para matrices positivas (y primitivas)

Si A es una matriz positiva (o más generalmente primitiva), entonces existe un valor propio positivo real r (valor propio de Perron-Frobenius o raíz de Perron), que es estrictamente mayor en valor absoluto que todos los demás valores propios, por lo tanto, r es el radio espectral de A .

Esta afirmación no es válida para matrices irreducibles no negativas generales, que tienen h valores propios con el mismo valor propio absoluto que r , donde h es el período de A.

Prueba de matrices positivas

Sea A una matriz positiva, supongamos que su radio espectral ρ( A ) = 1 (de lo contrario, considere A/ρ(A) ). Por lo tanto, existe un valor propio λ en el círculo unitario, y todos los demás valores propios son menores o iguales a 1 en valor absoluto. Supongamos que otro valor propio λ ≠ 1 también cae en el círculo unitario. Entonces existe un entero positivo m tal que Am es una matriz positiva y la parte real de λ m es negativa. Sea ε la mitad de la entrada diagonal más pequeña de Am y establezca T = Am εI , que es  otra  matriz positiva más. Además, si Ax = λx entonces A m x = λ m x por lo tanto λ m  −  ε es un valor propio de T . Debido a la elección de m, este punto se encuentra fuera del disco unitario, por lo tanto ρ ( T ) > 1. Por otro lado, todas las entradas en T son positivas y menores o iguales que las de Am , por lo que según la fórmula de Gelfand ρ ( T ) ≤ ρ ( A m ) ≤ ρ ( A ) m = 1. Esta contradicción significa que λ=1 y no puede haber otros valores propios en el círculo unitario.

Se pueden aplicar absolutamente los mismos argumentos al caso de matrices primitivas; sólo necesitamos mencionar el siguiente lema simple, que aclara las propiedades de las matrices primitivas.

Lema

Dado un A no negativo , supongamos que existe m , tal que Am es positivo, entonces Am +1 , Am +2 , Am +3 ,... son todos positivos .

Am +1 = AA m , por lo que puede tener elemento cero solo si alguna fila de A es completamente cero, pero en este caso la misma fila de Am será cero .

Aplicando los mismos argumentos anteriores para las matrices primitivas, pruebe la afirmación principal.

Método de potencia y par propio positivo.

Para una matriz A positiva (o más generalmente irreducible y no negativa), el vector propio dominante es real y estrictamente positivo (para A no negativa, respectivamente, no negativa).

Esto se puede establecer utilizando el método de potencia , que establece que para una matriz A suficientemente genérica (en el sentido siguiente) la secuencia de vectores b k +1 = Ab k / | Ab k | converge al vector propio con el valor propio máximo . (El vector inicial b 0 se puede elegir arbitrariamente excepto por alguna medida establecida en cero). Comenzar con un vector no negativo b 0 produce la secuencia de vectores no negativos b k . Por tanto, el vector límite tampoco es negativo. Por el método de potencia, este vector limitante es el vector propio dominante para A , lo que demuestra la afirmación. El valor propio correspondiente no es negativo.

La prueba requiere dos argumentos adicionales. Primero, el método de la potencia converge para matrices que no tienen varios valores propios del mismo valor absoluto que el máximo. El argumento de la sección anterior lo garantiza.

En segundo lugar, garantizar la positividad estricta de todos los componentes del vector propio para el caso de matrices irreducibles. Esto se desprende del siguiente hecho, que es de interés independiente:

Lema: dada una matriz A y v positiva (o más generalmente irreducible, no negativa) como cualquier vector propio no negativo para A , entonces es necesariamente estrictamente positiva y el valor propio correspondiente también es estrictamente positivo.

Prueba. Una de las definiciones de irreductibilidad para matrices no negativas es que para todos los índices i,j existe m , tal que ( A m ) ij es estrictamente positivo. Dado un vector propio no negativo v , y que al menos uno de sus componentes dice j -ésimo es estrictamente positivo, el valor propio correspondiente es estrictamente positivo, de hecho, dado n tal que ( A n ) ii >0, por lo tanto: r n v yo = Una norte v yo ≥ ( Una norte ) ii v yo >0. Por tanto, r es estrictamente positivo. El vector propio es la positividad estricta. Entonces dado m , tal que ( A m ) ij >0, por lo tanto: r m v j = ( A m v ) j ≥ ( A m ) ij v i >0, por lo tanto v j es estrictamente positivo, es decir, el vector propio es estrictamente positivo.

multiplicidad uno

Esta sección demuestra que el valor propio de Perron-Frobenius es una raíz simple del polinomio característico de la matriz. Por tanto, el espacio propio asociado al valor propio r de Perron-Frobenius es unidimensional. Los argumentos aquí son similares a los de Meyer. [12]

Dado un vector propio estrictamente positivo v correspondiente a r y otro vector propio w con el mismo valor propio. (Los vectores v y w pueden elegirse como reales, porque A y r son ambos reales, por lo que el espacio nulo de Ar tiene una base que consta de vectores reales). Suponiendo que al menos uno de los componentes de w es positivo (en caso contrario, multiplique w por −1). Dado el máximo posible α tal que u=v- α w no es negativo, entonces uno de los componentes de u es cero; de lo contrario, α no es máximo. El vector u es un vector propio. No es negativo, por lo tanto, según el lema descrito en la sección anterior, la no negatividad implica positividad estricta para cualquier vector propio. Por otro lado, como antes, al menos una componente de u es cero. La contradicción implica que w no existe.

Caso: No hay celdas de Jordan correspondientes al valor propio de Perron-Frobenius r ni a todos los demás valores propios que tienen el mismo valor absoluto.

Si hay una celda de Jordan, entonces la norma infinita (A/r) k tiende al infinito para k → ∞ , pero eso contradice la existencia del vector propio positivo.

Dado r = 1, o A/r . Dejando que v sea un vector propio estrictamente positivo de Perron-Frobenius, entonces Av=v , entonces:

Entonces A k está acotado para todo k . Esto da otra prueba de que no hay valores propios que tengan mayor valor absoluto que el de Perron-Frobenius. También contradice la existencia de la celda de Jordan para cualquier valor propio que tenga un valor absoluto igual a 1 (en particular para el de Perron-Frobenius), porque la existencia de la celda de Jordan implica que A k es ilimitado. Para una matriz de dos por dos:

por tanto J k = | k + λ | (para | λ | = 1), por lo que tiende al infinito cuando k lo hace. Dado que J k = C −1 A k C , entonces A kJ k / ( C −1 C ), por lo que también tiende al infinito. La contradicción resultante implica que no hay celdas de Jordan para los valores propios correspondientes.

La combinación de las dos afirmaciones anteriores revela que el valor propio de Perron-Frobenius r es una raíz simple del polinomio característico. En el caso de matrices no primitivas, existen otros valores propios que tienen el mismo valor absoluto que r . Lo mismo se aplica a ellos, pero requiere más trabajo.

Ningún otro vector propio no negativo

Dada una matriz positiva (o más generalmente irreducible y no negativa) A , el vector propio de Perron-Frobenius es el único (hasta la multiplicación por constante) no negativo para A .

Otros vectores propios deben contener componentes negativos o complejos, ya que los vectores propios para diferentes valores propios son ortogonales en algún sentido, pero dos vectores propios positivos no pueden ser ortogonales, por lo que deben corresponder al mismo valor propio, pero el espacio propio de Perron-Frobenius es unidimensional.

Suponiendo que existe un par propio ( λ , y ) para A , tal que el vector y es positivo, y dado ( r , x ), donde x – es el vector propio izquierdo de Perron-Frobenius para A (es decir, vector propio para A T ), entonces rx T y = ( x T A ) y = x T ( Ay ) = λx T y , también x T y > 0, por lo que se tiene: r = λ . Dado que el espacio propio del valor propio de Perron-Frobenius r es unidimensional, el vector propio no negativo y es un múltiplo del de Perron-Frobenius. [31]

Fórmula de Collatz-Wielandt

Dada una matriz A positiva (o más generalmente irreducible y no negativa) , se define la función f en el conjunto de todos los vectores no negativos distintos de cero x tal que f(x) es el valor mínimo de [ Ax ] i /  x Tomé todos aquellos i tales que x i ≠ 0. Entonces f es una función de valor real, cuyo máximo es el valor propio de Perron-Frobenius r .

Para la prueba denotamos el máximo de f por el valor R . La prueba requiere mostrar R = r . Insertando el vector propio v de Perron-Frobenius en f , obtenemos f(v) = r y concluimos r ≤ R . Para la desigualdad opuesta, consideramos un vector arbitrario no negativo x y dejamos que ξ=f(x) . La definición de f da 0 ≤ ξx ≤ Ax (por componentes). Ahora, usamos el vector propio derecho positivo w para A para el valor propio de Perron-Frobenius r , entonces ξ w T x = w T ξx ≤ w T (Ax) = (w T A)x = rw T x . Por tanto f(x) = ξ ≤ r , lo que implica R ≤ r . [32]

Proyección de Perron como límite: A k / r k

Sea A una matriz positiva (o más generalmente, primitiva) y sea r su valor propio de Perron-Frobenius.

  1. Existe un límite A k /r k para k → ∞ , denotarlo por P .
  2. P es un operador de proyección : P 2 = P , que conmuta con A : AP = PA .
  3. La imagen de P es unidimensional y está abarcada por el vector propio de Perron-Frobenius v (respectivamente para P T , por el vector propio de Perron-Frobenius w para A T ).
  4. P = vw T , donde v,w están normalizados de modo que w T v = 1.
  5. Por tanto, P es un operador positivo.

Por tanto, P es una proyección espectral del valor propio de Perron-Frobenius r , y se denomina proyección de Perron. La afirmación anterior no es cierta para matrices irreducibles no negativas generales.

En realidad, las afirmaciones anteriores (excepto la reivindicación 5) son válidas para cualquier matriz M tal que exista un valor propio r que sea estrictamente mayor que los otros valores propios en valor absoluto y sea la raíz simple del polinomio característico . (Estos requisitos son válidos para matrices primitivas como se indicó anteriormente).

Dado que M es diagonalizable, M se conjuga con una matriz diagonal con valores propios r 1 , ... , r n en la diagonal (denota r 1 = r ). La matriz M k / r k será conjugada (1, ( r 2 / r ) k , ... , ( r n / r ) k ), que tiende a (1,0,0,...,0) , para k → ∞ , entonces el límite existe. El mismo método funciona para M general (sin asumir que M es diagonalizable).

Las propiedades de proyección y conmutatividad son corolarios elementales de la definición: MM k / r k = M k / r k M  ; P 2 = lím M 2 k / r 2 k = P . El tercer hecho también es elemental: M ( Pu ) = M lim M k / r k u = lim rM k +1 / r k +1 u , por lo que tomando el límite se obtiene M ( Pu ) = r ( Pu ), entonces imagen de P se encuentra en el r -espacio propio para M , que es unidimensional según los supuestos.

Denotando por v , r -vector propio para M (por w para M T ). Las columnas de P son múltiplos de v , porque ésta abarca la imagen de P. Respectivamente, filas de w . Entonces P toma una forma (avw T ) , para algunos a . Por tanto su traza es igual a (aw T v) . La traza del proyector es igual a la dimensión de su imagen. Ya se demostró antes que no es más que unidimensional. De la definición se ve que P actúa de manera idéntica en el r -vector propio para M . Entonces es unidimensional. Entonces, elegir ( w T v ) = 1 implica P = vw T .

Desigualdades del valor propio de Perron-Frobenius

Para cualquier matriz A no negativa, su valor propio de Perron-Frobenius r satisface la desigualdad:

Esto no es específico de matrices no negativas: para cualquier matriz A con un valor propio es cierto que . Éste es un corolario inmediato del teorema del círculo de Gershgorin . Sin embargo, otra prueba es más directa:

Cualquier norma inducida por matriz satisface la desigualdad para cualquier valor propio porque, si es un vector propio correspondiente, . La norma infinita de una matriz es el máximo de las sumas de filas: por lo tanto , la desigualdad deseada se aplica exactamente a la matriz no negativa A.

Otra desigualdad es:

Este hecho es específico de las matrices no negativas; para matrices generales no hay nada similar. Dado que A es positivo (no sólo no negativo), entonces existe un vector propio positivo w tal que Aw = rw y el componente más pequeño de w (digamos w i ) es 1. Entonces r = ( Aw ) i ≥ la suma de los números en la fila i de A . Por lo tanto, la suma mínima de filas da un límite inferior para r y esta observación se puede extender a todas las matrices no negativas por continuidad.

Otra forma de argumentarlo es mediante la fórmula de Collatz -Wielandt. Se toma el vector x  = (1, 1, ..., 1) e inmediatamente se obtiene la desigualdad.

Más pruebas

proyección perron

La demostración procede ahora mediante descomposición espectral . El truco aquí consiste en separar la raíz de Perron de los otros valores propios. La proyección espectral asociada a la raíz de Perron se denomina proyección de Perron y goza de la siguiente propiedad:

La proyección de Perron de una matriz cuadrada no negativa irreducible es una matriz positiva.

Los hallazgos de Perron y también (1) a (5) del teorema son corolarios de este resultado. El punto clave es que una proyección positiva siempre ocupa el primer lugar. Esto significa que si A es una matriz cuadrada no negativa irreducible, entonces las multiplicidades algebraicas y geométricas de su raíz de Perron son ambas una. Además, si P es su proyección de Perron, entonces AP = PA = ρ( A ) P , entonces cada columna de P es un vector propio derecho positivo de A y cada fila es un vector propio izquierdo positivo. Además, si Ax = λ x entonces PAx = λ Px = ρ( A ) Px lo que significa Px = 0 si λ ≠ ρ( A ). Por tanto, los únicos vectores propios positivos son los asociados con ρ ( A ). Si A es una matriz primitiva con ρ( A ) = 1 entonces se puede descomponer como P ⊕ (1 −  P ) A de modo que An = P + (1 −  P ) A n . A medida que n aumenta, el segundo de estos términos decae a cero, dejando a P como el límite de An cuando n  → ∞.

El método de la potencia es una forma conveniente de calcular la proyección de Perron de una matriz primitiva. Si v y w son los vectores positivos de fila y columna que genera, entonces la proyección de Perron es simplemente wv / vw . Las proyecciones espectrales no están claramente bloqueadas como en la forma de Jordan. Aquí están superpuestas y cada una generalmente tiene entradas complejas que se extienden a las cuatro esquinas de la matriz cuadrada. Sin embargo, conservan su ortogonalidad mutua que es lo que facilita la descomposición.

Proyección periférica

El análisis cuando A es irreducible y no negativo es muy similar. La proyección de Perron sigue siendo positiva, pero ahora puede haber otros valores propios del módulo ρ( A ) que niegan el uso del método de potencia y evitan que las potencias de (1 −  P ) A decaigan como en el caso primitivo siempre que ρ( A ) = 1 Entonces consideramos la proyección periférica , que es la proyección espectral de A correspondiente a todos los valores propios que tienen módulo ρ ( A ). Entonces se puede demostrar que la proyección periférica de una matriz cuadrada no negativa irreducible es una matriz no negativa con una diagonal positiva.

ciclicidad

Supongamos además que ρ( A ) = 1 y A tiene h valores propios en el círculo unitario. Si P es la proyección periférica entonces la matriz R = AP = PA no es negativa e irreducible, R h = P , y el grupo cíclico P , R , R 2 , ...., R h −1 representa los armónicos de A . La proyección espectral de A en el valor propio λ en el círculo unitario viene dada por la fórmula . Todas estas proyecciones (incluida la proyección de Perron) tienen la misma diagonal positiva; además, elegir cualquiera de ellas y luego tomar el módulo de cada entrada produce invariablemente la proyección de Perron. Todavía se necesita algo de trabajo duro para establecer las propiedades cíclicas (6)–(8), pero esencialmente es sólo cuestión de girar la manija. La descomposición espectral de A viene dada por A  =  R  ⊕ (1 −  P ) A , por lo que la diferencia entre A n y R n es A n  −  R n = (1 −  P ) A n, que representa los transitorios de A n que eventualmente decaen. a cero. P puede calcularse como el límite de A nh cuando n  → ∞.

Contraejemplos

Las matrices L = , P = , T = , M = proporcionan ejemplos sencillos de lo que puede salir mal si no se cumplen las condiciones necesarias. Se ve fácilmente que las proyecciones de Perron y periféricas de L son ambas iguales a P , por lo que cuando la matriz original es reducible las proyecciones pueden perder no negatividad y no hay posibilidad de expresarlas como límites de sus poderes. La matriz T es un ejemplo de matriz primitiva con diagonal cero. Si la diagonal de una matriz cuadrada no negativa irreducible es distinta de cero, entonces la matriz debe ser primitiva, pero este ejemplo demuestra que lo contrario es falso. M es un ejemplo de una matriz a la que le faltan varios dientes espectrales. Si ω = e iπ/3 entonces ω 6 = 1 y los valores propios de M son {1,ω 23 =-1,ω 4 } con un espacio propio de dimensión 2 para +1, por lo que ω y ω 5 están ausentes. Más precisamente, dado que M es cíclico en diagonal de bloque, entonces los valores propios son {1,-1} para el primer bloque y {1,ω 24 } para el inferior [ cita necesaria ]

Terminología

Un problema que genera confusión es la falta de estandarización en las definiciones. Por ejemplo, algunos autores utilizan los términos estrictamente positivo y positivo para significar > 0 y ≥ 0 respectivamente. En este artículo positivo significa > 0 y no negativo significa ≥ 0. Otra área controvertida tiene que ver con la descomponibilidad y la reducibilidad : irreducible es un término sobrecargado. Para evitar dudas , a veces se dice que una matriz cuadrada A distinta de cero y no negativa tal que 1 +  A es primitiva es conexa . Entonces las matrices cuadradas no negativas irreducibles y las matrices conectadas son sinónimas. [33]

El vector propio no negativo a menudo se normaliza de modo que la suma de sus componentes sea igual a la unidad; en este caso, el vector propio es el vector de una distribución de probabilidad y a veces se le llama vector propio estocástico .

El valor propio de Perron-Frobenius y el valor propio dominante son nombres alternativos para la raíz de Perron. Las proyecciones espectrales también se conocen como proyectores espectrales e idempotentes espectrales . A veces se hace referencia al período como índice de imprimitividad o orden de ciclicidad .

Ver también

Notas

  1. ^ Bowles, Samuel (1 de junio de 1981). "El cambio técnico y la tasa de beneficio: una prueba sencilla del teorema de Okishio". Revista de Economía de Cambridge . 5 (2): 183–186. doi : 10.1093/oxfordjournals.cje.a035479. ISSN  0309-166X.
  2. ^ Meyer 2000, págs. 8.3.6 p. 681 «Copia archivada» (PDF) . Archivado desde el original (PDF) el 7 de marzo de 2010 . Consultado el 7 de marzo de 2010 .{{cite web}}: CS1 maint: archived copy as title (link)
  3. ^ Meyer 2000, págs. 8.3.7 p. 683 «Copia archivada» (PDF) . Archivado desde el original (PDF) el 7 de marzo de 2010 . Consultado el 7 de marzo de 2010 .{{cite web}}: CS1 maint: archived copy as title (link)
  4. ^ Langville y Meyer 2006, pág. 15,2p. 167 Langville, Amy N .; Langville, Amy N.; Meyer, Carl D. (23 de julio de 2006). PageRank de Google y más allá: la ciencia de la clasificación en los motores de búsqueda. Prensa de la Universidad de Princeton. ISBN 978-0691122021. Archivado desde el original el 10 de julio de 2014 . Consultado el 31 de octubre de 2016 .{{cite book}}: CS1 maint: bot: original URL status unknown (link)
  5. ^ Keener 1993, pag. pag. 80
  6. ^ Landau, Edmund (1895), "Zur relatedn Wertbemessung der Turnierresultaten", Deutsches Wochenschach , XI : 366–369
  7. ^ Landau, Edmund (1915), "Über Preisverteilung bei Spielturnieren", Zeitschrift für Mathematik und Physik , 63 : 192-202
  8. ^ Birkhoff, Garrett y Varga, Richard S., 1958. Criticidad del reactor y matrices no negativas. Revista de la Sociedad de Matemáticas Industriales y Aplicadas, 6(4), páginas 354-377.
  9. ^ Donsker, MD y Varadhan, SS, 1975. Sobre una fórmula variacional para el valor propio principal para operadores con principio de máximo. Actas de la Academia Nacional de Ciencias, 72 (3), páginas 780-783.
  10. ^ Friedland, S., 1981. Funciones espectrales convexas. Álgebra lineal y multilineal, 9(4), páginas 299-316.
  11. ^ Miroslav Fiedler; Charles R. Johnson; Thomas L. Markham; Michael Neumann (1985). "Una traza de desigualdad para matrices M y la simetrización de una matriz real mediante una matriz diagonal positiva". Álgebra lineal y sus aplicaciones . 71 : 81–94. doi : 10.1016/0024-3795(85)90237-X .
  12. ^ abcd Meyer 2000, págs. capítulo 8 página 665 "Copia archivada" (PDF) . Archivado desde el original (PDF) el 7 de marzo de 2010 . Consultado el 7 de marzo de 2010 .{{cite web}}: CS1 maint: archived copy as title (link)
  13. ^ Meyer 2000, págs. capítulo 8.3 página 670. "Copia archivada" (PDF) . Archivado desde el original (PDF) el 7 de marzo de 2010 . Consultado el 7 de marzo de 2010 .{{cite web}}: CS1 maint: archived copy as title (link)
  14. ^ Gantmacher 2000, pag. capítulo XIII.3 teorema 3 página 66
  15. ^ Cocinas, Bruce (1998), Dinámica simbólica: cambios de Markov de estado unilaterales, bilaterales y contables., Springer, ISBN 9783540627388
  16. ^ Minc, Henryk (1988). Matrices no negativas . Nueva York: John Wiley & Sons. pag. 6 [Corolario 2.2]. ISBN 0-471-83966-3.
  17. ^ Gradshtein, Izrailʹ Solomonovich (18 de septiembre de 2014). Tabla de integrales, series y productos. Elsevier. ISBN 978-0-12-384934-2. OCLC  922964628.
  18. ^ Meyer 2000, págs. reclamación 8.3.11 p. 675 «Copia archivada» (PDF) . Archivado desde el original (PDF) el 7 de marzo de 2010 . Consultado el 7 de marzo de 2010 .{{cite web}}: CS1 maint: archived copy as title (link)
  19. ^ Gantmacher 2000, pag. sección XIII.5 teorema 9
  20. ^ Meyer 2000, págs. página 679 "Copia archivada" (PDF) . Archivado desde el original (PDF) el 7 de marzo de 2010 . Consultado el 7 de marzo de 2010 .{{cite web}}: CS1 maint: archived copy as title (link)
  21. ^ Meyer 2000, págs. ejemplo 8.3.2 p. 677 «Copia archivada» (PDF) . Archivado desde el original (PDF) el 7 de marzo de 2010 . Consultado el 7 de marzo de 2010 .{{cite web}}: CS1 maint: archived copy as title (link)
  22. ^ Gantmacher 2000, pag. apartado XIII.2.2 página 62
  23. ^ Meyer 2000, págs. ejemplo 8.3.3 p. 678 «Copia archivada» (PDF) . Archivado desde el original (PDF) el 7 de marzo de 2010 . Consultado el 7 de marzo de 2010 .{{cite web}}: CS1 maint: archived copy as title (link)
  24. ^ Meyer 2000, págs. capítulo 8 ejemplo 8.3.4 página 679 y ejercicio 8.3.9 p. 685 «Copia archivada» (PDF) . Archivado desde el original (PDF) el 7 de marzo de 2010 . Consultado el 7 de marzo de 2010 .{{cite web}}: CS1 maint: archived copy as title (link)
  25. ^ Varga 2002, pag. 2.43 (página 51)
  26. ^ Brualdi, Richard A .; Ryser, Herbert J. (1992). Teoría de matrices combinatorias . Cambridge: Cambridge UP. ISBN 978-0-521-32265-2.
  27. ^ Brualdi, Richard A .; Cvetkovic, Dragos (2009). Un enfoque combinatorio de la teoría de matrices y sus aplicaciones . Boca Ratón, FL: CRC Press. ISBN 978-1-4200-8223-4.
  28. ^ Mackey, Michael C. (1992). La flecha del tiempo: los orígenes del comportamiento termodinámico . Nueva York: Springer-Verlag. ISBN 978-0-387-97702-7.
  29. ^ Gantmacher 2000, pag. apartado XIII.2.2 página 54
  30. ^ Smith, Roger (2006), "Una prueba teórica espectral de Perron-Frobenius" (PDF) , Actas matemáticas de la Real Academia Irlandesa , 102 (1): 29–35, doi :10.3318/PRIA.2002.102.1.29
  31. ^ Meyer 2000, págs. capítulo 8 reclamación 8.2.10 página 666 "Copia archivada" (PDF) . Archivado desde el original (PDF) el 7 de marzo de 2010 . Consultado el 7 de marzo de 2010 .{{cite web}}: CS1 maint: archived copy as title (link)
  32. ^ Meyer 2000, págs. capítulo 8 página 666 "Copia archivada" (PDF) . Archivado desde el original (PDF) el 7 de marzo de 2010 . Consultado el 7 de marzo de 2010 .{{cite web}}: CS1 maint: archived copy as title (link)
  33. ^ Para estudios de resultados sobre irreductibilidad, consulte Olga Taussky-Todd y Richard A. Brualdi .

Referencias

Otras lecturas