stringtranslate.com

Algoritmo de Lanczos

El algoritmo de Lanczos es un método iterativo ideado por Cornelius Lanczos que es una adaptación de métodos de potencia para encontrar los valores propios y vectores propios "más útiles" (que tienden hacia los extremos más altos/más bajos) de una matriz hermitiana , donde a menudo, pero no necesariamente, es mucho más pequeño que . [1] Aunque en principio es computacionalmente eficiente, el método tal como se formuló inicialmente no fue útil debido a su inestabilidad numérica .

En 1970, Ojalvo y Newman demostraron cómo hacer que el método fuera numéricamente estable y lo aplicaron a la solución de estructuras de ingeniería de gran tamaño sometidas a cargas dinámicas. [2] Esto se logró usando un método para purificar los vectores de Lanczos (es decir, reortogonalizando repetidamente cada vector recién generado con todos los generados previamente) [2] con cualquier grado de precisión, que cuando no se realizaba, producía una serie de vectores que se altamente contaminados por aquellos asociados con las frecuencias naturales más bajas.

En su trabajo original, estos autores también sugirieron cómo seleccionar un vector inicial (es decir, usar un generador de números aleatorios para seleccionar cada elemento del vector inicial) y sugirieron un método determinado empíricamente para determinar el número reducido de vectores (es decir, debería ser seleccionado para que sea aproximadamente 1,5 veces el número de valores propios precisos deseados). Poco después, Paige siguió su trabajo y también proporcionó un análisis de errores. [3] [4] En 1988, Ojalvo produjo una historia más detallada de este algoritmo y una prueba de error de valor propio eficiente. [5]

el algoritmo

Ingrese una matriz hermitiana de tamaño y, opcionalmente, una cantidad de iteraciones (por defecto, let ).
  • Estrictamente hablando, el algoritmo no necesita acceso a la matriz explícita, sino sólo una función que calcula el producto de la matriz por un vector arbitrario. Esta función se llama la mayoría de las veces.
Genere una matriz con columnas ortonormales y una matriz de tamaño simétrica real tridiagonal . Si , entonces es unitario y .
Advertencia La iteración de Lanczos es propensa a la inestabilidad numérica. Cuando se ejecuta en aritmética no exacta, se deben tomar medidas adicionales (como se describe en secciones posteriores) para garantizar la validez de los resultados.
  1. Sea un vector arbitrario con norma euclidiana .
  2. Paso de iteración inicial abreviado:
    1. Dejar .
    2. Dejar .
    3. Dejar .
  3. Para hacer:
    1. Let (también norma euclidiana ).
    2. Si , entonces, deja ,
      de lo contrario, elija como un vector arbitrario con norma euclidiana que sea ortogonal a todos .
    3. Dejar .
    4. Dejar .
    5. Dejar .
  4. Sea la matriz con columnas . Dejar .
Nota para .

En principio, existen cuatro formas de escribir el procedimiento de iteración. Paige y otros trabajos muestran que el orden de operaciones anterior es el más estable numéricamente. [6] [7] En la práctica, el vector inicial puede tomarse como un argumento más del procedimiento, incluyéndose indicadores de imprecisión numérica como condiciones adicionales de terminación del bucle.

Sin contar la multiplicación matriz-vector, cada iteración realiza operaciones aritméticas. La multiplicación matriz-vector se puede realizar en operaciones aritméticas donde es el número promedio de elementos distintos de cero en una fila. La complejidad total es así , o si ; El algoritmo de Lanczos puede ser muy rápido para matrices dispersas. Los esquemas para mejorar la estabilidad numérica normalmente se juzgan en función de este alto rendimiento.

Los vectores se denominan vectores de Lanczos . El vector no se utiliza después de calcularse y el vector no se utiliza después de calcularse. Por tanto, se puede utilizar el mismo almacenamiento para los tres. Asimismo, si solo se busca la matriz tridiagonal , entonces no se necesita la iteración cruda después de haber calculado , aunque algunos esquemas para mejorar la estabilidad numérica la necesitarían más adelante. A veces, los vectores Lanczos posteriores se vuelven a calcular cuando es necesario.

Aplicación al problema propio

El algoritmo de Lanczos se plantea con mayor frecuencia en el contexto de encontrar los valores propios y los vectores propios de una matriz, pero mientras que una diagonalización ordinaria de una matriz haría que los vectores propios y los valores propios fueran evidentes a partir de la inspección, no ocurre lo mismo con la tridiagonalización realizada por los Lanczos. algoritmo; Se necesitan pasos adicionales no triviales para calcular incluso un solo valor propio o vector propio. No obstante, la aplicación del algoritmo de Lanczos suele ser un importante paso adelante en el cálculo de la descomposición propia.

Si es un valor propio de y su vector propio ( ), entonces es un vector propio correspondiente de con el mismo valor propio:

Así, el algoritmo de Lanczos transforma el problema de descomposición propia de en el problema de descomposición propia de .

  1. Para matrices tridiagonales, existen varios algoritmos especializados, a menudo con mayor complejidad computacional que los algoritmos de propósito general. Por ejemplo, si es una matriz simétrica tridiagonal entonces:
    • La recursividad continua permite calcular el polinomio característico en las operaciones y evaluarlo en un punto de las operaciones.
    • El algoritmo de valores propios de divide y vencerás se puede utilizar para calcular la descomposición propia completa de las operaciones.
    • El método rápido multipolar [8] puede calcular todos los valores propios en solo operaciones.
  2. Se sabe que algunos algoritmos generales de autodescomposición, en particular el algoritmo QR , convergen más rápido para matrices tridiagonales que para matrices generales. La complejidad asintótica del QR tridiagonal es la misma que la del algoritmo de divide y vencerás (aunque el factor constante puede ser diferente); dado que los vectores propios juntos tienen elementos, esto es asintóticamente óptimo.
  3. Incluso los algoritmos cuyas tasas de convergencia no se ven afectadas por transformaciones unitarias, como el método de potencia y la iteración inversa , pueden disfrutar de beneficios de rendimiento de bajo nivel al aplicarse a la matriz tridiagonal en lugar de a la matriz original . Dado que es muy escaso y todos los elementos distintos de cero se encuentran en posiciones muy predecibles, permite un almacenamiento compacto con un rendimiento excelente frente al almacenamiento en caché . Asimismo, es una matriz real con todos los vectores propios y valores propios reales, mientras que en general puede tener elementos y vectores propios complejos, por lo que la aritmética real es suficiente para encontrar los vectores propios y valores propios de .
  4. Si es muy grande, entonces reducirlo para que sea de un tamaño manejable aún permitirá encontrar los valores propios y vectores propios más extremos de ; En la región, el algoritmo de Lanczos puede verse como un esquema de compresión con pérdida para matrices hermitianas, que enfatiza la preservación de los valores propios extremos.

La combinación de buen rendimiento para matrices dispersas y la capacidad de calcular varios (sin calcular todos) valores propios son las principales razones para elegir utilizar el algoritmo de Lanczos.

Aplicación a la tridiagonalización

Aunque el problema propio es a menudo la motivación para aplicar el algoritmo de Lanczos, la operación que realiza principalmente el algoritmo es la tridiagonalización de una matriz, para la cual las transformaciones de Householder numéricamente estables se han favorecido desde la década de 1950. Durante la década de 1960, se hizo caso omiso del algoritmo de Lanczos. El interés en él se vio rejuvenecido por la teoría de la convergencia de Kaniel-Paige y el desarrollo de métodos para prevenir la inestabilidad numérica, pero el algoritmo de Lanczos sigue siendo el algoritmo alternativo que se prueba sólo si Householder no es satisfactorio. [9]

Los aspectos en los que difieren los dos algoritmos incluyen:

Derivación del algoritmo

Hay varias líneas de razonamiento que conducen al algoritmo de Lanczos.

Un método de poder más previsor

El método de potencia para encontrar el valor propio de mayor magnitud y el vector propio correspondiente de una matriz es aproximadamente

  1. Elija un vector aleatorio .
  2. Para (hasta que la dirección de haya convergido) haga:
    1. Dejar
    2. Dejar
  • En el límite grande, se aproxima al vector propio normado correspondiente al valor propio de mayor magnitud.

Una crítica que se puede plantear a este método es que es un desperdicio: consume mucho trabajo (los productos matriz-vector en el paso 2.1) extrayendo información de la matriz , pero presta atención sólo al último resultado; Las implementaciones suelen utilizar la misma variable para todos los vectores , y cada nueva iteración sobrescribe los resultados de la anterior. En su lugar, puede ser conveniente conservar todos los resultados intermedios y organizar los datos.

Una información que trivialmente está disponible a partir de los vectores es una cadena de subespacios de Krylov . Una forma de afirmar que sin introducir conjuntos en el algoritmo es afirmar que calcula

un subconjunto de una base tal que para todos y cada uno

esto se satisface trivialmente siempre que sea linealmente independiente de (y en el caso de que exista tal dependencia, entonces se puede continuar la secuencia eligiendo como un vector arbitrario linealmente independiente de ). Sin embargo, es probable que una base que contenga los vectores esté numéricamente mal condicionada , ya que esta secuencia de vectores está diseñada para converger a un vector propio de . Para evitar eso, se puede combinar la iteración de poder con un proceso de Gram-Schmidt , para producir en su lugar una base ortonormal de estos subespacios de Krylov.

  1. Elija un vector aleatorio de norma euclidiana . Dejar .
  2. Para hacer:
    1. Dejar .
    2. Para todos dejar . (Estas son las coordenadas con respecto a los vectores base ).
    3. Dejar . (Cancele el componente que está en .)
    4. Si entonces dejamos y ,
      de lo contrario, elija como un vector arbitrario de norma euclidiana que sea ortogonal a todos .

La relación entre los vectores de iteración de potencia y los vectores ortogonales es que

.

Aquí se puede observar que en realidad no necesitamos los vectores para calcularlos , porque y por lo tanto la diferencia entre y es en , que se cancela mediante el proceso de ortogonalización. Así, la misma base para la cadena de subespacios de Krylov se calcula mediante

  1. Elija un vector aleatorio de norma euclidiana .
  2. Para hacer:
    1. Dejar .
    2. Para todos dejar .
    3. Dejar .
    4. Dejar .
    5. Si entonces lo dejamos ,
      de lo contrario, elija como un vector arbitrario de norma euclidiana que sea ortogonal a todos .

A priori los coeficientes satisfacen

para todos ;

La definición puede parecer un poco extraña, pero se ajusta al patrón general ya que

Debido a que los vectores de iteración de potencia que se eliminaron de esta recursión satisfacen los vectores y los coeficientes contienen suficiente información para que todo pueda calcularse, no se perdió nada al cambiar los vectores. (De hecho, resulta que los datos recopilados aquí dan aproximaciones significativamente mejores del valor propio más grande que las que se obtienen con un número igual de iteraciones en el método de potencia, aunque eso no es necesariamente obvio en este momento).

Este último procedimiento es la iteración de Arnoldi . El algoritmo de Lanczos surge entonces como la simplificación que se obtiene al eliminar pasos de cálculo que resultan triviales cuando es hermitiano; en particular, la mayoría de los coeficientes resultan ser cero.

Elementalmente, si es hermitiano entonces

Porque sabemos que , y dado que por construcción es ortogonal a este subespacio, este producto interno debe ser cero. (Esta es esencialmente también la razón por la cual a las sucesiones de polinomios ortogonales siempre se les puede dar una relación de recurrencia de tres términos ).

ya que este último es real por ser la norma de un vector. para uno obtiene

lo que significa que esto también es real.

De manera más abstracta, si es la matriz con columnas entonces los números pueden identificarse como elementos de la matriz , y para la matriz es Hessenberg superior . Desde

la matriz es hermitiana. Esto implica que también es Hessenberg inferior, por lo que en realidad debe ser tridiagional. Al ser hermitiana, su diagonal principal es real, y dado que su primera subdiagonal es real por construcción, lo mismo ocurre con su primera superdiagonal. Por lo tanto, es una matriz real y simétrica: la matriz de la especificación del algoritmo de Lanczos.

Aproximación simultánea de valores propios extremos.

Una forma de caracterizar los vectores propios de una matriz hermitiana es como puntos estacionarios del cociente de Rayleigh.

En particular, el valor propio más grande es el máximo global de y el valor propio más pequeño es el mínimo global de .

Dentro de un subespacio de baja dimensión puede ser factible ubicar el máximo y el mínimo de . Repetir eso para una cadena creciente produce dos secuencias de vectores: y tal que y

Entonces surge la pregunta de cómo elegir los subespacios para que estas secuencias converjan a un ritmo óptimo.

Desde , la dirección óptima en la que buscar valores mayores de es la del gradiente , y de la misma manera desde la dirección óptima en la que buscar valores más pequeños es la del gradiente negativo . En general

por lo tanto, las direcciones de interés son bastante fáciles de calcular en aritmética matricial, pero si uno desea mejorar ambas , entonces hay dos nuevas direcciones a tener en cuenta: y desde y pueden ser vectores linealmente independientes (de hecho, son cercanos a ortogonales) , en general no se puede esperar y ser paralelo. No es necesario aumentar la dimensión de by en cada paso si se consideran subespacios de Krylov, porque entonces para todos , en particular para ambos y .

En otras palabras, podemos comenzar con algún vector inicial arbitrario para construir los espacios vectoriales.

y luego buscar tal que

Dado que la iteración del método de potencia pertenece a la enésima, se deduce que una iteración para producir y no puede converger más lentamente que la del método de potencia, y logrará más al aproximar ambos extremos de valores propios. Para el subproblema de optimización en algunos , es conveniente tener una base ortonormal para este espacio vectorial. De esta manera nos encontramos nuevamente con el problema de calcular iterativamente dicha base para la secuencia de subespacios de Krylov.

Convergencia y otras dinámicas

Al analizar la dinámica del algoritmo, es conveniente tomar los valores propios y vectores propios de como dados, aunque no sean conocidos explícitamente por el usuario. Para arreglar la notación, sean los valores propios (se sabe que todos son reales y, por lo tanto, es posible ordenarlos) y sea un conjunto ortonormal de vectores propios tales que para todos .

También es conveniente fijar una notación para los coeficientes del vector de Lanczos inicial con respecto a esta base propia; vamos para todos , para que . Un vector inicial al que se le ha agotado algún componente propio retrasará la convergencia al valor propio correspondiente, y aunque esto simplemente aparece como un factor constante en los límites del error, el agotamiento sigue siendo indeseable. Una técnica común para evitar ser afectado constantemente es seleccionar dibujando primero los elementos aleatoriamente de acuerdo con la misma distribución normal con media y luego reescalar el vector a la norma . Antes del cambio de escala, esto hace que los coeficientes también sean variables estocásticas independientes distribuidas normalmente de la misma distribución normal (ya que el cambio de coordenadas es unitario), y después del cambio de escala el vector tendrá una distribución uniforme en la esfera unitaria en . Esto permite limitar la probabilidad de que, por ejemplo , .

El hecho de que el algoritmo de Lanczos sea independiente de las coordenadas (las operaciones solo analizan los productos internos de los vectores, nunca los elementos individuales de los vectores) hace que sea fácil construir ejemplos con una estructura propia conocida para ejecutar el algoritmo: crear una matriz diagonal con los valores propios deseados. en diagonal; Siempre que el vector inicial tenga suficientes elementos distintos de cero, el algoritmo generará una matriz simétrica tridiagonal general como .

Teoría de la convergencia de Kaniel-Paige

Después de los pasos de iteración del algoritmo de Lanczos, es una matriz simétrica real, que de manera similar a la anterior tiene valores propios. Por convergencia se entiende principalmente la convergencia de to (y la convergencia simétrica de to ) a medida que crece, y en segundo lugar la convergencia de algún rango de valores propios. de a sus homólogos de . La convergencia del algoritmo de Lanczos es a menudo órdenes de magnitud más rápida que la del algoritmo de iteración de potencia. [9] : 477 

Los límites provienen de la interpretación anterior de los valores propios como valores extremos del cociente de Rayleigh . Dado que es a priori el máximo de en el conjunto de mientras que es simplemente el máximo en un subespacio de Krylov de una dimensión, obtenemos trivialmente . Por el contrario, cualquier punto en ese subespacio de Krylov proporciona un límite inferior para , por lo que si se puede exhibir un punto que es pequeño, entonces esto proporciona un límite estrecho para .

La dimensión del subespacio de Krylov es

por lo que cualquier elemento del mismo puede expresarse como para algún polinomio de grado como máximo ; los coeficientes de ese polinomio son simplemente los coeficientes en la combinación lineal de los vectores . El polinomio que queremos tendrá coeficientes reales, pero por el momento también debemos permitir coeficientes complejos, y escribiremos para el polinomio obtenido mediante la conjugación compleja de todos los coeficientes de . En esta parametrización del subespacio de Krylov, tenemos

Usando ahora la expresión para como combinación lineal de vectores propios, obtenemos

y más en general

para cualquier polinomio .

De este modo

Una diferencia clave entre numerador y denominador aquí es que el término desaparece en el numerador, pero no en el denominador. Por lo tanto, si se puede elegir que sea grande pero pequeño en todos los demás valores propios, se obtendrá un límite estricto del error .

Dado que tiene muchos más valores propios que coeficientes, esto puede parecer una tarea difícil, pero una forma de cumplirlo es utilizar polinomios de Chebyshev . Escribiendo para el polinomio de grado de Chebyshev de primer tipo (el que satisface para todos ), tenemos un polinomio que permanece en el rango del intervalo conocido pero crece rápidamente fuera de él. Con algo de escala del argumento, podemos hacer que mapee todos los valores propios excepto en . Dejar

(en caso de que utilice en su lugar el valor propio más grande estrictamente menor que ), entonces el valor máximo de for es y el valor mínimo es , por lo que

Además

la cantidad

(es decir, la relación entre el primer espacio propio y el diámetro del resto del espectro ) es, por tanto, de importancia clave para la tasa de convergencia. tambien escribiendo

podemos concluir que

Por lo tanto, la tasa de convergencia está controlada principalmente por , ya que este límite se reduce en un factor por cada iteración adicional.

A modo de comparación, se puede considerar cómo depende la tasa de convergencia del método de potencia , pero dado que el método de potencia es principalmente sensible al cociente entre valores absolutos de los valores propios, necesitamos que la brecha propia entre y sea la dominante. Bajo esa restricción, el caso que más favorece el método de potencia es , así que considérelo. Al final del método de potencia, el vector de iteración:

[nota 1]

donde cada nueva iteración multiplica efectivamente la amplitud por

La estimación del valor propio más grande es entonces

por lo que el límite anterior para la tasa de convergencia del algoritmo de Lanczos debe compararse con

que se reduce en un factor de para cada iteración. Por tanto, la diferencia se reduce a la que existe entre y . En la región, este último es más parecido a , y funciona como lo haría el método de potencia con una brecha propia dos veces mayor; una mejora notable. Sin embargo, el caso más desafiante es aquel en el que se produce una mejora aún mayor en la brecha propia; la región es donde el algoritmo de Lanczos en cuanto a convergencia logra la menor mejora con respecto al método de potencia.

Estabilidad numérica

La estabilidad significa cuánto se verá afectado el algoritmo (es decir, si producirá un resultado aproximado cercano al original) si se introducen y acumulan pequeños errores numéricos. La estabilidad numérica es el criterio central para juzgar la utilidad de implementar un algoritmo en una computadora con redondeo.

Para el algoritmo de Lanczos, se puede demostrar que con aritmética exacta , el conjunto de vectores construye una base ortonormal , y los valores propios/vectores resueltos son buenas aproximaciones a los de la matriz original. Sin embargo, en la práctica (dado que los cálculos se realizan en aritmética de coma flotante donde la inexactitud es inevitable), la ortogonalidad se pierde rápidamente y en algunos casos el nuevo vector podría incluso depender linealmente del conjunto ya construido. Como resultado, algunos de los valores propios de la matriz tridiagonal resultante pueden no ser aproximaciones a la matriz original. Por tanto, el algoritmo de Lanczos no es muy estable.

Los usuarios de este algoritmo deben poder encontrar y eliminar esos valores propios "falsos". Las implementaciones prácticas del algoritmo Lanczos van en tres direcciones para combatir este problema de estabilidad: [6] [7]

  1. Prevenir la pérdida de ortogonalidad,
  2. Recuperar la ortogonalidad después de generar la base.
  3. Una vez identificados los valores propios buenos y "espurios", elimine los espurios.

Variaciones

Existen variaciones del algoritmo de Lanczos donde los vectores involucrados son matrices altas y estrechas en lugar de vectores y las constantes de normalización son matrices cuadradas pequeñas. Estos se denominan algoritmos Lanczos de "bloque" y pueden ser mucho más rápidos en computadoras con una gran cantidad de registros y tiempos de recuperación de memoria prolongados.

Muchas implementaciones del algoritmo Lanczos se reinician después de un cierto número de iteraciones. Una de las variaciones reiniciadas más influyentes es el método Lanczos reiniciado implícitamente, [10] que se implementa en ARPACK . [11] Esto ha llevado a una serie de otras variaciones reiniciadas, como la bidiagonalización reiniciada de Lanczos. [12] Otra variación reiniciada exitosa es el método Thick-Restart Lanczos, [13] que se ha implementado en un paquete de software llamado TRLan. [14]

Espacio nulo sobre un campo finito

En 1995, Peter Montgomery publicó un algoritmo, basado en el algoritmo de Lanczos, para encontrar elementos del espacio nulo de una matriz dispersa grande sobre GF(2) ; Dado que el conjunto de personas interesadas en grandes matrices dispersas sobre campos finitos y el conjunto de personas interesadas en grandes problemas de valores propios apenas se superponen, esto a menudo también se denomina algoritmo de Lanczos en bloque sin causar una confusión irrazonable. [ cita necesaria ]

Aplicaciones

Los algoritmos de Lanczos son muy atractivos porque la multiplicación por es la única operación lineal a gran escala. Dado que los motores de recuperación de texto de términos ponderados implementan precisamente esta operación, el algoritmo Lanczos se puede aplicar de manera eficiente a documentos de texto (consulte indexación semántica latente ). Los vectores propios también son importantes para métodos de clasificación a gran escala, como el algoritmo HITS desarrollado por Jon Kleinberg o el algoritmo PageRank utilizado por Google.

Los algoritmos de Lanczos también se utilizan en física de la materia condensada como método para resolver hamiltonianos de sistemas de electrones fuertemente correlacionados , [15] así como en códigos de modelos de capas en física nuclear . [16]

Implementaciones

La biblioteca NAG contiene varias rutinas [17] para la solución de sistemas lineales a gran escala y problemas propios que utilizan el algoritmo de Lanczos.

MATLAB y GNU Octave vienen con ARPACK integrado. Tanto las matrices almacenadas como las implícitas se pueden analizar mediante la función eigs() (Matlab/Octave).

De manera similar, en Python , el paquete SciPy tiene scipy.sparse.linalg.eigsh, que también es un contenedor para las funciones SSEUPD y DSEUPD de ARPACK que utilizan el método Lanczos reiniciado implícitamente.

Una implementación en Matlab del algoritmo Lanczos (tenga en cuenta los problemas de precisión) está disponible como parte del paquete Matlab de propagación de creencias gaussianas. La biblioteca de filtrado colaborativo GraphLab [18] incorpora una implementación paralela a gran escala del algoritmo Lanczos (en C++) para multinúcleo.

La biblioteca PRIMME también implementa un algoritmo similar a Lanczos.

Notas

  1. ^ No es necesario que ambos coeficientes sean reales, pero la fase tiene poca importancia. Tampoco es necesario que los componentes de otros vectores propios hayan desaparecido por completo, pero se reducen al menos tan rápido como los de , así describe el peor de los casos.

Referencias

  1. ^ Lanczos, C. (1950). "Un método de iteración para la solución del problema de valores propios de operadores integrales y diferenciales lineales" (PDF) . Revista de Investigación de la Oficina Nacional de Normas . 45 (4): 255–282. doi : 10.6028/jres.045.026 .
  2. ^ ab Ojalvo, IU; Newman, M. (1970). "Modos de vibración de grandes estructuras mediante un método automático de reducción matricial". Revista AIAA . 8 (7): 1234-1239. Código bibliográfico : 1970AIAAJ...8.1234N. doi : 10.2514/3.5878.
  3. ^ Paige, CC (1971). El cálculo de valores propios y vectores propios de matrices dispersas muy grandes (tesis doctoral). U. de Londres. OCLC  654214109.
  4. ^ Paige, CC (1972). "Variantes computacionales del método Lanczos para el problema propio". J.Inst. Aplicaciones de matemáticas . 10 (3): 373–381. doi :10.1093/imamat/10.3.373.
  5. ^ Ojalvo, IU (1988). "Orígenes y ventajas de los vectores Lanczos para grandes sistemas dinámicos". Proc. Sexta Conferencia de Análisis Modal (IMAC), Kissimmee, FL . págs. 489–494.
  6. ^ ab Cullum; Willoughby (1985). Algoritmos de Lanczos para cálculos de valores propios simétricos grandes . vol. 1.ISBN 0-8176-3058-9.
  7. ^ ab Yousef Saad (22 de junio de 1992). Métodos numéricos para problemas de valores propios grandes. ISBN 0-470-21820-7.
  8. ^ Coakley, Ed S.; Rokhlin, Vladimir (2013). "Un algoritmo rápido de divide y vencerás para calcular los espectros de matrices tridiagonales simétricas reales". Análisis Armónico Aplicado y Computacional . 34 (3): 379–414. doi :10.1016/j.acha.2012.06.003.
  9. ^ ab Golub, Gene H.; Préstamo de Van, Charles F. (1996). Cálculos matriciales (3. ed.). Baltimore: Universidad Johns Hopkins. Prensa. ISBN 0-8018-5413-X.
  10. ^ D.Calvetti ; L. Reichel; DC Sorensen (1994). "Un método Lanczos reiniciado implícitamente para grandes problemas de valores propios simétricos". Transacciones Electrónicas sobre Análisis Numérico . 2 : 1–21.
  11. ^ RB Lehoucq; DC Sorensen; C. Yang (1998). Guía del usuario de ARPACK: Solución de problemas de valores propios a gran escala con métodos Arnoldi reiniciados implícitamente . SIAM. doi :10.1137/1.9780898719628. ISBN 978-0-89871-407-4.
  12. ^ E. Kokiopoulou; C. Bekas; E. Gallopoulos (2004). "Cálculo de los tripletes singulares más pequeños con bidiagonalización de Lanczos reiniciada implícitamente" (PDF) . Aplica. Número. Matemáticas . 49 : 39–61. doi :10.1016/j.apnum.2003.11.011.
  13. ^ Kesheng Wu; Horst Simon (2000). "Método Lanczos de reinicio completo para grandes problemas de valores propios simétricos". Revista SIAM sobre Análisis y Aplicaciones de Matrices . 22 (2). SIAM: 602–616. doi :10.1137/S0895479898334605.
  14. ^ Kesheng Wu; Horst Simon (2001). "Paquete de software TRLan". Archivado desde el original el 1 de julio de 2007 . Consultado el 30 de junio de 2007 .
  15. ^ Chen, HY; Atkinson, Washington; Wortis, R. (julio de 2011). "Anomalía de sesgo cero inducida por trastornos en el modelo de Anderson-Hubbard: cálculos numéricos y analíticos". Revisión física B. 84 (4): 045113. arXiv : 1012.1031 . Código bibliográfico : 2011PhRvB..84d5113C. doi : 10.1103/PhysRevB.84.045113. S2CID  118722138.
  16. ^ Shimizu, Noritaka (21 de octubre de 2013). "Código de modelo de capa nuclear para computación paralela masiva, "KSHELL"". arXiv : 1310.5431 [nucl-th].
  17. ^ El grupo de algoritmos numéricos. "Índice de palabras clave: Lanczos". Manual de la biblioteca NAG, Marcos 23 . Consultado el 9 de febrero de 2012 .
  18. ^ GraphLab Archivado el 14 de marzo de 2011 en la Wayback Machine.

Lectura adicional