stringtranslate.com

Iteración de Richardson modificada

La iteración de Richardson modificada es un método iterativo para resolver un sistema de ecuaciones lineales . La iteración de Richardson fue propuesta por Lewis Fry Richardson en su trabajo de 1910. Es similar al método de Jacobi y Gauss-Seidel .

Buscamos la solución a un conjunto de ecuaciones lineales, expresadas en términos matriciales como

La iteración de Richardson es

donde es un parámetro escalar que debe elegirse de manera que la secuencia converja.

Es fácil ver que el método tiene los puntos fijos correctos , porque si converge, entonces y tiene que aproximarse a una solución de .

Convergencia

Restando la solución exacta e introduciendo la notación del error , obtenemos la igualdad de los errores.

De este modo,

para cualquier norma vectorial y la correspondiente norma matricial inducida. Por tanto, si , el método converge.

Supongamos que es simétrica definida positiva y que son los valores propios de . El error converge a if para todos los valores propios . Si, por ejemplo, todos los valores propios son positivos, esto se puede garantizar si se elige tal que . La opción óptima, minimizando todo , es , que da la iteración de Chebyshev más simple . Esta elección óptima produce un radio espectral de

¿ Dónde está el número de condición ?

Si hay valores propios positivos y negativos, el método divergirá para cualquiera si el error inicial tiene componentes distintos de cero en los vectores propios correspondientes .

Equivalencia al descenso de gradiente

Considere minimizar la función . Dado que se trata de una función convexa , una condición suficiente para la optimización es que el gradiente sea cero ( ), lo que da lugar a la ecuación

Definir y . Debido a la forma de A , es una matriz semidefinida positiva , por lo que no tiene valores propios negativos.

Un paso de descenso de gradiente es

lo cual es equivalente a la iteración de Richardson haciendo .

Ver también

Referencias