stringtranslate.com

Iteración de Richardson modificada

La iteración de Richardson modificada es un método iterativo para resolver un sistema de ecuaciones lineales . La iteración de Richardson fue propuesta por Lewis Fry Richardson en su trabajo de 1910. Es similar al método de Jacobi y Gauss-Seidel .

Buscamos la solución a un conjunto de ecuaciones lineales, expresadas en términos matriciales como

La iteración de Richardson es

donde es un parámetro escalar que debe elegirse de manera que la secuencia converja.

Es fácil ver que el método tiene los puntos fijos correctos , porque si converge, entonces y tiene que aproximarse a una solución de .

Convergencia

Restando la solución exacta e introduciendo la notación para el error , obtenemos la igualdad para los errores.

De este modo,

para cualquier norma vectorial y la norma matricial inducida correspondiente. Por lo tanto, si , el método converge.

Supóngase que es simétrica positiva definida y que son los valores propios de . El error converge a si para todos los valores propios . Si, por ejemplo, todos los valores propios son positivos, esto se puede garantizar si se elige de manera que . La elección óptima, que minimiza todos los , es , que da la iteración de Chebyshev más simple . Esta elección óptima produce un radio espectral de

¿Dónde está el número de condición ?

Si hay valores propios tanto positivos como negativos, el método divergirá para cualquiera si el error inicial tiene componentes distintos de cero en los vectores propios correspondientes .

Equivalencia adescenso de gradiente

Considere minimizar la función . Dado que se trata de una función convexa , una condición suficiente para la optimalidad es que el gradiente sea cero ( ) lo que da lugar a la ecuación

Defina y . Debido a la forma de A , es una matriz semidefinida positiva , por lo que no tiene valores propios negativos.

Un paso de descenso de gradiente es

lo que equivale a la iteración de Richardson haciendo .

Véase también

Referencias