stringtranslate.com

Método lineal de varios pasos

Los métodos lineales de varios pasos se utilizan para la solución numérica de ecuaciones diferenciales ordinarias . Conceptualmente, un método numérico comienza desde un punto inicial y luego avanza un pequeño paso en el tiempo para encontrar el siguiente punto de solución. El proceso continúa con pasos posteriores para trazar la solución. Los métodos de un solo paso (como el método de Euler ) se refieren solo a un punto anterior y su derivada para determinar el valor actual. Los métodos como Runge-Kutta toman algunos pasos intermedios (por ejemplo, medio paso) para obtener un método de orden superior, pero luego descartan toda la información previa antes de dar un segundo paso. Los métodos de varios pasos intentan ganar eficiencia manteniendo y utilizando la información de los pasos anteriores en lugar de descartarla. En consecuencia, los métodos de varios pasos se refieren a varios puntos anteriores y valores derivados. En el caso de métodos lineales de varios pasos, se utiliza una combinación lineal de los puntos anteriores y los valores derivados.

Definiciones

Los métodos numéricos para ecuaciones diferenciales ordinarias aproximan soluciones a problemas de valores iniciales de la forma

El resultado son aproximaciones para el valor de en tiempos discretos :

Los métodos de varios pasos utilizan información de los pasos anteriores para calcular el siguiente valor. En particular, un método lineal de varios pasos utiliza una combinación lineal de y para calcular el valor de para el paso actual deseado. Por tanto, un método lineal de varios pasos es un método de la forma

Se puede distinguir entre métodos explícitos e implícitos . Si , entonces el método se llama "explícito", ya que la fórmula puede calcular directamente . Si entonces el método se llama "implícito", ya que el valor de depende del valor de , y la ecuación debe resolverse para . A menudo se utilizan métodos iterativos como el método de Newton para resolver la fórmula implícita.

A veces se utiliza un método explícito de varios pasos para "predecir" el valor de . Luego, ese valor se utiliza en una fórmula implícita para "corregir" el valor. El resultado es un método predictor-corrector .

Ejemplos

Consideremos por ejemplo el problema

Euler de un paso

Un método numérico simple es el método de Euler:

Este método, aplicado con tamaño de paso sobre el problema , da los siguientes resultados:

Adams-Bashforth de dos pasos

El método de Euler es un método de un solo paso. Un método simple de varios pasos es el método Adams-Bashforth de dos pasos.

Familias de métodos de varios pasos.

Se utilizan habitualmente tres familias de métodos lineales de varios pasos: los métodos de Adams-Bashforth, los métodos de Adams-Moulton y las fórmulas de diferenciación hacia atrás (BDF).

Métodos Adams-Bashforth

Los métodos Adams-Bashforth son métodos explícitos. Los coeficientes son y , mientras que los se eligen de manera que los métodos tengan orden s (esto determina los métodos de forma única).

Los métodos de Adams-Bashforth con s = 1, 2, 3, 4, 5 son (Hairer, Nørsett & Wanner 1993, §III.1; Butcher 2003, p. 103):

Los coeficientes se pueden determinar de la siguiente manera. Utilice la interpolación polinomial para encontrar el polinomio p de grado tal que

fórmula de Lagrange
pp
p .
ph sde s pasos tiene de hecho orden s

Los métodos Adams-Bashforth fueron diseñados por John Couch Adams para resolver una ecuación diferencial que modela la acción capilar debida a Francis Bashforth . Bashforth (1883) publicó su teoría y el método numérico de Adams (Goldstine 1977).

Métodos Adams-Moulton

Los métodos Adams-Moulton son similares a los métodos Adams-Bashforth en que también tienen y . Nuevamente los coeficientes b se eligen para obtener el orden más alto posible. Sin embargo, los métodos de Adams-Moulton son métodos implícitos. Al eliminar la restricción de que , un método Adams-Moulton de s pasos puede alcanzar el orden , mientras que un método Adams-Bashforth de s pasos solo tiene orden s .

Se enumeran los métodos de Adams-Moulton con s = 0, 1, 2, 3, 4 (Hairer, Nørsett & Wanner 1993, §III.1; Quarteroni, Sacco & Saleri 2000), donde los dos primeros métodos son el método de Euler hacia atrás. y la regla trapezoidal respectivamente:

La derivación de los métodos Adams-Moulton es similar a la del método Adams-Bashforth; sin embargo, el polinomio de interpolación utiliza no sólo los puntos , como arriba, sino también . Los coeficientes están dados por

Los métodos Adams-Moulton se deben únicamente a John Couch Adams , al igual que los métodos Adams-Bashforth. El nombre de Forest Ray Moulton se asoció con estos métodos porque se dio cuenta de que podían usarse junto con los métodos Adams-Bashforth como un par predictor-corrector (Moulton 1926); Milne (1926) tuvo la misma idea. Adams utilizó el método de Newton para resolver la ecuación implícita (Hairer, Nørsett & Wanner 1993, §III.1).

Fórmulas de diferenciación hacia atrás (BDF)

Los métodos BDF son métodos implícitos con y los demás coeficientes elegidos de manera que el método alcance el orden s (el máximo posible). Estos métodos se utilizan especialmente para la solución de ecuaciones diferenciales rígidas .

Análisis

Los conceptos centrales en el análisis de métodos lineales de varios pasos, y de hecho de cualquier método numérico para ecuaciones diferenciales, son la convergencia, el orden y la estabilidad .

Consistencia y orden

La primera pregunta es si el método es consistente: ¿la ecuación en diferencias

consistenteerror de truncamiento localhherror de truncamiento localseries de Taylor

Si el método es consistente, entonces la siguiente pregunta es qué tan bien se aproxima la ecuación en diferencias que define el método numérico a la ecuación diferencial. Se dice que un método de varios pasos tiene orden p si el error local es de orden cuando h tiende a cero. Esto equivale a la siguiente condición sobre los coeficientes de los métodos:

s pasos tiene orden ss

Estas condiciones a menudo se formulan utilizando los polinomios característicos.

p

Estabilidad y convergencia

La solución numérica de un método de un paso depende de la condición inicial , pero la solución numérica de un método de s pasos depende de todos los s valores iniciales . Por tanto, es de interés si la solución numérica es estable con respecto a las perturbaciones en los valores iniciales. Un método lineal de varios pasos es estable en cero para una determinada ecuación diferencial en un intervalo de tiempo dado, si una perturbación en los valores iniciales de tamaño ε causa que la solución numérica durante ese intervalo de tiempo cambie en no más de K ε para algún valor de K que no depende del tamaño del paso h . Esto se llama "estabilidad cero" porque basta con comprobar la condición de la ecuación diferencial (Süli y Mayers 2003, p. 332).

Si todas las raíces del polinomio característico ρ tienen un módulo menor o igual a 1 y las raíces del módulo 1 son de multiplicidad 1, decimos que se cumple la condición de la raíz . Un método lineal de varios pasos es estable en cero si y sólo si se satisface la condición de la raíz (Süli y Mayers 2003, p. 335).

Ahora supongamos que se aplica un método lineal consistente de varios pasos a una ecuación diferencial suficientemente suave y que todos los valores iniciales convergen al valor inicial como . Entonces, la solución numérica converge a la solución exacta como si y sólo si el método es estable en cero. Este resultado se conoce como teorema de equivalencia de Dahlquist , llamado así en honor a Germund Dahlquist ; este teorema es similar en espíritu al teorema de equivalencia de Lax para métodos de diferencias finitas . Además, si el método tiene orden p , entonces el error global (la diferencia entre la solución numérica y la solución exacta en un tiempo fijo) es (Süli & Mayers 2003, p. 340).

Además, si el método es convergente, se dice que es fuertemente estable si es la única raíz del módulo 1. Si es convergente y todas las raíces del módulo 1 no se repiten, pero hay más de una de esas raíces, es Se dice que es relativamente estable . Tenga en cuenta que 1 debe ser una raíz para que el método sea convergente; por tanto, los métodos convergentes son siempre uno de estos dos.

Para evaluar el rendimiento de los métodos lineales de varios pasos en ecuaciones rígidas , considere la ecuación de prueba lineal y' = λ y . Un método de varios pasos aplicado a esta ecuación diferencial con un tamaño de paso h produce una relación de recurrencia lineal con un polinomio característico

polinomio de estabilidadabsolutamente establehA-establehregión de estabilidad absolutalos hecuaciones rígidas y métodos de varios pasos

Ejemplo

Considere el método de tres pasos de Adams-Bashforth

El otro polinomio característico es

Primera y segunda barreras de Dahlquist

Estos dos resultados fueron demostrados por Germund Dahlquist y representan un límite importante para el orden de convergencia y para la estabilidad A de un método lineal de varios pasos. La primera barrera de Dahlquist se demostró en Dahlquist (1956) y la segunda en Dahlquist (1963).

Primera barrera de Dahlquist

La primera barrera de Dahlquist establece que un método de múltiples pasos lineal y estable en cero no puede alcanzar un orden de convergencia mayor que q + 1 si q es impar y mayor que q + 2 si q es par. Si el método también es explícito, entonces no puede alcanzar un orden mayor que q (Hairer, Nørsett & Wanner 1993, Thm III.3.5).

Segunda barrera de Dahlquist

La segunda barrera de Dahlquist establece que ningún método lineal explícito de varios pasos es A-estable . Además, el orden máximo de un método lineal multipaso A-estable (implícito) es 2. Entre los métodos lineales multipaso A-estable de orden 2, la regla trapezoidal tiene la constante de error más pequeña (Dahlquist 1963, Thm 2.1 y 2.2).

Ver también

Referencias

enlaces externos