Método lineal multipaso

De testwiki
Ir a la navegación Ir a la búsqueda

Los métodos lineales multipaso se utilizan para la resolución numérica de ecuaciones diferenciales ordinarias. Conceptualmente, los métodos numéricos comienzan tras la elección de un punto inicial y a continuación realizan un paso de aproximación para encontrar el siguiente punto que permita seguir acercándose a la solución. El proceso continúa con los siguientes pasos para reconocer la solución.

Los métodos de un solo paso (como el método de Euler) se refieren solo a un punto anterior y a su derivada para determinar el valor buscado. Métodos como el de Runge–Kutta utilizan un paso más (por ejemplo, un paso intermedio) para obtener un método de orden superior, para luego descartar la información anterior antes de dar un segundo paso. Los métodos de varios pasos intentan obtener eficiencia manteniendo y utilizando la información de los pasos anteriores, en lugar de descartarla. Por consiguiente, se refieren a distintos puntos anteriores y a los valores de sus derivadas. En el caso de los métodos lineales "multipaso", se utiliza una combinación lineal de los puntos anteriores y de los valores de sus derivadas.

Definiciones

Los métodos numéricos para obtener soluciones aproximadas a ecuaciones diferenciales ordinarias, abordan el problema de elegir valores iniciales de la forma

y=f(t,y),y(t0)=y0.

El resultado es un conjunto de aproximaciones para el valor de y(t) en momentos discretos ti: yiy(ti)dondeti=t0+ih, siendo h es el paso o incremento del tiempo elegido (a veces referido como Δt) y siendo i un entero.

Los métodos de varios pasos utilizan información de los pasos anteriores de s para calcular el siguiente valor. En particular, un método "lineal multipaso" utiliza una combinación lineal de yi y f(ti,yi) para calcular el valor de y para el paso deseado. Por lo tanto, un método lineal multipaso adopta la forma


yn+s+as1yn+s1+as2yn+s2++a0yn=h(bsf(tn+s,yn+s)+bs1f(tn+s1,yn+s1)++b0f(tn,yn)),


Los coeficientes a0,,as1 y b0,,bs determinan el método. El diseñador del método elige los coeficientes, equilibrando la necesidad de obtener una buena aproximación a la verdadera solución, frente a la necesidad de obtener un método que sea fácil de aplicar. A menudo, muchos coeficientes son cero para simplificar el método.

Se puede distinguir entre métodos implícitos y explícitos. Si bs=0, entonces el método se llama "explícito", ya que la fórmula puede calcular directamente yn+s. Si bs0 entonces el método se llama "implícito", ya que el valor de yn+s depende del valor de f(tn+s,yn+s), y la ecuación debe ser resuelta para yn+s. Métodos iterativos tales como el método de Newton se utilizan a menudo para resolver la fórmula implícita.

A veces se utiliza un método explícito de varios pasos para "predecir" el valor de yn+s. Ese valor se utiliza entonces en una fórmula implícita para "corregir" el valor obtenido. El resultado es entonces un método predictor–corrector.

Ejemplos

Considérese por ejemplo el problema

y=f(t,y)=y,y(0)=1.

La solución exacta es y(t)=et.

Euler de un paso

Un método numérico simple es el método de Euler:

yn+1=yn+hf(tn,yn).

El método de Euler puede ser visto como un método multipaso explícito, para el caso degenerado de un solo paso.

Este método, aplicado con el tamaño de paso h=12 en el problema y=y, da los siguientes resultados:

y1=y0+hf(t0,y0)=1+121=1.5,y2=y1+hf(t1,y1)=1.5+121.5=2.25,y3=y2+hf(t2,y2)=2.25+122.25=3.375,y4=y3+hf(t3,y3)=3.375+123.375=5.0625.

Adams-Bashforth de dos pasos

El método de Euler es un método de un solo paso. Un método simple de varios pasos es el método de dos pasos de Adams-Bashforth

yn+2=yn+1+32hf(tn+1,yn+1)12hf(tn,yn).

Este método necesita dos valores, yn+1 y yn, para calcular el siguiente valor, yn+2. Sin embargo, el problema de valor inicial proporciona solo un valor, y0=1. Una posibilidad para resolver este problema es utilizar el y1 calculado por el método de Euler como el segundo valor. Con esta opción, el método de Adams-Bashforth produce (redondeado a cuatro dígitos):

y2=y1+32hf(t1,y1)12hf(t0,y0)=1.5+32121.512121=2.375,y3=y2+32hf(t2,y2)12hf(t1,y1)=2.375+32122.37512121.5=3.7812,y4=y3+32hf(t3,y3)12hf(t2,y2)=3.7812+32123.781212122.375=6.0234.

La solución exacta en t=t4=2 es e2=7.3891, por lo que el método de dos pasos de Adams-Bashforth es más preciso que el método de Euler. Esto es siempre el caso si el tamaño del paso es lo suficientemente pequeño.

Familias de métodos de varios pasos

Se utilizan comúnmente tres familias de métodos lineales de varios pasos: los métodos de Adams-Bashforth, los métodos de Adams-Moulton y las fórmula de diferenciación hacia atrás.

Métodos de Adams-Bashforth

Los métodos de Adams-Bashforth son métodos explícitos. Los coeficientes son as1=1 y as2==a0=0, mientras que los bj son elegidos de tal manera que los métodos tienen orden s (esto determina los métodos únicamente).

Los métodos de Adams-Bashforth con s = 1, 2, 3, 4, 5 son (Plantilla:Harvnb;Plantilla:Harvnb):

yn+1=yn+hf(tn,yn),(este paso es el método de Euler)yn+2=yn+1+h(32f(tn+1,yn+1)12f(tn,yn)),yn+3=yn+2+h(2312f(tn+2,yn+2)43f(tn+1,yn+1)+512f(tn,yn)),yn+4=yn+3+h(5524f(tn+3,yn+3)5924f(tn+2,yn+2)+3724f(tn+1,yn+1)38f(tn,yn)),yn+5=yn+4+h(1901720f(tn+4,yn+4)1387360f(tn+3,yn+3)+10930f(tn+2,yn+2)637360f(tn+1,yn+1)+251720f(tn,yn)).

Los coeficientes bj se pueden determinar como sigue: utilícese la interpolación polinómica para encontrar el polinomio p de grado s1 tal que:

p(tn+i)=f(tn+i,yn+i),para i=0,,s1.


La fórmula de Lagrange para la interpolación polinómica resulta

p(t)=j=0s1(1)sj1f(tn+j,yn+j)j!(sj1)!hs1i=0ijs1(ttn+i).

El polinomio p es localmente una buena aproximación del lado derecho de la ecuación diferencial y=f(t,y) que se va a resolver, por lo que puede considerarse la ecuación y=p(t) en su lugar. Esta ecuación puede ser resuelta exactamente; la solución es simplemente la integral de p. Esto sugiere que:

yn+s=yn+s1+tn+s1tn+sp(t)dt.

El método de Adams-Bashforth surge cuando se sustituye p en la fórmula. Los coeficientes bj resultan ser dados por

bsj1=(1)jj!(sj1)!01i=0ijs1(u+i)du,para j=0,,s1.

Reemplazar f(t,y) por su interpolante p supone incurrir en un error de orden hs, de lo que se sigue que el método de Adams-Bashforth de s pasos tiene efectivamente orden s Plantilla:Harv.

Los métodos de Adams-Bashforth fueron diseñados por John Couch Adams para resolver un modelo de ecuaciones diferenciales de capilaridad planteado por Francis Bashforth.Plantilla:Harvtxt publicó su teoría y el método numérico de Adams Plantilla:Harv.

Métodos de Adams-Moulton

Los métodos de Adams-Moulton se parecen a los métodos de Adams-Bashforth en que también tienen as1=1 y as2==a0=0. De nuevo se eligen los coeficientes "b" para obtener el orden más alto posible. Sin embargo, los métodos de Adams-Moulton son métodos implícitos. Al eliminar la restricción de que bs=0, un método de Adams-Moulton "paso a paso" puede alcanzar el orden s+1, mientras que los métodos de Adams-Bashforth en el paso s solo tienen orden s.

Los métodos de Adams-Moulton con s = 0, 1, 2, 3, 4 son (Plantilla:Harvnb;Plantilla:Harvnb):

yn=yn1+hf(tn,yn),(este paso es el método de Euler hacia atrás)yn+1=yn+12h(f(tn+1,yn+1)+f(tn,yn)),(este paso es la regla trapezoidal)yn+2=yn+1+h(512f(tn+2,yn+2)+23f(tn+1,yn+1)112f(tn,yn)),yn+3=yn+2+h(38f(tn+3,yn+3)+1924f(tn+2,yn+2)524f(tn+1,yn+1)+124f(tn,yn)),yn+4=yn+3+h(251720f(tn+4,yn+4)+646720f(tn+3,yn+3)264720f(tn+2,yn+2)+106720f(tn+1,yn+1)19720f(tn,yn)).

La deducción de los métodos de Adams-Moulton es similar a la del método de Adams-Bashforth; sin embargo, el polinomio de interpolación utiliza no solo los puntos tn1,,tns, como anteriormente, sino también tn. Los coeficientes vienen dados por

bsj=(1)jj!(sj)!01i=0ijs(u+i1)du,para j=0,,s.

Los métodos de Adams-Moulton se deben únicamente a John Couch Adams, al igual que los métodos de Adams-Bashforth. El nombre de Forest Ray Moulton se asoció con estos métodos porque se dio cuenta de que podrían ser utilizados en tándem con los métodos de Adams-Bashforth como un par de métodos predictor-corrector Plantilla:Harv;Plantilla:Harvtxt tenía la misma idea. Adams utilizó el método de Newton para resolver la ecuación implícita Plantilla:Harv.

Fórmulas de diferenciación hacia atrás

Plantilla:AP Los métodos de diferenciación hacia atrás son métodos implícitos, con bs1==b0=0 y los otros coeficientes elegidos de manera que el método obtenga el orden s (el máximo posible). Estos métodos se utilizan especialmente para la resolución de ecuaciones diferenciales rígidas.

Análisis

Los conceptos centrales en el análisis de los métodos lineales multipaso, y de hecho, de cualquier método numérico para resolver ecuaciones diferenciales, son su convergencia, su orden, y su estabilidad.

Coherencia y orden

La primera pregunta es si el método es coherente: ¿es la ecuación diferencial

yn+s+as1yn+s1+as2yn+s2++a0yn=h(bsf(tn+s,yn+s)+bs1f(tn+s1,yn+s1)++b0f(tn,yn)),

una buena aproximación de la ecuación diferencial y=f(t,y)? Más precisamente, un método de varios pasos es consistente si el error de truncamiento local se acerca a cero más rápido que el tamaño de paso h cuando h tiende a cero, donde se define elerror de truncamiento local como la diferencia entre el resultado del método yn+s (suponiendo que todos los valores anteriores yn+s1,,yn son exactos), y la solución exacta de la ecuación para el instante tn+s. Un cálculo utilizando la serie de Taylor muestra que un método lineal multipaso es coherente si y solo si:

k=0s1ak=1yk=0sbk=s+k=0s1kak.

Todos los métodos mencionados anteriormente son consistentes Plantilla:Harv.

Si el método es consistente, entonces la siguiente pregunta es en qué manera la ecuación que define el método numérico se aproxima a la ecuación diferencial. Se dice que un método de varios pasos tiene orden p si el error local es de orden O(hp+1) cuando h tiende a cero. Esto es equivalente a la condición siguiente sobre los coeficientes de los métodos:

k=0s1ak=1yqk=0skq1bk=sq+k=0s1kqak para q=1,,p.

El método de Adams-Bashforth de la etapa s tiene orden s, mientras que el método de Adams-Moulton en la etapa s tiene orden s+1 Plantilla:Harv.

Estas condiciones se formulan a menudo utilizando los "polinomios característicos":

ρ(z)=zs+k=0s1akzkyσ(z)=k=0sbkzk.

En términos de estos polinomios, la condición anterior para que el método tenga orden p se convierte en:

ρ(eh)hσ(eh)=O(hp+1)como h0.

En particular, el método es coherente si tiene orden al menos uno, que es el caso si ρ(1)=0 y ρ(1)=σ(1).

Estabilidad y convergencia

La solución numérica con un método de un paso depende de la condición inicial y0, pero la solución numérica de un método de "s" pasos, depende de todos los valores iniciales de "s", y0,y1,,ys1. Por lo tanto, es de interés determinar si la solución numérica es estable con respecto a perturbaciones en los valores de partida. Un método lineal multipaso es "cero-estable" para una determinada ecuación diferencial en un intervalo de tiempo dado, si una perturbación en los valores iniciales del tamaño ε hace que la solución numérica sobre ese intervalo de tiempo cambie por no más de Kε para algún valor de K, que no depende del tamaño del paso h. Esto se llama "estabilidad cero" porque es suficiente para comprobar la condición de la ecuación diferencial y=0 Plantilla:Harv.

Si las raíces del polinomio característico ρ tienen un módulo menor o igual a 1 y las raíces del módulo 1 son de multiplicidad 1, se dice que la condición raíz está satisfecha. Un método lineal multipaso es cero-estable si y solo si la condición raíz se satisface Plantilla:Harv.

Supóngase ahora que un método lineal multipaso coherente se aplica a una ecuación diferencial suficientemente suave y que los valores iniciales y1,,ys1 convergen todos al valor inicial y0 cuando h0. Entonces, la solución numérica converge a la solución exacta cuando h0 si y solo si el método es cero-estable. Este resultado se conoce como el "teorema de equivalencia de Dahlquist", nombrado así en memoria de Germund Dahlquist. El razonamiento de este teorema es similar al del teorema de equivalencia de Lax para el método de las diferencias finitas. Además, si el método tiene orden p, entonces el error global de truncado (la diferencia entre la solución numérica y la solución exacta en un tiempo fijo) es O(hp) Plantilla:Harv.

Además, si el método es convergente, se dice que el método es "fuertemente estable" si z=1 es la única raíz de módulo 1. Si es convergente y no se repiten todas las raíces de módulo 1, pero hay más de una raíz de este tipo, se dice que es "relativamente estable". Téngase en cuenta que 1 debe ser una raíz para que el método sea convergente; los métodos convergentes son siempre uno de estos dos.

Para evaluar el rendimiento de los métodos lineales de varios pasos en ecuaciones diferenciales rígidas, considérese la ecuación lineal de prueba y = λy. Un método multipaso aplicado a esta ecuación diferencial con el tamaño de paso h produce una relación de recurrencia lineal con polinomio característico

π(z;hλ)=(1hλβs)zs+k=0s1(αkhλβk)zk=ρ(z)hλσ(z).

Este polinomio se denomina polinomio de estabilidad del método multipaso. Si todas sus raíces tienen un módulo menor que uno, entonces la solución numérica del método de varios pasos convergerá a cero y se dice que el método de varios pasos es "absolutamente estable" para ese valor de hλ. Se dice que el método es A-estable si es absolutamente estable para todos los hλ con la parte real negativa. La región de estabilidad absoluta es el conjunto de todos los hλ para los cuales el método multipaso es absolutamente estable Plantilla:Harv. Para obtener más detalles, consúltese la sección sobre ecuaciones diferenciales rígidas.

Ejemplo

Considérese el método de tres pasos de Adams-Bashforth:

yn+3=yn+2+h(2312f(tn+2,yn+2)43f(tn+1,yn+1)+512f(tn,yn)).

Así, un polinomio característico toma la forma:

ρ(z)=z3z2=z2(z1)

con raíces z=0,1, y las condiciones anteriores se satisfacen. Como z=1 es la única raíz del módulo 1, el método es fuertemente estable.

El otro polinomio característico es:

σ(z)=2312z243z+512

Primera y segunda barreras de Dahlquist

Estos dos resultados fueron probados por Germund Dahlquist y representan un límite importante para el orden de convergencia y para la A-estabilidad de un método lineal de varios pasos. La primera barrera de Dahlquist fue probada en Plantilla:Harvtxt y la segunda en Plantilla:Harvtxt.

Primera barrera de Dahlquist

Un método de paso múltiple de paso q escalable a cero no puede alcanzar un orden de convergencia mayor que q + 1 si q es impar y mayor que q + 2 si q es par. Si el método también es explícito, entonces no puede alcanzar un orden mayor que q Plantilla:Harv.

Segunda barrera de Dahlquist

No hay métodos explícitos A-estables y multipaso lineales. Los implícitos tienen un orden de convergencia de 2 como máximo. La regla trapezoidal tiene la menor constante de error entre los métodos de paso múltiple lineal A-estables de orden 2.

Véase también

Referencias

  • J. Arrieta, R. Ferreira, R. Pardo y A. Rodríguez-Bernal. "Análisis Numérico de Ecuaciones Diferenciales Ordinarias". Paraninfo, Madrid, 2020. Plantilla:ISBN, Plantilla:ISBN.

Enlaces externos

Plantilla:MathWorld

Plantilla:Control de autoridades