E. de Ingenierías Industriales 2012-13 Métodos Matemáticos I Jesús Rojo
06. Ideas sobre convergencia, consistencia y 0-estabilidad
1 Convergencia o consistencia? 2
Convergencia; consistencia Comentaremos algún resultado para los problemas como y = f(x, y), y(a) = η, aunque, para ser más intuitivos, razonaremos en el caso escalar y = f (x, y), y(a) = η, supuestas esas condiciones que nos han llevado a calificar un problema de valores iniciales como problema tipo, lo que nos garantizaba la existencia de solución única en un intervalo [a, b]. Nuestro estudio se ha encaminado hasta ahora a comprobar la posible consistencia de los métodos, o sea, el que con nuestras notaciones T (h) lim = 0, h 0 h
donde T (h) era el llamado error local del método numérico y n+1 = y n + h Φ(x n, y n, h), y donde y n se refiere a la aproximación y n y(x n ) para la red de nodos x 0, x 1, x 2,..., x N repartidos en el intervalo [a, b] y separados por el paso h = (b a)/n Pero, seguramente, nuestra preferencia a priori hubiera sido sin duda la de que lim h 0 o N max y(x n) y n = 0. n=1...n Esto último es lo que usualmente se llama convergencia del método numérico.
Pues bien, vamos a explicar que consistencia equivale a convergencia cuando se trabaja con un método que tenga la propiedad de ser estable. La estabilidad es una propiedad que en matemáticas significa que métodos cercanos o parecidos llevan a datos también parecidos. En el caso de uno de nuestros métodos y n+1 = y n + h Φ(x n, y n, h), diremos que es estable o mejor 0-estable cuando la diferencia de las sucesiones resultantes y n y z n de este método y del cercano z n+1 = z n + h (Φ(x n, y n, h) + ε n (x n, y n, h) ), con z 0 = y 0, están acotadas en la forma max y n z n M max ε n, n=1...n n=0...n 1 para alguna constante positiva M.
Empleamos el término 0-estabilidad para distinguir esta estabilidad de otras que trataremos más adelante, como la estabilidad lineal o la estabilidad para métodos de E.D.P. Lo importante por ahora es convencernos de que, de manera general, estamos actuando con métodos que presentan esta característica de la 0-estabilidad. No es fácil comprobar este aspecto empleando la definición directamente, pero es más sencillo si usamos el resultado que citamos a continuación: El método y n+1 = y n + h Φ(x n, y n, h) es 0-estable si la función Φ(x, y, h) es lipschitziana (con constante de Lipschitz digamos Λ) respecto de la variable y (para x [a, b] y h h 0 ), o sea Φ(x, y, h) Φ(x, y, h) Λ y y.
Aceptaremos este resultado (aunque no lo probaremos) y procederemos a convencernos de que nuestra trayectoria de métodos se viene refiriendo a métodos de este tipo, y que por lo tanto son 0-estables. Esta afirmación se basa en el resultado Todos los métodos explícitos de Runge-Kutta cumplen la anterior condición de Lipschitz y son, por lo tanto, 0-estables. En la línea de lo que venimos haciendo no probaremos este hecho y nos limitaremos a ver en un ejemplo que así sucede, aunque este ejemplo nos dará una idea de la forma de razonar el resultado si lo deseamos. El método de Euler y n+1 = y n + h f (x n, y n ) es de este tipo, ya que Φ(x, y, h) es f (x, y), por lo que la propiedad de Lipschitz es cierta para Λ = L.
Verlo en el caso que sigue es algo más costoso, pero más ilustrativo. El método del punto medio, que ya hemos visto, tiene En consecuencia, Φ(x, y, h) = f (x + 1 2 h, y + 1 2 h f (x, y) ). Φ(x, y, h) Φ(x, y, h) = f (x + 1 2 h, y + 1 2 h f (x, y)) f (x + 1 2 h, y + 1 2 h f (x, y ) ) L y + 1 2 h f (x, y) y 1 2 h f (x, y ) L ( y y + 1 2 h f (x, y) f (x, y ) ) L ( y y + 1 2 h L y y ) = (L + 1 2 h L2 ) y y, lo que sirve para probar que Φ(x, y, h) cumple la propiedad de Lipschitz para Λ = L (1 + 1 2 h L), donde L es la constante de Lipschitz para f.
Terminamos comprobando lo antes dicho: para un método 0-estable, la consistencia garantiza la convergencia. En efecto, si nuestro método y n+1 = y n + h Φ(x n, y n, h) es 0-estable y consistente, la consistencia significa que o sea,cuando h 0 o N T (h) lim = 0, h 0 h (h) Φ(h) = y(x n+1) y(x n ) Φ(x n, y(x n ), h) 0. h Pongamos ε n (x n, y(x n ), h) = y(x n+1) y(x n ) Φ(x n, y(x n ), h). h Operando, se encuentre enseguida que y(x n+1 ) = y(x n ) + h ( Φ(x n, y(x n ), h) + ε n (x n, y(x n ), h) ).
La 0-estabilidad del método hace entonces que max y n y(x n ) M n=1...n y ya que cuando h 0 o N se tiene también que ε n (x n, y(x n ), h) 0, max ε n, n=0...n 1 max y n y(x n ) 0, n=1...n que es justamente la convergencia del método.
Hemos comprobado así la implicación que más nos interesa de un resultado importante y clásico que suele expresarse como Un método y n+1 = y n + h Φ(x n, y n, h) es convergente para el que hemos llamado problema tipo si y sólo si es a la vez consistente y 0-estable (también para el problema tipo ) Terminamos aquí estas observaciones que tratan de hacer ver que nuestra limitación al estudio de la consistencia y el orden de consistencia no lo es tanto. Hemos visto que este tipo de estudio nos permite realizar un análisis bastante completo y que, de hecho, por este sistema estudiamos al mismo tiempo la convergencia de los métodos, que es, en cierta manera, el objetivo final.