El problema de valor inicial

Tamaño: px
Comenzar la demostración a partir de la página:

Download "El problema de valor inicial"

Transcripción

1 Capítulo 1 El problema de valor inicial 1.1. El problema de valor inicial Al modelizar problemas de la ciencia, la ingeniería y la economía aparecen con frecuencia ecuaciones diferenciales ordinarias. Una ecuación diferencial ordinaria (en adelante una EDO) es una relación entre una función de una variable y sus derivadas. Nosotros nos centraremos en ecuaciones de primer orden (la derivada de mayor orden que aparece es la de orden uno) escritas en la forma estándar y (x) = f(x, y(x)), a x b, (1.1) donde f : [a, b] R d R d es continua. Una solución de (1.1) en [a, b] es una función y : [a, b] R d, y C 1 ([a, b]) que satisface (1.1). En el caso vectorial, d > 1, que se puede interpretar como un sistema de ecuaciones escalares, y y f tienen d componentes cada una, y = (y 1, y 2,..., y d ) T, f = (f 1, f 2,..., f d ) T. Un sistema de ecuaciones diferenciales ordinarias en general no define por 1

2 sí sólo una solución única, y se hace necesario añadir a la formulación del problema un cierto número de condiciones adicionales. Éstas son o bien condiciones de frontera, si la información adicional se da en dos o más valores de x, o condiciones iniciales, si se especifican todas las condiciones de y en un único valor de x. En este capítulo nos centraremos en el caso en que se dan condiciones iniciales, y dejaremos el caso en que se dan condiciones de frontera para más adelante. Así pues, dado η = (η 1, η 2,..., η d ) T R d, buscamos una solución del problema de valor inicial (PVI) en [a, b], esto es, una función y C 1 ([a, b]) que satisfaga y (x) = f(x, y(x)) para a x b, y(a) = η. (1.2) Como se puede ver en el siguiente ejemplo, algunos problemas de valor inicial tienen más de una solución. Ejemplo. Consideramos la ecuación diferencial y = y α sujeta a la condición inicial y(0) = 0, siendo α un número real fijo, α (0, 1). Es facil comprobar que para cualquier número real no negativo c, { 0, 0 x c, y c (x) = (1 α) 1/(1 α) (x c) 1/(1 α), x c, es una solución del problema de valor inicial en el intervalo [0, ). Así pues, si bien el problema tiene solución, ésta no es única. Sin embargo, en contraste con el caso α (0, 1), si α 1 el problema de valor inicial tiene una única solución, y(x) 0. Este ejemplo muestra que hay que pedir a la función f algo más que continuidad para asegurar que la solución del problema (1.2) sea única. Nosotros pediremos una condición de crecimiento con respecto al segundo argumento de la función. Definición 1.1. La función f : D R R d R d satisface una condición de Lipschitz en D con respecto a su segunda variable si existe una constante L, 2

3 conocida como constante de Lipschitz, tal que f(x, y) f(x, ŷ) L y ŷ (x, y), (x, ŷ) D. Observación. Dado que en un espacio vectorial de dimensión finita todas las normas son equivalentes, la propiedad de ser Lipschitz no depende de qué norma tomemos. Si f, además de ser continua en D, satisface una condición de Lipschitz con respecto a su segunda variable, la solución, de existir, será única. Esto es una consecuencia inmediata del siguiente lema. Lema 1.2. Sea D = [a, b] R d y sea f continua en D y Lipschitz con respecto a su segunda variable en D. Sean y, ŷ dos soluciones de la ecuación (1.1) en [a, b]. Entonces, para todo a x b, y(x) ŷ(x) y(a) ŷ(a) exp(l(x a)). (1.3) Prueba. Tenemos que y(x) = y(a) + x f(s, y(s)) ds, a ŷ(x) = ŷ(a) + x f(s, ŷ(s)) ds. a Restando y tomando normas, y usando que f es Lipschitz en su segunda variable se tiene que y(x) ŷ(x) y(a) ŷ(a) + x f(s, y(s)) f(s, ŷ(s)) ds a y(a) ŷ(a) + L x y(s) ŷ(s) ds. (1.4) a Si definimos tenemos por un lado que g(x) = y(a) ŷ(a) + L x a y(s) ŷ(s) ds, y(x) ŷ(x) g(x), (1.5) 3

4 y por otro que, g (x) = L y(x) ŷ(x) Lg(x). Multiplicando esta desigualdad por el factor integrante exp( L(x a)) se tiene que d (g(x) exp(l(x a))) 0, dx de donde g(x) g(a) exp(l(x a)). Esto combinado con (1.5) produce el resultado. Observación. El paso de la estimación integral (1.4) a la estimación puntual (1.3) es lo que se conoce en la literatura como Lema de Gronwall. La desigualdad (1.3) no sólo prueba la unicidad de la solución del problema de valor inicial (1.2); también muestra que las soluciones de dicho problema dependen de manera continua del dato inicial. La cota (1.3) es óptima en algunos casos, por ejemplo para la ecuación escalar lineal y = λy, λ > 0. Sin embargo, puede ser demasiado pesimista para otros. Ejemplo. Consideramos la ecuación y = λy, que tiene constante de Lipschitz L = λ. La diferencia entre dos soluciones de este problema decae exponencialmente con el tiempo; de hecho se tiene la igualdad y(x) ŷ(x) = (y(a) ŷ(a))e λ(x a). La condición de Lipschitz junto con la continuidad resultan ser también suficientes para demostrar la existencia de una solución. Teorema 1.3 (Picard). Sea D = [a, b] R d. Si f es continua en D y Lipschitz con respecto a su segunda variable en D, entonces existe una única solución del problema (1.2) en [a, b]. Prueba. Sólo falta por probar la existencia. La clave es darse cuenta de que el 4

5 problema (1.2) es equivalente a encontrar una función y C([a, b]) tal que y(x) = η + x a f(s, y(s)) ds. (1.6) Las soluciones de esta ecuación integral son puntos fijos del operador integral T : C([a, b]) C([a, b]) definido por (T y)(x) = η + x a f(s, y(s)) ds. La idea para hallar un punto fijo para este operador es la misma que se utiliza para hallar puntos fijos de aplicaciones en espacios de dimensión finita: la iteración. Definimos una sucesión de funciones {y n } n=0 recurrencia y 0 (x) = η, y n (x) = η + x a por medio de la f(s, y n 1 (s)) ds, n = 1, 2,.... (1.7) Si la sucesión {y n } converge uniformemente a una función y, por un lado ésta será continua, y por otro, podemos tomar límites en la relación de recurrencia para obtener que y es solución de (1.6). Dado que y n (x) = y 0 (x) + n (y k (x) y k 1 (x)), k=1 la convergencia uniforme de la sucesión {y n } se seguirá inmediatamente del test M de Weierstrass si encontramos una sucesión numérica {a k } tal que y k (x) y k 1 (x) a k y a k <. La acotación k=1 y k (x) y k 1 (x) K η L (L(x a)) k, k! donde L es la constante de Lipschitz de f respecto de la segunda variable, nos dice que podemos tomar a k = Kη L inducción: es cierta para k = 1, pues y 1 (x) y 0 (x) x a (L(b a)) k k!. Esta acotación se prueba por f(s, η) ds K η (x a), 5

6 y, si es cierta para k 1, entonces y k (x) y k 1 (x) x a f(s, y k 1(s)) f(s, y k 2 (s)) ds es decir, es cierta para k. L x a y k 1(s) y k 2 (s) ds L x a K η L (L(s a)) k 1 (k 1)! ds = K η L (L(x a)) k, k! En resumen, la continuidad de f junto con la condición de Lipschitz respecto de la segunda variable garantizan que el problema (1.2) está bien planteado: (i) tiene solución; (ii) es única y (iii) depende de manera continua de los datos iniciales. En lo sucesivo supondremos siempre que dicha condiciones se cumplen. En ocasiones necesitaremos que la solución sea más regular. Para conseguirlo bastará con imponer mayor regularidad a la f. En efecto, es fácil ver que si, además de ser Lipschitz con respecto a su segunda variable, f C p ([a, b] R d ), entonces y C p+1 ([a, b]). La condición de Lipschitz se puede relajar, pidiendo tan sólo que f sea Lipschitz en D = [a, b] Ω, con η Ω R d. No obstante, en este caso sólo se tiene garantizado un resultado de existencia local, en algún intervalo [a, ˆb], con a < ˆb b. Ejemplo. Consideramos el problema y = y 2, y(0) = 1. La función f(x, y) = y 2 satisface una condición de Lipschitz en [0, b] [ K, K] para cualesquiera b, K > 0. Sin embargo, la única solución del problema, no tiene validez más allá de [0, 1]. y(x) = 1 1 x, Como se puede ver en cualquier texto avanzado de EDOs, la solución se puede prolongar mientras no se salga del dominio donde f satisface la condición 6

7 de Lipschitz. La dificultad en este caso reside en que y cuando x 1. Nótese que f no es Lipschitz en [0, b] R. Problemas 1. Escribir la ecuación lineal y n) + a n 1 y n 1) + + a 1 y + a 0 y = 0 en la forma Y = AY con Y = (y, y,..., y n 1) ) y A una matriz n n. 2. Comprobar que las siguientes funciones satisfacen una condición de Lipschitz sobre los respectivos intervalos y hallar las constantes de Lipschitz asociadas: a) f(x, y) = 2yx 4, x [1, ); b) f(x, y) = e x2 arctan y, x [1, ); c) f(x, y) = 2y(1 + y 2 ) 1 (1 + e x ), x (, ). 3. Encontrar, usando las normas 1, 2 y, una constante de Lipschitz con respecto a y = (y 1, y 2 ) T para la función f : R R 2 R 2 dada por f(x, y) = (x + sen y 2, x2 2 + cos y1 ) T. 4. Consideramos el problema de valor inicial y (x) = Ay(x) para 0 x 2, y(0) = η, donde ( ) A = (1.8) Encontrar una constante de Lipschitz para la función del lado derecho usando las normas 1, 2 y. 5. La función f satisface una condición de Lipschitz unilateral en D = [a, b] R d con constante de Lipschitz unilateral l si < f(x, y) f(x, ŷ), y ŷ > l y ŷ 2 2 (x, y), (x, ŷ) D. (a) Si l < 0 se dice que el PVI es disipativo. Demostrar que el PVI del ejercicio anterior es disipativo. 7

8 (b) Demostrar que si f satisface una condición de Lipschitz unilateral con constante l y las funciones y e ŷ son soluciones de y (x) = f(x, y(x)) en [a, b], entonces y(x) ŷ(x) 2 exp(l(x a)) y(a) ŷ(a) 2 si a x b Métodos numéricos Aunque el problema (1.2) tenga solución, en la mayor parte de los casos no es posible encontrar una forma cerrada para la misma por métodos analíticos. Ejemplo. Consideramos el PVI y (x) = e y2 (x) + 1, y(0) = x2 Usando el teorema del valor medio se tiene que f(x, y) f(x, ŷ) = e y2 e ŷ2 = 2ξe ξ2 y ŷ L y ŷ, pero no sabemos encontrar una fórmula para la solución. En casos como este habrá que contentarse con obtener una aproximación numérica de la solución. La prueba del teorema de Picard sugiere una manera de construir una. En efecto, las funciones y n obtenidas mediante la relación de recurrencia (1.7) aproximan a la solución. Ejemplo. Si aplicamos el método de Picard al problema lineal escalar obtenemos la recurrencia cuya solución es y 0 (x) = 1, y n (x) = 1 + y = y, y(0) = 1, y n (x) = x 0 8 y n 1 (s) ds, n = 1, 2,..., n k=0 x k k!,

9 es decir, los polinomios de Taylor de la exponencial en x = 0. Pero, cuidado!, este ejemplo es muy especial. En general será difícil, o incluso imposible, evaluar las integrales involucradas en forma cerrada. Así que buscamos una idea distinta, la discretización. Sustituimos el intervalo continuo [a, b] por el conjunto discreto de puntos {x n } N n=0 definido por x n = a + nh, n = 0, 1, 2,..., N, h = (b a)/n, al que llamaremos malla. El parámetro h es la longitud del paso. Para facilitar la exposición, lo consideraremos constante, aunque conviene mencionar que gran parte de la potencia de los algoritmos modernos proviene de su capacidad para cambiar h automáticamente a medida que se realizan los cálculos. Nuestro objetivo es encontrar una forma de producir una sucesión de valores {y n } N n=0 que aproxime a la solución y de (1.2) en los puntos {x n } N n=0, y n y(x n ). Los valores y n se pueden interpolar para obtener una aproximación de y(x) en puntos x que no pertenezcan a la malla. Un método numérico para la integración 1 de (1.2) será un procedimiento para producir la sucesión de valores aproximados {y n }. Problemas 1. Utilizar los iterantes de Picard para construir una aproximación numérica de la solución del problema de valor inicial y + y = 0, 0 x 2π, y(0) = 0, y (0) = Si f C p ([a, b] R d ), podemos encontrar una solución aproximada utilizando la fórmula de Taylor de orden p alrededor de x = a, y(x) 1 Históricamente se ha reservado el término integración para la resolución numérica de EDOs, empleándose el término cuadratura para la aproximación numérica de integrales. 9

10 p y (j) (a)(x a) j. Los valores de las derivadas y (j) (a) se pueden calcular derivando la EDO y usando la condición inicial. Utilizar este procedimiento para aproximar la solución del problema y (x) = y 2 (x), 0 x 1, y(0) = 1, y estimar el error cometido Primeros ejemplos Nuestro primer objetivo es ver, a través de algunos ejemplos significativos, formas razonables de construir métodos numéricos. Estos ejemplos nos servirán también para ir introduciendo algunas ideas básicas. A lo largo de la sección supondremos que f es tan regular como sea necesario para justificar los cálculos que se hagan. Método de Euler. Nuestro primer método, padre de alguna manera de todos los demás que vamos a estudiar, es el método de Euler, y n+1 = y n + hf(x n, y n ), n = 0,..., N 1. (1.9) Vamos a llegar a él desde tres puntos de vista diferentes. Serie de Taylor. Desarrollamos la solución alrededor de x n y usamos la ecuación diferencial para obtener y(x n+1 ) = y(x n ) + hy (x n ) + h2 2 y (ξ n ) = y(x n ) + hf(x n, y(x n )) + h2 2 y (ξ n ). (1.10) La notación ξ n indica que el punto intermedio ξ n [x n, x n+1 ] puede variar de componente a componente. Así pues, la solución teorica resuelve la recurrencia y(x n+1 ) = y(x n ) + hf(x n, y(x n )) + R n, n = 0,..., N 1, (1.11) 10

11 con R n = h2 2 y (ξ n ). Esta última cantidad es desconocida, lo que impide resolver la recurrencia. No obstante, sabemos que R n es pequeña si h es pequeña. Si la recurrencia (1.9) es estable ante pequeñas perturbaciones, esperamos que {y(x n )} se parezca a la solución {y n } de la recurrencia sin perturbar(1.9). La cantidad R n, que es lo que le sobra a la solución teórica para ser solución de la ecuación del método numérico, recibe el nombre de residuo. Geométricamente (en el caso d = 1), al despreciar el residuo lo que estamos haciendo es aproximar a la solución por su tangente. Cuadratura numérica. Integramos la EDO en (x n, x n+1 ), y obtenemos y(x n+1 ) = y(x n ) + xn+1 x n f(x, y(x)) dx. (1.12) Para calcular la integral utilizamos la fórmula de cuadratura numérica c+h c g hg(c), llamado regla rectangular izquierda, y llegamos de nuevo a (1.11). Diferenciación numérica. De la definición de derivada, y(x n+1 ) y(x n ) h y (x n ) = f(x n, y(x n )), de donde, despejando, obtenemos una vez más (1.11). Para generar una solución numérica de (1.2) usando (1.9) necesitamos un valor de arranque y 0. Uno desearía tomar y 0 = y(x 0 ), pero en general esto no es posible, debido a la precisión finita del ordenador. Así pues, habrá que contentarse con tomar una aproximación y 0 y(x 0 ). Método de Taylor de orden 2. Se pueden obtener métodos más precisos, tomando más términos en la fórmula de Taylor. Esto da lugar a los llamados métodos de Taylor. Como ejemplo construimos el método de Taylor de orden 2, en el caso d = 1. 11

12 El desarrollo de Taylor produce y(x n+1 ) = y(x n ) + hy (x n ) + h2 2 y (x n ) + h3 3! y (ξ n ). Para calcular y (x n ) e y (x n ) usamos la ecuación diferencial, y (x) = f(x, y(x)), y (x) = f x (x, y(x)) + f y (x, y(x))y (x) = f x (x, y(x)) + f y (x, y(x))f(x, y(x)). Si despreciamos el residuo, R n = h3 3! y (ξ n ), obtenemos el método y n+1 = y n + hf(x n, y n ) + h2 2 (f x(x n, y n ) + f y (x n, y n )f(x n, y n )). Puesto que en este caso el residuo es más pequeño que para el método de Euler (si h es pequeño), esperamos que la aproximación sea mejor. A cambio hay que hacer tres evaluaciones de función por paso, mientras que con el método de Euler sólo hay que hacer una. Por el mismo procedimiento podemos generar métodos de Taylor del orden que queramos. El inconveniente es que involucran cada vez más derivadas, que hay que calcular y evaluar. Regla del trapecio. Si calculamos la integral de (1.12) por medio de la regla del trapecio (que es más precisa que la regla rectangular izquierda), se tiene que y(x n+1 ) y(x n ) = f(x n, y(x n )) + f(x n+1, y(x n+1 )) + R n. 2 Despreciando el residuo R n, se llega a la llamada regla del trapecio, y n+1 = y n + h 2 ( f(xn, y n ) + f(x n+1, y n+1 ) ). (1.13) El método de Euler es explícito; el valor y n+1 viene dado explícitamente en términos del valor anterior y n y se puede calcular fácilmente mediante una evaluación de f y unas pocas operaciones aritméticas. Por el contrario, la regla del trapecio es un método implícito; para calcular y n+1 hay que resolver 12

13 un sistema de ecuaciones no lineales, lo que en general es computacionalmente costoso. La primera posibilidad para resolver el sistema es iterar la función G(y) = y n + h 2 (f(x n, y n ) + f(x n+1, y)) para obtener un punto fijo. La función de iteración satisface G(y) G(ŷ) = h 2 f(x n+1, y) f(x n+1, ŷ) Lh y ŷ. 2 Para que la iteración converja se necesita que Lh/2 < 1. Si L 1, esto obliga a dar pasos de longitud h muy pequeña. Para evitarlo lo que se hace es determinar y n+1 como un cero de la función mediante el método de Newton. Euler mejorado. F (y) = y {y n + h 2 (f(x n, y n ) + f(x n+1, y))} Para evitar el coste computacional derivado del carácter implícito de la regla del trapecio, podemos sustituir el valor y n+1 en el lado derecho de (1.13) por una aproximación de ese valor dada por el método de Euler, de manera que y n+1 = y n + h 2 y n+1 = y n + hf(x n, y n ), ( f(xn, y n ) + f(x n+1, y n+1) ). El método resultante, que es explícito, se conoce como método de Euler mejorado. Requiere dos evaluaciones de función por paso, lo que queda aún más claro si lo escribimos de la siguiente forma: k 1 = f(x n, y n ), k 2 = f(x n + h, y n + hk 1 ), y n+1 = y n + h ( k1 2 + k ) 2. 2 Euler modificado. Si calculamos la integral de (1.12) por medio de la regla del punto medio, se tiene que y(x n+1 ) y(x n ) hf (x n + h2 (, y x n + h )). 2 13

14 Como no conocemos el valor y(x n + h ), lo aproximamos por el método de Euler. 2 Llegamos finalmente a y(x n+1 ) y(x n ) + hf ( x n + h 2, y(x n) + h ) 2 f(x n, y(x n )). El método de Euler modificado se obtiene imponiendo que esta relación se satisfaga de forma exacta, y n+1 = y n + hf ( x n + h 2, y n + h ) 2 f(x n, y n ). Este método se suele escribir bajo la forma alternativa ( k 1 = f(x n, y n ), k 2 = f x n + h 2, y n + h k ) 1, y n+1 = y n + hk 2. 2 Método leap-frog (regla del punto medio). Si integramos la EDO en (x n, x n+2 ) y usamos la regla del punto medio, se tiene que y(x n+2 ) y(x n ) = xn+2 x n f(x, y(x)) dx 2hf(x n+1, y(x n+1 )), lo que da lugar al método leap-frog, también conocido como regla del punto medio, y n+2 = y n + 2hf(x n+1, y n+1 ), (1.14) Como vemos, para calcular y n+2 se utilizan dos valores anteriores, y n e y n+1, y no uno sólo, como en los métodos vistos hasta ahora. Diremos que es un método de dos pasos. Necesitaremos por tanto dos valores de arranque, y 0 e y 1. Para y 0 tomamos un valor próximo al dato inicial, y 0 y(0). El valor de y 1 se tendrá que obtener por otro procedimiento, por ejemplo por el método de Euler. También se puede llegar al método leap-frog a través de la diferenciación numérica. En efecto, si en lugar de usar la fórmula de orden uno y (x) y(x + h) y(x), h 14

15 como hicimos para obtener el método de Euler, usamos la fórmula de diferencias centradas y (x) y(x + h) y(x h), 2h que es una aproximación de orden 2, se tiene que f(x n+1, y(x n+1 )) = y (x n+1 ) y(x n+2) y(x n ), 2h lo que da lugar al método (1.14). Regla de Simpson. Si integramos la EDO en (x n, x n+2 ) y usamos la regla de Simpson obtenemos que y(x n+2 ) y(x n ) h 3 (f(x n, y(x n )) + 4f(x n+1, y(x n+1 )) + f(x n+2, y(x n+2 ))). Esta aproximación conduce al método numérico, y n+2 y n = h 3 (f(x n, y n ) + 4f(x n+1, y n+1 ) + f(x n+2, y n+2 )), conocido como regla de Simpson, que también es un método de dos pasos. Método de colocación de parámetro c 1 = 1/2. Buscamos un polinomio u de grado 1 tal que u(x n ) = y n, u (x n + c 1 h) = f(x n + c 1 h, u(x n + c 1 h)); es decir, pedimos que u tome un cierto dato inicial y que sea solución de la EDO en el punto de colocación x = x n + c 1 h. Puesto que u es constante, tenemos que u (x) = k 1 f(x n + c 1 h, u(x n + c 1 h)), que integrado en (x n, x) produce u(x) = y n + k 1 (x x n ). Si definimos y n+1 = u(x n+1 ), se tiene que y n+1 = y n + hk 1, siendo k 1 solución de k 1 = f ( x n + h 2, y n + h k )

16 Adams-Bashforth de dos pasos. Si integramos la EDO en (x n+1, x n+2 ), se tiene que y(x n+2 ) y(x n+1 ) = xn+2 x n+1 f(x, y(x)) dx. (1.15) Aproximamos la integral sustituyendo el integrando por el polinomio de grado menor o igual que uno que interpola a f(x, y(x)) en los nodos x n y x n+1, f(x, y(x)) f(x n, y(x n )) x x n+1 x x n + f(x n+1, y(x n+1 )), x n x n+1 x n+1 x n de forma que y(x n+2 ) y(x n+1 ) h 2 (3f(x n+1, y(x n+1 )) f(x n, y(x n ))). Llegamos al método y n+2 y n+1 = h 2 (3f(x n+1, y n+1 ) f(x n, y n )), conocido como método de Adams-Bashforth de dos pasos. Adams-Moulton de dos pasos. Si sustituimos el integrando en (1.15) por el polinomio de grado menor o igual que dos que interpola a f(x, y(x)) en los nodos x n, x n+1 y x n+2, f(x, y(x)) f(x n, y(x n )) (x x n+1)(x x n+2 ) (x n x n+1 )(x n x n+2 ) (x x n )(x x n+2 ) +f(x n+1, y(x n+1 )) (x n+1 x n )(x n+1 x n+2 ) (x x n )(x x n+1 ) +f(x n+2, y(x n+2 )) (x n+2 x n )(x n+2 x n+1 ), llegamos a y(x n+2 ) y(x n+1 ) h 12 (5f(x n+2, y(x n+2 )) + 8f(x n+1, y(x n+1 )) f(x n, y(x n ))), y finalmente al método y n+2 y n+1 = h 12 (5f(x n+2, y n+2 ) + 8f(x n+1, y n+1 ) f(x n, y n )), (1.16) 16

17 conocido como método de Adams-Moulton de dos pasos. Predictor-corrector AB2/AM2. Podemos combinar los dos métodos anteriores para obtener un nuevo método: en primer lugar predecimos un valor de y n+2 mediante el método de Adams-Bashforth de dos pasos y a continuación lo corregimos usando esta cantidad para calcular el lado derecho de (1.16), y n+2 = y n+1 + h 2 (3f(x n+1, y n+1 ) f(x n, y n )), y n+2 = y n+1 + h 12 (5f(x n+2, y n+2) + 8f(x n+1, y n+1 ) f(x n, y n )). El método resultante, explícito y de dos pasos, es un par predictor-corrector. El método de Euler mejorado también se puede ver como un par predictorcorrector. BDF de 2 pasos. Dadas y n e y n+1 queremos obtener y n+2. Consideramos el polinomio Q n,2 de grado menor o igual que 2 que interpola a y n, y n+1 e y n+2, es decir Q n,2 (x) = y n (x x n+1 )(x x n+2 ) (x n x n+1 )(x n x n+2 ) + y n+1 +y n+2 (x x n )(x x n+1 ) (x n+2 x n )(x n+2 x n+1 ). (x x n )(x x n+2 ) (x n+1 x n )(x n+1 x n+2 ) Este polinomio no se puede construir, porque desconocemos y n+2. Se impone ahora que Q n,2 satisfaga la ecuación diferencial en x n+2, esto es El método resultante, Q n,2(x n+2 ) = f(x n+2, Q n,2 (x n+2 )) = f(x n+2, y n+2 ). y n y n y n = 2 3 hf(x n+2, y n+2 ), implícito y de dos pasos, se conoce como fórmula BDF de 2 pasos. Problemas 1. Construir el método de Taylor de orden 3 para d = 1 y el de orden 2 para d = 2. 17

18 2. Comprobar que el método de Taylor de orden 3 aplicado al problema y = 2xy, y(0) = 1, lleva a la iteración y n+1 = y n + h ( 2x n y n + y n (1 + 2x 2 n)h + 2x n y n (3 + 2x 2 n) h2 ) Si integramos la EDO en (x n, x n+1 ) y aplicamos la regla de Simpson, obtenemos que y(x n+1 ) y(x n ) h 6 (f(x n, y(x n ))+4f(x n+ 1, y(x 2 n+ 1 )+f(x n+1, y(x n+1 ))), 2 donde x n+ 1 = x n + h. Como no conocemos el valor de y(x 2 2 n+ 1 ), aproximamos esta cantidad por Euler, y(x n+ 2 1 ) y(x n ) + hf(x 2 2 n, y(x n )). Tampoco conocemos el valor de y(x n+1 ). Para estimarlo podemos avanzar a partir de x n utilizando una media ponderada de las dos pendientes calculadas hasta ahora, k 1 = f(x n, y(x n )), k 2 = f(x n+ 1, y(x n ) + hk 2 2 1); es decir, tomamos y(x n+1 ) y(x n ) + h(αk 1 + βk 2 ). Llegamos así al método k 1 = f(x n, y n ), k 2 = f(x n + h 2, y n + h 2 k 1), k 3 = f(x n + h, y n + h(αk 1 + βk 2 )) y n+1 = y n + h 6 (k 1 + 4k 2 + k 3 ). Determinar α y β para que R n = O(h 4 ). El método resultante se conoce como método de Runge-Kutta clásico. 4. Consideramos la igualdad y(x n+k ) y(x n+k 1 ) = xn+k x n+k 1 f(t, y(t)) dt. Si aproximamos la integral sustituyendo el integrando por el polinomio de grado menor o igual que k 1 que interpola a f(t, y(t)) en los nodos x n,..., x n+k 1, y pedimos que la aproximación y n satisfaga la relación resultante exactamente, se obtiene el método de Adams-Bashforth de k pasos. 18

19 Si aproximamos la integral sustituyendo el integrando por el polinomio de grado menor o igual que k que interpola a f(t, y(t)) en los nodos x n,..., x n+k, y pedimos que la aproximación y n satisfaga la relación resultante exactamente, se obtiene el método de Adams-Moulton de k pasos. Construir los métodos de Adams-Bashforth y Adams-Moulton de 1 y 3 pasos, obteniendo una expresión para el residuo a partir del error de interpolación. 5. Consideramos la igualdad y(x n+k ) y(x n+k 2 ) = xn+k x n+k 2 f(t, y(t)) dt. Si aproximamos la integral sustituyendo el integrando por el polinomio de grado menor o igual que k 1 que interpola a f(t, y(t)) en los nodos x n,..., x n+k 1, y pedimos que la aproximación y n satisfaga la relación resultante exactamente, se obtiene el método de Nystrom de k pasos. Obtener los métodos de Nystrom de 2 y 3 pasos. 6. Obtener una aproximación de orden 4 de la derivada y (x) a partir de los valores y(x + 2h), y(x + h), y(x), y(x h) e y(x 2h). Utilizarla para construir un método de cuatro pasos para resolver problemas de valor inicial para EDOs. Obtener una expresión para el residuo. 7. Dadas las aproximaciones y n,..., y n+k 1, consideramos el polinomio Q n,k de grado menor o igual que k que interpola a y n,..., y n+k. Obviamente este polinomio no se puede construir, porque desconocemos y n+k. Se impone ahora que Q n,k satisfaga la ecuación diferencial en x n+k, esto es Q n,k(x n+k ) = f(x n+k, Q n,k (x n+k )) = f(x n+k, y n+k ). El método resultante se conoce como fórmula BDF de k pasos. Construir las fórmulas BDF de 1 y 3 pasos. 8. Dados ν parámetros, c 1,..., c ν (preferiblemente en [0, 1], aunque no es imprescindible), buscamos un polinomio u de grado ν (con coeficientes 19

20 vectoriales) tal que u(x n ) = y n, u (x n + c j h) = f(x n + c j h, u(x n + c j h)), j = 1,..., ν. En otras palabras, u satisface la condición inicial y también la EDO en ν puntos distintos. Un método de colocación consiste en calcular u y tomar y n+1 = u(x n+1 ). Los parámetros c 1,..., c ν son los parámetros de colocación. Obtener el método de colocación que corresponde a los parámetros de colocación c 1 = 1/3, c 2 = 2/ Convergencia Todos los métodos de la sección anterior se pueden escribir en la forma k α j y n+j = hφ f (x n, y n,..., y n+k 1 ; h), n = 0,..., N k, (1.17) donde φ f, la función de incremento, depende de sus argumentos a través de la función f (y a veces, como en los métodos de Taylor, también de sus derivadas). Ejemplos. Para el método de Euler φ f (x n, y n ; h) = f(x n, y n ). Para la regla del trapecio φ f viene definida implícitamente por φ f (x n, y n ; h) = f(x n, y n ) + f(x n + h, y n + hφ f (x n, y n ; h)). (1.18) 2 Si la función de incremento φ f se puede expresar explícitamente en términos de f (y tal vez de sus derivadas), el método es explícito. En caso contrario, el método es implícito. El método (1.17) se dice de k pasos, pues se necesitan k valores anteriores, y n,..., y n+k 1, para calcular y n+k. Por consiguiente, es necesario disponer de k valores de arranque, y 0,..., y k 1 ; sin embargo, el problema de valor inicial 20

21 sólo proporciona y 0. Si k 2 habrá que obtener los k 1 valores de arranque restantes por algún otro procedimiento, como puede ser por desarrollo de Taylor, utilizando un método de un sólo paso, etc. Supondremos que α k = 1, eliminando así la arbitrariedad que surge del hecho de que podemos multiplicar ambos lados de (1.17) por un mismo número distinto de cero sin cambiar el método. Supondremos también que, o bien α 0 0, o bien φ f depende de y n de forma no trivial. Excluimos así métodos como por ejemplo y n+2 y n+1 = hf(x n+1, y n+1 ), que es esencialmente de 1 paso, y no de 2, y que se puede escribir como y n+1 y n = hf(x n, y n ). Para todos los ejemplos de la sección anterior φ f satisface las siguientes propiedades: (i) es continua; (ii) existen constantes h 0 y L tales que k 1 φ f (x n, y n,..., y n+k 1 ; h) φ f (x n, ŷ n,..., ŷ n+k 1 ; h) L y n+j ŷ n+j (1.19) para todo 0 < h < h 0 ; y (iii) si f = 0, entonces φ f = 0. En lo que sigue, siempre que consideremos un método de la forma (1.17) supondremos que verifica estas tres condiciones. Dan los métodos (1.17) una buena aproximación a la verdadera solución del problema (1.2)? Una medida posible de la bondad de la aproximación es el mayor error cometido, máx y(x n) y n. 0 n N Se hace el error cada vez más pequeño a medida que la malla va teniendo más puntos? Si esto es así diremos que el método es convergente. Definición 1.4. Un método (1.17) se dice convergente si para todo problema de valor inicial (1.2) con f continua en D = [a, b] R d y Lipschitz con respecto 21

22 a su segunda variable en D se tiene que lím N máx y(x n) y n = 0 si lím k n N N máx y(x n) y n = 0. 0 n k 1 Observación. La condición lím máx y(x n) y n = 0 sobre los valores N 0 n k 1 de arranque es equivalente a pedir que lím y n = y(x 0 ) para n = 0,..., k 1. h 0 + Estamos pidiendo que los valores de arranque, {y n } k 1 n=0, aproximen bien al dato inicial y(x 0 ); si esto no es así no hay por qué esperar que la solución numérica se parezca a la teórica. Problemas 1. Para cada uno de los métodos de la sección 1.3, demostrar que si f es continua en D y Lipschitz con respecto a su segunda variable en D, entonces la correspondiente función de incremento satisface la condición de Lipschitz (1.19). En el caso del método de Taylor de orden 2 se supone además que todas las derivadas parciales de orden 2 de f existen y están acotadas en D. 2. Sea y la solución del problema (1.2) y sea y I la función continua lineal a trozos que pasa por los puntos (x n, y n ), n = 0,..., N, donde {y n } es una solución numérica del problema. Una medida alternativa del error cometido viene dada por máx y(x) a x b yi (x). Hallar una cota para esta cantidad en términos de máx y(x n) y n y de h, suponiendo que 0 n N f C 1 ([a, b] R d ) estabilidad Salvo en casos excepcionales, la verdadera solución no satisface la recurrencia (1.17) que define el método numérico, sino la recurrencia más una pequeña perturbación, k α j y n+j = hφ f (x n, y n,..., y n+k 1 ; h) + R n, n = 0,..., N k. (1.20) 22

23 La cantidad R n, el residuo, es lo que le falta a la solución teórica para ser solución del método numérico. Por cierto, la solución producida por el ordenador tampoco es solución de la ecuación del método, pues los errores de redondeo introducen pequeñas perturbaciones. Por otra parte, φ f (x n, ŷ n,..., ŷ n+k 1 ; h) en general no se calcula exactamente, sino sólo de forma aproximada. Así que en realidad el ordenador produce una solución {ŷ n } de una recurrencia perturbada k α j ŷ n+j = h ( ) φ f (x n, ŷ n,..., ŷ n+k 1 ; h) + ε n + µn, n = 0,..., N k, ŷ n = y n + µ n, n = 0,..., k 1, donde ε n es el error cometido en el cálculo de φ f (x n, ŷ n,..., ŷ n+k 1 ; h) y µ n es el error de redondeo. Para que el método sirva para algo, necesitamos que y(x n ) e ŷ n permanezcan próximas si las perturbaciones R n y µ n son pequeñas. Esto es, nos gustaría que el método numérico fuese estable. Esto motiva la siguiente definición. Definición 1.5. Un método (1.17) se dice 0-estable si para cada problema de valor inicial (1.2) con f continua en D y Lipschitz con respecto a su segunda variable en D existe una constante C > 0 tal que para cada dos sucesiones {u n } N n=0 y {v n } N n=0 satisfaciendo k α j u n+j hφ f (x n, u n,..., u n+k 1 ; h) = hδ n, k α j v n+j hφ f (x n, v n,..., v n+k 1 ; h) = hγ n, 0 n N k, se verifica que ( máx u n v n C k n N máx u n v n + 0 n k 1 ) máx δ n γ n. (1.21) 0 n N k Ejemplo. Todos los métodos de un paso con α 0 = 1 son 0-estables. En efecto, 23

24 sean {u n } N n=0 y {v n } N n=0 satisfaciendo u n+1 = u n + hφ f (x n, u n ; h) + hδ n, v n+1 = v n + hφ f (x n, v n ; h) + hγ n, n = 0,... N 1. (1.22) Restando ambas ecuaciones, tomando normas y usando la condición de Lipschitz (1.19), se tiene que e n = u n û n verifica e n+1 e n + h φ f (x n, u n ; h) φ(x n, v n ; h) + h δ n γ n (1 + Lh)e n + h δ n γ n. A partir de aquí se demuestra fácilmente por inducción que u n v n e L(xn x0) u 0 v 0 + e L(xn x0) (x n x 0 ) máx δ n γ n, (1.23) 0 n N 1 de donde se sigue inmediatamente que el método es 0-estable. Como corolario de la definición de 0-estabilidad se tiene el siguiente resultado de convergencia. Corolario 1.6. Si un método (1.17) es 0-estable y τ := entonces el método converge. máx R n /h 0 cuando h 0 +, 0 n N k Prueba. Basta con tomar u n = y(x n ), δ n = R n /h, v n = y n y γ n = 0 en la definición de 0-estabilidad. Apliquemos el corolario al método de Euler. Es 0-estable, pues es de un paso con α 0 = 1. Por otra parte, R n /h = y(x n+1) y(x n ) h f(x n, y(x n )) = y (ξ n ) y (x n ). usando la continuidad uniforme de y (x) en [a, b] se concluye que τ 0, y por tanto la convergencia. La convergencia de la regla del trapecio se obtiene de forma similar. 24

25 Si f es más regular se tiene algo mejor. Por ejemplo, si f C 1, R n = y (ξ n )h 2 /2 y, utilizando (1.23), se llega a la cota para el error y(x n ) y n e L(b a) y(x 0 ) y 0 + e L(b a) (b a)ch, (1.24) donde C = 1 2 máx x [a,b] y (x) y L > 0 es una constante de Lipschitz para f con respecto a su segunda variable. Análogamente, si f C 2, para la regla del trapecio tenemos que R n = y(x n+1 ) {y(x n ) + h 2 [f(x n, y(x n )) + f(x n+1, y(x n+1 ))]} = y(x n ) + hy (x n ) + h2 2 y (x n ) + h3 3! y (ξ n ) {y(x n ) + h 2 [y (x n ) + y (x n ) + hy (x n ) + h2 = de donde se deduce que ( y (ξ n ) y (η n ) 3! 4 ) h 3, 2 y (η n )]} y(x n ) y n e L(b a) y(x 0 ) y 0 + e L(b a) (b a)ch 2, (1.25) donde L > 0 es una constante de Lipschitz para f con respecto a su segunda variable y C = 5 12 máx y (x). x [a,b] La constantes que aparecen en las cotas anteriores se pueden estimar utilizando la ecuación diferencial. Ejemplo. Sea y la solución de y = sen (exp(y)) en [0, 1], y(0) = 0. Queremos estimar y sin conocer y. Para ello derivamos la EDO, y = cos(exp(y)) exp(y)y = cos(exp(y)) exp(y) sen (exp(y)). Para acotar el factor exponencial tenemos que tener una idea del tamaño de y. Dado que y 1 tenemos que y x 1. Concluimos que y e. La cotas (1.24) y (1.25) en general sobreestiman el error en muchos órdenes de magnitud, y no se deben por tanto utilizar en la práctica. Sin embargo 25

26 dan una información importante: el error del método de Euler es una O(h), siempre y cuando y(x 0 ) y 0 = O(h) y el de la regla del trapecio una O(h 2 ), si y(x 0 ) y 0 = O(h 2 ). Eso motiva la siguiente definición. Definición 1.7. El método numérico (1.17) es convergente de orden p si este es el mayor entero tal que para todo problema (1.2) con f C p (D) y Lipschitz con respecto a su segunda variable en D se tiene que máx y(x n) y n = O(h p ) si máx y(x n) y n = O(h p ) k n N 0 n k 1 cuando h 0 +. Con esta definición, el método de Euler es convergente de orden al menos uno y la regla del trapecio de orden al menos de orden 2. Para ver que el método de Euler no es convergente de orden 2 lo aplicamos al problema y (x) = x para x [0, b], y(0) = 0, cuya solución exacta es y(x) = x 2 /2. Si tomamos valor de arranque y 0 = 0 tenemos que Es decir, y por tanto y 1 = y 0 + hx 0 = 0, y 2 = y 1 + hx 1 = h 2, y 3 = y 2 + hx 2 = h 2 (1 + 2). y n = h 2 (1 + + (n 1)). y n = x2 n 2 x nh 2, máx y(x n) y n = máx x nh/2 = bh/2. 1 n N 1 n N Cuando h 0 el error tiende a cero, pero lo hace como h y no como h 2. De forma parecida se prueba que la regla del trapecio no tiene orden de convergencia 3. 26

27 La regla del trapecio tiene un orden de convergencia mayor que el método de Euler. Pero, cuidado!, el orden no lo es todo. Aunque en un método de orden alto en principio hay que dar menos pasos, éstos pueden ser muy costosos; puede ser preferible un método de orden más bajo, en el que, a pesar de dar más pasos, cada uno de ellos lleve menos trabajo computacional. Que un método sea de orden p significa que para todos los problemas razonables el error que se comete con el método es de ese orden. Pero puede suceder que para algún problema concreto el método sea mejor. Ejemplo. Consideramos el problema y (x) = 1, y(0) = 0, cuya solución exacta es y(x) = x. Aplicando Euler con valor de arranque y 0 = 0 tenemos y n+1 = y n + h, y por tanto y n = nh = x n. Euler nos da por tanto la solución para este problema sin ningún error. Problemas 1. Consideramos un método de un sólo paso con α 0 > 1. Demostrar que no es 0-estable. Indicación: Aplicarselo a un problema con f = 0 y valores de arranque y 0 = 0 e ŷ 0 = h. 2. Suponiendo sólo que f es continua en D y Lipschitz con respecto a su segunda variable en D, demostrar que lím τ = 0 para la regla del trapecio. h Consideramos la ecuación escalar y = arctan y. Encontrar una cota para y e y en el intervalo [0, 1] sin hallar y explícitamente. 4. Consideramos el problema de valor inicial y (x) = x(sen y(x)) 2, x [0, 1], y(0) = 1. Si se resuelve por el método de Euler, qué valor de h habrá que tomar para garantizar un error menor que 10 3? Y si se usa la regla del trapecio? 5. Probar que la regla del trapecio no es convergente de orden 3. 27

28 6. Construir todos los métodos convergentes de orden 2 de la forma y n+1 = y n + hf(x n + αh, y n + αhf(x n + βh, y n + βhf(x n, y n ))). Comprobar que ninguno tiene orden de convergencia 3. Tiene alguno orden de convergencia 3 para el problema y = y en [0, b], y(0) = 1? 7. Calcular la solución teórica del problema de valor inicial y (x) = mín(y(x), 2), 0 x 2, y(0) = 1, y aproximarla mediante el método de Euler. Comprobar que la solución numérica converge a la teórica. Es la convergencia de orden 1? 8. Consideramos un método de un paso con α 0 = 1. Sean {u n } N n=0 y {v n } N n=0 satisfaciendo (1.22) Demostrar que existe una constante C > 0 tal que máx u n v n C 0 n N N 1 máx (δ j γ j ). 0 n N 1 Concluir de lo anterior que si existe un problema de valor inicial tal que R n = Ch p+1, entonces el método no puede tener orden de convergencia mayor que p. Como aplicación, demostrar que el método de Euler modificado no es convergente de orden Supongamos que los errores de evaluación de φ f están acotados por ε y los de redondeo por µ. Si el método es 0-estable, dar una cota para el error máx k n N y(x n) ŷ n y obtener el valor de h que minimiza dicha cota Consistencia La 0-estabilidad garantiza que si motiva la siguiente definición. lím τ = 0, el método converge. Esto h 0 + Definición 1.8. Un método de la forma (1.17) es consistente si para todo problema (1.2) con f continua en D y f Lipschitz con respecto a su segunda 28

29 variable en D se tiene que lím τ = 0. h 0 + Qué tiene que satisfacer un método para ser consistente? El siguiente resultado da una caracterización completa. Teorema 1.9. Un método (1.17) es consistente si y sólo si y además k α j = 0 (1.26) ( k ) φ f (x, y(x),..., y(x); 0) = jα j f(x, y(x)). (1.27) Prueba. Aplicamos el método (1.17) al problema y (x) = 0, y(0) = 1, cuya solución es y(x) = 1. Puesto que f = 0, entonces φ f = 0, y se tiene que R n lím h 0 + h = k α j = 0 si el método es consistente, es decir, (1.26). Consideramos ahora el problema general (1.2) y lo integramos numéricamente en el intervalo [a, x], con x (a, b]. Si se cumple (1.26), entonces R n h = 1 h k α j y(x n+j ) φ f (x n, y(x n ),..., y(x n+k 1 ); h) = 1 k ( α j y(xn ) + jhy (ξ h n,j ) ) φ f (x n, y(x n ),..., y(x n+k 1 ); h) k = jα j y (ξ n,j ) φ f (x n, y(x n ),..., y(x n+k 1 ); h) = k jα j f(ξ n,j, y(ξ n,j )) φ f (x n, y(x n ),..., y(x n+k 1 ); h), 29 (1.28)

30 donde x n ξ n,j x n+j. Si el problema es consistente, pasando al límite h 0 + para n = 0 se tiene (1.27) con x = a; haciendo lo mismo para n = N k, R N k h k = jα j f(ξ N k,j, y(ξ N k,j )) φ f (x N k, y(x N k ),..., y(x N 1 ); h) k jα j f(x, y(x)) φ f (x, y(x),..., y(x); 0), de donde, si el método es consistente, se obtiene (1.27) para x (a, b]. Veamos el recíproco. Supongamos que se cumplen las condiciones (1.26) y (1.27). Entonces, usando (1.28) se tiene que R n h = k φ f (ξ n,j, y(ξ n,j ),..., y(ξ n,j ); 0) φ f (x n, y(x n ),..., y(x n+k 1 ); h) jα j. k jα j Utilizando la continuidad uniforme de y y φ f sobre compactos, se concluye que τ 0. Ejemplo. Los métodos de un paso son consistentes si y sólo si α 0 = 1 y φ f (x, y(x); 0) = f(x, y(x)). Usando (1.18) es fácil ver que la regla del trapecio cumple estas dos condiciones; por tanto es consistente. Ejemplo. Consideramos el método y n+2 + y n+1 2y n = h ( 5f(x n+1, y(x n+1 )) 2f(x n, y(x n )) ). (1.29) Se tiene φ f (x n, y n, y n+1 ; h) = 5f(x n + h, y n+1 ) 2f(x n, y n ), 2 α j = 0 y 2 jα j = 3. Por consiguiente, φ f (x, y, y; 0) = 3f(x, y). Así pues, el método es consistente. Si un método es 0-estable y además τ = O(h p ) cuando h 0 +, entonces converge con orden al menos p, lo que motiva una nueva definición. 30

31 Definición Un método de la forma (1.17) es consistente de orden p si este es el mayor entero tal que para todo problema (1.2) con f C p (D) y f Lipschitz con respecto a su segunda variable en D se tiene que τ = O(h p ) cuando h 0 +. Ejemplo. Si f C 2, la regla del punto medio (1.14) tiene residuo R n = y(x n+2 ) y(x n ) 2hf(x n+1, y(x n+1 )) = y(x n+2 ) y(x n ) 2hy (x n+1 ) = ( y(x n ) + y (x n )(2h) + 1 2! y (x n )(2h) ! y (ξ n )(2h) 3) y(x n ) 2h ( y (x n ) + y (x n )h + 1 2! y (η n )h 2) = ( 4 3 y (ξ n ) y (η n ) ) h 3, con x n ξ n x n+2 y x n η n x n+1. Así pues, τ = O(h 2 ), y el método es consistente de orden al menos 2. Si aplicamos el método al problema y (x) = x2, 0 x b, y(0) = 0, (1.30) 2 cuya solución, y(x) = x 3 /3!, verifica que y (x) = 1, se tiene que R n = h 3 /3. Así pues, τ = h 2 /3, y el método no es consistente de orden 3. Problemas 1. Decidir si los métodos de la sección 1.3 son consistentes y en caso afirmativo determinar el orden de consistencia. 2. Determinar qué condiciones deben cumplir las constantes α y β para que el método y n+1 = y n + αhf(x n, y n ) + βhf(x n+1, y n+1 ) sea: (i) consistente; (ii) consistente de orden al menos uno; y (iii) consistente de orden al menos dos. Es consistente de orden 3 para alguna elección de α y β? 31

32 3. a) Hallar el orden de consistencia del método y n+1 = y n 5 2 hf(x n, y n ) hf(x n + h 7, y n + h 7 f(x n, y n )). b) Escribir la función de incremento φ f y comprobar que cumple la condición (1.19). 4. Repetir el ejercicio anterior para el método y n+1 = y n + hf(x n + (1 θ)h, θy n + (1 θ)y n+1 ), donde θ [0, 1] Criterio de la raíz Si un método de un paso es consistente, es 0-estable, y por tanto convergente. Sucede lo mismo con los métodos de más de un paso? La respuesta es que no. Ejemplo. Consideramos el método (1.29). Se lo aplicamos al problema más simple que uno pueda imaginar, y (x) = 0, a x b, y(a) = 0, cuya solución es y(x) = 0. El método en este caso queda y n+2 + y n+1 2y n = 0. Para que y n = λ n sea solución de esta recurrencia, λ tiene que ser raíz del polinomio ρ(ζ) = ζ 2 + ζ 2. Así, λ debe ser 1 o 2, lo que da lugar a las soluciones y n = 1, y n = ( 2) n. La solución general de la recurrencia será una combinación lineal de estas dos soluciones, y n = c 1 + c 2 ( 2) n. 32

33 Consideramos las soluciones u n = 0 y v n = h( 2) n. Se tiene que δ n = 0 = γ n y que Sin embargo, máx u n v n = 2h. 0 n 1 máx u n v n = h2 N = b a 2 n N N 2N, luego (1.21) no se cumple para ningún C. Como se ve en este ejemplo, la 0-estabilidad está relacionada con el tamaño de las raíces del polinomio ρ(ζ) = k α j ζ j, conocido como primer polinomio característico del método, que es el polinomio asociado a la recurrencia que se obtiene al aplicar el método a problemas con f = 0. Esto motiva la siguiente definición. Definición Se dice que un método (1.17) satisface la condición de la raíz si todas las raíces del primer polinomio característico tienen módulo menor o igual que 1, y aquellas que tienen módulo 1 son simples. Observación. Si un método es consistente, una de las raíces de ρ(ζ) debe ser 1. Ésta es la raíz principal, a la que se etiqueta como ζ 1. Las restantes raíces, ζ i, i = 2,..., k, son las llamadas raíces espurias; surgen porque decidimos representar un sistema diferencial de primer orden por un sistema en diferencias de orden k. Obviamente, los métodos consistentes con k = 1 no tienen raíces espurias, y satisfacen por tanto la condición de la raíz. La 0-estabilidad resulta ser equivalente a que se satisfaga la condición de la raíz. Teorema Un método (1.17) es 0-estable si y sólo si satisface la condición de la raíz. 33

34 Prueba. Consideramos el problema de valor inicial con f = 0 y tomamos dos soluciones u n y v n de la ecuación en diferencias sin perturbar k α j u n+j = 0. (1.31) Si el método es 0-estable, existe una constante C tal que máx u n v n C máx u n v n. k n N 0 n k 1 Veamos que esto es imposible si no se satisface la condición de la raíz. (i) Supongamos que existe ξ tal que ξ > 1 y ρ(ξ) = 0. Las sucesiones u n = 0 y v n = hξ n son solución de la ecuación en diferencias (1.31). Tenemos que mientras que, máx u n v n = h ξ N = b a k n N N ξ N, máx u n v n = máx 0 n k 1 0 n k 1 h ξ n b a N ξ k 1. Así pues, el método no es 0-estable. (ii) Supongamos que existe ξ tal que ξ = 1, ρ(ξ) = 0 = ρ (ξ). Las sucesiones u n = 0 y v n = hnξ n son solución de la ecuación en diferencias (1.31) (nótese que ξ es raíz doble). Entonces mientras que máx k n N u n v n = hn ξ N = b a N, máx u b a n v n = máx hn ξ n (k 1), 0 n k 1 0 n k 1 N y el método no es 0-estable. Veamos ahora que si el método cumple la condición de la raíz, entonces es 0-estable. Damos la prueba (que se puede omitir en una primera lectura) en el caso escalar. El caso vectorial es análogo. 34

35 La idea es escribir el método como método de un paso. Para ello denotamos Y n = (y n+k 1,..., y n ) T, n = 0,..., N k + 1, F (Y n ) = (φ f (x n, y n,..., y n+k 1 ; 0), 0,..., 0) T, n = 0,..., N k + 1. Con esta notación podemos escribir el método como Y n+1 = AY n + hf (Y n ), n = 0,..., N k, donde A es la matriz compañera del primer polinomio característico, α k 1 α k 2... α 1 α A = Iterando el proceso tenemos que n 1 Y n = A n Y 0 + h A n 1 l F (Y l ). Para las u n y v n de la definición de estabilidad, llamando y restando tendremos que l=0 R n = (δ n γ n, 0,..., 0) T, n = 0,..., N k, n 1 n 1 U n V n = A n (U 0 V 0 ) + h A n 1 l (F (U l ) F (V l )) + h A n 1 l R l. Si las potencias de A están todas ellas acotadas, esto es, si l=0 A n M, n = 0, 1,..., tomando normas y utilizando que φ f satisface la condición de Lipschitz (1.19), tenemos que n 1 U n V n M U 0 V 0 + hlmk U l V l + (b a)m máx δ l γ l, 0 l N k l=0 35 l=0

36 desigualdad que se puede escribir como definiendo ψ n y N de la manera obvia. Sea χ n = N + hlmk n 1 de donde concluimos que n 1 ψ n N + hlmk ψ l, l=0 ψ l. Se tiene que l=0 χ n+1 χ n = hlmkψ n hlmkχ n, ψ n χ n (1 + hlmk) n 1 χ 1 e (n 1)hLMk (N + hlmk U 0 V 0 ), y de aquí la 0-estabilidad. Para que las potencias de A estén todas acotadas es necesario y suficiente que las raíces del polinomio ρ sean de módulo menor que la unidad, y aquellas que sean de módulo 1 sean simples, es decir, que se cumpla el criterio de la raíz. Para ver esto no hay más que observar que los autovalores de A son las raíces de ρ. Ejemplo. El primer polinomio característico de la regla del punto medio (1.14) es ρ(ζ) = ζ 2 1. Sus raíces son ζ 1 = 1 y ζ 2 = 1, luego el método satisface la condición de la raíz. Por consiguiente, el método es 0-estable. Como también es consistente de orden 2, es convergente de orden al menos 2. Por otra parte, si aplicamos el método al problema (1.30), se obtiene la recurrencia cuya solución general es y n+2 y n = h 3 (n + 1) 2, n = 0,..., N 2, y n = c 1 + c 2 ( 1) n + h3 3! (n3 n). 36

37 Si tomamos valores de arranque y 0 = 0 = y 1, entonces Así pues, máx 0 n 1 y(x n) y n = 0 y y n = h3 3! (n3 n). máx y(x n) y n = h2 máx 2 n N 3! x n = bh2 2 n N 3! ; el método no es por tanto convergente de orden 3. Problemas 1. Comprobar que los autovalores de la matriz compañera del primer polinomio característico son precisamente las raíces de dicho polinomio. 2. Comprobar que la condición necesaria y suficiente para que todas las potencias de una matriz tengan norma uniformemente acotada es que todos sus autovalores tengan módulo menor o igual que uno y aquellos que tengan módulo uno sean simples. 3. Determinar si son 0-estables los métodos de la sección 1.3 de más de un paso. 4. Consideramos la familia de métodos y n+3 +(2α 3)y n+2 (2α 3)y n+1 y n = hα ( f(x n+2, y n+2 )+f(x n+1, y n+1 ) ), donde α es un parámetro real. Estudiar para qué valores de α es 0-estable Teorema de equivalencia Hemos visto que 0-estabilidad + consistencia convergencia. Es cierto el recíproco? Teorema 1.13 (Teorema de equivalencia). Un método (1.17) es convergente si y sólo si es 0-estable y consistente. 37

38 Prueba. En primer lugar probamos que convergencia criterio de la raíz. Consideramos el problema cuya solución es y(x) = 0. y (x) = 0, y(0) = 0, (i) Supongamos que existe ξ tal que ξ > 1 y ρ(ξ) = 0. La sucesión y n = hξ n, n = 0, 1,..., es solución de la ecuación en diferencias y tiene condiciones de arranque y n = hξ n, n = 0,..., k 1; por tanto Sin embargo, máx y(x n) y n = h ξ k 0. 0 n k 1 máx y(x n) y n = h ξ N = b a k n N N ξ N cuando h 0 +, y por tanto el método no es convergente. (ii) Supongamos que existe ξ tal que ξ = 1, ρ(ξ) = 0 = ρ (ξ). La sucesión y n = hnξ n, n = 0, 1,..., es solución de la ecuación en diferencias y tiene condiciones de arranque y n = hnξ n, n = 0,..., k 1; por tanto Sin embargo, máx y(x n) y n = h(k 1) ξ k n k 1 máx y(x n) y n = hn ξ N = b a N cuando h 0 +, k n N y el método no es convergente. Veamos ahora que convergencia consistencia. Si un método es convergente, en particular lo es para el problema y (x) = 0, 0 x b, y(0) = 1, cuya solución es y(x) = 1. La aplicación del método numérico a este problema produce la recurrencia k α j y n+j = 0, n = 0,..., N k. (1.32) 38

39 Si tomamos valores de arranque y n = 1, n = 0,..., k 1, entonces máx y(x n) y n = 0. 0 n k 1 Por consiguiente, la convergencia implica que máx 1 y n 0, k n N y por tanto que lím h 0 + y n = 1. Así, pasando al límite en (1.32) se llega a (1.26). Supongamos ahora que no se cumple la condición (1.27), ( k ) φ f (x, y(x),..., y(x); 0) jα j f(x, y(x)) = g(x) 0. Si definimos se tiene que ˆf(x, y) = f(x, y) g(x), k jα j ( k ) φ f (x, y(x),..., y(x); 0) = jα j ˆf(x, y(x)). Combinando esto con (1.26) y la 0-estabilidad, se prueba fácilmente que y n converge a la solución ŷ y de y (x) = ˆf(x, y(x)), a x b, y(a) = η, la ecuación equivocada!. Observación. Las condiciones de consistencia garantizan que estamos resolviendo la ecuación diferencial correcta, que estamos siendo consistentes con ella. Ejemplo. La función de incremento del método y n+1 = y n + h(2f(x n, y n ) + 3f(x n+1, y n+1 )) 39

40 viene dada implícitamente por φ f (x, y; h) = 2f(x, y) + 3f(x + h, y + hφ f (x, y; h)). Así, φ f (x, y(x); 0) = 5f(x, y(x)), y el método no es convergente, ya que no es consistente. Sin embargo, es 0-estable y cumple (1.26). Por lo tanto, aproximará a soluciones de la ecuación y (x) = 5f(x, y(x)). Problemas 1. Estudiar si son convergentes los métodos de la sección Consideramos la familia de métodos y n+3 +(2α 3)y n+2 (2α 3)y n+1 y n = hα ( f(x n+2, y n+2 )+f(x n+1, y n+1 ) ), donde α es un parámetro real. Estudiar para que valores de α es convergente. 3. Repetir el problema anterior para la familia de métodos de dos pasos y n+2 (α + 1)y n+1 + αy n = (3 7α)hf(x n+2, y n+2 ) Métodos lineales multipaso El método de Euler, las reglas del trapecio, del punto medio y de Simpson, los métodos de Adams-Bashforth y Adams-Moulton de dos pasos y la fórmula BDF de dos pasos obtienen las aproximaciones y n a la solución del problema de valor inicial como soluciones de recurrencias de la forma k k α j y n+j = h β j f(x n+j, y n+j ), n = 0,..., N k. (1.33) Los métodos que se pueden escribir de esta manera se conocen como métodos lineales de k-pasos, porque y n+k es una combinación lineal de y n+j y f(x n+j, y n+j ), j = 1,..., k. 40

41 Notación. Para abreviar se suele escribir f n = f(x n, y n ). La función de incremento del método (1.33) viene dada por φ f (x n, y n,..., y n+k 1 ; h) = k 1 β j f(x n + jh, y n+j ) +β k f(x n + kh, k 1 α j y n+j + hφ f (x n, y n,..., y n+k 1 ; h)). No es difícil comprobar que φ f satisface la condición de Lipschitz (1.19) si f satisface una condición de Lipschitz con respecto a su segunda variable. Si β k = 0, el método es explícito. En este caso se puede despejar explícitamente cada y n+k en términos de los k valores anteriores y n,..., y n+k 1. Si se han almacenado los valores f n,..., f n+k 2, una única evaluación de función, f n+k 1, producirá y n+k. Si β k 0, el método es implícito. Para obtener y n+k en cada paso tendremos que resolver la ecuación no lineal y n+k = hβ k f(x n+k, y n+k ) + g, (1.34) donde g es una función conocida de los valores ya calculados, k 1 g = (hβ j f n+j α j y n+j ). Si el lado derecho de la igualdad (1.34) tiene una constante de Lipschitz M con respecto a y n+k tal que M < 1, entonces este sistema de ecuaciones tiene una única solución y n+k, que se puede aproximar tanto como se desee por medio de la iteración y [ν+1] n+k = hβ kf(x n+k, y [ν] n+k ) + g, y[0] n+k arbitrario. (1.35) Por el Teorema de la Aplicación Contractiva, se cumple que lím ν y[ν] n+k = y n+k. 41

42 Nótese que, siempre que f sea Lipschitz con respecto a su segunda variable, podemos forzar que se cumpla la condición M < 1 tomando un valor de h suficientemente pequeño. Si éste fuera demasiado pequeño se debería optar por otro método iterativo, como el de Newton. Ya vimos que los coeficientes α j de un método general (1.17) se pueden especificar por medio de ρ, el primer polinomio característico del método. En el caso de los métodos lineales multipaso se define un segundo polinomio característico, σ(ζ) = k β j ζ j, con el fin de caracterizar los coeficientes β j. Qué condiciones deben satisfacer los coeficientes de un método lineal multipaso para que sea consistente? Si el método cumple la condición (1.26), entonces φ f (x, y(x),..., y(x); 0) = k 1 ( ) β j f(x, y) + β k f x, k 1 α j y(x) = k β j f(x, y). Así pues, el método será consistente si y sólo si k α j = 0 y k β j = k jα j. En términos del primer y segundo polinomio característico estas condiciones se escriben como ρ(1) = 0, ρ (1) = σ(1). Qué condiciones se deben cumplir para que el método sea consistente de 42

43 orden p? En este caso el residuo viene dado por R n = k (α j y(x n+j ) hβ j f(x n+j, y(x n+j )) = k (α j y(x n+j ) hβ j y (x n+j )), n = 0,..., N k. Si tomamos desarrollos de Taylor para y(x n+j ) = y(x n + jh) e y (x n+j ) = y (x n + jh) alrededor del punto x = x n, y(x n+j ) = y(x n ) + y (x n )jh + + y(p+1) (x n )(jh) p+1 + O(h p+2 ), (p + 1)! y (x n+j ) = y (x n ) + y (x n )jh + + y(p+1) (x n )(jh) p + O(h p+1 ), p! obtenemos que donde R n = C 0 y(x n ) + C 1 y (x n )h + + C p+1 y (p+1) (x n )h p+1 + O(h p+2 ), C 0 = C 1 = k α j, k α j j k β j,. ( k C q = 1 α j j q q q! ) k β j j q 1, q > 1. Así pues, si C q = 0, q = 0,..., p, el método será consistente de orden al menos p. Por otra parte, si C p+1 0, el método no puede tener orden de consistencia p + 1. En efecto, la solución del problema y (x) = xp, 0 x b, y(0) = 0, p! verifica y (p+1) (x) = 1, y por consiguiente R n = C p+1 h p+1 + O(h p+2 ) O(h p+2 ). Si un método lineal multipaso tiene orden de consistencia p, entonces el valor C p+1 0 recibe el nombre de constante de error. 43

44 Ejemplo. El método y n+2 + y n+1 2y n = h 4 (f n+2 + 8f n+1 + 3f n ) es un método lineal de dos pasos con α 0 = 2, α 1 = 1, α 2 = 1, β 0 = 3/4, β 1 = 8/4, β 2 = 1/4. Un sencillo cálculo muestra que C 0 = C 1 = C 2 = C 3 = 0 y que C 4 0. Así, el método es consistente de orden 3, y la constante de error es C 4 = 1/4!. Observación. Las condiciones de consistencia del método lineal multipaso (1.33) coinciden con las condiciones de consistencia de orden 1. No es necesario efectuar el desarrollo de Taylor en x = x n. Se puede (y se debe) efectuar en otro punto si hay posibilidad de aprovechar simetrías. Ejemplo. Consideramos la regla de Simpson, y n+2 y n = h 3 (f n + 4f n+1 + f n+2 ). Si desarrollamos el residuo alrededor del punto medio, x = x n+1, queda un desarrollo en potencias impares de h, R n = y(x n+2 ) y(x n ) h 3 (y (x n ) + 4y (x n+1 ) + y (x n+2 )) = = (2y (x n+1 )h y (x n+1 )h ! y(v) (x n+1 )h 5 + ) h 3 (6y (x n+1 ) + y (x n+1 )h ! y(v) (x n+1 )h 4 + ). Concluimos que R n = O(h 5 ), y el método es por tanto consistente de orden 4. Ejemplo. Consideramos la regla del trapecio y n+1 y n = h 2 (f n+1 + f n ). Si desarrollamos alrededor del punto medio x = x n+ 1 2 queda un desarrollo en potencias impares de h, := x n + h, de nuevo 2 R n = y(x n+1 ) y(x n ) h 2 (y (x n ) + y (x n+1 )) = = (y (x n+ 1 )h h 2 (2y (x n y (x n+ 1 2 ) y (x n )h 3 + ) )h 2 + ).

45 Concluimos que R n = O(h 3 ), y el método es por tanto consistente de orden 2. Lo que tienen en común los dos ejemplos anteriores es que ambos métodos son simétricos, en el sentido de que α j = α k j, β j = β k j. Es fácil comprobar, desarrollando alrededor del punto medio, que los métodos simétricos tienen orden par. Así pues, si un método es simétrico sólo será necesario considerar las condiciones de orden impar, pues las de orden par se cumplen necesariamente. Cuál es el mejor orden que podemos conseguir para un método, para un número de pasos k dado? Puesto que un método lineal de k pasos viene determinado por 2k + 1 coeficientes, y las condiciones de orden de consistencia son relaciones lineales de estos coeficientes, existen métodos lineales de k pasos con orden de consistencia p = 2k; reciben el nombre de maximales. Sin embargo no sirven para nada, puesto que no son convergentes. Teorema 1.14 (Primera barrera de Dahlquist (1956)). El orden de convergencia p de un método lineal de k pasos 0-estable satisface: p k + 2 si k es par; p k + 1 si k es impar; p k si β k 0 (en particular si es explícito). Los métodos con p = k + 2, llamados optimales, tampoco funcionan bien en la práctica. Así pues, el mejor orden que se puede alcanzar con un método de k pasos que sirva para algo es p = k + 1. Problemas 1. Comprobar que la función de incremento del método lineal multipaso (1.33) satisface la condición de Lipschitz (1.19) si f satisface una condición de Lipschitz con respecto a su segunda variable. 45

46 2. Encontrar el orden de consistencia y la constante de error de los métodos (a) y n+2 + y n+1 2y n = h 4 (f n+2 + 8f n+1 + 3f n ), (b) y n+2 y n = 2 3 h(f n+2 + f n+1 + f n ), (c) y n (y n+3 y n+1 ) y n = 6h 19 (f n+4 + 4f n+3 + 4f n+1 + f n ). Son convergentes? (El método (c) se conoce como método de Quade.) 3. Repetir el problema anterior para el método lineal multipaso cuyos polinomios característicos son ρ(ζ) = ζ 4 1 y σ(ζ) = (ζ4 + 1) (ζ3 + ζ) ζ2. 4. De entre los métodos lineales multipaso de la forma y n+3 + α 2 y n+2 + α 1 y n+1 + α 0 y n = h(β 2 f n+2 + β 1 f n+1 + β 0 f n ), determinar los simétricos convergentes de mayor orden. 5. Determinar, usando la fórmula para el error de interpolación, el orden de consistencia de los métodos de Adams-Bashforth, Adams-Moulton y BDF de 2 pasos. Comprobar que coincide con el orden de convergencia. 6. Demostrar que si un método lineal de 3 pasos explícito es de orden 4, entonces α 0 +α 2 = 8 y α 1 = 9. Deducir de esto que el método no puede ser convergente. 7. Sea ρ un polinomio mónico de grado k verificando ρ(1) = 0. Demostrar que: (a) Existe un único polinomio σ de grado menor o igual que k tal que el MLM dado por ρ y σ tiene orden de consistencia mayor o igual que k + 1. (b) Existe un único polinomio σ de grado menor estricto que k tal que el MLM dado por ρ y σ tiene orden de consistencia mayor o igual que k. 46

47 8. Probar que un MLM con polinomios característicos ρ y σ es de orden p 1 si y sólo si existe una constante c 0 tal que cuando ζ 1 ρ(ζ) σ(ζ) log ζ = c(ζ 1) p+1 + O( ζ 1 p+2 ). 9. Sea un MLM tal que ρ(ζ) = (ζ 1)(ζ 2 + 1). Determinar σ(ζ) para que alcance el orden máximo posible. Calcular su constante de error Métodos de Runge-Kutta El método de Euler, la regla del trapecio, los métodos de Euler mejorado y modificado y el método de colocación de parametro c 1 = 1/2 se pueden escribir en la forma k i = f(x n + c i h, y n + h s a ij k j ), i = 1, 2,..., s, y n+1 = y n + h s b i k i. i=1 j=1 (1.36) Cualquier método que se pueda escribir de esta manera es un método de Runge- Kutta de s etapas. Cada una de las evaluaciones de función k i es una etapa. El método (1.36) se representa por medio de su tablero de Butcher: c 1 a 11 a a 1s c 2 a 21 a a 2s c s a s1 a s2... a ss b 1 b 2... b s. Si escribimos c = (c 1, c 2,..., c s ) T, b = (b 1, b 2,..., b s ) T, A = (a ij ), el tablero se puede resumir como 47

48 c A b T. Si a ij = 0 para j i, i = 1, 2,..., s, es decir, si la matriz A es triangular inferior estricta, entonces cada uno de los k i viene dado explícitamente en términos de los anteriormente calculados, k j, j = 1, 2,..., i 1. En este caso el método es explícito. Al escribir su tablero se suelen omitir los ceros sobre y por encima de la diagonal principal. Ejemplos. El método de Euler modificado es explícito. Su tablero es 0 1/2 1/ El método de Euler mejorado también es explícito. Su tablero es /2 1/2. Si el método no es explícito, es implícito. En general es necesario entonces resolver en cada paso un sistema no lineal para calcular los k i. Este sistema tiene dimensión ds. Ejemplo. El método RK-Radau IA de dos etapas, de tablero 0 1/4 1/4 2/3 1/4 5/12 1/4 3/4, es un método de Runge-Kutta implícito. 48

49 Hay una situación intermedia; si a ij = 0 para j > i, i = 1, 2,..., s, entonces cada k i está definido individualmente por i k i = f(x n + c i h, y n + h a ij k j ), i = 1, 2,..., s. j=1 En vez de resolver en cada paso un sistema no lineal de dimensión ds, tendremos que resolver s sistemas no acoplados de dimensión d. Estos métodos se llaman semi-implícitos. Al escribir sus tableros se omiten los ceros por encima de la diagonal principal. Ejemplo. El método RK-Lobatto IIIA de dos etapas, de tablero /2 1/2 1/2 1/2, es un método de Runge-Kutta semi-implícito. Para que un método de Runge-Kutta implícito esté bien determinado el sistema que define las etapas debe tener solución única. Se puede probar que esto es cierto si h es pequeño. Ejemplo. El método de colocación de parametro c 1 = 1/2 es un método de Runge-Kutta implícito de tablero 1/2 1/2 1. Si definimos Y 1 = y n + hk 2 1, se puede escribir de forma equivalente como Y 1 = y n + h 2 f(x n + h 2, Y 1), y n+1 = y n + hf(x n + h 2, Y 1). El vector Y 1, si existe, es un punto fijo de la aplicación G(Y ) = y n + h 2 f(x n + h 2, Y ). 49

50 Esta aplicación verifica G(Y ) G(Ŷ ) = h 2 f(x n + h 2, Y ) f(x n + h Lh, Ŷ ) Y Ŷ. 2 2 Así pues, es contractiva, y por tanto tiene un único punto fijo, si h < 2/L. Los métodos de Runge-Kutta son métodos de un paso con función de incremento φ f (x n, y n ; h) = s b i k i (x n, y n ; h). (1.37) i=1 Puesto que las etapas k i son evaluaciones de la función f, no es difícil convencerse de que φ f satisface una condición de Lipschitz con respecto a su segunda variable si f también lo hace. Ejemplo. Para el método de Euler modificado, k 1 (x n, y n ; h) k 1 (x n, ŷ n ; h) L y n ŷ n, k 2 (x n, y n ; h) k 2 (x n, ŷ n ; h) L( y n ŷ n + h 2 k 1(x n, y n ; h) k 1 (x n, ŷ n ; h) ) L(1 + Lh 2 ) y n ŷ n, de donde se obtiene inmediatamente la condición de Lipschitz deseada observando que en este caso φ f (x n, y n ; h) = k 2 (x n, y n ; h). Ejemplo. En el caso del método RK-Radau I de dos etapas, se tiene que 0 0 2/3 1/3 1/3 1/4 3/4, k 1 (x n, y n ; h) k 1 (x n, ŷ n ; h) L y n ŷ n, k 2 (x n, y n ; h) k 2 (x n, ŷ n ; h) L( y n ŷ n + h 3 k 1(x n, y n ; h) k 1 (x n, ŷ n ; h) + h 3 k 2(x n, y n ; h) k 2 (x n, ŷ n ; h) ), L(1 + Lh 3 ) y n ŷ n + h 3 k 2(x n, y n ; h) k 2 (x n, ŷ n ; h), 50

51 de forma que, si h < 3/L, k 2 (x n, y n ; h) k 2 (x n, ŷ n ; h) Lh L(1 + ) 3 y 1 Lh n ŷ n. 3 De aquí se concluye la condición de Lipschitz deseada utilizando que en este caso φ f (x n, y n ; h) = 1k 4 1(x n, y n ; h) + 3k 4 2(x n, y n ; h). Si hacemos h = 0 en (1.37), obtenemos que k i (x n, y n ; 0) = f(x n, y n ) para todo i = 1, 2,..., s. Por consiguiente, ( s ) φ f (x, y; 0) = b i f(x, y). Así, un método de Runge-Kutta es consistente si y sólo si s b i = 1. (1.38) i=1 Qué condiciones sobre los coeficientes garantizan que el método es consistente de orden p? Tenemos que desarrollar el residuo R n = y(x n+1 ) (y(x n ) + hφ(x n, y(x n ); h)) alrededor de x n en potencias de h. Nótese que el residuo coincide con la diferencia entre la solución teórica y la numérica, R n = y(x n+1 ) y n+1, i=1 suponiendo que en el paso n no se cometía ningún error, y n hipótesis se conoce como hipótesis de localización). = y(x n ) (esta Así pues, lo que hay que hacer es obtener desarrollos en potencias de h para las soluciones teórica y numérica (esta última bajo la hipótesis de localización). Si estos desarrollos coinciden hasta orden p, existe una constante C 51

52 independiente de n tal que R n h p+1, y se tendrá consistencia de orden al menos p. Como ejemplo obtendremos las condiciones de consistencia de orden 1 y de orden 2. Las condiciones para tener un orden de consistencia más alto se obtienen de manera similar. En primer lugar desarrollamos la solución teórica. Se tiene que y(x n+1 ) = y(x n ) + hy (x n ) + h2 2 y (x n ) + h3 3! y (ξ n ), donde ξ n [x n, x n+1 ]. Usando la EDO para expresar y e y en términos de f, y(x n+1 ) = y(x n ) + hf(x n, y(x n )) + h2 2 d + h2 2 J=1 f x (x n, y(x n )) f y J (x n, y(x n ))f J (x n, y(x n )) + h3 3! y (ξ n ). Por otra parte, k i (x n, y(x n ); 0) = f(x n, y(x n )) y dk i (x ( f dh n, y(x n ); h) = c i xn + c x i h, y(x n ) + h s a ij k j (x n, y(x n ); h) ) j=1 + d ( f y J xn + c i h, y(x n ) + h s a ij k j (x n, y(x n ); h) )( s a ij kj J (x n, y(x n ); h) J=1 +h d j=1 a ij dk J j dh (x n, y(x n ); h) ), j=1 expresión que evaluada en h = 0 produce dk i dh (x f n, y(x n ); 0) = c i x (x n, y(x n )) + s j=1 a ij d J=1 j=1 f y J (x n, y(x n ))f J (x n, y(x n )). Así, tenemos el siguiente desarrollo para la solución numérica (bajo la hipótesis de localización), y n+1 = y(x n ) + h s b i k i (x n, y(x n ); h) i=1 = y(x n ) + h s b i f(x n, y(x n )) + h 2 + h 2 s i,j=1 b i a ij i=1 d J=1 s i=1 b i c i f x (x n, y(x n )) f (x y J n, y(x n ))f J (x n, y(x n )) + h3 d 2 k i (x 2 dh 2 n, y(x n ); η), 52

53 donde η [0, h]. Si f C 2, es fácil (aunque tedioso) probar que existe una constante C independiente de n tal que y (ξ n ), d2 k i dh 2 (x n, y(x n ); η) C. Por consiguiente, comparando ambos desarrollos concluimos que la condición s b i = 1 (1.39) i=1 es suficiente para tener orden de consistencia al menos 1 y que si además s b i c i = 1 2, i=1 s b i a ij = 1 2, (1.40) i=1 entonces el orden de consistencia es al menos 2. Por otra parte, si consideramos el problema y (x) = 1, x [0, b], y(0) = 0, cuya solución es y(x) = x, se tiene que R n = h(1 s b i ). Por consiguiente, i=1 s si b i 1 el método no tiene orden de consistencia 1. De manera análoga i=1 se demuestra que las condiciones (1.40) son necesarias para tener orden de consistencia 2. Observación. La condición de consistencia coincide con la condición de consistencia de orden 1. El ejemplo anterior debería bastar para convencerse de que calcular condiciones de orden para un método de Runge-Kutta general es una tarea ardua. Así que intentamos simplificar un poco las cosas. Cualquier problema (1.2) se puede escribir en forma autónoma a costa de aumentar la dimensión del espacio. En efecto, si definimos ( ) ( ) ( ) x a 1 ȳ(x) =, η =, f(ȳ(x)) =, y(x) η f(x, y(x)) el problema (1.2) es equivalente al problema autónomo ȳ (x) = f(ȳ(x)), ȳ(a) = η. 53

54 Podríamos entonces pensar que basta con estudiar las condiciones de orden para problemas autónomos, lo que es un poco más fácil. Hay una dificultad: en general un método de Runge-Kutta no produce la misma solución para un problema que para su equivalente autónomo. Sin embargo, se puede comprobar fácilmente que ambas soluciones numéricas coinciden si el método es consistente y satisface la condición de suma por filas c i = s a ij, i = 1, 2..., s. (1.41) j=1 Por consiguiente, si un método cumple esta condición, podemos calcular el orden de consistencia del método sin pérdida de generalidad suponiendo que el problema es autónomo. En adelante, salvo que se mencione expresamente lo contrario, nos restringiremos a métodos que cumplan la condición de suma por filas. Observación. Si se cumple la condición de suma por filas, las dos condiciones (1.40) de orden 2 coinciden. Cuál es el mejor orden que podemos conseguir para un método de Runge- Kutta con un número de etapas s dado? Las condiciones de orden son relaciones no lineales sobre los coeficientes del método, por lo que la respuesta no es en absoluto trivial. No obstante, tenemos una cota superior para el orden que se puede conseguir si el método es explícito. Teorema Un método de Runge-Kutta explícito de s etapas no puede tener orden mayor que s. Prueba. Aplicamos el método al problema escalar y = y en [0, b], y(0) = 1, cuya solución es y(x) = e x. Así pues, las derivadas de la solución teórica vienen dadas por d p (y(x n + h)) dh p = e xn+h h=0 = e xn = y(x n ). h=0 En cuanto a la solución numérica, aplicando la regla de Leibniz para la derivada 54

55 de un producto obtenemos que Por otra parte, k (p 1) y (p) n+1 = p h=0 s j 1 =1 b j1 k (p 1) j 1 h=0. h=0 s j 1 = (p 1) a j1 j 2 k (p 2) h=0 j 2 j 2 =1 s = (p 1)(p 2) a j1 j 2 a j2 j 3 k (p 3) j 3 = = (p 1)! s j 2,j 3 =1 j 2,j 3,...,j p=1 h=0 a j1 j 2 a j2 j 3... a jp 1 j p k (0) j p h=0. Por consiguiente, asumiendo la hipótesis de localización, y (p) n+1 = p! h=0 Concluimos que la condición p! s j 1,...,j p=1 s j 1,...,j p=1 es necesaria para que el método sea de orden p. b j1 a j1 j 2 a j2 j 3... a jp 1 j p y(x n ). b j1 a j1 j 2 a j2 j 3... a jp 1 j p = 1 (1.42) Si el método es explícito, a ij = 0 para j i. Así, a menos que exista una sucesión j 1, j 2,..., j p de enteros 1, 2,..., s tal que j 1 > j 2 > j 3 > > j p, s se tendrá que b j1 a j1 j 2 a j2 j 3... a jp 1 j p = 0, y la condición (1.42) no se j 1,...,j p=1 podrá cumplir. Dicha sucesión sólo puede existir si p s. Se puede conseguir orden p = s? Para s = 1, 2, 3, 4 se puede ver que sí, y es relativamente fácil encontrar familias de soluciones a las correspondientes condiciones de orden. Ejemplo. Sea s = 1. La condición de orden 1 es en este caso b 1 = 1. El único método explícito de una etapa y orden 1 es por tanto el método de Euler. 55

56 Ejemplo. Sea s = 2. Las condiciones de orden 1 y 2 son en este caso b 1 +b 2 = 1 y b 1 c 1 +b 2 c 2 = 1 respectivamente (estamos suponiendo que se cumple la condición de suma por filas). Si el método es explícito entonces c 1 = 0, y la condición de orden 2 queda que b 2 c 2 = 1/2. Hay pues una familia uniparamétrica de métodos explícitos de 2 etapas y orden 2, c 2 = λ, b 1 = 1 1 2λ, b 2 = 1, λ R, λ 0. 2λ Qué pasa con s = 5? Para que un método sea de orden 5 se tienen que satisfacer 17 condiciones de orden. Si s = 5 tenemos sólo 15 parámetros libres. Sin embargo, el sistema es no lineal, así que podría haber solución. Pero no es así. Teorema Para p 5 no existe ningún método de Runge-Kutta explícito de orden p con s = p etapas. Estas limitaciones sobre el orden obtenible que hemos mencionado se conocen como barreras de Butcher. Hay más barreras. Por ejemplo, se tiene el siguiente teorema. Teorema (i) Para p 7 no existe ningún método de Runge-Kutta explícito de orden p con s = p + 1 etapas. (ii) Para p 8 no hay ningún método de Runge-Kutta explícito con s = p + 2 etapas. Problemas 1. Demostrar que las condiciones (1.40) son necesarias para tener orden de consistencia Comprobar que las soluciones numéricas por un método de Runge-Kutta del problema de valor inicial (1.2) y de su equivalente autónomo coinciden si el método es consistente y satisface la condición de suma por filas (1.41). 56

57 3. Demostrar que para que un método de Runge-Kutta que cumple la condición de suma por filas tenga orden de consistencia 3 es necesario y suficiente que, además de (1.39) y (1.40), cumpla s b j c 2 j = 1 s 3, bt Ac = b j a jk c k = 1 6. j=1 j,k=1 4. Construir todos los métodos consistentes de orden al menos 2 de la forma 0 c 2 c 2 c 3 0 c Estudiar si alguno tiene orden de consistencia 3. Tiene alguno orden de consistencia 3 para el problema y = y en [0, b], y(0) = 1? 5. Consideramos el siguiente método creado por Heun: y n+1 = y n + h [ f(xn, y n )+3f ( x n + 2h 4 3, y n+ 2h 3 f(x n+ h 3, y n+ h 3 f(x n, y n )) )]. (i) Comprobar que la función de incremento satisface una condición de Lipschitz de la forma (1.19). (ii) Escribir su tablero. (iii) Determinar el orden de convergencia. 6. Dado un método de Runge-Kutta explícito de s etapas, definimos α = s máx a ij, β = b j. Sea L una constante de Lipschitz para f con 1 i,j s i=1 respecto a su segunda variable. (i) Demostrar que k i (x n, y n ; h) k i (x n, ŷ n ; h) Lν i y n ŷ n, donde ν i satisface la recurrencia i 1 ν 1 = 1, ν i = 1 + hαl ν j, i = 1,..., s. j=1 57

58 (ii) Demostrar que la solución de dicha recurrencia es ν i = (1+hαL) i 1. (iii) Concluir que la función de incremento del método φ f (x n, y n ; h) es Lipschitz respecto a su segunda variable con constante de Lipschitz βl(1 + h 0 αl) s 1 para h [0, h 0 ]. 7. Consideramos los métodos de Runge-Kutta /4 1/4 a) 2/3 1/3 1/3 b) 2/3 1/4 5/12 1/4 3/4, 1/4 3/4. Para cada uno de ellos: (i) Comprobar que la correspondiente función de incremento satisface una condición de Lipschitz con respecto a su segunda variable. (ii) Comprobar que las etapas k 1 y k 2 están determinadas de manera única. (iii) Determinar el orden de consistencia. (iv) Dar un problema para el cual R n consistencia. = Ch p, siendo p el orden de 8. Dado un método de Runge-Kutta (1.36), comprobar que admite la formulación equivalente s Y i = y n + h a ij f(x n + c j h, Y j ), i = 1,..., s, (1.43) k=1 s y n+1 = y n + h b i f(x n + c i h, Y i ), n = 1,..., N 1. (1.44) i=1 Demostrar, utilizando el Teorema de la Aplicación Contractiva, que para todo h pequeño el sistema de ecuaciones (1.43) tiene una única solución. 9. Consideramos el método de Runge-Kutta de tablero 58

59 /3 1/3 1/3 1/4 3/4. Este método no cumple la condición de suma por filas. Determinar su orden de consistencia. Tiene un orden de consistencia mayor cuando nos restringimos a problemas autónomos? 10. Probar que la regla implícita del punto medio y n+1 = y n + hf ( x n + h 2, y n + y n+1 ) 2 es un método de Runge-Kutta de una etapa. Escribir su tablero y calcular su orden. 11. Restringiéndonos a ecuaciones escalares autónomas, demostrar que el método de Runge-Kutta explícito de tablero 0 1/2 1/2 1/2 0 1/ /6 1/3 1/3 1/6 tiene orden Considérese el método cuyo tablero es /2 1/2 3/6 1/6 2/6 (a) Probar que es de orden 2 y no es de orden 3 en general. 59

60 (b) Probar que sí es de orden 3 para todas las ecuaciones lineales de la forma y = My donde M es una matriz de constantes. 13. Es posible encontrar un método que tenga orden tres (en general) para problemas escalares y = f(y) y que tenga orden menor (en general) cuando sean vectoriales? 14. Sea q(x) = ν (x c i ), q l (x) = q(x)/(x c l ), l = 1,..., ν. Demostrar i=1 que el método de colocación de parámetros c 1,..., c ν es un método de Runge-Kutta implícito de tablero c A b T, con a ij = ci 0 q j (x) 1 q j (c j ) dx, b q i (x) i = dx, i, j = 1,..., ν. 0 q i (c i ) Diagramas de eficiencia En las páginas anteriores hemos estudiado diversos métodos. Cuál de ellos es mejor? Para un coste computacional dado, cuál da un resultado más preciso? Cuál requiere menos trabajo computacional para obtener una precisión dada? Para intentar responder a estas preguntas elaboraremos los llamados diagramas de eficiencia. Para ello tomamos un problema test, cuya solución conozcamos, que sea representativo del tipo de problemas que queremos estudiar numéricamente. Al aplicarle el método numérico con mallas cada vez más finas vamos obteniendo errores cada vez menores, a costa de trabajar cada vez más. El diagrama de eficiencia se obtiene representando en escalas logarítmicas la precisión conseguida frente al coste computacional. La precisión se puede medir, por ejemplo, con la norma infinito del error, y el coste computacional por medio del número de evaluaciones de función (que es lo que suele suponer el mayor coste) o del tiempo de CPU. 60

61 10 0 Euler Trapecio error evaluaciones de función Figura 1.1: Diagrama de eficiencia para el problema (1.45) (1.46). con Como primer ejemplo consideramos el problema lineal y (x) = Ay(x) + B(x) para 0 x 10 y(0) = (2, 3) T, (1.45) A = cuya solución es ( ), B(x) = ( 2 sen x 2(cos x sen x) ), (1.46) ( ) ( ) 1 sen x y = 2e x +. (1.47) 1 cos x En la figura 1.1 representamos el diagrama de eficiencia para el método de Euler y la regla del trapecio aplicados a este problema. Medimos el error con la norma infinito, es decir, error máx 1 n N y(x n) y n ; para medir el coste computacional utilizamos el número de evaluaciones de función. Cuanta mayor precisión, más abajo estaremos en el diagrama, y cuanto más trabajo realicemos, más a la derecha. 61

62 El diagrama muestra que, para un método dado, a mayor precisión mayor trabajo. También muestra que no hay un método que sea el mejor. En efecto, para precisiones poco exigentes el método de Euler es superior, pero las tornas se cambian a medida que pedimos que el error sea más pequeño. Los puntos parecen disponerse a lo largo de rectas. Veamos una explicación cuando el orden del método es p. En este caso error = máx 1 n N y(x n) y n Ch p = C(b a)p N p. Llamemos fc al número de evaluaciones de función. Usando que fc KN obtenemos que error c (fc) p, y tomando logaritmos log 10 (error) = p log 10 (fc) + c. La pendiente de la recta es p. Esto produce una forma de obtener empíricamente el orden de convergencia. En la gráfica comprobamos que el método de Euler tiene orden 1 y que la regla del trapecio tiene orden 2. Esto implica en particular que la regla del trapecio acaba ganando al método de Euler para un número de evaluaciones de función suficientemente grande; pero hay que tener en cuenta que quizás no queramos trabajar tanto. Nuestro segundo ejemplo es de nuevo el problema lineal (1.45), pero ahora A = ( ) (, B(x) = 2 sen x 999(cos x sen x) ). (1.48) La solución viene dada, también esta vez, por (1.47). El diagrama de eficiencia se representa en la figura 1.2. Esta vez las cosas son muy distintas. A menos que el número de evaluaciones de función sea bastante alto, el método de Euler funciona fatal. De hecho el error llega a superar las capacidades de representación del Matlab. Qué demonios está pasando? A la solución no le pasa nada especial. De hecho, nuestro primer ejemplo tenía la misma solución y Euler funcionaba bastante bien. 62

63 Euler Trapecio error evaluaciones de función Figura 1.2: Diagrama de eficiencia para el problema (1.45) (1.48). En cualquier caso, hemos aprendido una nueva lección: la eficacia de los métodos puede depender del problema. Veamos un tercer y último ejemplo, el problema lineal ( 1 y (x) = Ay(x) para 0 x 2, y(0) = ) (1.49) donde A = ( ). (1.50) El diagrama de eficiencia para este problema se representa en la figura 1.3. Como en el segundo ejemplo, a menos que el número de evaluaciones de función sea relativamente alto, el método de Euler funciona muy mal. Por el contrario, la regla del trapecio funciona bien incluso para un número de evaluaciones de función bajo. Qué es lo que tienen de especial el segundo y el tercer ejemplo? Lo veremos 63

64 Euler Trapecio error evaluaciones de función Figura 1.3: Diagrama de eficiencia para el problema (1.49) (1.50). en la siguiente sección, estudiando con detalle el problema (1.49) (1.50). Problemas 1. Consideramos un método que, para un cierto problema, tiene orden p. Lo aplicamos a dicho problema con dos longitudes de paso distintas, h y h. Probar que p log(error(h)) log(error(h )) log h log h. Como aplicación, determinar el orden de un método que aplicado con longitudes de paso h = y h = produce errores y respectivamente. 2. Estimar, a partir del diagrama de eficiencia (1.1), qué longitud de paso hay que tomar para conseguir que el máximo error cometido al aplicar el método de Euler al problema (1.45) (1.46) sea 0,002. Comprobar que 64

65 la cota (1.24) sobreestima el error para esta longitud de paso en muchos órdenes de magnitud Qué es un problema stiff? Lo primero que se nos ocurre es que a lo mejor el PVI (1.49) (1.50) no es estable. Un cálculo sencillo muestra que f(x, y) f(x, ŷ) = A(y ŷ) A y ŷ, y el problema satisface una condición de Lipschitz con L = A. Dado que A = máx i=1,...,d d a ij, obtenemos L = 101 como constante de Lipschitz para el problema. Este número es, en efecto, bastante grande. Sin embargo, como veremos, el problema es muy estable. Calculemos su solución. j=1 Pasando a la forma canónica de Jordan ( ) 1 1 A = V DV 1, donde V = y D = ( ). La matriz de paso V tiene por columnas los vectores v 1 y v 2 de la nueva base, que son autovectores de la matriz A. De aquí se obtiene que la solución exacta del problema (considerado ahora para x 0) viene dada por y(x) = e xa y 0 = V e xd V 1 y 0, donde e xd = Si V 1 y 0 = (α, β) T, concluimos que ( e 100x 0 y(x) = αv 1 e 100x + βv 2 e x/10, x e x 10 ).

66 La función e 100x decae extraordinariamente más aprisa que e x/10. Por tanto, incluso para x > 0 pequeño, la contribución de v 1 es despreciable a todos los efectos, y se tiene que y(x) βv 2 e x/10. Supongamos que tenemos dos soluciones de la ecuación, y e ŷ, tales que V 1 y 0 = (α, β) T, V 1 ŷ 0 = (ˆα, ˆβ) T. Entonces y(x) ŷ(x) = (α ˆα)v 1 e 100x + (β ˆβ)v 2 e x/10 0 cuando x. La diferencia entre dos soluciones cualesquiera decae a cero exponencialmente, así que el problema es muy estable. La estabilidad del PVI no es por tanto la causa de nuestros males. que Si resolvemos el problema por el método de Euler con paso fijo h se tiene y por inducción que y n+1 = (I + ha)y n, y n = (I + ha) n y 0, n = 0, 1, 2,.... Pasando a la forma canónica de Jordan, y, dado que se sigue que y n = V (I + hd) n V 1 y 0, n = 0, 1,..., (I + hd) n = ( (1 100h) n 0 0 (1 h 10 )n y n = αv 1 (1 100h) n + βv 2 ( 1 h 10) n, n = 0, 1,..., ), donde, como antes, V 1 y 0 = (α, β) T. Si h > 1/50, entonces 1 100h > 1, y para n grande los iterados de Euler crecen en magnitud geométricamente, en contraste con el comportamiento asintótico de la verdadera solución. 66

67 Figura 1.4: Logaritmo de la norma euclídea y n de los pasos de Euler, cuando se aplica el método al problema (1.49) (1.50) con h = 1/10 y condición inicial igual al autovector estable. Supongamos que escogemos una condición inicial idéntica a un autovector correspondiente al autovalor 1/10, por ejemplo ( ) 1 y 0 =, (1.51) lo que corresponde a tomar α = 0, β = 1. En aritmética y n = y 0 (1 h 10 )n. La solución numérica converge al vector cero cuando n para valores razonables de h, concretamente para h < 20. Así que podríamos esperar que todo fuera bien con el método de Euler. No es así. Los ordenadores reales producen errores de redondeo y antes o después producirán una contribución distinta de cero a un autovector correspondiente al autovalor 100. En cuanto esto ocurre la componente inestable crece geométricamente como (1 100h) n, y rápidamente, a menos que h < 1/50, eclipsa a la verdadera solución En la figura 1.4 se representa log y n frente a n, para n = 0,..., 25 con la condición inicial (1.51) y paso h = 1/10. El cálculo se ha realizado con 67

68 Matlab. La norma de los diecinueve primeros pasos decrece con la velocidad correcta, dictada por (1 h 10 )n = (99/100) n. Sin embargo, a partir de ese momento las cosas se estropean, y después de un par de pasos la norma crece geométricamente, como 1 100h n = 9 n. Se puede comprobar en la figura que, en efecto, la pendiente de la curva es inicialmente log(99/100) 0,0101, pero pasa a ser log 9 2,1972 cuando se llega al régimen inestable. La anterior elección del dato inicial no es artificial. Si nos enfrentamos a un problema como (1.49) (1.50) con una condición inicial arbitraria tendremos que emplear un tamaño de paso pequeño en el régimen transitorio inicial en el que la contribución del autovector inestable todavía es significativa. Una vez pasado este corto periodo, la solución viene esencialmente descrita por el autovector estable, y uno se ve tentado a incrementar h. Sin embargo hay que resistirse a esta tentación pues, como hemos visto antes, aunque no lo parezca el autovector inestable siempre deja sentir su presencia. Es importante comprender que este comportamiento no tiene nada que ver con el error local del método numérico; hay que disminuir el paso, no por consideraciones de precisión, sino por la inestabilidad. No todos los métodos numéricos muestran tanta sensibilidad a la estabilidad. Por ejemplo, si resolvemos (1.49) (1.50) con la regla del trapecio y paso fijo h, y n+1 = y n + h 2 (f(x n, y n ) + f(x n+1, y n+1 )) obtenemos y n+1 = (I h2 A ) 1 (I + h2 A ) y n. Se tiene que y n = ( ( I h ) 1 (I 2 A + h2 ) ) n A y 0, n = 0, Usando como antes la forma canónica de Jordan de A y factorizando deducimos 68

69 que Dado que ( ) ( ) n n 1 50h 1 h 20 y n = αv 1 + βv 2, n = 0, 1, h 1 + h h h, 1 h h < 1 20 para todo h > 0, deducimos que lím n y n = 0. Esto recupera el comportamiento asintótico correcto para la ecuación (1.49) (1.50) independientemente del tamaño de h. En otras palabras, la regla del trapecio no requiere ninguna restricción en el paso para evitar la inestabilidad. Esto no quiere decir, por supuesto, que cualquier h valga. Es necesario escoger h > 0 suficientemente pequeño como para que el error local sea razonablemente pequeño y estemos aproximando adecuadamente la verdadera solución. Sin embargo, no hay necesidad de disminuir h hasta un tamaño minúsculo con el fin de evitar el crecimiento incontrolado de componentes espurias de la solución. La ecuación (1.49) (1.50) es un ejemplo de problema stiff (rígido, en inglés). En la literatura se pueden encontrar varias definiciones de este concepto, pero quizás sea más interesante adoptar una definición operativa, si bien un poco vaga. Definición Decimos que el sistema y = f(x, y), x x 0, y(x 0 ) = y 0, es stiff si su resolución numérica por algunos métodos exige una disminución significativa del paso de integración para evitar inestabilidades. Es evidente que ésta no es una definición matemática correcta; pero tampoco estamos intentando probar teoremas del tipo si un sistema es stiff entonces.... Lo importante de este concepto es que nos debe ayudar a elegir y diseñar métodos numéricos. 69

70 En nuestro ejemplo hemos visto uno de los mecanismos (de hecho, uno de los más frecuentes) que hacen que un problema sea stiff, el que haya modos con escalas y tiempos de vida muy diferentes en la solución. Es frecuente designar al cociente de los módulos de los autovalores de mayor y menor módulo de un sistema lineal (en el caso de un sistema general, los autovalores de la matriz jacobiana) como coeficiente de rigidez del sistema. Si dicho coeficiente es grande, el sistema suele ser stiff. No obstante, haremos notar que este análisis lineal puede fallar al aplicarlo a un sistema no lineal. Una gran parte de los sistemas de ecuaciones diferenciales ordinarias que aparecen en problemas reales son stiff. Siempre que las ecuaciones modelen varios procesos con velocidades de evolución muy distintas, el problema será probablemente stiff. Esto sucede por ejemplo en problemas de cinética química, combustión, predicción meteorológica, biología y electrónica. Otra fuente muy importante de problemas stiff es el propio análisis numérico. Por ejemplo, las ecuaciones en derivadas parciales parabólicas se aproximan con frecuencia con sistemas de ecuaciones diferenciales ordinarias que resultan ser stiff. Problemas 1. Consideramos un método de Runge-Kutta de tablero c A b T. 2. Sea ( ) λ 1 A =, λ C. 0 λ (a) Probar que A n = ( λ n nλ n 1 0 λ n ), n = 0, 1,... (b) Sea g una función analítica en un entorno del origen. Definimos 70

71 g(a) = n=0 g (n) (0) n! A n. Demostrar que g(xa) = ( g(xλ) xg (xλ) 0 g(xλ) ), λ C. (c) Demostrar que la solución de y = Ay, y(0) = η, es y(x) = e xa η. Si Re λ < 0, demostrar que lím x y(x) = (0, 0) T. La solución numérica de este problema por el método de Euler verifica y n = (I + ha) n η. Dar una expresión explícita para esta cantidad y demostrar que lím y n = (0, 0) T para cualquier elección de η si y solo si 1+λh < 1. n 3. Caracterizar el valor de la condición inicial y(0) en el problema ( ) 5 4 y = y 2 1 para que al aplicar el método de Euler con h = 1 se cumpla lím n y n = Probar el teorema de los círculos de Gershgorin que afirma que los autovalores de una matriz A = (a ij ) pertenecen a la unión de los círculos en el plano complejo dados por D i = {z : z a ii j i a ij }. 5. Considérese el problema y = Ay, y(0) = y 0 con A M 2 2 (R) diagonalizable en R. Demostrar que si los elementos de A son menores que uno en valor absoluto y lím y(x) = 0, entonces al aplicar el método de x Euler con cualquier h < 1 se cumple lím y n = 0. Indicación: Utilizar el n teorema de los círculos de Gershgorin. 6. Considérese el problema y = ( Probar que cualquiera que sea la condición inicial y el paso h < 1, al aplicar el método de Euler se tiene lím y n = lím y(x) = 0. Cómo es n x + posible si los coeficientes son muy grandes? 71 ) y.

72 1.13. Dominio de estabilidad lineal y A-estabilidad Supongamos que aplicamos un método numérico con paso constante h > 0 a la ecuación lineal escalar y = λy, x 0, y(0) = 1, (1.52) donde λ C. La solución exacta es y(x) = e λx, y por tanto lím x y(x) = 0 si y sólo si Re λ < 0. Definición El dominio de estabilidad lineal (también llamado región de estabilidad absoluta) de un método numérico es el conjunto de todos los números z = hλ con h > 0, λ C, tales que la solución numérica de (1.52) verifica que lím n y n = 0. Es decir, el dominio de estabilidad lineal es el conjunto de los hλ para los que se recupera el comportamiento asintótico de la solución exacta cuando ésta es estable. Lo denotaremos por D. Ejemplo. Al aplicar el método de Euler a (1.52) obtenemos la sucesión y n = (1 + hλ) n, n = 0, 1,..., que es geométrica. Así pues, lím n y n = 0 si y sólo si 1 + hλ < 1. Concluimos que D = {z C : 1 + z < 1}. Ejemplo. Para la regla del trapecio tenemos que ( y n = hλ ) n 1 1hλ, n = 0, 1,..., 2 que es una progresión geométrica. El dominio de estabilidad lineal es obviamente D = { z C : 1 + 1z } 2 1 1z < 1. 2 Es fácil verificar entonces que D = {z C : Re z < 0}. 72

73 Por qué estamos súbitamente interesados en una humilde ecuación escalar? Supongamos que queremos resolver y = Ay, y(0) = y 0, con A una matriz d d arbitraria, por el método de Euler. La solución numérica es y n = (I+hA) n y 0. Si existe una base de autovectores de A, v 1, v 2,..., v d C d, entonces A = V DV 1 con D = diag (λ 1, λ 2,..., λ d ), y se tiene que y n = V (I + hd) n V 1 y 0. Si V 1 y 0 = (α 1, α 2,..., α d ) T, entonces d y n = α k v k (1 + hλ k ) n, n = 0, 1,.... k=1 Supongamos que la solución exacta es asintóticamente estable. Esto sólo ocurre si Re λ k < 0 para todo k = 1, 2,..., d. Para que la solución numérica de Euler imite este comportamiento se necesita que el paso h > 0 sea tal que 1 + hλ k < 1, k = 1,..., d. Es decir, todos los productos hλ 1,..., hλ d deben estar en el dominio de estabilidad lineal del método de Euler. Esto significa en la práctica que el tamaño del paso está determinado por aquel autovalor que sea peor desde el punto de vista de la estabilidad. La restricción de que A tenga una base de autovectores se puede relajar, ya que la forma canónica de Jordan es suficiente. El análisis se puede extender también fácilmente a sistemas no homogéneos, y = Ay + a. El dominio de estabilidad lineal D es también importante en sistemas no lineales. Dado un sistema no lineal y = f(x, y), x x 0, y(x 0 ) = y 0, se suele pedir que en el paso n-ésimo hλ n,1, hλ n,2,..., hλ n,d D, 73

74 donde λ n,1,..., λ n,d son los autovalores de la matriz jacobiana J n f(x n, y n ). y Esto se basa en la suposición de que localmente el comportamiento del sistema está bien modelado por la ecuación variacional y = f(x n, y n ) + J n (y y n ). Hay que advertir que esto dista mucho de ser exacto. Cuanto mayor sea la región de C := {z C : Re z < 0} cubierta por D, menos restricciones para h debidas a posibles inestabilidades (recuérdense los ejemplos de Euler y la regla del trapecio). Eso motiva la siguiente definición. Definición Un método es A-estable si C D. Es decir, si un método es A-estable podemos elegir la longitud de paso h (al menos para sistemas lineales) sólo por motivos de precisión, sin restricciones debidas a la inestabilidad. Estos métodos serán buenos para problemas stiff. Problemas 1. Determinar el dominio de estabilidad lineal de cada uno de los métodos descritos en la sección Considérese el dominio de estabilidad lineal para el método de Euler mejorado. Estudiar si es simétrico con respecto al punto z = 1 (es decir, invariante por giros de 180 o alrededor de dicho punto), con respecto a la recta Im z = 0, y con respecto a la recta Re z = Hallar el supremo de los h > 0 tales que al aplicar el método de Euler al problema y = ( se cumple que lím y n = 0 (para cada h fijado) cualquiera que sea la n condición inicial y(0) = y 0 R ) y,

75 4. Considérese el problema y = ( Calcular aproximadamente (con un error menor que el 1 %) el supremo de los h que pueden emplearse para que con cualquier condición inicial lím y n = 0, donde y n es la solución numérica obtenida al aplicar el n método de Runge-Kutta clásico de cuatro etapas y orden cuatro. 5. Estudiar si es A estable el método de tablero /2 1/2 1/2 1/2 y hallar la función de incremento correspondiente, φ f (x n, y n ; h), comprobando que satisface una condición de Lipschitz con respecto a su segunda variable para h pequeño. 6. Determinar para qué valores de θ es A-estable el θ-método ) y. y n+1 = y n + h(θf n + (1 θ)f n+1 ). 7. Se dice que un método es L estable si al aplicarlo a y = λy se cumple y n+1 = R(λh)y n con R(z) 0 cuando Re z. a) Probar que la regla del trapecio no es L estable mientras que el método implícito y n+1 = y n + hf(x n+1, y n+1 ) sí lo es. b) Explicar en qué sentido los métodos L estables imitan mejor el decaimiento rápido de la solución de y = λy cuando Re λ es grande en comparación con h Selección automática del paso Hasta ahora nos hemos limitado a considerar mallas uniformes. Esto presenta un inconveniente importante: si la solución varía mucho en alguna zona 75

76 del intervalo de integración, nos vemos obligados a dar pasos pequeños en todo el intervalo, con el consiguiente coste computacional. Sería preferible adaptar la malla a la solución, haciéndola más fina en aquellas regiones donde varíe rápidamente y más gruesa donde cambie poco. La dificultad estriba en que no conocemos la solución ( estamos intentando calcularla!), y por tanto no sabemos a priori dónde necesitamos una malla más fina. Qué hacer? Una posibilidad es que sea el propio método quien elija la malla, a medida que calcula la solución, de manera que el error cometido esté siempre bajo control. Supongamos que ya hemos calculado y 0,..., y n. Queremos avanzar de x n a x n+1 con una longitud de paso h n = x n+1 x n tal que el error global, y(x n+1 ) y n+1, tenga tamaño menor que una tolerancia dada. La dificultad estriba en que no es posible controlar el error global directamente por medio de h n. Lo que sí se puede controlar es el error cometido al dar el paso suponiendo que el valor y n eran exacto. Este error, conocido como error local, viene dado por u n (x n+1 ) y n+1, donde u n, la solución local, es la solución del problema de valor inicial u n(x) = f(x, u n (x)), u n (x n ) = y n. Podemos controlar el error global a través del error local? El siguiente resultado muestra que sí. Teorema Sea µ = máx ( u n(x n+1 ) y n+1 /h n ) y L una constante 0 n N 1 de Lipschitz para f con respecto a su segunda variable. Entonces y(x n ) y n e L(b a) y(x 0 ) y 0 + e L(b a) (b a)µ, n = 1,..., N. Prueba. Se basa en la identidad y(x n+1 ) y n+1 = (y(x n+1 ) u n (x n+1 )) + (u n (x n+1 ) y n+1 ). 76

77 Por la dependencia continua y por tanto y(x n+1 ) u n (x n+1 ) e Lhn y(x n ) y n, y(x n+1 ) y n+1 e Lhn y(x n ) y n + µh n. A partir de aquí se prueba fácilmente, por inducción, que y(x n ) y n e L(xn x 0) y(x 0 ) y 0 + e L(xn x 0) (x n x 0 )µ, de donde se deduce inmediatamente el resultado. Observación. La prueba tiene dos ingredientes: el control del error local y un control del crecimiento de la diferencia entre dos soluciones de la EDO. Esto muestra una limitación fundamental de cualquier método numérico. No importa cuán preciso sea al aproximar la solución en un paso dado, si el PVI es inestable, esto es, si la diferencia entre dos soluciones crece rápidamente con x, acabaremos calculando soluciones numéricas {y n } que estarán lejos de los verdaderos valores y(x n ). Motivados por este teorema, queremos escribir un código que elija automáticamente la longitud del paso de forma que la norma del error local por unidad de paso, u n (x n+1 ) y n+1 /h n, se ajuste a una tolerancia prescrita. Será por tanto necesario tener una forma de estimar esta cantidad. Si un método de un paso es consistente de orden p, se puede probar fácilmente que el error local es de orden p + 1. Es más, si f C p+1, existe una función ψ f tal que u n (x n+1 ) y n+1 = ψ f (x n, y n )h p+1 n + O(h p+2 n ). Por consiguiente, podemos estimar el error local por medio del término principal de este desarrollo, errorl ψ f (x n, y n ) h p+1 n. 77

78 Ejemplo. local satisface Supongamos que aplicamos Euler a un problema escalar. El error u n (x n+1 ) y n+1 = u n(x n ) 2 y podemos estimarlo por el término principal, h 2 n + u n (ξ n ) h 3 3! n, ψ f (x n, y n )h 2 n = ( f x (x n, y n ) + f y (x n, y n )f(x n, y n ) ) h 2 n/2. La estimación supone dos evaluaciones de función, f x (x n, y n ) y f y (x n, y n ), (f(x n, y n ) ya se había evaluado para calcular y n+1 ), un coste excesivo, pues no es razonable que estimar el error, una tarea en cierto sentido auxiliar, cueste el doble que calcular la solución numérica. El término principal del error local, ψ f (x n, y n )h p+1 n, se puede calcular, pero resulta demasiado costoso (véase el ejemplo anterior). Tendremos que pensar en otra forma más barata de estimarlo. Supongamos que calculamos una segunda aproximación ŷ n+1 y(x n+1 ) por medio de un método de un paso más preciso, Por consiguiente, u n (x n+1 ) ŷ n+1 = ˆψ f (x n, y n )hˆp+1 n + O(hˆp+2 n ), ˆp p + 1. ŷ n+1 y n+1 = ŷ n+1 u n (x n+1 ) + u n (x n+1 ) y n+1 = ψ f (x n, y n )h p+1 n + O(h p+2 n ), así que podemos estimar el error local por medio de errorl ψ f (x n, y n ) h p+1 n ŷ n+1 y n+1. (1.53) Una vez estimado el error se compara con TOL h n donde TOL es la tolerancia prescrita para el error local por unidad de paso. Si errorl > TOL h n, el paso se rechaza, y se vuelve a calcular con un nueva longitud h n tal que ψ f (x n, y n ) (h n) p+1 = TOL h n. 78

79 Dado que TOL = ψ f (x n, y n ) (h n) p = ψ f (x n, y n ) h p n ( h n ) p errorl h n h n ( h n ) p, h n vemos que la elección óptima es ( ) 1 TOL h hn p n = h n. (1.54) errorl El proceso se repite hasta que errorl TOL h n. En ese momento el paso se acepta. Se intenta ahora un nuevo paso con la longitud óptima (1.54). Para tener un buen código hay que poner un poco más de cuidado. Se suele multiplicar el segundo miembro de (1.54) por un factor de seguridad FAC, normalmente FAC = 0,9, de forma que el errorl sea aceptable la siguiente vez con probabilidad alta. Tampoco se suelen permitir incrementos de paso muy grandes, con el fin de hacer el método más seguro. También es costumbre fijar una longitud de paso máxima, HMAX. Así, por ejemplo podemos poner ( ( ( ) )) 1 TOL h hn p n = mín HMAX, h n mín FACMAX, FAC. errorl FACMAX se suele tomar entre 1,5 y 5. Cómo elegir el segundo método para que el coste adicional de estimar el error no sea muy grande? Utilizamos una idea debida a Merson. Sea un método de Runge-Kutta de orden p de tablero c A b T. La solución numérica por este método es s y n+1 = y n + h n b i k i. Si tuviéramos otro método de Runge-Kutta con las mismas etapas, 79 i=1

80 c A pero de distinto orden, ˆp > p, podríamos calcular la solución s ŷ n+1 = y n + h n ˆbi k i sin coste adicional, pues las etapas k i coinciden. Esta solución más precisa se puede utilizar para estimar el error cometido con el primer método. A un par de métodos con estas características se le conoce como par encajado. Ejemplo. El par encajado 0 ˆbT 1 1 i=1 y n ŷ n avanza con el método de Euler y estima con el método de Euler mejorado. Hemos dicho que no hay coste adicional, pero esto es un poco falaz, porque el método de Euler no usa la segunda etapa, mientras que el método que utilizamos para estimar, Euler mejorado, sí lo hace. Ahora bien, el método de avance es un método explícito con la propiedad FSAL (First Same As Last), 1 2 a si = b i i = 1,..., s. En los métodos con esta propiedad la última etapa del paso n viene dada por s 1 s 1 k s (x n, y n ; h n ) = f(x n + c s h n, y n + h n a si k i ) = f(x n + h n, y n + h n b i k i ), i=1 donde hemos usado las condiciones de suma por filas y de consistencia para probar que c s = s a sj = s b j = 1. Por otra parte, por ser el método explícito, j=1 j=1 la primera etapa del paso n + 1 viene dada por s 1 k 1 (x n+1, y n+1 ; h n+1 ) = f(x n+1, y n+1 ) = f(x n + h n, y n + h n b i k i ). 80 i=1 i=1

81 Es decir, la primera etapa de cada paso coincide con la última del paso anterior. Por tanto la primera etapa sólo hay que calcularla en el primer paso, y desde el punto de vista computacional es como si el método tuviera una etapa menos. En el ejemplo que nos ocupa tenemos en la práctica una evaluación de función por paso, lo mismo que para el método de Euler! Aunque la estimación (1.53) da el error de truncación para el método del par encajado de orden más bajo, si h es suficientemente pequeño el error para el método de orden alto será aún menor; así que, por qué no avanzar con el método de orden más alto? A esto se le llama hacer extrapolación local. La desventaja es que si el método de avance original tenía la propiedad FSAL, ésta se pierde, con el coste computacional extra que ello supone. Ejemplo. El par encajado y n ŷ n avanza con el método de Euler mejorado y estima con el método de Euler. En este caso el método de avance es de orden 2, pero a cambio hay que hacer dos evaluaciones de función por paso. Notación. Un par encajado es de tipo p(q) si el orden de y n+1 (el método que se utiliza para avanzar) es p, y el orden de ŷ n+1 (el método que se usa para estimar) es q. En la figura 1.5 representamos el diagrama de eficiencia para el problema (1.45) (1.46) usando los dos pares encajados que acabamos de describir, así como el método de Euler y la regla del trapecio, estos dos últimos con malla prefijada uniforme. Siendo ambos de orden 1, el par encajado Euler/Euler mejorado 1(2) trabaja diez veces menos que el método de Euler para conseguir un mismo error. Si comparamos la regla del trapecio con el par Euler mejora- 81

82 Euler Trapecio Euler / Euler mejorado 1(2) Euler mejorado / Euler 2(1) error evaluaciones de función Figura 1.5: Diagrama de eficiencia para el problema (1.45) (1.46). do/euler 2(1), dos métodos de orden 2, se tiene el mismo factor de ahorro de coste. Por otra parte, los órdenes empíricos responden a lo esperado, es decir, orden 1 para el par Euler/Euler mejorado 1(2) y orden 2 cuando se hace extrapolación local. A pesar de ser tan sólo de orden 1, el par Euler/Euler mejorado 1(2) es capaz de competir con la regla del trapecio, a menos que queramos errores menores que Y qué pasa si el problema es stiff? Para hacernos una idea aplicamos estos métodos al problema (1.45) (1.48). El resultado se representa en la figura 1.6 (no hemos utilizado el método de Euler, pues ya sabemos que no funciona bien para estos problemas). Como vemos, para que los dos pares encajados que hemos considerado funcionen bien hace falta que trabajen bastante, pues deben tomar h pequeño para que λh esté en el dominio de estabilidad lineal. Así que, a menos que estemos dispuestos a trabajar mucho, la regla del trapecio es superior al método 82

83 Trapecio Euler / Euler mejorado 1(2) Euler mejorado / Euler 2(1) error evaluaciones de función Figura 1.6: Diagrama de eficiencia para el problema (1.45) (1.48). con extrapolación. Problemas 1. Queremos resolver el problema de valor inicial (1.2) en el intervalo [0, 1] con función del lado derecho f(x, y) = (x + sen y 2, x2 2 + cos y1 ) T, y dato inicial η = (0, 0) T. Suponiendo que el ordenador tiene precisión infinita, qué tolerancia debemos tomar para el error local por paso para garantizar que el máximo error cometido sea 10 5? 2. Consideramos la ecuación diferencial y (x) = 3(y(x) sen x) + cos x, x [0, 2π]. (a) Determinar las soluciones correspondientes a datos iniciales y(0) = 0 e y(0) = ε. 83

84 (b) Supongamos que calculamos numéricamente la solución correspondiente al dato inicial y(0) = 0 con un método que selecciona automáticamente el paso, imponiendo una tolerancia para el error local por paso de Debido a la precisión finita del ordenador se comete un error en el dato inicial de De cuántas cifras decimales de la solución nos podemos fiar? 3. Consideramos un problema de valor inicial en el que la función f del lado derecho satisface la condición de Lipschitz unilateral < f(x, y) f(x, ŷ), y ŷ > l y ŷ 2 2 con constante l < 0. Demostrar que y(x n ) y n 2 e l(b a) y(x 0 ) y (b a)µ, n = 1,..., N, siendo µ una cota para la norma euclídea del error local por unidad de paso. 4. Calcular el término principal del desarrollo del error local para el método de Euler modificado. Cuántas evaluaciones de función extra tendremos que hacer para estimar el error local calculando directamente esta cantidad? 5. Construir todos los pares encajados 1(2) con dos etapas. 6. Hallar algún par encajado de tipo 1(2) con tres etapas satisfaciendo a 3i = b i (propiedad FSAL) y b 3 = Hallar todos los pares encajados 2(3) de la forma /2 a 31 a 32 b 1 b 2 0 b1 b2 b3 84

Tema 2. Espacios Vectoriales. 2.1. Introducción

Tema 2. Espacios Vectoriales. 2.1. Introducción Tema 2 Espacios Vectoriales 2.1. Introducción Estamos habituados en diferentes cursos a trabajar con el concepto de vector. Concretamente sabemos que un vector es un segmento orientado caracterizado por

Más detalles

Tema 3. Problemas de valores iniciales. 3.1. Teoremas de existencia y unicidad

Tema 3. Problemas de valores iniciales. 3.1. Teoremas de existencia y unicidad Tema 3 Problemas de valores iniciales 3.1. Teoremas de existencia y unicidad Estudiaremos las soluciones aproximadas y su error para funciones escalares, sin que ésto no pueda extenderse para funciones

Más detalles

Tema 5. Aproximación funcional local: Polinomio de Taylor. 5.1 Polinomio de Taylor

Tema 5. Aproximación funcional local: Polinomio de Taylor. 5.1 Polinomio de Taylor Tema 5 Aproximación funcional local: Polinomio de Taylor Teoría Los polinomios son las funciones reales más fáciles de evaluar; por esta razón, cuando una función resulta difícil de evaluar con exactitud,

Más detalles

Ejemplos y problemas resueltos de análisis complejo (2014-15)

Ejemplos y problemas resueltos de análisis complejo (2014-15) Variable Compleja I (3 o de Matemáticas y 4 o de Doble Titulación) Ejemplos y problemas resueltos de análisis complejo (04-5) Teoremas de Cauchy En estos apuntes, la palabra dominio significa, como es

Más detalles

BASES Y DIMENSIÓN. Propiedades de las bases. Ejemplos de bases.

BASES Y DIMENSIÓN. Propiedades de las bases. Ejemplos de bases. BASES Y DIMENSIÓN Definición: Base. Se llama base de un espacio (o subespacio) vectorial a un sistema generador de dicho espacio o subespacio, que sea a la vez linealmente independiente. β Propiedades

Más detalles

1. Ecuaciones no lineales

1. Ecuaciones no lineales 1. Ecuaciones no lineales 1.1 Ejercicios resueltos Ejercicio 1.1 Dada la ecuación xe x 1 = 0, se pide: a) Estudiar gráficamente sus raíces reales y acotarlas. b) Aplicar el método de la bisección y acotar

Más detalles

Apuntes de Matemática Discreta 9. Funciones

Apuntes de Matemática Discreta 9. Funciones Apuntes de Matemática Discreta 9. Funciones Francisco José González Gutiérrez Cádiz, Octubre de 004 Universidad de Cádiz Departamento de Matemáticas ii Lección 9 Funciones Contenido 9.1 Definiciones y

Más detalles

Aplicaciones Lineales y Multilineales Continuas

Aplicaciones Lineales y Multilineales Continuas Capítulo 4 Aplicaciones Lineales y Multilineales Continuas La conexión entre las estructuras vectorial y topológica de los espacios normados, se pone claramente de manifiesto en el estudio de las aplicaciones

Más detalles

4 APLICACIONES LINEALES. DIAGONALIZACIÓN

4 APLICACIONES LINEALES. DIAGONALIZACIÓN 4 APLICACIONES LINEALES DIAGONALIZACIÓN DE MATRICES En ocasiones, y con objeto de simplificar ciertos cálculos, es conveniente poder transformar una matriz en otra matriz lo más sencilla posible Esto nos

Más detalles

PROBLEMA 1. 1. [1.5 puntos] Obtener la ecuación de la recta tangente en el punto ( 2, 1) a la curva dada implícitamente por y 3 +3y 2 = x 4 3x 2.

PROBLEMA 1. 1. [1.5 puntos] Obtener la ecuación de la recta tangente en el punto ( 2, 1) a la curva dada implícitamente por y 3 +3y 2 = x 4 3x 2. PROBLEMA. ESCUELA UNIVERSITARIA POLITÉCNICA DE SEVILLA Ingeniería Técnica en Diseño Industrial Fundamentos Matemáticos de la Ingeniería Soluciones correspondientes a los problemas del Primer Parcial 7/8.

Más detalles

Definición 1.1.1. Dados dos números naturales m y n, una matriz de orden o dimensión m n es una tabla numérica rectangular con m filas y n columnas.

Definición 1.1.1. Dados dos números naturales m y n, una matriz de orden o dimensión m n es una tabla numérica rectangular con m filas y n columnas. Tema 1 Matrices Estructura del tema. Conceptos básicos y ejemplos Operaciones básicas con matrices Método de Gauss Rango de una matriz Concepto de matriz regular y propiedades Determinante asociado a una

Más detalles

Aproximación local. Plano tangente. Derivadas parciales.

Aproximación local. Plano tangente. Derivadas parciales. Univ. de Alcalá de Henares Ingeniería de Telecomunicación Cálculo. Segundo parcial. Curso 004-005 Aproximación local. Plano tangente. Derivadas parciales. 1. Plano tangente 1.1. El problema de la aproximación

Más detalles

Matrices equivalentes. El método de Gauss

Matrices equivalentes. El método de Gauss Matrices equivalentes. El método de Gauss Dada una matriz A cualquiera decimos que B es equivalente a A si podemos transformar A en B mediante una combinación de las siguientes operaciones: Multiplicar

Más detalles

Juan Antonio González Mota Profesor de Matemáticas del Colegio Juan XIII Zaidín de Granada

Juan Antonio González Mota Profesor de Matemáticas del Colegio Juan XIII Zaidín de Granada FUNCIONES CONTINUAS. La mayor parte de las funciones que manejamos, a nivel elemental, presentan en sus gráficas una propiedad característica que es la continuidad. La continuidad de una función definida

Más detalles

Tema 3. Espacios vectoriales

Tema 3. Espacios vectoriales Tema 3. Espacios vectoriales Estructura del tema. Definición y propiedades. Ejemplos. Dependencia e independencia lineal. Conceptos de base y dimensión. Coordenadas Subespacios vectoriales. 0.1. Definición

Más detalles

Aplicaciones lineales continuas

Aplicaciones lineales continuas Lección 13 Aplicaciones lineales continuas Como preparación para el cálculo diferencial, estudiamos la continuidad de las aplicaciones lineales entre espacios normados. En primer lugar probamos que todas

Más detalles

Funciones de varias variables

Funciones de varias variables Funciones de varias variables Derivadas parciales. El concepto de función derivable no se puede extender de una forma sencilla para funciones de varias variables. Aquí se emplea el concepto de diferencial

Más detalles

Ejemplo 1.2 En el capitulo anterior se demostró que el conjunto. V = IR 2 = {(x, y) : x, y IR}

Ejemplo 1.2 En el capitulo anterior se demostró que el conjunto. V = IR 2 = {(x, y) : x, y IR} Subespacios Capítulo 1 Definición 1.1 Subespacio Sea H un subconjunto no vacio de un espacio vectorial V K. Si H es un espacio vectorial sobre K bajo las operaciones de suma y multiplicación por escalar

Más detalles

Diferenciabilidad. Definición 1 (Función diferenciable). Cálculo. Segundo parcial. Curso 2004-2005

Diferenciabilidad. Definición 1 (Función diferenciable). Cálculo. Segundo parcial. Curso 2004-2005 Univ. de Alcalá de Henares Ingeniería de Telecomunicación Cálculo. Segundo parcial. Curso 2004-2005 Diferenciabilidad. 1. Definición de función diferenciable Después del estudio de los ites de funciones

Más detalles

Anexo 1: Demostraciones

Anexo 1: Demostraciones 75 Matemáticas I : Álgebra Lineal Anexo 1: Demostraciones Espacios vectoriales Demostración de: Propiedades 89 de la página 41 Propiedades 89- Algunas propiedades que se deducen de las anteriores son:

Más detalles

EJERCICIOS RESUELTOS SOBRE ERRORES DE REDONDEO

EJERCICIOS RESUELTOS SOBRE ERRORES DE REDONDEO EJERCICIOS RESUELTOS SOBRE ERRORES DE REDONDEO 1º) Considérese un número estrictamente positivo del sistema de números máquina F(s+1, m, M, 10). Supongamos que tal número es: z = 0.d 1 d...d s 10 e Responde

Más detalles

Subespacios vectoriales en R n

Subespacios vectoriales en R n Subespacios vectoriales en R n Víctor Domínguez Octubre 2011 1. Introducción Con estas notas resumimos los conceptos fundamentales del tema 3 que, en pocas palabras, se puede resumir en técnicas de manejo

Más detalles

1. SOLUCIONES A LOS EJERCICIOS PROPUESTOS

1. SOLUCIONES A LOS EJERCICIOS PROPUESTOS 1 1. SOLUCIONES A LOS EJERCICIOS PROPUESTOS 1.1. ESPACIOS VECTORIALES 1. Analizar cuáles de los siguientes subconjuntos de R 3 son subespacios vectoriales. a) A = {(2x, x, 7x)/x R} El conjunto A es una

Más detalles

Subconjuntos destacados en la

Subconjuntos destacados en la 2 Subconjuntos destacados en la topología métrica En este capítulo, introducimos una serie de conceptos ligados a los puntos y a conjuntos que por el importante papel que juegan en la topología métrica,

Más detalles

1. Producto escalar, métrica y norma asociada

1. Producto escalar, métrica y norma asociada 1. asociada Consideramos el espacio vectorial R n sobre el cuerpo R; escribimos los vectores o puntos de R n, indistintamente, como x = (x 1,..., x n ) = n x i e i i=1 donde e i son los vectores de la

Más detalles

RELACIONES DE RECURRENCIA

RELACIONES DE RECURRENCIA Unidad 3 RELACIONES DE RECURRENCIA 60 Capítulo 5 RECURSIÓN Objetivo general Conocer en forma introductoria los conceptos propios de la recurrencia en relación con matemática discreta. Objetivos específicos

Más detalles

CÁLCULO PARA LA INGENIERÍA 1

CÁLCULO PARA LA INGENIERÍA 1 CÁLCULO PARA LA INGENIERÍA 1 PROBLEMAS RESUELTOS Tema 3 Derivación de funciones de varias variables 3.1 Derivadas y diferenciales de funciones de varias variables! 1. Derivadas parciales de primer orden.!

Más detalles

Cómo?: Resolviendo el sistema lineal homógeneo que satisfacen las componentes de cualquier vector de S. x4 = x 1 x 3 = x 2 x 1

Cómo?: Resolviendo el sistema lineal homógeneo que satisfacen las componentes de cualquier vector de S. x4 = x 1 x 3 = x 2 x 1 . ESPACIOS VECTORIALES Consideremos el siguiente subconjunto de R 4 : S = {(x, x 2, x 3, x 4 )/x x 4 = 0 x 2 x 4 = x 3 a. Comprobar que S es subespacio vectorial de R 4. Para demostrar que S es un subespacio

Más detalles

1. El teorema de la función implícita para dos y tres variables.

1. El teorema de la función implícita para dos y tres variables. GRADO DE INGENIERÍA AEROESPACIAL. CURSO. Lección. Aplicaciones de la derivación parcial.. El teorema de la función implícita para dos tres variables. Una ecuación con dos incógnitas. Sea f :( x, ) U f(

Más detalles

Espacios Vectoriales

Espacios Vectoriales Espacios Vectoriales Departamento de Matemáticas, CCIR/ITESM 4 de enero de 2 Índice 3.. Objetivos................................................ 3.2. Motivación...............................................

Más detalles

Métodos Iterativos para Resolver Sistemas Lineales

Métodos Iterativos para Resolver Sistemas Lineales Métodos Iterativos para Resolver Sistemas Lineales Departamento de Matemáticas, CCIR/ITESM 17 de julio de 2009 Índice 3.1. Introducción............................................... 1 3.2. Objetivos................................................

Más detalles

Matemáticas I: Hoja 3 Espacios vectoriales y subespacios vectoriales

Matemáticas I: Hoja 3 Espacios vectoriales y subespacios vectoriales Matemáticas I: Hoa 3 Espacios vectoriales y subespacios vectoriales Eercicio 1. Demostrar que los vectores v 1, v 2, v 3, v 4 expresados en la base canónica forman una base. Dar las coordenadas del vector

Más detalles

ESTIMACIÓN. puntual y por intervalo

ESTIMACIÓN. puntual y por intervalo ESTIMACIÓN puntual y por intervalo ( ) Podemos conocer el comportamiento del ser humano? Podemos usar la información contenida en la muestra para tratar de adivinar algún aspecto de la población bajo estudio

Más detalles

Tema III. Capítulo 2. Sistemas generadores. Sistemas libres. Bases.

Tema III. Capítulo 2. Sistemas generadores. Sistemas libres. Bases. Tema III Capítulo 2 Sistemas generadores Sistemas libres Bases Álgebra Lineal I Departamento de Métodos Matemáticos y de Representación UDC 2 Sistemas generadores Sistemas libres Bases 1 Combinación lineal

Más detalles

March 25, 2010 CAPÍTULO 2: LÍMITES Y CONTINUIDAD DE FUNCIONES EN EL ESPACIO EUCLÍDEO

March 25, 2010 CAPÍTULO 2: LÍMITES Y CONTINUIDAD DE FUNCIONES EN EL ESPACIO EUCLÍDEO March 25, 2010 CAPÍTULO 2: LÍMITE Y CONTINUIDAD DE FUNCIONE EN EL EPACIO EUCLÍDEO 1. Producto Escalar en R n Definición 1.1. Dado x = (x 1,..., x n ), y = (y 1,..., y n ) R n, su producto escalar está

Más detalles

Divisibilidad y números primos

Divisibilidad y números primos Divisibilidad y números primos Divisibilidad En muchos problemas es necesario saber si el reparto de varios elementos en diferentes grupos se puede hacer equitativamente, es decir, si el número de elementos

Más detalles

CAPÍTULO III. FUNCIONES

CAPÍTULO III. FUNCIONES CAPÍTULO III LÍMITES DE FUNCIONES SECCIONES A Definición de límite y propiedades básicas B Infinitésimos Infinitésimos equivalentes C Límites infinitos Asíntotas D Ejercicios propuestos 85 A DEFINICIÓN

Más detalles

UNIDAD 4: PLANO CARTESIANO, RELACIONES Y FUNCIONES. OBJETIVO DE APRENDIZAJE: Representar gráficamente relaciones y funciones en el plano cartesiano.

UNIDAD 4: PLANO CARTESIANO, RELACIONES Y FUNCIONES. OBJETIVO DE APRENDIZAJE: Representar gráficamente relaciones y funciones en el plano cartesiano. UNIDAD 4: PLANO CARTESIANO, RELACIONES Y FUNCIONES OBJETIVO DE APRENDIZAJE: Representar gráficamente relaciones y funciones en el plano cartesiano. EL PLANO CARTESIANO. El plano cartesiano está formado

Más detalles

Parte I. Iniciación a los Espacios Normados

Parte I. Iniciación a los Espacios Normados Parte I Iniciación a los Espacios Normados Capítulo 1 Espacios Normados Conceptos básicos Sea E un espacio vectorial sobre un cuerpo K = R ó C indistintamente. Una norma sobre E es una aplicación de E

Más detalles

a < b y se lee "a es menor que b" (desigualdad estricta) a > b y se lee "a es mayor que b" (desigualdad estricta)

a < b y se lee a es menor que b (desigualdad estricta) a > b y se lee a es mayor que b (desigualdad estricta) Desigualdades Dadas dos rectas que se cortan, llamadas ejes (rectangulares si son perpendiculares, y oblicuos en caso contrario), un punto puede situarse conociendo las distancias del mismo a los ejes,

Más detalles

Departamento de Matemáticas

Departamento de Matemáticas MA5 Clase 9: Campos Direccionales, Curvas Integrales. Eistencia y Unicidad Elaborado por los profesores Edgar Cabello y Marcos González La ecuación y = f(, y) determina el coeficiente angular de la tangente

Más detalles

Tema 07. LÍMITES Y CONTINUIDAD DE FUNCIONES

Tema 07. LÍMITES Y CONTINUIDAD DE FUNCIONES Tema 07 LÍMITES Y CONTINUIDAD DE FUNCIONES Límite de una función en un punto Vamos a estudiar el comportamiento de las funciones f ( ) g ( ) ENT[ ] h ( ) i ( ) en el punto Para ello, damos a valores próimos

Más detalles

ANÁLISIS DE DATOS NO NUMERICOS

ANÁLISIS DE DATOS NO NUMERICOS ANÁLISIS DE DATOS NO NUMERICOS ESCALAS DE MEDIDA CATEGORICAS Jorge Galbiati Riesco Los datos categóricos son datos que provienen de resultados de experimentos en que sus resultados se miden en escalas

Más detalles

1. Dominio, simetría, puntos de corte y periodicidad

1. Dominio, simetría, puntos de corte y periodicidad Estudio y representación de funciones 1. Dominio, simetría, puntos de corte y periodicidad 1.1. Dominio Al conjunto de valores de x para los cuales está definida la función se le denomina dominio. Se suele

Más detalles

Ecuaciones Diferenciales Tema 2. Trasformada de Laplace

Ecuaciones Diferenciales Tema 2. Trasformada de Laplace Ecuaciones Diferenciales Tema 2. Trasformada de Laplace Ester Simó Mezquita Matemática Aplicada IV 1 1. Transformada de Laplace de una función admisible 2. Propiedades básicas de la transformada de Laplace

Más detalles

Números Reales. MathCon c 2007-2009

Números Reales. MathCon c 2007-2009 Números Reales z x y MathCon c 2007-2009 Contenido 1. Introducción 2 1.1. Propiedades básicas de los números naturales....................... 2 1.2. Propiedades básicas de los números enteros........................

Más detalles

Tema 2 Resolución de Ecuaciones No Lineales

Tema 2 Resolución de Ecuaciones No Lineales Tema 2 Resolución de Ecuaciones No Lineales Índice 1. Introducción 2. Método de Bisección 2.1 Algoritmo del Método de Bisección 2.2 Análisis de Método de Bisección 3. Método de Regula-Falsi 3.1 Algoritmo

Más detalles

Matrices Invertibles y Elementos de Álgebra Matricial

Matrices Invertibles y Elementos de Álgebra Matricial Matrices Invertibles y Elementos de Álgebra Matricial Departamento de Matemáticas, CCIR/ITESM 12 de enero de 2011 Índice 91 Introducción 1 92 Transpuesta 1 93 Propiedades de la transpuesta 2 94 Matrices

Más detalles

Estructuras algebraicas

Estructuras algebraicas Tema 2 Estructuras algebraicas básicas 2.1. Operación interna Definición 29. Dados tres conjuntos A, B y C, se llama ley de composición en los conjuntos A y B y resultado en el conjunto C, y se denota

Más detalles

Estudio de ceros de ecuaciones funcionales

Estudio de ceros de ecuaciones funcionales Capítulo 1 Estudio de ceros de ecuaciones funcionales Problema 1.1 Calcular el número de ceros de la ecuación arctang(x) = 4 x, dando un intervalo 5 donde se localicen. Solución: Denimos f(x) = arctan(x)

Más detalles

Variedades Diferenciables. Extremos Condicionados

Variedades Diferenciables. Extremos Condicionados Capítulo 16 Variedades Diferenciables. Extremos Condicionados Vamos a completar lo visto en los capítulos anteriores sobre el teorema de las Funciones Implícitas y Funciones Inversas con un tema de iniciación

Más detalles

Tema 3: Producto escalar

Tema 3: Producto escalar Tema 3: Producto escalar 1 Definición de producto escalar Un producto escalar en un R-espacio vectorial V es una operación en la que se operan vectores y el resultado es un número real, y que verifica

Más detalles

Diagonalización de matrices

Diagonalización de matrices diagonalizacion.nb Diagonalización de matrices Práctica de Álgebra Lineal, E.U.A.T., Grupos ºA y ºB, 2005 Algo de teoría Qué es diagonalizar una matriz? Para estudiar una matriz suele ser conveniente expresarla

Más detalles

Caracterización de los campos conservativos

Caracterización de los campos conservativos Lección 5 Caracterización de los campos conservativos 5.1. Motivación y enunciado del teorema Recordemos el cálculo de la integral de línea de un gradiente, hecho en la lección anterior. Si f : Ω R es

Más detalles

Ejercicios de Trigonometría

Ejercicios de Trigonometría Ejercicios de Trigonometría 1) Indica la medida de estos ángulos en radianes: a) 0º b) 45º c) 60º d) 120º Recuerda que 360º son 2π radianes, con lo que para hacer la conversión realizaremos una simple

Más detalles

LÍMITES Y CONTINUIDAD DE FUNCIONES

LÍMITES Y CONTINUIDAD DE FUNCIONES Capítulo 9 LÍMITES Y CONTINUIDAD DE FUNCIONES 9.. Introducción El concepto de ite en Matemáticas tiene el sentido de lugar hacia el que se dirige una función en un determinado punto o en el infinito. Veamos

Más detalles

SISTEMAS DE ECUACIONES LINEALES

SISTEMAS DE ECUACIONES LINEALES SISTEMAS DE ECUACIONES LINEALES INTRODUCCIÓN En el presente documento se explican detalladamente dos importantes temas: 1. Descomposición LU. 2. Método de Gauss-Seidel. Se trata de dos importantes herramientas

Más detalles

Ecuaciones de primer grado con dos incógnitas

Ecuaciones de primer grado con dos incógnitas Ecuaciones de primer grado con dos incógnitas Si decimos: "las edades de mis padres suman 120 años", podemos expresar esta frase algebraicamente de la siguiente forma: Entonces, Denominamos x a la edad

Más detalles

Métodos Numéricos: Resumen y ejemplos Tema 4: Resolución aproximada de EDO s

Métodos Numéricos: Resumen y ejemplos Tema 4: Resolución aproximada de EDO s Métodos Numéricos: Resumen y ejemplos Tema 4: Resolución aproximada de EDO s Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de Cataluña Marzo 2008, versión

Más detalles

EJERCICIOS DE MATEMÁTICAS I HOJA 4. Ejercicio 1. Se consideran los vectores

EJERCICIOS DE MATEMÁTICAS I HOJA 4. Ejercicio 1. Se consideran los vectores EJERCICIOS DE MATEMÁTICAS I HOJA 4 Ejercicio 1. Se consideran los vectores u 1 = (1, 1, 0, 1), u 2 = (0, 2, 1, 0), u 3 = ( 1, 1, 1, 1), u 4 = (2, 2, 1, 0) de R 4. Expresa, si es posible, los vectores u

Más detalles

1 v 1 v 2. = u 1v 1 + u 2 v 2 +... u n v n. v n. y v = u u = u 2 1 + u2 2 + + u2 n.

1 v 1 v 2. = u 1v 1 + u 2 v 2 +... u n v n. v n. y v = u u = u 2 1 + u2 2 + + u2 n. Ortogonalidad Producto interior Longitud y ortogonalidad Definición Sean u y v vectores de R n Se define el producto escalar o producto interior) de u y v como u v = u T v = u, u,, u n ) Ejemplo Calcular

Más detalles

E 1 E 2 E 2 E 3 E 4 E 5 2E 4

E 1 E 2 E 2 E 3 E 4 E 5 2E 4 Problemas resueltos de Espacios Vectoriales: 1- Para cada uno de los conjuntos de vectores que se dan a continuación estudia si son linealmente independientes, sistema generador o base: a) (2, 1, 1, 1),

Más detalles

Métodos generales de generación de variables aleatorias

Métodos generales de generación de variables aleatorias Tema Métodos generales de generación de variables aleatorias.1. Generación de variables discretas A lo largo de esta sección, consideraremos una variable aleatoria X cuya función puntual es probabilidad

Más detalles

Tema 10: Límites y continuidad de funciones de varias variables

Tema 10: Límites y continuidad de funciones de varias variables Tema 10: Límites y continuidad de funciones de varias variables 1 Funciones de varias variables Definición 1.1 Llamaremos función real de varias variables atodafunciónf : R n R. Y llamaremos función vectorial

Más detalles

(A) Primer parcial. si 1 x 1; x 3 si x>1. (B) Segundo parcial

(A) Primer parcial. si 1 x 1; x 3 si x>1. (B) Segundo parcial CÁLCULO DIFERENCIAL E INTEGRAL I EVALUACIÓN GLOBAL E700 1) x 5 > 1. A) Primer parcial ) Sean las funciones ft) t +,gy) y 4&hw) w. Encontrar f/h, g f, f g y sus dominios. ) Graficar la función x + six

Más detalles

El Teorema de existencia y unicidad de Picard

El Teorema de existencia y unicidad de Picard Tema 2 El Teorema de existencia y unicidad de Picard 1 Formulación integral del Problema de Cauchy El objetivo del presente Tema, y del siguiente, es analizar el Problema de Cauchy para un SDO de primer

Más detalles

Comparar las siguientes ecuaciones, y hallar sus soluciones:

Comparar las siguientes ecuaciones, y hallar sus soluciones: TEMA. Iteraciones. % Hemos aprendido que para resolver una ecuación en x, se despeja la x y se evalúa la expresión que resulta. El siguiente ejemplo nos hará revisar ese esquema. Ejemplo. Comparar las

Más detalles

4.3 INTERPRETACIÓN ECONÓMICA DE LA DUALIDAD

4.3 INTERPRETACIÓN ECONÓMICA DE LA DUALIDAD 4.3 INTERPRETACIÓN ECONÓMICA DE LA DUALIDAD El problema de programación lineal se puede considerar como modelo de asignación de recursos, en el que el objetivo es maximizar los ingresos o las utilidades,

Más detalles

EJERCICIOS DE FUNCIONES REALES

EJERCICIOS DE FUNCIONES REALES EJERCICIOS DE FUNCIONES REALES.- La ley que relaciona el valor del área de un cuadrado con la longitud de su lado es una función. Sabemos que la epresión que nos relacionas ambas variables es. Observa

Más detalles

ECUACIONES DIFERENCIALES ORDINARIAS. HOJA 9. La aplicación de Poincaré

ECUACIONES DIFERENCIALES ORDINARIAS. HOJA 9. La aplicación de Poincaré ECUACIONES DIFERENCIALES ORDINARIAS. HOJA 9. SISTEMAS PLANOS. TEOREMA DE POINCARÉ-BENDIXSON. La aplicación de Poincaré Recordemos que un subconjunto H de R n es una subvariedad de codimensión uno (o una

Más detalles

UNIDAD 1. LOS NÚMEROS ENTEROS.

UNIDAD 1. LOS NÚMEROS ENTEROS. UNIDAD 1. LOS NÚMEROS ENTEROS. Al final deberás haber aprendido... Interpretar y expresar números enteros. Representar números enteros en la recta numérica. Comparar y ordenar números enteros. Realizar

Más detalles

(3) Regla del cociente: Si g(z 0 ) 0, f/g es derivable en z 0 y. (z 0 ) = f (z 0 )g(z 0 ) f(z 0 )g (z 0 ) . g

(3) Regla del cociente: Si g(z 0 ) 0, f/g es derivable en z 0 y. (z 0 ) = f (z 0 )g(z 0 ) f(z 0 )g (z 0 ) . g Funciones holomorfas 2.1. Funciones variable compleja En este capítulo vamos a tratar con funciones f : Ω C C, donde Ω C es el dominio de definición. La forma habitual de expresar estas funciones es como

Más detalles

CURSO BÁSICO DE MATEMÁTICAS PARA ESTUDIANTES DE ECONÓMICAS Y EMPRESARIALES

CURSO BÁSICO DE MATEMÁTICAS PARA ESTUDIANTES DE ECONÓMICAS Y EMPRESARIALES INECUACIONES NOTA IMPORTANTE: El signo de desigualdad de una inecuación puede ser,, < o >. Para las cuestiones teóricas que se desarrollan en esta unidad únicamente se utilizará la desigualdad >, siendo

Más detalles

Segundo de Bachillerato Geometría en el espacio

Segundo de Bachillerato Geometría en el espacio Segundo de Bachillerato Geometría en el espacio Jesús García de Jalón de la Fuente IES Ramiro de Maeztu Madrid 204-205. Coordenadas de un vector En el conjunto de los vectores libres del espacio el concepto

Más detalles

Apuntes de Matemática Discreta 1. Conjuntos y Subconjuntos

Apuntes de Matemática Discreta 1. Conjuntos y Subconjuntos Apuntes de Matemática Discreta 1. Conjuntos y Subconjuntos Francisco José González Gutiérrez Cádiz, Octubre de 2004 Universidad de Cádiz Departamento de Matemáticas ii Lección 1 Conjuntos y Subconjuntos

Más detalles

VECTORES. Módulo, dirección y sentido de un vector fijo En un vector fijo se llama módulo del mismo a la longitud del segmento que lo define.

VECTORES. Módulo, dirección y sentido de un vector fijo En un vector fijo se llama módulo del mismo a la longitud del segmento que lo define. VECTORES El estudio de los vectores es uno de tantos conocimientos de las matemáticas que provienen de la física. En esta ciencia se distingue entre magnitudes escalares y magnitudes vectoriales. Se llaman

Más detalles

Fundamentos de Investigación de Operaciones Investigación de Operaciones 1

Fundamentos de Investigación de Operaciones Investigación de Operaciones 1 Fundamentos de Investigación de Operaciones Investigación de Operaciones 1 1 de agosto de 2003 1. Introducción Cualquier modelo de una situación es una simplificación de la situación real. Por lo tanto,

Más detalles

Semana 08 [1/15] Axioma del Supremo. April 18, 2007. Axioma del Supremo

Semana 08 [1/15] Axioma del Supremo. April 18, 2007. Axioma del Supremo Semana 08 [1/15] April 18, 2007 Acotamiento de conjuntos Semana 08 [2/15] Cota Superior e Inferior Antes de presentarles el axioma del supremo, axioma de los números reales, debemos estudiar una serie

Más detalles

Espacios vectoriales. Bases. Coordenadas

Espacios vectoriales. Bases. Coordenadas Capítulo 5 Espacios vectoriales. Bases. Coordenadas OPERACIONES ENR n Recordemos que el producto cartesiano de dos conjuntos A y B consiste en los pares ordenados (a,b) tales que a A y b B. Cuando consideramos

Más detalles

PROGRAMACIÓN LINEAL. 8.1. Introducción. 8.2. Inecuaciones lineales con 2 variables

PROGRAMACIÓN LINEAL. 8.1. Introducción. 8.2. Inecuaciones lineales con 2 variables Capítulo 8 PROGRAMACIÓN LINEAL 8.1. Introducción La programación lineal es una técnica matemática relativamente reciente (siglo XX), que consiste en una serie de métodos y procedimientos que permiten resolver

Más detalles

Profr. Efraín Soto Apolinar. La función lineal. y = a 0 + a 1 x. y = m x + b

Profr. Efraín Soto Apolinar. La función lineal. y = a 0 + a 1 x. y = m x + b La función lineal Una función polinomial de grado uno tiene la forma: y = a 0 + a 1 x El semestre pasado estudiamos la ecuación de la recta. y = m x + b En la notación de funciones polinomiales, el coeficiente

Más detalles

1. Derivadas parciales

1. Derivadas parciales Análisis Matemático II. Curso 2009/2010. Diplomatura en Estadística/Ing. Téc. en Inf. de Gestión. Universidad de Jaén TEMA 3. ABLES DIFERENCIACIÓN DE FUNCIONES DE VARIAS VARI- 1. Derivadas parciales Para

Más detalles

Clasificación de métricas.

Clasificación de métricas. Clasificación de métricas. 1. El problema de clasificación. Como bien sabemos, el par formado por una métrica T 2 (esto es, un tensor 2-covariante simétrico) sobre un espacio vectorial E, (E, T 2 ), constituye

Más detalles

Tema 1 Generalidades sobre Ecuaciones Diferenciales Ordinarias (E.D.O.)

Tema 1 Generalidades sobre Ecuaciones Diferenciales Ordinarias (E.D.O.) Tema 1 Generalidades sobre Ecuaciones Diferenciales Ordinarias (E.D.O.) 1.1 Definiciones Se llama ecuación diferencial a toda ecuación que contiene las derivadas de una o más variables dependientes respecto

Más detalles

3. Operaciones con funciones.

3. Operaciones con funciones. GRADO DE INGENIERÍA AEROESPACIAL. CURSO 00. Lección. Funciones derivada. 3. Operaciones con funciones. En esta sección veremos cómo podemos combinar funciones para construir otras nuevas. Especialmente

Más detalles

2.2 Transformada de Laplace y Transformada. 2.2.1 Definiciones. 2.2.1.1 Transformada de Laplace

2.2 Transformada de Laplace y Transformada. 2.2.1 Definiciones. 2.2.1.1 Transformada de Laplace 2.2 Transformada de Laplace y Transformada 2.2.1 Definiciones 2.2.1.1 Transformada de Laplace Dada una función de los reales en los reales, Existe una función denominada Transformada de Laplace que toma

Más detalles

1. MANEJO DE SUMATORIOS. PROPIEDADES Y EJERCICIOS.

1. MANEJO DE SUMATORIOS. PROPIEDADES Y EJERCICIOS. 1. MANEJO DE SUMATORIOS. PROPIEDADES Y EJERCICIOS. El sumatorio o sumatoria) es un operador matemático, representado por la letra griega sigma mayúscula Σ) que permite representar de manera abreviada sumas

Más detalles

SISTEMAS DE ECUACIONES LINEALES

SISTEMAS DE ECUACIONES LINEALES Capítulo 7 SISTEMAS DE ECUACIONES LINEALES 7.1. Introducción Se denomina ecuación lineal a aquella que tiene la forma de un polinomio de primer grado, es decir, las incógnitas no están elevadas a potencias,

Más detalles

Aplicaciones Lineales

Aplicaciones Lineales Aplicaciones Lineales Primeras definiciones Una aplicación lineal de un K-ev de salida E a un K-ev de llegada F es una aplicación f : E F tal que f(u + v) = f(u) + f(v) para todos u v E f(λ u) = λ f(u)

Más detalles

Sistemas de numeración

Sistemas de numeración Sistemas de numeración Un sistema de numeración es un conjunto de símbolos y reglas que permiten representar datos numéricos. Los sistemas de numeración actuales son sistemas posicionales, que se caracterizan

Más detalles

Análisis III. Joaquín M. Ortega Aramburu

Análisis III. Joaquín M. Ortega Aramburu Análisis III Joaquín M. Ortega Aramburu Septiembre de 1999 Actualizado en julio de 2001 2 Índice General 1 Continuidad en el espacio euclídeo 5 1.1 El espacio euclídeo R n...............................

Más detalles

Datos del autor. Nombres y apellido: Germán Andrés Paz. Lugar de nacimiento: Rosario (Código Postal 2000), Santa Fe, Argentina

Datos del autor. Nombres y apellido: Germán Andrés Paz. Lugar de nacimiento: Rosario (Código Postal 2000), Santa Fe, Argentina Datos del autor Nombres y apellido: Germán Andrés Paz Lugar de nacimiento: Rosario (Código Postal 2000), Santa Fe, Argentina Correo electrónico: [email protected] =========0========= Introducción

Más detalles

AXIOMAS DE CUERPO (CAMPO) DE LOS NÚMEROS REALES

AXIOMAS DE CUERPO (CAMPO) DE LOS NÚMEROS REALES AXIOMASDECUERPO(CAMPO) DELOSNÚMEROSREALES Ejemplo: 6 INECUACIONES 15 VA11) x y x y. VA12) x y x y. Las demostraciones de muchas de estas propiedades son evidentes de la definición. Otras se demostrarán

Más detalles

Apuntes sobre algunos teoremas fundamentales de análisis complejo, con 20 ejemplos resueltos (2007-08)

Apuntes sobre algunos teoremas fundamentales de análisis complejo, con 20 ejemplos resueltos (2007-08) Variable Compleja I (3 o de Matemáticas) Apuntes sobre algunos teoremas fundamentales de análisis complejo, con ejemplos resueltos (7-8) En estos apuntes, consideraremos las funciones anaĺıticas (holomorfas)

Más detalles

Programa para el Mejoramiento de la Enseñanza de la Matemática en ANEP Proyecto: Análisis, Reflexión y Producción. Fracciones

Programa para el Mejoramiento de la Enseñanza de la Matemática en ANEP Proyecto: Análisis, Reflexión y Producción. Fracciones Fracciones. Las fracciones y los números Racionales Las fracciones se utilizan cotidianamente en contextos relacionados con la medida, el reparto o como forma de relacionar dos cantidades. Tenemos entonces

Más detalles

Juan Antonio González Mota Profesor de Matemáticas del Colegio Juan XIII Zaidín de Granada

Juan Antonio González Mota Profesor de Matemáticas del Colegio Juan XIII Zaidín de Granada FUNCIONES CONOCIDAS. FUNCIONES LINEALES. Se llaman funciones lineales a aquellas que se representan mediante rectas. Su epresión en forma eplícita es y f ( ) a b. En sentido más estricto, se llaman funciones

Más detalles

Teorema de Green. 6.1. Curvas de Jordan

Teorema de Green. 6.1. Curvas de Jordan Lección 6 Teorema de Green En la lección anterior, previa caracterización de los campos conservativos, hemos visto que un campo irrotacional puede no ser conservativo. Tenemos por tanto una condición fácil

Más detalles

1. Definición 2. Operaciones con funciones

1. Definición 2. Operaciones con funciones 1. Definición 2. Operaciones con funciones 3. Estudio de una función: Suma y diferencia Producto Cociente Composición de funciones Función reciproca (inversa) Dominio Recorrido Puntos de corte Signo de

Más detalles

OPTIMIZACIÓN ESCALAR. María Jesús de la Fuente Aparicio Dpto. Ingeniería de Sistemas y Automática

OPTIMIZACIÓN ESCALAR. María Jesús de la Fuente Aparicio Dpto. Ingeniería de Sistemas y Automática OPTIMIZACIÓN ESCALAR María Jesús de la Fuente Aparicio Dpto. Ingeniería de Sistemas y Automática CONCEPTOS BÁSICOS DEFINICIONES Definiciones Optimo local (mínimo local) Un punto * F se denomina un mínimo

Más detalles