Ecuaciones Diferenciales Ordinarias (2)

Documentos relacionados
Diferenciación numérica: Método de Euler explícito

Comparación de Métodos Numéricos para la Solución Ecuación Diferencial de 1 er Orden

Clase 9 Programación No Lineal

Métodos numéricos para Ecuaciones Diferenciales Ordinarias

SOLUCIÓN NUMÉRICA DE ECUACIONES ALGEBRAICAS Y TRASCENDENTES

Ecuaciones en Derivadas Parciales y Análisis Numérico. Prácticas

Asignaturas antecedentes y subsecuentes Análisis Numérico II

Preliminares Interpolación INTERPOLACIÓN Y APROXIMACIÓN POLINOMIAL

Métodos Numéricos. Carrera: BQM Participantes. Representantes de las academias de Ingeniería Bioquímica. Academia de Ingeniería

Sistemas de ecuaciones no lineales

Universidad de Santiago de Chile Facultad de Ciencia Departamento de Matemática y Ciencias de la Computación

Simulación Numérica de Yacimientos

UNIVERSIDAD NACIONAL DE SAN ANTONIO ABAD DEL CUSCO

Carrera: ECC

Métodos Numéricos. DOMINIO DEL PERFIL DE EGRESO RELACIONADO CON LA ASIGNATURA: Modelamiento de Procesos Decisionales

Cálculo en varias variables

1: INTRODUCCIÓN AL USO DE LA HOJA DE CALCULO EXCEL COMO HERRAMIENTA PARA DESARROLLAR PROBLEMAS EN INGENIERÍA. SOLVER, REGRESION LINEAL MULTIPLE

Presentación del curso

CAPÍTULO 2. SOLUCIÓN DE ECUACIONES DE UNA VARIABLE

CLAVE: MIS 206 PROFESOR: MTRO. ALEJANDRO SALAZAR GUERRERO

Laboratorio Nº 4 Ecuaciones diferenciales de orden n. Ecuación lineal homogénea. Soluciones linealmente independientes

Método de diferencias finitas para ecuaciones diferenciales parciales elípticas. (Parte II)

Universidad de Santiago de Chile Facultad de Ciencia Departamento de Matemática y Ciencias de la Computación

MATEMÁTICA TICA SUPERIOR APLICADA

Práctica IV: Métodos de Newton-Raphson y de la secante, para encontrar las raíces de una función.

MÉTODO NUMÉRICO HEURÍSTICO PARA EL CÁLCULO DE RAÍCES DE POLINOMIOS

Complementos de Análisis. Año 2016

Programación NO Lineal (PNL) Optimización sin restricciones

1 Método de la bisección. 1.1 Teorema de Bolzano Teorema 1.1 (Bolzano) Contenido

INTEGRACIÓN NUMÉRICA

2. Continuidad y derivabilidad. Aplicaciones

LICENCIATURA EN FÍSICA

OPTIMIZACIÓN Y SIMULACIÓN PARA LA EMPRESA. Tema 4 Optimización no Lineal

OPTIMIZACIÓN VECTORIAL

Introducción al Cálculo Numérico

Tema 2 Resolución de EcuacionesNo Lineales

Unidad V. 5.1 Recta tangente y recta normal a una curva en un punto. Curvas ortogonales.

Clase No. 20: Integrales impropias MAT 251. Joaquín Peña (CIMAT) Métodos Numéricos (MAT 251) / 14

Raices de ECUACIONES NO LINEALES PRIMER PARCIAL TEMA 2

Fundamentos matemáticos. Tema 8 Ecuaciones diferenciales

Solución numérica de ecuaciones diferenciales con condiciones iniciales

May 4, 2012 CAPÍTULO 5: OPTIMIZACIÓN

TEMA 5: INTERPOLACION NUMERICA

Órdenes de la convergencia de sucesiones. Condiciones de la convergencia lineal y cuadrática del método de iteración simple

Cálculo Diferencial en una variable

Para las ecuaciones diferenciales ordinarias no lineales no existen métodos generales.

Trabajo Práctico Introductorio Matlab, Simulink y Métodos de Integración Numérica

TEMA 6 PROBLEMAS DE VALOR INICIAL PROBLEMAS DE CÁLCULO NUMÉRICO (8/9) El código se lista a continuación: function [S,T]resuelve_ed(Tobs,h) T[:h:Tobs];

Laboratorio Nº 1 La Descripción Gráfica de la Ecuación Diferencial Ordinaria

Ideas para proyectos finales

Clase 10: Extremos condicionados y multiplicadores de Lagrange

Terceras Jornadas Investigaciones en la Facultad de Ciencias Económicas y Estadística, octubre de 1998

TRAZADO DE LÍNEAS EQUIPOTENCIALES

BLOQUE 4. CÁLCULO DIFERENCIAL DE FUNCIONES REALES DE UNA VARIABLE

Tema 6. Diseño de controladores discretos

Capítulo 3 El Método de los Elementos de Contorno y la Formulación Hipersingular.

Carrera: MCF Participantes Representantes de las academias de Ingeniería Mecánica de Institutos Tecnológicos. Academia de Ingeniería

La derivada como razón de cambio instantánea

Operador Diferencial y Ecuaciones Diferenciales

1. ECUACIONES DIFERENCIALES ORDINARIAS

Diferenciabilidad en un intervalo

Técnicas numéricas para las Ecuaciones diferenciales de primer orden: Método de Euler

El Algoritmo E-M. José Antonio Camarena Ibarrola

6.1. RESOLUCIÓN NUMÉRICA DE PROBLEMAS DE VALORES INICIALES

Integración Numérica. Regla de Simpson.

Límites y continuidad de funciones reales de variable real

PLAN DE CURSO PC-01 FO-TESE-DA-09 DIRECCIÓN ACADÉMICA DIVISIÓN DE INGENIERÍA ELECTRÓNICA. Según Corresponda CALCULO INTEGRAL TURNO: 1201/1 251

Ejercicio 3.1. Sea el campo de velocidades de un escurrimiento definido por : v = x 2 yē x + x 2 tē y (3.1)

Competencia específica. Conceptos básicos. Función. f : X Y

Soluciones de la ecuación diferencial lineal homogénea

2 Deniciones y soluciones

Tema 6: Ecuaciones diferenciales lineales.

PROGRAMA DE CURSO. Código Nombre MA2601 Ecuaciones Diferenciales Ordinarias. Nombre en Inglés Ordinary Differential Equations SCT ,0 2,0 5,0

CAPÍTULO 4: DERIVADAS DE ORDEN SUPERIOR. En este capítulo D denota un subconjunto abierto de R n.

1 Ecuaciones diferenciales

x = t 3 (x t) 2 + x t. (1)

Métodos Numéricos Grado en Informática Tema 5: Diferenciación e Integración Numérica

Sistemas polinomiales

Apéndice sobre ecuaciones diferenciales lineales

Esta expresión polinómica puede expresarse como una expresión matricial de la forma; a 11 a 12 a 1n x 1 x 2 q(x 1, x 2,, x n ) = (x 1, x 2,, x n )

Métodos Numéricos: Guía de estudio Tema 5: Solución aproximada de ecuaciones

Integración numérica

Derivadas Parciales (parte 2)

Fundamentos matemáticos. Tema 5 Derivación de funciones de una y varias variables

duv = udv + vdu udv = uv vdu

Juan Ruiz Álvarez. Matemáticas (Grado en Biología)

Transformada de Laplace - Conceptos Básicos. e -st f(t)dt. L { f (t) } = F(s) =

* e e Propiedades de la potenciación.

DERIVADAS PARCIALES Y APLICACIONES

DERIVADAS. Para hallar la pendiente de una curva en algún punto hacemos uso de la recta tangente de una curva en un punto.

Teoría de la decisión

Solución de ecuaciones algebraicas y trascendentes: Método de Newton Raphson

Descomposición en forma canónica de Jordan (Segunda versión)

Preliminares Métodos de Derivación Numérica DERIVACIÓN NUMÉRICA DERIVACIÓN NUMÉRICA

Límites y continuidad 1º Bachillerato ELABORADO CON EDITORIAL SM

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA

TEMA 1: SISTEMAS MODELADOS POR ECUACIONES DIFERENCIALES EN INGENIERÍA QUÍMICA. CLASIFICACIÓN. GENERALIDADES.

Simulación I. Investigación Operativa, Grado en Estadística y Empresa, 2011/12

MÉTODO DE DIFERENCIAS FINITAS Y EL USO DE MATLAB PARA ECUACIONES ELÍPTICAS SOBRE CONDUCTIVIDAD TÉRMICA

Preparatoria Sor Juana Inés de la Cruz Cálculo Diferencial Tutorial: Optimización Ing. Jonathan Quiroga Tinoco

Transcripción:

MODELACION NUMERICA CON APLICACIONES EN INGENIERIA HIDRAULICA Y AMBIENTAL Ecuaciones Diferenciales Ordinarias (2) Yarko Niño C. y Paulo Herrera R. Departamento de Ingeniería Civil, Universidad de Chile Semestre Primavera 2011

Resumen clase pasada Solución del problema: y = f(t, y) con y(t 0 ) = y 0 Método de Euler Despreciando términos de orden superior a h, En forma discreta, ŷ(t + h) y(t) + hf(t, y) ŷ k+1 = ŷ k + h k f(t k, ŷ k ) 2 / 31

Método de Euler en Reversa Método de Euler es explícito porque sólo utiliza información en tiempo t k para calcular estado en tiempo t k+1. Desventaja es que tiene limitada estabilidad. Qué pasa si f(t, y) es evaluada en (t k+1, y k+1 )? Método de Euler en Reversa (Backward Euler) ŷ k+1 = ŷ k + h k f(t k+1, ŷ k+1 ) Esto implica que se deben resolver ecuaciones algebraicas. Método es implícito. 3 / 31

Ejemplo: Método de Euler en Reversa y = y 3 ; y(0) = 1; h = 0,5 y 1 = y 0 + hf(t 1, y 1 ) = 1 0,5y 3 1 0,5y 3 1 + y 1 1 = 0 entonces, es necesario encontrar raíces de una ecuación cúbica. Newton-Raphson g(x) = 0; x 1 = x 0 g(x 0) g (x 0 ) ; x n+1 = x n g(x n) g (x n ) Para seleccionar valor inicial x 0 se puede utilizar valor a t k (ŷ k ) o utilizar Euler para calcular una aproximación de ŷ k+1. 4 / 31

Método de Euler en Reversa (cont.) Por qué pagar un costo extra por evaluar f(t k+1, y k+1 )? Considerando y = λy, Iteración, ŷ k+1 = ŷ k + hλŷ k+1 (1 hλ) ŷ k+1 = ŷ k ŷ k = ( ) 1 k ŷ 0 1 hλ Entonces, solución ŷ k es estable si, 1 1 hλ 1 Si λ < 0 se cumple para cualquier h > 0 método es incondicionalmente estable. 5 / 31

Método de Euler en Reversa (cont.) Iteración, ŷ k = Expandiendo el factor de desarrollo, pero la verdadera solución, ( ) 1 k ŷ 0 1 hλ 1 1 hλ = 1 + hλ + (hλ)2 +... e hλ = 1 + hλ + (hλ)2 +... 2 Entonces, método de Euler en reversa es de primer orden. Como método es incondicionalmente estable, único criterio para seleccionar h k es la exactitud de la solución. 6 / 31

Método del Trapezoide Euler explícito e implícito son aproximaciones de primer orden, pero qué pasa si los mezclamos? ŷ k+1 = ŷ k + h k [f(t k, ŷ k ) + f(t k+1, ŷ k+1 )] /2 Tomando el caso canónico y = λy, es decir, ŷ k+1 = y k + h (λŷ k + λŷ k+1 ) /2 ( ) 1 + hλ/2 k ŷ k = y 0 1 hλ/2 Entonces la solución es estable si, 1 + hλ/2 1 hλ/2 < 1 esto se cumple para todo h > 0 si λ < 0 método es incondicionalmente estable. 7 / 31

Método del Trapezoide (cont.) Expandiendo el factor de desarrollo, versus, 1 + hλ/2 (hλ)2 = 1 + hλ + + (hλ)3 +... 1 hλ/2 2 4 e hλ = 1 + hλ + (hλ)2 +... 2 Entonces, método es de segundo orden. Comentarios: En general, métodos implícitos tienen un rango de estabilidad mayor que el de métodos explícitos, pero Implícito incondicionalmente estable. 8 / 31

Método de resolución para EDOs Método de Euler importante desde un punto de vista conceptual, pero inútil en la práctica (al menos, los libros lo dicen!). Existen varios otros métodos que, aunque más sofisticados, de alguna u otra forma están basados en el método de Euler. Tipos de métodos: Series de Taylor Runge-Kutta Multistep (predictor-corrector) Extrapolación Multivalue 9 / 31

Series de Taylor y(t + h) = y(t) + hy (t) + h2 2 y (t) + h3 6 y (t) +... Despreciando términos de orden superior a h 2, Cómo calculamos y (t)? ŷ k+1 = y k + h k y k + h2 k 2 y k y (t) = f t (t, y) + f y (t, y)y = f t (t, y) + f y (t, y)f(t, y) Expresiones para métodos de orden más alto son más complicadas. Alternativa, es usar diferenciación numérica. 10 / 31

Runge-Kutta Runge-Kutta métodos son similares a aproximaciones basadas en Series de Taylor pero aproximan las derivadas usando diferencias finitas calculadas con valores de f evaluados en puntos intermedios entre t k y t k+1. Por ejemplo, el método de Runge-Kutta de segundo orden puede derivarse comenzando por, y (t) = f t (t, y) + f y (t, y)y Por otra parte, la serie de Taylor en dos variables de f es, entonces, f(t + h, y + hf) = f(t, y) + hf t (t, y) + hf y (t, y)f(t, y) + O(h 2 ) f t (t, y) + f y (t, y)f(t, y) = f(t + h, y + hf) f(t, y) h + O(h) 11 / 31

Runge-Kutta (cont.) Sustituyendo la aproximación para la segunda derivada, obtenemos ŷ k+1 = ŷ k + h k f(t k, ŷ k ) + h2 k 2 Definiendo, f(t k + h k, ŷ k + h k f(t k, ŷ k )) f(t k, ŷ k ) h k = ŷ k + h k 2 [f(t k, ŷ k ) + f(t k + h k, ŷ k + h k f(t k, ŷ k ))] k 1 = f(t k, ŷ k ) k 2 = f(t k + h k, ŷ k + h k k 1 ) Obtenemos el método de Heun, ŷ k+1 = ŷ k + h k 2 (k 1 + k 2 ) 12 / 31

Runge-Kutta (cont.) 13 / 31

Runge-Kutta (cont.) Por Teorema Fundamental del Cálculo, la solución de la EDO y = f(t, y) con y(t = t 0 ) = y 0, se puede escribir como, y(t) = y 0 + t t 0 f(t, y(τ)) dτ Las aproximaciones del tipo Runge-Kutta pueden ser intepretados como métodos de integración basados en cuadraturas. f(t k, ŷ k ) f(t k+1, ŷ k+1 ) Método de Heun calcula la integral bajo la curva usando un trapezoide, pero aproximando t k t k+1 ŷ k+1 = ŷ k + h k k 1 14 / 31

Runge-Kutta (cont.) Es posible aplicar la misma metodología para obtener métodos de orden más alto. Por ejemplo, Runge-Kutta de orden 4, donde, ŷ k+1 = ŷ k + h k 6 (k 1 + 2k 2 + 2k 3 + k 4 ) k 1 = f(t k, ŷ k ) k 2 = f(t k + h k /2, y k + h k k 1 /2) k 3 = f(t k + h k /2, y k + h k k 2 /2) k 4 = f(t k + h k, y k + h k k 3 ) 15 / 31

Runge-Kutta (cont.) 16 / 31

Control automático de discretización Aplicar aproximación de Runge-Kutta de orden 4 para calcular solución usando h y 2h, ŷ(x + 2h) = ŷ 1 + (2h) 5 C + O(h 6 ) ŷ(x + 2h) = ŷ 2 + 2(h) 5 C + O(h 6 ) donde ŷ 1 aproximación en un paso 2h e ŷ 2 aproximación en dos pasos h. Definiendo ŷ 2 ŷ 1, tenemos una estimación del error de truncación de la aproximación ŷ 1. Si > tol reducir h, si < tol aumentar h. Este es el principio para implementar algoritmos con control automático de error. 17 / 31

Control automático de discretización (cont.) Comentarios, En general, el mismo procedimiento de refinamiento de la grilla numérica se puede aplicar para verificar convergencia de la solución con cualquier método numérico. La estimación del error de truncación es útil para medir la calidad de la solución numérica, sin embargo, requiere cálculos adicionales, lo que motivo el desarrollo de otros métodos que utilizan las mismas evaluaciones de f para calcular aproximaciones de distinto orden (por ej. Runge-Kutta-Fehlberg). 18 / 31

Control automático de discretización (cont.) Teníamos, ŷ(x + 2h) = ŷ 1 + (2h) 5 C + O(h 6 ) ŷ(x + 2h) = ŷ 2 + 2(h) 5 C + O(h 6 ) Combinando las expresiones para pasos h y 2h obtenemos, ŷ(x + 2h) = ŷ 2 + 15 + O(h6 ) Esta última expresión es de orden 5, pero no tenemos una estimación de su error, por lo cual no es muy útil en la práctica. 19 / 31

Métodos de extrapolación Calcular solución con distintos pasos h i de tal forma de obtener una serie de aproximaciones Y i = Y (h i ). Interpolar para obtener una aproximación continua, Y = Y (h). Calcular la solución y k+1 = Y (0). Estos métodos entregan soluciones muy precisas, pero a un alto costo. Se utilizan en problemas que requieren soluciones de muy buena calidad. 20 / 31

Métodos de extrapolación (cont.) 21 / 31

Métodos multisteps Usan información de varios niveles anteriores para estimar la solución en el próximo nivel (por eso se les llama métodos con memoria). Aproximación calculada como, m m ŷ k+1 = α i ŷ k+1 i + h β i f(t k+1 i, ŷ k+1 i ) i=1 i=1 Método explícito si β 0 = 0, pero implícito si β 0 0. Métodos predictor-corrector son ejemplos de este tipo de métodos (mirar apuntes del curso). 22 / 31

Métodos para Problemas de Valor Inicial Métodos más comunes corresponden a tres familias, Runge-Kutta: propagar la información de la solución en un intervalo aplicando varias aproximaciones tipo Euler para sustituir en series de Taylor de algún orden. Extrapolación: suponer que es posible extrapolar aproximaciones al valor que tendrían si el paso fuera infinitamente pequeño. Predictor-corrector: almacenar las soluciones de niveles previos para extrapolar (o predecir)la solución al siguiente nivel. La solución extrapolada puede ser corregida usando la infomación de la derivada evaluada en el nuevo nivel. 23 / 31

Métodos para Problemas de Valor Inicial (cont.) Existen muchos métodos derivados de esas tres ideas básicas. También hay otros. Cada uno de esos métodos tiene ventajas y desventajas. En general, se debe considerar balance entre exactitud vs esfuerzo. Métodos de Runge-Kutta son los más comunes y fáciles de implementar. Existen varias bibliotecas científicas que implementan estos algoritmos no hay necesidad de reinventar la rueda!. Sin embargo, es bueno saber las principales propiedades de cada método para seleccionar el algoritmo de resolución óptimo. Scilab incluye una función ode que implementa varios de estos métodos. Por defecto, la rutina trata de seleccionar el algoritmo óptimo para cada problema. 24 / 31

Problemas de Valores de Borde Cuando una EDO debe satisfacer condiciones de borde en más de un punto, el problema se denomina Problema de Valores de Borde (Boundary Value Problem). Formalmente, el problema es definido por el conjunto de N EDOs de primer orden, dy i dx = g i(x, y 1, y 2,..., y N ) i = 1, 2,..., N sujetas a las condiciones de borde en x 1 y x 2, con n 2 = N n 1. B 1j (x 1, y 1, y 2,..., y N ) = 0 j = 1,..., n 1 B 2k (x 2, y 1, y 2,..., y N ) = 0 k = 1,..., n 2 25 / 31

Problemas de Valores de Borde (cont.) Diferencia con problemas de valor inicial es que en este caso la solución no es determinada sólo por condición inicial no es posible comenzar a avanzar desde uno de los bordes para calcular una solución única. Estrategia de solución se basa en algoritmos iterativos para aproximar posibles soluciones a una solución única que satisface todas las condiciones de borde. Esto significa que la solución de este tipo de problemas requiere más esfuerzo computacional que la solución de problemas de valor inicial. 26 / 31

Problemas de Valores de Borde (cont.) Métodos de resolución Shooting Method Collocation Method Diferencias Finitas Elementos Finitos 27 / 31

Shooting Method Estrategia general: Disparar una solución desde un punto para tratar de ajustar la solución en otro punto. Existen dos estrategias: 1 Avanzar (disparar) desde el punto inicial utiliza un algoritmo para resolver problemas de valor inicial. En el punto inicial sólo se satisfacen n 1 condiciones de borde, por lo que existen N n 1 pará metros que pueden ser ajustados para alcanzar el objetivo en el otro punto con condiciones de borde conocidas. 2 Avanzar desde dos puntos extremos para alcanzar un punto intermedio. Ajustar parámetros libres de tal forma que la solución sea continua en el punto de encuentro. 28 / 31

Shooting Method (cont.) 29 / 31

Shooting Method: Estrategia 1 1 En el punto inicial x 1 se requiere especificar N valores iniciales de y i, pero sólo hay n 1 condiciones de borde. 2 Entones, podemos especificar los valores iniciales como funciones de un vector de parámetros V de tal forma que los valores iniciales en x 1 son, y i (x 1 ) = y i (x 1 ; V 1,..., V n2 ) i = 1,..., N 3 Ahora integramos la EDO para obtener un conjunto de soluciones y(x 2 ). 4 En x 2 la solución puede no satisfacer las n 2 condiciones de borde, por lo que definimos un vector de discrepancia F. En general, F k = B 2k (x 2, y) 5 Ahora el problema es encontrar un vector V tal que F = 0 Newton-Raphson. 30 / 31

Shooting Method: Estrategia 1 (cont.) Newton-Raphson: 1 Encontrar incremento en la solución, J δv = F, J ij = F i V j 2 Jacobiano es evaluado en forma numérica, F i F i(v 1,..., V j + V j,...) F i (V 1,..., V j,...) V j V j 3 Actualizar solución, V new = V old + δv 31 / 31