Clase. 1. Resolución de sistemas de ecuaciones lineales: preliminares

Documentos relacionados
Sistema de ecuaciones lineales

Problemas Ampliación de Matemáticas. Sistemas lineales 1.- Encontrar la factorización L U de las siguientes matrices:

Resolución de sistemas de ecuaciones lineales

Elementos de Cálculo Numérico

Método de diferencias finitas para ecuaciones diferenciales parciales elípticas. (Parte II)

ITERATIVOS Y DIRECTOS PARA SISTEMAS LINEALES. Ayudante: Rodrigo Torres Aguirre Ejercicios:

Métodos iterativos de solución de SEL

2. Sistemas de ecuaciones lineales

METODOS ITERATIVOS. Hermes Pantoja Carhuavilca. Facultad de Ingeniería Mecanica Universidad Nacional de Ingenieria

Resolución de Sistema de Ecuaciones Lineales

I. Métodos directos para resolución de SEL. Se dice que una matriz A admite una factorización LU indirecta A = LU

Cálculo Numérico. Curso Ejercicios: Preliminares I

1.II.3. Sistemas de ecuaciones lineales: métodos iterativos.

Resolución numérica de sistemas de ecuaciones. Introducción

Resolución numérica de sistemas de ecuaciones. Introducción

Métodos Matemáticos Grado en Geomática y Topografía. J.L. Bravo. Curso

Parte 4. Métodos iterativos para la resolución de sistemas de ecuaciones lineales

Universidad Nacional de Ingeniería Facultad de Ciencias. Física Computacional CC063. Algebra Lineal. Prof: J. Solano 2012-I

E.T.S. Minas: Métodos Matemáticos Ejercicios Tema 4 Métodos iterativos para sistemas de ecuaciones

Álgebra Lineal Ma1010

Primero se triangulariza la matriz: Multiplicando la primera fila por (-1/3) y sumando a la segunda fila: ( ) ( )=( ) ( ) ( )

Métodos Numéricos: Ejercicios resueltos

9. Normas y métodos iterativos de resolución de sistemas lineales.

INSTITUTO TECNOLOGICO SUPERIOR DE TEPOSCOLULA CARRERA: INGIENERIA SISTEMAS COMPUTACIONALES CATEDRATICO: ING. MARCO ANTONIO RUIZ VICENTE

Tema 6: Resolución aproximada de sistemas de ecuaciones lineales

Métodos iterativos para sistemas de ecuaciones lineales

3. Sistemas inconsistentes y sistemas indeterminados

Sistemas de Ecuaciones. Lineales I

Simulacion Numerica / Metodos Numericos. Unidad III Solución de Ecuaciones Lineales. Ing. Deny González Msc.

TEMA 8. Sistemas de Ecuaciones Lineales: Método de Gauss. 1. Sistemas de ecuaciones lineales. Generalidades

Resolución numérica de sistemas de ecuaciones lineales

Unidad 5 Problemas de álgebra lineal numérica.

Sistemas Lineales. { 99 87x y = x y = que resolvemos por el método de eliminación de Gauss: Véase el ejemplo 19

Tema 3 Resolución de Sistemas deecuaciones Lineales

Resolución de Sistema de Ecuaciones Lineales

RESOLUCIÓN DE SISTEMAS LINEALES

Sistemas lineales de ecuaciones

TEMA 4: Sistemas de ecuaciones lineales II

METODOS NUMERICOS TALLER 3, SEMESTRE

EXAMEN PARCIAL DE METODOS NUMERICOS (MB536)

Tema 3 Resolución de Sistemas de Ecuaciones Lineales

Gustavo Rodríguez Gómez. Agosto Dicembre 2011

Sistemas de ecuaciones lineales

Al considerar varios polígonos regulares inscritos resulta: perímetro del cuadrado < π. perímetro del 96 gono < π

SISTEMAS DE ECUACIONES LINEALES

TAREA 1 ALGEBRA ING. AMBIENTAL UNIVERSIDAD DE CÒRDOBA Vanessa Aldana, Cristian Gonzales, María De La Ossa

MÉTODO DE DIFERENCIAS FINITAS (FDM)

Métodos de factorización para resolver sistemas de ecuaciones lineales. 22 de agosto, 2012

Análisis Numérico para Ingeniería. Clase Nro. 5

RESOLUCIÓN DE SISTEMAS NO LINEALES -- Método de Newton-Raphson

SEL - Métodos Directos

PRÁCTICA IV: SISTEMAS DE ECUACIONES

Inversión de Matrices

Métodos iterativos para sistemas de ecuaciones lineales

Tema 1: Matrices. Sistemas de ecuaciones. Determinantes

Sistemas de ecuaciones lineales

Métodos para matrices especiales. Descomposición de Cholesky

Métodos iterativos de resolución de sistemas lineales

Resolución de Sistema de Ecuaciones Lineales

SISTEMAS DE ECUACIONES LINEALES MÉTODO DE LA MATRIZ INVERSA

Procedimiento para encontrar la inversa de una matriz cuadrada (Método de Gauss-Jordan).

EJERCICIO COMPUTACIONAL N o 4. MÉTODOS ITERATIVOS

ETSI de Topografía, Geodesia y Cartografía

Profesor Francisco R. Villatoro 13 de Diciembre de 1999 SOLUCIONES. 1. Una matriz A de n n es diagonalmente dominante (estrictamente) por filas si

Solución numérica de sistemas de ecuaciones lineales

PRÁCTICA N 5 SISTEMAS DE ECUACIONES LINEALES

Cálculo Numérico - CO3211. Ejercicios. d ) Sabiendo que la inversa de la matriz A = es A c d

MATRICES. Se simboliza tal matriz por y se le llamará una matriz x o matriz de orden x (que se lee por ).

Solución de sistemas de ecuaciones lineales: Métodos de Jácobi y Gauss-Seidel

Vectores en el plano UNIDAD I: MATRICES. Dirección de un vector. Sentido de un vector

Matrices, Determinantes y Sistemas Lineales.

PROBLEMAS RESUELTOS SELECTIVIDAD ANDALUCÍA 2002 MATEMÁTICAS II TEMA 2: SISTEMAS DE ECUACIONES LINEALES

Práctica: Métodos de resolución de ecuaciones lineales.

PRÁCTICA 3: MATLAB Y LA FORMA REDUCIDA POR FILAS

SISTEMAS DE ECUACIONES LINEALES

Sistema de Ecuaciones Lineales

APUNTES DE ÁLGEBRA LINEAL TEMA 2. SISTEMAS DE ECUACIONES LINEALES

Matrices triangulares y descomposición LU

Lección 11. Eliminación Gaussiana con Pivoteo y Matrices de Banda

Sistemas de Ecuaciones. Lineales II

Métodos Numéricos para Sistemas de Ecuaciones Lineales

Capítulo 2. Determinantes Introducción. Definiciones

CEROS DE FUNCIONES. Laboratori de Càlcul Numèric (LaCàN) Universitat Politècnica de Catalunya (UPC)

PROBLEMAS RESUELTOS SELECTIVIDAD ANDALUCÍA MATEMÁTICAS II TEMA 2: SISTEMAS DE ECUACIONES LINEALES

SISTEMAS DE ECUACIONES LINEALES. Método de reducción o de Gauss. 1º DE BACHILLERATO DPTO DE MATEMÁTICAS COLEGIO MARAVILLAS AUTORA: Teresa González.

ALN2_IS5_explicaciones Resolución de sistemas de ecuaciones lineales: método de Gauss, pivoteo, descomposición LU.

5 Métodos iterativos para resolver sistemas de ecuaciones lineales

Francisco José Vera López

CAPÍTULO 3: DETERMINANTES Y SISTEMAS DE ECUACIONES

MATRICES Y DETERMINANTES MATRIZ INVERSA

Método de eliminación de Gauss Utilidad del método. Transformaciones elementales. Teorema Rouché-Frobenius

Estrategias de pivoteo

Resolución de sistemas lineales

MÓDULO SE: SISTEMAS DE ECUACIONES

Métodos iterativos de resolución de sistemas lineales

ALN - Curso 2007 Gradiente Conjugado

Ejercicio 3 de la Opción A del modelo 1 de 2008.

Algebra Lineal XXVI: La Regla de Cramer.

Matrices y sistemas de ecuaciones lineales. Autovalores y autovectores.

Transcripción:

Clase 1. Resolución de sistemas de ecuaciones lineales: preliminares 2. Método directo y exacto: Gauss 3. Método directo y exacto (II): descomposición LU 4. Métodos indirectos: Jacobi, Gauss-Seidel 2

Sistemas lineales PRELIMINARES

Matriz de coeficientes Vector de incógnitas Sistema de ecuaciones lineales

Recordatorio de álgebra lineal

La primera opción que uno se plantea es No es eficiente (demasiadas operaciones) Si el determinante de A es próximo a cero, el error de redondeo puede ser muy grande, y esto es dificil de estimar numéricamente ( ) Se requieren métodos numéricos alternativos:

La primera opción que uno se plantea es No es eficiente (demasiadas operaciones) Si el determinante de A es próximo a cero, el error de redondeo puede ser muy grande. Se requieren métodos numéricos alternativos: métodos directos (son exactos (no tienen asociado error de truncamiento), y son usados cuando la mayoría de los coeficientes de A son distintos de cero y las matrices no son demasiado grandes). Suelen ser algoritmos complicados de implementar

La primera opción que uno se plantea es No es eficiente (demasiadas operaciones) Si el determinante de A es próximo a cero, el error de redondeo puede ser muy grande. Se requieren métodos numéricos alternativos: métodos directos (son exactos (no tienen asociado error de truncamiento), y son usados cuando la mayoría de los coeficientes de A son distintos de cero y las matrices no son demasiado grandes). Suelen ser algoritmos complicados de implementar métodos indirectos o iterativos (tienen asociado un error de truncamiento y se usan preferiblemente para matrices grandes (n>>1000) cuando los coeficientes de A son la mayoría nulos matrices sparse-). Algoritmos sencillos de implementar que requiere aproximación inicial y que en general no tiene porqué converger (requieren análisis de convergencia previo).

Ejemplos Métodos directos método de eliminación de Gauss (llevar A a triangular) método de descomposición LU (A=LU, donde L triangular inferior y U triangular superior) método de Cholesky (LU para matrices simétricas) Métodos iterativos método de Jacobi método de Gauss-Seidel método SOR

METODOS DIRECTOS

método de eliminación de Gauss

LA IDEA o Primero, mediante operaciones elementales por filas, se transforma la matriz ampliada en una matriz triangular superior (equivalente a la matriz de partida) (PASO DE ELIMINACION) o Segundo, se resuelve dicho sistema obteniendo las incógnitas, empezando por la n-esima la última- y acabando con la primera (PASO DE SUSTITUCION).

(ALGEBRA LINEAL)

REPETIMOS ESTE PROCESO N-1 VECES HASTA LLEGAR A

Finalmente, por sustitución regresiva resolvemos el sistema.

ELIMINACIÓN DE GAUSS: ALGORITMO COMPLETO Paso de eliminación Paso de sustitución (cambio de notación a u)

método de descomposición LU

LA IDEA o Primero, a partir de la matriz A se calcula aquella matriz triangular inferior L y aquella matriz triangular superior U (con 1 s en la diagonal) tal que A=LU (PASO DE DESCOMPOSICION) o Así, el sistema Ax=b pasa a ser LUx=b. Primero hacemos el cambio Ux=y, que introducimos y el sistema resulta Ly=b. Como L es triangular, fácilmente calculamos y. Finalmente, introducimos este resultado en Ux=y, y como U es triangular, fácilmente calculamos x. (PASO DE SUSTITUCION).

PASO DE DESCOMPOSICION : L, U \ A=LU

PASO DE SUSTITUCION : Ly=b (cambio de notación y x)

PASO DE SUSTITUCION : Ux=y (cambio de notación y b)

Comentarios práctica (MÉTODOS DIRECTOS) -Cuidado con la información de entrada en las subrutinas!! - Subrutina LU: algoritmo se resuelve secuenciamente!! -Cálculo de determinantes con LU: trivial!!!!! det(a)=det(lu)=det(l)det(u)

Matrices estrictamente diagonal dominantes: propiedad suficiente para Gauss sin pivote y para LU (aunque no necesarias)

METODOS INDIRECTOS

GENERALIDADES - Qué son los métodos indirectos/iterativos? Esquemas numéricos para resolver sistemas de ecuaciones lineales, basados en la aplicación de un algoritmo a partir de una solución inicial, que se repite iterativamente hasta que un criterio de parada (convergencia) detiene el algoritmo (número de pasos desconocido a priori). - Para qué se usan los métodos indirectos/iterativos? Eficientes para sistemas grandes con matrices con un elevado número de ceros (matrices sparse), que aparecen en problemas de física e ingeniería, asociados a la resolución de ecuaciones diferenciales en derivadas parciales. - Convergencia y problemas mal condicionados Estos métodos no siempre convergen, y además, en ocasiones pequeñas variaciones pueden introducir grandes errores (problema de mal condicionamiento).

GENERALIDADES- esquema general Sea el problema Ax=b En la iteración k-ésima, el esquema numérico es x (k) = T x (k-1) + c Donde x es el vector solución, T una matriz nxn y c un vector, que dependen todos ellos de A y b

GENERALIDADES- esquema general -Si el esquema converge, el orden de convergencia es LINEAL (se necesitarán bastantes pasos para llegar a convergencia) - Por eso, se aplican estos métodos cuando las matrices tienen muchos ceros (cada paso tiene poco coste computacional)

GENERALIDADES- esquema general -criterio de parada: noción de distancia entre vectores? norma vectorial y matricial

GENERALIDADES- esquema general Distancia entre vectores Criterio de parada

MÉTODO DE JACOBI

MÉTODO DE JACOBI Planteamos el siguiente esquema iterativo! (si alguno de los elementos diagonales es nulo, reordenamos la matriz)

MÉTODO DE JACOBI

MÉTODO DE JACOBI: criterio de parada Suponiendo que la sucesión de x (k) es convergente (más tarde veremos cuándo sucede esto), el algoritmo parará cuando la solución varíe poco, por ejemplo:

MÉTODO DE GAUSS-SEIDEL Partiendo del método de Jacobi

MÉTODO DE GAUSS-SEIDEL jacobi

MÉTODO DE GAUSS-SEIDEL

MÉTODO DE GAUSS-SEIDEL En notación matricial, requiere calcular inversas, luego es preferible un algoritmo que resuelva, en cada iteración, secuencialmente cada elemento del vector solución: Donde i=1,2,,n.

MÉTODO DE GAUSS-SEIDEL: criterio de parada Suponiendo que la sucesión de x (k) es convergente (más tarde veremos cuándo sucede esto), el algoritmo parará cuando la solución varíe poco, por ejemplo:

COMPARACION EJEMPLO

COMPARACION EJEMPLO: USANDO JACOBI USANDO JACOBI

COMPARACION EJEMPLO: USANDO GAUSS-SEIDEL USANDO JACOBI

COMPARACION EJEMPLO USANDO JACOBI USANDO GAUSS-SEIDEL ES SIEMPRE GS MÁS RÁPIDO QUE JACOBI??

COMPARACION EJEMPLO USANDO JACOBI USANDO GAUSS-SEIDEL ES SIEMPRE GS MÁS RÁPIDO QUE JACOBI?? NO SIEMPRE! ES NECESARIO REALIZAR UN ESTUDIO DE CONVERGENCIA PREVIO

CONVERGENCIA Los métodos anteriores pueden converger/divergir independientemente (cada uno puede converger o divergir para el mismo problema). CONDICION SUFICIENTE DE CONVERGENCIA

CONVERGENCIA: radio espectral Cómo crece el error de truncamiento absoluto del esquema?

CONVERGENCIA

CONVERGENCIA Ojo Calcular el radio espectral puede ser costoso, pero cualquier norma natural de una matriz es cota superior de su radio espectral basta con calcular una norma natural (la más sencilla de calcular es l infinito) y verificar que es menor que 1 para que el método sea convergente.