Tema 2 Resolución de sistemas de ecuaciones lineales 21 Métodos directos de resolución de sistemas de ecuaciones lineales 211 Resolución de sistemas triangulares Definición 211 Una matriz A se dice triangular superior si a ij = 0, i > j, es decir, si todos los elementos por debajo de la diagonal principal son nulos Análogamente, A es triangular inferior si a ij = 0, i < j, es decir, si todos los elementos por encima de la diagonal principal son nulos Sea Ax = b, A R n,n, b R n, un sistema de ecuaciones lineales compatible determinado ( A =0) expresado en forma matricial, siendo A una matriz triangular superior Entonces la solución del sistema es inmediata: x n = b n, x k = 1 a kk ( b k n i=k+1 a ki x i ), k = n 1,, 1 1
2 Tema 2 Resolución de sistemas de ecuaciones lineales Análogamente se resuelve el caso en el que la matriz de coeficientes es triangular inferior 212 Método de Gauss (o de eliminación) Sea Ax = b, A R n,n, A =0, b R n, un sistema de ecuaciones lineales con solución única Se trata de transformarlo en un sistema triangular superior equivalente, es decir, con la misma solución Por ejemplo, resolvamos por el método de Gauss descrito el sistema de ecuaciones lineales: x 3y +z = 6, 2x + 3z = 5, 2x y 2z = 2 En este caso la matriz ampliada es (A b) = 1 3 1 6 2 0 3 5 2 1 2 2 y, aplicando el método de Gauss, se consigue de esta forma el sistema triangular, equivalente al inicial, dado por: x 3y +z = 6, 6y +5z = 17, 1 6 z = 1 6, cuyas soluciones son x = 1, y = 2, z = 1 El número de operaciones elementales que se realizan durante el proceso de eliminación sucesiva de incógnitas es del orden de O(n 3 /3) multiplicaciones y sumas Las necesidades de memoria se cifran en una matriz de n n elementos y un vector de n componentes, es decir, O(n 2 ) posiciones de memoria
21 Métodos directos de resolución de sistemas de ecuaciones lineales 3 Si en algún momento a (i) ii = 0, bastará con cambiar dos ecuaciones entre sí para conseguir un elemento no nulo en la misma posición A este elemento se le llama pivote i ésimo Debido a que los errores de redondeo en un denominador producen grandes errores en el cociente, una buena técnica para evitar un gran error en la solución es modificar el orden de las ecuaciones y las incógnitas en cada paso, para que el pivote sea el mayor posible, en valor absoluto, dejando invariantes las i 1 ecuaciones anteriores Si el pivote se elije entre los elementos a ji, con j > i, se dice que se ha elegido el mejor pivote parcial Si se elije entre los elementos a jk, con j, k > i, se dice que se ha elegido el mejor pivote total Esta última técnica garantiza casi siempre la estabilidad numérica de la eliminación gaussiana Sin embargo, presenta dos inconvenientes: exige realizar O(n 3 ) comparaciones suplementarias, y destruye la estructura particular (por ejemplo, de tipo banda) de ciertas matrices Por ello, en la práctica suele preferirse la estrategia de pivote parcial, combinada, en todo caso, con un equilibrado de filas Cabe destacar que, en numerosas ocasiones, el método de Gauss es estable sin necesidad de aplicar ninguna estrategia de pivoteo: es el caso de sistemas con matrices de coeficientes diagonal dominantes o simétricas definidas positivas 213 Método de descomposición LU Si se conoce una descomposición de la matriz A del sistema Ax = b, A R n,n, b R n, A =0, en la forma A = LU, con L una matriz triangular inferior y U una matriz triangular superior, la resolución del sistema queda reducida a la resolución de dos sistemas triangulares ya que, si se llama y = Ux, y se resuelven los sistemas Ly = b, Ux = y,
4 Tema 2 Resolución de sistemas de ecuaciones lineales la solución x obtenida verifica Ax = (LU)x = L(Ux) = Ly = b, y, por tanto, es la solución del sistema inicial Luego es evidente el interés por conseguir factorizaciones en la forma LU Si A = (a ij ), U = (u ij ) y L = (l ij ), se obtienen las siguientes relaciones: l 11 u 11 = a 11, u 1j = a 1j l 11, j 2, l i1 = a i1 u 11, i 2, k 1 l kk u kk = a kk l kr u rk, k 2, u kj = 1 l kk ( a kj l ik = 1 u kk ( u ik r=1 k 1 l kr u rj ), j > k, k 2, r=1 k 1 l ir u rk ), i > k, k 2 r=1 Por ejemplo, compruébese que la matriz 2 3 1 A = 0 1 1 2 1 2 se puede descomponer en la forma A = 1 0 0 0 1 0 1 4 1 2 3 1 0 1 1 0 0 7 Teorema 211 Si A = 0, existe una permutación de las filas y columnas de A tal que la matriz resultante es descomponible en la forma LU
21 Métodos directos de resolución de sistemas de ecuaciones lineales 5 En particular, si A es tridiagonal, es decir, a 1 c 1 0 0 0 0 b 2 a 2 c 2 0 0 0 A = 0 0 0 b n 1 a n 1 c n 1, 0 0 0 0 b n a n se puede descomponer en la forma LU siguiente α 1 0 0 0 0 1 β 1 0 0 0 b 2 α 2 0 0 0 0 1 β 2 0 0 A = 0 0 b n 1 α n 1 0 0 0 0 1 β n 1 0 0 0 b n α n 0 0 0 0 1 (211) siempre que α 1 = a 1, β 1 = c 1 α 1, α i = a i b i β i 1, i = 2,, n, β i = c i α i, i = 2,, n, y esto es posible si y sólo si α i =0, para todo i = 1,, n Puede demostrarse que si A es diagonalmente dominante, es decir, a 1 > c 1, a n > b n, a i > b i + c i, i = 2,, n 1, entonces α i =0, para todo i = 1,, n, y, por tanto, A se puede descomponer en la forma (211) 214 Método de Cholesky para matrices simétricas definidas positivas Se puede comprobar que, si A es una matriz simétrica y definida positiva, admite una descomposición en la forma LU con U = L T, es decir, A = LL T
6 Tema 2 Resolución de sistemas de ecuaciones lineales En este caso, el algoritmo de cálculo de los elementos de L es l 11 = a 11, Por ejemplo, la matriz l i1 = a i1, i 2, l 11 k 1 l kk = akk lkr 2, k 2, r=1 k 1 a ik l ir l kr r=1 l ik =, i > k l kk A = 1 1 1 1 5 5 1 5 6 es simétrica, obviamente, y sus menores principales son: 1 = 1 > 0, 1 1 1 5 = 4 > 0, A = 4 > 0, por lo que A es definida positiva Por tanto, admite una descomposición del tipo LL T mediante el método de Cholesky descrito Aplicando el método se tiene que: l 11 = 1 = 1, l 21 = 1 1 = 1, l 31 = 1 1 = 1, l 22 = 5 ( 1) 2 = 2, l 32 = 5 1( 1) 2 = 2, l 33 = 6 1 ( 2) 2 = 1,
22 Métodos iterativos para la resolución de sistemas de ecuaciones lineales 7 y, por tanto, Comprobémoslo: 1 0 0 LL T = 1 2 0 1 2 1 1 0 0 L = 1 2 0 1 2 1 1 1 1 0 2 2 0 0 1 = 1 1 1 1 5 5 1 5 6 = A 22 Métodos iterativos para la resolución de sistemas de ecuaciones lineales A medida que aumenta el número de ecuaciones de un sistema lineal, crece considerablemente el número de operaciones que los métodos directos necesitan efectuar, lo cual, además de implicar largos tiempos de cálculo, puede producir una significativa acumulación de los errores de redondeo Para solventar en lo posible estos problemas, se puede recurrir a los métodos iterativos, que son menos sensibles a la propagación de los errores de redondeo y están mejor adaptados a la resolución de grandes sistemas lineales Dado el sistema de ecuaciones lineales, en forma matricial, Ax = b, A R n,n, x, b R n, (221) pretendemos transformarlo en otro equivalente del tipo x = Bx + c, B R n,n, x, c R n (222) Un método de obtener un sistema del tipo (222) se construye efectuando una descomposición de la matriz A en la forma A = M N, donde M es inversible y, por tanto, el sistema Ax = b
8 Tema 2 Resolución de sistemas de ecuaciones lineales es equivalente al sistema (M N)x = b y éste es equivalente al sistema Mx = Nx + b, es decir, x = M 1 Nx + M 1 b Por tanto, en este caso, se trata del sistema equivalente al inicial x = Bx + c, B = M 1 N, c = M 1 b, (223) es decir c = (I B)A 1 b, relación llamada condición de consistencia Una vez considerado el sistema en la forma (223), podemos considerar para su resolución el método iterativo: = B + c, x (0) dado Una condición necesaria y suficiente para la convergencia del método es que todos los valores propios de B sean menores que 1 221 El método de Jacobi Se trata de un método iterativo en la forma M = N + b, (224) siendo A = M N
22 Métodos iterativos para la resolución de sistemas de ecuaciones lineales 9 Para ello, se considera A = D L U, donde a 1 0 0 0 0 D =, 0 0 0 a 12 a 13 a 1n 0 0 a 23 a 2n U =, 0 0 0 a n 1,n L = 0 0 0 0 0 0 0 0 0 a 21 0 0 0 0 a 31 a 32 0 0 0 a n1 a n2 a n3 1 0 Eligiendo M = D, N = L + U, se tiene que A = M N y se puede aplicar el método (224) Al método resultante se le denomina método de Jacobi y se puede escribir en la forma: 1 = a 12 a 11 2 a 13 a 11 3 a 1n a 11 n + b 1 a 11 2 = a 21 1 a 23 3 a 2n n + b 2 n = a n1 1 a n2 2 1 n 1 + b n
10 Tema 2 Resolución de sistemas de ecuaciones lineales 222 El método de Gauss Seidel Este método se obtiene tomando M = D L y N = U, de donde, de nuevo, A = M N y aplicando (224) se obtiene el siguiente método iterativo con x (0) dado (D L) = U + b, En forma no matricial, el método obtenido se puede escribir: 1 = a 12 2 a 13 3 a 1n n + b 1 a 11 a 11 a 11 a 11 2 = a 21 1 a 23 3 a 2n n + b 2 n = a n1 1 a n2 2 1 n 1 + b n La diferencia respecto de método de Jacobi es que el método de Gauss-Seidel aprovecha las componentes calculadas del vector, es decir, para hallar i utiliza las componentes 1,, i 1, recientes y las anteriores i,, x (m n ) Por tanto, mientras que para el método de Jacobi se necesitan tener almacenadas todas las componentes de para calcular, en el método de Gauss Seidel basta con un vector x en el que, en el paso i ésimo estén almacenados los valores 1,, i 1, i,, n 223 Método de relajación Al método de Gauss-Seidel, en el que no hay por qué conservar para calcular completo se le denomina un método de relajación Pero no es el único Si ω =0, se puede escribir y, por tanto, D = 1 ω D 1 ω ω D A = 1 ω D 1 ω ω D L U
22 Métodos iterativos para la resolución de sistemas de ecuaciones lineales 11 El método de relajación de parámetro ω consiste en considerar el método iterativo (224) dado por M = 1 ω D L, N = 1 ω ω D + U, es decir, 1 ω a 11 1 = 1 ω ω a 11 1 a 12 2 a 1n n +b 1 1 ω 2 = a 21 1 1 ω ω 2 a 2n n +b 2 1 ω n = a n1 1 a n2 2 De nuevo, para calcular i se utilizan 1,, método de Gauss Seidel se obtiene, obviamente, para ω = 1 1 ω ω n i 1, x(m) i +b n,, n El 224 Convergencia de los métodos Recordemos que el método iterativo = B + c es convergente si y sólo si todos los valores propios de B son de módulo menor que 1 Existen algunos resultados en tal sentido como son los siguientes: a) Si A es simétrica y definida positiva, el método de Gauss-Seidel es convergente b) Si A es simétrica y D + L + U es definida positiva, el método de Jacobi es convergente c) Si A es simétrica y definida positiva, el método de relajación converge si y sólo si 0 < ω < 2 d) Si A es simétrica, definida positiva y tridiagonal, el valor de ω para el cual 2 el método converge más rápidamente hacia la solución es ω = 1 +, 1 ρ 2 J siendo ρ J el radio espectral de D 1 (L+U), es decir, el módulo del valor propio que lo tiene mayor
12 Tema 2 Resolución de sistemas de ecuaciones lineales 23 Ejercicios 1- Encontrar la factorización de Cholesky de la matriz 60 30 20 30 20 15 20 15 12 2- Demostrar que, si una matriz tiene una factorización LU, donde L es una matriz triangular inferior unitaria, entonces L y U son únicas 3- Demostrar que las matrices no regulares de la forma ( ) 0 a, 0 b donde a, b R, tienen una factorización LU 4- Resolver, por el método de Cholesky, el sistema 2x y +z = 1, x +3y 2z = 2, x 2y +4z = 0 5- Resolver el sistema 9x 2y = 5, 2x +4y z = 1, y +z = 5 6, aplicando 6 veces a) el método de Jacobi; b) el método de Gauss-Seidel 6- Dado el sistema 3x +y z = 4, x +2y +z = 7, x +y +2z = 5, cuya solución es x = 2, y = 1, z = 3,
22 Métodos iterativos para la resolución de sistemas de ecuaciones lineales 13 a) comprobar la velocidad de aproximación de los métodos de Jacobi, Gauss- Seidel y relajación, para ω = 1, partiendo de 2 con 4 aproximaciones x (0) = 0 0 0 b) Estudiar la convergencia de tales métodos