Resolución numérica de sistemas de ecuaciones lineales

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Resolución numérica de sistemas de ecuaciones lineales"

Transcripción

1 Resolución numérica de sistemas de ecuaciones lineales María González Taboada Departamento de Matemáticas Febrero de 2008

2 Esquema: 1 Descripción del problema 2 Algunas definiciones y propiedades 3 Condicionamiento de un sistema de ecuaciones lineales 4 Métodos directos 5 Métodos iterativos clásicos 6 Referencias

3 1. El problema Resolver sistemas de ecuaciones lineales con el mismo número de ecuaciones que de incógnitas. Dados los números a i j y b i, para i, j = 1, 2,..., n, se trata de hallar los números x 1, x 2,..., x n que verifican las n ecuaciones lineales siguientes simultáneamente : a 11 x 1 + a 12 x a 1n x n = b 1 a 21 x 1 + a 22 x a 2n x n = b 2. a n1 x 1 + a n2 x a nn x n = b n

4 El problema Definimos: - la matriz de coeficientes : A = (a ij ) n i,j=1 - el vector del segundo miembro : b = (b i ) n i=1 - el vector de incógnitas : x = (x i ) n i=1 Usando la notación matricial, el sistema se escribe A x = b En lo que sigue, suponemos que el sistema tiene una única solución.

5 Solución algebraica Si conocemos A 1, simplemente hay que hacer x = A 1 b El coste de resolver el sistema en este caso es el de una multiplicación "matriz por vector" : n 2 multiplicaciones y n (n 1) sumas Si no conocemos la matriz inversa, A 1, desde el punto de vista de los cálculos necesarios, no es eficiente determinarla para resolver el sistema.

6 Solución numérica Disponemos de dos tipos de métodos: 1 Métodos directos: Permiten calcular la solución en un número finito de pasos conocido a priori. Solo están sujetos a errores de redondeo. 2 Métodos iterativos: Construyen una sucesión que converge a la solución del sistema. Además de los errores de redondeo, existe un error de truncamiento.

7 2. Algunas definiciones y propiedades 1 Autovalores y autovectores 2 Normas vectoriales. Normas vectoriales equivalentes 3 Normas matriciales. Normas matriciales subordinadas a normas vectoriales 4 Sucesiones de vectores y de matrices

8 2.1 Autovalores y autovectores Dada una matriz A M n, se dice que un número λ C es un autovalor o valor propio de la matriz A si existe un vector x 0 tal que A x = λ x Cualquier vector x 0 que verifique la relación anterior se llama autovector o vector propio asociado al autovalor λ de la matriz A. Si x 0 es un autovector asociado a un autovalor λ de la matriz A, α x también lo es, α K ( K = R ó C ).

9 Autovalores y autovectores Si λ es un autovalor de la matriz A, el sistema homogéneo tiene soluciones no triviales. (A λ I) x = 0 Por tanto, si λ es un autovalor de la matriz A, det(a λ I) = 0 - p A (λ) := det(a λ I) es un polinomio de grado n en λ. - Se llama polinomio característico de la matriz A. Los autovalores de A son las raíces de su polinomio característico.

10 Autovalores y autovectores Una matriz A M n tiene exactamente n autovalores, contando sus multiplicidades. Si λ = a + b i es un autovalor de A, entonces λ = a b i también lo es. Teorema: (N.H. Abel - E. Galois) Los polinomios de grado n 5 no se pueden resolver por radicales. Para calcular los autovalores de matrices de orden 5 o superior, es necesario emplear métodos numéricos.

11 Autovalores y autovectores Si A es una matriz diagonal o triangular, sus autovalores son los elementos de su diagonal principal. Si A es una matriz simétrica, sus autovalores son números reales. Si A es una matriz ortogonal, todos sus autovalores tienen módulo 1. Se llama radio espectral de una matriz A a la cantidad ρ(a) := max { λ : λ C es un autovalor de A }

12 2.2 Norma vectorial Sea V un espacio vectorial sobre un cuerpo K ( K = R ó C ). Una norma sobre V es una aplicación : V R con las propiedades siguientes: 1 v 0, v V 2 v = 0 v = 0 3 α v = α v, α K, v V 4 Desigualdad triangular: u + v u + v, u, v V El espacio vectorial V dotado de una norma vectorial, (V, ), se denomina espacio vectorial normado.

13 Normas vectoriales más utilizadas Sea V un espacio vectorial de dimensión n. Dado v V, denotamos por v 1, v 2,..., v n sus componentes en la base canónica de V. Norma uno: Norma euclídea: v 1 := v 1 + v v n v 2 := Norma del máximo: v v v n 2 v := max ( v 1, v 2,..., v n )

14 Normas vectoriales equivalentes Dos normas y son equivalentes si existen constantes positivas, c y C, tales que c v v C v v V Todas las normas definidas sobre un espacio de dimensión finita son equivalentes.

15 2.3 Norma matricial Sea M n (K) el espacio vectorial de las matrices cuadradas de orden n con coeficientes en K. Una norma matricial sobre M n (K) es una aplicación : M n (K) R con las propiedades siguientes: 1 A 0, A M n (K) 2 A = 0 A = O 3 α A = α A, α K, A M n (K) 4 A + B A + B, A, B M n (K) 5 AB A B, A, B M n (K) Si no hay posibilidad de confusión, escribiremos simplemente M n.

16 Norma matricial subordinada Dada una norma vectorial sobre K n, la aplicación : M n R definida por A v A := sup v K n v = sup A v = sup A v v K n v K n v 0 v =1 v 1 es una norma matricial y se llama norma matricial subordinada a la norma vectorial. Una norma matricial se dice compatible con una norma vectorial sobre K n si A v A v v K n

17 Norma matricial subordinada Si es una norma matricial subordinada, entonces: A v A v v K n Además, existe al menos un vector u 0 tal que A u = A u Alternativamente, la norma matricial subordinada a la norma vectorial se puede definir como: A = inf { α R : A v α v v K n } En particular, si es una norma matricial subordinada, I = 1

18 Normas matriciales subordinadas más utilizadas Norma matricial subordinada a la norma uno: A v 1 A 1 = sup v K n v 1 v 0 = m«ax 1 j n n a ij i=1 Norma matricial subordinada a la norma del máximo: A v A = sup v K n v v 0 = m«ax 1 i n n a ij j=1 Norma matricial subordinada a la norma euclídea: A v 2 A 2 = sup = ρ(a v K n v A) 2 v 0

19 Propiedades Si la matriz A es simétrica, A 2 = ρ(a) Si la matriz A es ortogonal, A 2 = 1. Relación entre radio espectral y normas matriciales : 1 Para cualquier norma matricial, ρ(a) A 2 El radio espectral es el ínfimo de las normas matriciales subordinadas: ρ(a) = «ınf A subordinada

20 Un ejemplo de norma matricial no subordinada La aplicación E : M n R definida por ( n A E := a ij 2) 1/2 i,j=1 es una norma matricial no subordinada para n 2, llamada norma de Frobenius. La norma E es fácil de calcular y proporciona una cota superior de la norma euclídea ya que A 2 A E n A 2 A M n

21 2.4 Sucesiones de vectores Sea (V, ) un espacio vectorial normado sobre un cuerpo K. Una sucesión de vectores en V es una aplicación x : N V k x(k) =: x (k) Se denota (x (k) ) k N o, simplemente, (x (k) ) k. Se dice que la sucesión (x (k) ) k V converge a x V si l«ım x (k) x = 0 k + En ese caso, se escribe l«ım k x (k) = x.

22 Sucesiones de matrices Una sucesión de matrices en M n es una aplicación A : N M n k A(k) =: A (k) Se denota (A (k) ) k N o, simplemente, (A (k) ) k. Si es una norma matricial, se dice que la sucesión (A (k) ) k N M n converge a la matriz A M n si l«ım k A(k) A = 0 En ese caso, se escribe l«ım k A (k) = A.

23 Sucesiones de matrices Lema: Si A M n (R), las afirmaciones siguientes son equivalentes: 1 l«ım k A (k) = O 2 l«ım k A (k) x = 0 3 ρ(a) < 1 x R n 4 Existe alguna norma matricial subordinada tal que A < 1

24 3. Condicionamiento de un sistema de ecuaciones lineales 1 Ejemplo (R.S. Wilson) 2 Perturbación del vector del segundo miembro 3 Perturbación de la matriz de coeficientes 4 Número de condición de una matriz 5 Recopilación de resultados 6 Implicaciones prácticas

25 3.1 Ejemplo (R.S. Wilson) x y z = t 31 x 1 y z = 1 1 t 1 - La matriz de coeficientes es simétrica. - Su determinante vale 1. - Su inversa también es simétrica:

26 Ejemplo (R.S. Wilson) x 32, y z = 22,9 33, t 30,9 x y z = t 9,2 12,6 4,5 1,1 - Error relativo en los datos: 0, Error relativo en los resultados: 0, El error relativo se ha multiplicado por más de 2460! Nota: Todos los errores han sido calculados en la norma 2.

27 Ejemplo (R.S. Wilson) ,1 7,2 x 32 7,08 5, y 8 5,98 9,89 9 z = ,99 4,99 9 9,98 t 31 x y z = t Error relativo en los datos: 0, Error relativo en los resultados: 0, El error relativo se ha multiplicado por más de 10757! Nota: Todos los errores han sido calculados en la norma 2.

28 Ejemplo (R.S. Wilson) El ejemplo es preocupante: El orden de los errores en los datos es considerado aceptable en las ciencias experimentales. Son fiables los resultados que obtenemos? En lo que sigue, analizamos este problema. Suponemos que - A es una matriz invertible - denota una norma vectorial y la norma matricial subordinada correspondiente.

29 3.2 Perturbación del vector del segundo miembro Consideramos el sistema de ecuaciones lineales A x = b y el sistema de ecuaciones lineales perturbado A (x + δx) = b + δb Se tiene que δx x A A 1 δb b El error relativo en el resultado está acotado superiormente en función del error relativo en los datos.

30 3.3 Perturbación de la matriz de coeficientes Comparamos ahora la solución exacta del sistema de ecuaciones A x = b con la solución exacta del sistema perturbado (A + δa)(x + δx) = b (Suponemos que admite una única solución). Se tiene que δx x + δx A A 1 δa A δx El error relativo en el resultado, medido por x+δx, está acotado superiormente en función del error relativo en los datos.

31 3.4 Número de condición de una matriz Se llama condicionamiento o número de condición de una matriz A relativo a la norma matricial subordinada a la cantidad cond(a) := A A 1 También se suele denotar χ(a) o κ(a). En la práctica, suelen calcularse los números de condición relativos a las normas matriciales 1, 2 y. Escribiremos cond p (A) = A p A 1 p, p = 1, 2,

32 Número de condición de una matriz Propiedades: 1 cond(a) 1 2 cond(a) = cond(a 1 ) 3 cond(α A) = cond(a), α 0 4 Si A es una matriz ortogonal, cond 2 (A) = 1.

33 3.5 Recopilación de resultados Teorema: (Perturbación del vector del segundo miembro) Sea A una matriz invertible, y sean x y x + δx las soluciones de los sistemas de ecuaciones lineales Si b 0, entonces A x = b A (x + δx) = b + δb δx x δb cond (A) b Además, esta cota es óptima: es posible encontrar vectores b 0 y δb 0 para los que se tiene la igualdad.

34 Ejemplo (R.S. Wilson) A = b = δb = 31 0,1 0,1 0,1 0,1 cond 2 (A) 2984 δx 2 x 2 0, , cond 2 (A) δb 2 b 2

35 Recopilación de resultados Teorema: (Perturbación de la matriz de coeficientes) Sea A una matriz invertible, y sean x y x + δx las soluciones de los sistemas de ecuaciones lineales A x = b (A + δa) (x + δx) = b Si b 0, entonces δx x + δx cond (A) δa A y la cota es óptima: es posible encontrar un vector b 0 y una matriz δa O para los que se tiene la igualdad. Además, δx x δa ( ) cond (A) 1 + O( δa ) A

36 Ejemplo (R.S. Wilson) A = δa = 0 0 0,1 0,2 0,08 0, ,02 0,11 0 0,01 0,01 0 0,02 cond 2 (A) 2984 δx 2 x + δx 2 0, , cond 2 (A) δa 2 A 2

37 3.6 Implicaciones prácticas El número de condición de una matriz A mide la sensibilidad de la solución de un sistema de ecuaciones de matriz A respecto a variaciones en la matriz de coeficientes y/o en el segundo miembro. Se dice que un sistema de ecuaciones lineales es bien condicionado si el número de condición de su matriz de coeficientes es pequeño. En caso contrario, se dice que es mal condicionado. Un sistema de ecuaciones lineales es tanto mejor condicionado cuanto más próximo a 1 es el número de condición de su matriz de coeficientes.

38 Implicaciones prácticas No se puede mejorar el condicionamiento de un sistema de ecuaciones lineales multiplicando todas las ecuaciones por el mismo escalar. Sí es posible hacerlo multiplicando cada fila y/o columna por un número adecuado (problema del equilibrado de una matriz). Las matrices ortogonales son muy bien condicionadas para la resolución de sistemas de ecuaciones lineales.

39 4. Métodos directos 1 Introducción 2 Sistemas de matriz diagonal 3 Sistemas de matriz triangular inferior 4 Sistemas de matriz triangular superior 5 Factorización LU 6 Factorización de Cholesky o LL t 7 Factorización QR 8 Cálculo de determinantes

40 4.1 Introducción Los métodos directos permiten obtener la solución exacta del sistema realizando un número de operaciones conocido a priori. Si se emplea aritmética finita, la solución estará afectada por errores de redondeo. La mayoría de los métodos directos se basan en factorizaciones de la matriz de coeficientes.

41 Introducción La idea del método de Gauss es transformar el sistema de ecuaciones lineales original en un sistema de matriz triangular superior con las mismas soluciones. Para ello, se realizan tres tipos de operaciones: 1 E i λ E i, λ 0 2 E i E i + λ E j, j i 3 E i E j En estos cálculos, solo intervienen la matriz de coeficientes y el vector del segundo miembro.

42 Introducción Por tanto, para resolver el sistema de ecuaciones lineales, solo es necesario almacenar la matriz aumentada: a 11 a a 1n b 1 a 21 a a 2n b 2 [A b] = a n1 a n2... a nn b n

43 Introducción El tiempo de cálculo y el error de redondeo que contiene el resultado dependen del número de operaciones que se realicen (que a su vez depende del orden del sistema). Por ejemplo, para resolver un sistema de orden n usando el método de Gauss, son necesarias n n2 n 3 multiplicaciones / divisiones n n2 2 5n 6 sumas / restas Las diferencias reales en el tiempo de ejecución también dependen de la precisión que usemos y del ordenador empleado.

44 Introducción n Multiplicaciones/Divisiones Sumas/Restas Operaciones del método de Gauss

45 4.2 Sistemas de matriz diagonal Consideramos el sistema de ecuaciones lineales D x = b donde D es una matriz diagonal: d d D = 0 0 d d nn

46 Sistemas de matriz diagonal La ecuación i-ésima del sistema (i = 1, 2,..., n) es: d ii x i = b i Por tanto, si d ii 0, para i = 1, 2,..., n, tenemos que x i = b i d ii

47 Sistemas de matriz diagonal Algoritmo: Para i = 1,..., n, Fin Implementación: Si d ii 0, hacer x i = b i /d ii La diagonal principal de la matriz D se almacena en un vector d. Número de operaciones: n divisiones

48 Sistemas de matriz diagonal Nota: Si se van a resolver muchos sistemas de matriz D, en lugar de su diagonal principal, suelen almacenarse los números d 1 ii, i = 1, 2,..., n. En ese caso, para resolver un sistema de orden n, realizaríamos n multiplicaciones.

49 4.3 Sistemas de matriz triangular inferior Consideramos el sistema de ecuaciones lineales L x = b donde L es una matriz triangular inferior: l l 21 l L = l 31 l 32 l l n1 l n2 l n3... l nn

50 Sistemas de matriz triangular inferior La ecuación i-ésima del sistema (i = 1, 2,..., n) es: l i1 x l ii 1 x i 1 + l ii x i = b i Por tanto, si l ii 0, para i = 1, 2,..., n, tenemos que x i = b i l i1 x 1... l ii 1 x i 1 l ii = i 1 b i l ij x j j=1 l ii

51 Sistemas de matriz triangular inferior Algoritmo (sustitución hacia adelante o descenso): 1 Si l 11 = 0, parar (no existe solución única). 2 Hacer x 1 = b 1 l 11 3 Para i = 2,..., n, 1 Si l ii = 0, parar (no existe solución única). 2 Hacer x i = Xi 1 b i l ij x j j=1 l ii

52 Sistemas de matriz triangular inferior Implementación: Los elementos de la parte triangular inferior de L se almacenan en un vector l siguiendo el orden por filas o por columnas. Se suele usar un vector puntero para señalar la posición en que comienza cada fila o columna en l. La solución del sistema se puede almacenar sobre el vector del segundo miembro. Número de operaciones: n 2 + n 2 n 2 n 2 multiplicaciones / divisiones sumas / restas

53 Sistemas de matriz triangular inferior n Multip./Divisiones Sumas/Restas Operaciones para resolver sistemas de matriz triangular

54 4.4 Sistemas de matriz triangular superior Consideramos el sistema de ecuaciones lineales U x = b donde U es una matriz triangular superior: u 11 u 12 u u 1n 0 u 22 u u 2n U = 0 0 u u 3n u nn

55 Sistemas de matriz triangular superior La ecuación i-ésima del sistema, para i = 1, 2,..., n, es: u ii x i + u ii+1 x i u in x n = b i Por tanto, si u ii 0, para i = 1, 2,..., n, tenemos que x i = b i u ii+1 x i+1... u in x n u ii = b i n j=i+1 u ii u ij x j

56 Sistemas de matriz triangular superior Algoritmo (sustitución hacia atrás o remonte): 1 Si u nn = 0, parar (no existe solución única). 2 Hacer x n = b n u nn 3 Para i = n 1,..., 1, 1 Si u ii = 0, parar (no existe solución única). 2 Hacer x i = nx b i u ij x j j=i+1 u ii

57 Sistemas de matriz triangular superior Implementación: Los elementos de la parte triangular superior de U se almacenan en un vector u siguiendo el orden por filas o por columnas. Se suele usar un vector puntero para señalar la posición en que comienza cada fila o columna en el vector u. La solución del sistema se puede almacenar sobre el vector del segundo miembro. Número de operaciones: las mismas que requiere el algoritmo de sustitución hacia adelante.

58 4.5 Factorización LU Notación: Dada una matriz cuadrada A, de orden n, para k = 1,..., n, denotamos por a a 1k A k :=..... a k1... a kk Teorema: (Existencia de la factorización LU ) Si det(a k ) 0, para k = 1,..., n, entonces existen una matriz triangular inferior L y una matriz triangular superior U tales que A = LU

59 Factorización LU Muchas matrices que aparecen en las aplicaciones admiten factorización LU: 1 Las matrices estrictamente diagonal dominantes: - Por filas: a ii > n a ij, para i = 1,..., n j=1 j i - Por columnas: a ii > n a ji, para i = 1,..., n j=1 j i 2 Las matrices simétricas y definidas positivas: A = A t y x t A x > 0 x 0

60 Factorización LU La factorización LU de una matriz A no es única. Habitualmente, se fija l ii = 1, para i = 1,..., n En este caso: - U = A (n), la matriz triangular superior que se obtiene al aplicar eliminación gaussiana a la matriz A. - Para i = 2,..., n y j = 1,..., i 1, l ij = m ij siendo m ij los pivotes de la eliminación gaussiana.

61 Factorización LU Consideramos el sistema de ecuaciones lineales A x = b donde la matriz A admite la factorización LU. Entonces A x = b LU x = b Para resolver el sistema, hay que hacer: 1 Resolver L y = b 2 Resolver U x = y

62 Factorización LU El uso de la factorización LU presenta ventajas cuando hay que resolver varios sistemas de ecuaciones lineales con la misma matriz de coeficientes: A x (k) = b (k), k = 1,..., K Pasos a seguir: 1 Calcular la factorización LU de la matriz A 2 Para k = 1,..., K, 1 Resolver L y (k) = b (k) 2 Resolver U x (k) = y (k) Una vez obtenida la factorización, la resolución de cada sistema requiere n 2 multiplicaciones/divisiones y n 2 n sumas/restas.

63 Factorización LU Algoritmo ( factorización LU ): Para i = 1,..., n : i 1 1 Hacer u ii = a ii l ik u ki k=1 2 Si u ii = 0, parar (factorización imposible). 3 Para j = i + 1,..., n : Xi 1 1 Hacer u ij = a ij l ik u kj k=1 Xi 1 2 Hacer l ji = a ji l jk u ki /u ii k=1

64 Factorización LU Implementación: Factorización LU : Es suficiente usar un array n n, en el que inicialmente se almacena la matriz A. A medida que se va calculando la factorización, se almacenan en el array la parte triangular superior de U y la parte estrictamente triangular inferior de L (la diagonal principal de L no se almacena). Resolución de los sistemas triangulares: En el algoritmo de sustitución hacia adelante, hay que tener en cuenta que l ii = 1, para i = 1,..., n.

65 Factorización LU En la práctica, la factorización LU solo es útil cuando no se requieren intercambios de filas para controlar el error de redondeo. Teorema: Si A es una matriz invertible, entonces existe una matriz de permutación P tal que PA admite una factorización LU. Entonces: A x = b P A x = P b LU x = P b 1 Calcular c = P b 2 Resolver L y = c 3 Resolver U x = y

66 Factorización LU (matriz tridiagonal) En el caso particular en que la matriz A es tridiagonal: a 1 b 1 c 2 a 2 b 2 A = c n 1 a n 1 b n 1 c n a n solo es necesario emplear 3n 2 posiciones de memoria para almacenar la matriz A.

67 Factorización LU (matriz tridiagonal) Para factorizar la matriz A, son necesarias 2n 2 multiplicaciones / divisiones n 1 sumas / restas Para resolver los sistemas triangulares, son necesarias 3n 2 multiplicaciones / divisiones 2n 2 sumas / restas

68 4.6 Factorización de Cholesky (L L t ) La factorización de Cholesky se usa para resolver sistemas de ecuaciones lineales de matriz simétrica y definida positiva. Una matriz cuadrada A de orden n es definida positiva si, y solo si, x t A x > 0 x 0 Si det(a k ) > 0, para k = 1,..., n, entonces la matriz A es definida positiva.

69 Factorización de Cholesky (L L t ) Teorema: (Cholesky) Una matriz simétrica A es definida positiva si y solo si se puede factorizar en la forma LL t, donde L es una matriz triangular inferior con elementos distintos de cero en su diagonal principal. Si se fija el signo de los elementos l ii, i = 1, 2,..., n, la factorización es única. Tomaremos los elementos l ii > 0, para i = 1, 2,..., n.

70 Factorización de Cholesky (L L t ) Consideramos el sistema de ecuaciones lineales A x = b donde la matriz A es simétrica y definida positiva. Entonces: A x = b LL t x = b Para resolver el sistema, hay que hacer: 1 Resolver L y = b 2 Resolver L t x = y

71 Factorización de Cholesky (L L t ) Algoritmo ( factorización de Cholesky para calcular L ): 1 Si a 11 > 0, hacer l 11 = a 11 2 Para j = 2,..., n, hacer l j1 = a j1 /l 11 3 Para i = 2,..., n 1, v i 1 X u Xi 1 1 Si a ii lik 2 > 0, hacer l ii = t aii k=1 k=1 Xi 1 2 Para j = i + 1,..., n, hacer l ji = a ji l jk l ik /l ii n 1 4 Si a nn lnk 2 > 0, hacer l nn = k=1 l 2 ik k=1 n 1 ann k=1 l 2 nk

72 Factorización de Cholesky (L L t ) Implementación: Factorización LL t : La parte triangular inferior de la matriz A se almacena en un vector. A medida que se va calculando la factorización, se almacena en el vector la parte triangular inferior de la matriz L. Resolución de los sistemas triangulares: Al implementar el algoritmo de sustitución hacia atrás, hay que tener en cuenta que solo se ha almacenado la parte triangular inferior de L.

73 Factorización de Cholesky (L L t ) Número de operaciones: Para la factorización: n n2 2 2n 3 multiplicaciones / divisiones n 3 6 n 6 sumas / restas n raíces cuadradas Para la resolución de los sistemas triangulares: n 2 + n multiplicaciones / divisiones n 2 n sumas / restas

74 Factorización de Cholesky (LL t ) n Multiplic./Divisiones Sumas/Restas Operaciones del método de Cholesky (sin contar )

75 4.7 Factorización Q R Una matriz cuadrada Q de orden n es ortogonal si Q Q t = Q t Q = I n es decir, si es invertible y su inversa es su traspuesta. Teorema: ( Existencia de la factorización QR ) Dada una matriz cualquiera A, existen una matriz ortogonal Q y una matriz triangular superior R tales que A = QR

76 Factorización QR Consideramos el sistema de ecuaciones lineales A x = b donde A es una matriz cuadrada invertible. Si conocemos una factorización QR de la matriz A, A x = b QR x = b R x = Q t b Para resolver el sistema, hay que: 1 Calcular c := Q t b 2 Resolver R x = c

77 Factorización QR Para obtener una factorización QR de una matriz o resolver un sistema de ecuaciones lineales por el método QR, usaremos las matrices de Householder. Una matriz de Householder es una matriz de la forma H = H(v) = I n 2 v vt v t v donde v 0 es un vector columna. La matriz H = I n también se considera una matriz de Householder.

78 Factorización QR Propiedades de las matrices de Householder: 1 Las matrices de Householder son simétricas y ortogonales. Por tanto, H = H t = H 1 2 Dado a R n, existe una matriz de Householder H M n (R) tal que Si α := H a = a 2 e 1 n a i y v := a a 2 e 1, entonces i=2 H(v) si α 0 ó si α = 0 y a 1 < 0 H := I n si α = 0 y a 1 > 0

79 Factorización QR Usando la factorización QR, A x = b R x = Q t b El método QR para resolver sistemas de ecuaciones lineales consiste en transformar la matriz ampliada (A b) en (R Q t b) usando matrices de Householder.

80 Factorización QR Sean A (1) := A y b (1) := b. Si a (1) es la primera columna de la matriz A, entonces existe una matriz de Householder, H (1), tal que H (1) a (1) = a (1) 2 e 1 Definimos A (2) := H (1) A (1) y b (2) := H (1) b (1). Entonces: A x = b A (2) x = b (2) Todos los elementos de la primera columna de A (2) por debajo del diagonal son cero.

81 Factorización QR En la etapa k 1, se tiene un sistema equivalente al original: A x = b A (k) x = b (k) Los coeficientes de las k 1 primeras columnas de A (k) por debajo de la diagonal principal son cero. Sea a (k) := (a (k) kk... a(k) nk )t R n k+1. Entonces existe H (k) M n k+1 tal que H (k) a (k) = a (k) 2 e 1

82 Factorización QR Definimos ( H (k) Ik 1 0 := 0 H(k) ) A (k+1) := H (k) A (k) y b (k+1) = H (k) b (k) Los coeficientes de las k primeras columnas de A (k+1) por debajo de la diagonal principal son cero. Además, A x = b A (k+1) x = b (k+1)

83 Factorización QR Tras n etapas, se tiene que A x = b A (n+1) x = b (n+1) donde la matriz A (n+1) = H (n) H (n 1)... H (2) H (1) A es triangular superior y b (n+1) = H (n) H (n 1)... H (2) H (1) b. Por tanto, R := A (n+1) Q := H (1) H (2)... H (n 1) H (n)

84 Factorización QR Algoritmo: 1 Para k = 1,..., n 1 Calcular 2 Calcular H (k) (A (k+1) b (k+1) ) k:n,k:n+1 = H (k) (A (k) b (k) ) k:n,k:n+1

85 Factorización QR Número de operaciones: Para resolver el sistema: Para cálcular la matriz Q: 4 3 n3 flops 4 3 n3 flops El método QR se emplea para resolver sistemas de ecuaciones lineales mal condicionados.

86 4.8 Cálculo de determinantes Sea A una matriz cuadrada, de orden n. El cálculo del determinante de A mediante el método de los menores requiere O(n!) operaciones elementales. Concretamente, se precisan n 1 1 n! multiplicaciones / divisiones k! k=1 n! 1 sumas / restas

87 Cálculo de determinantes n Multip./Divisiones Sumas/Restas , , , , Operaciones necesarias para calcular el determinante de una matriz de orden n por el método de los menores Incluso para valores de n relativamente pequeños, la cantidad de cálculos es demasiado grande.

88 Cálculo de determinantes Si A es una matriz diagonal o triangular, entonces det(a) = a 11 a a nn = Por otra parte, se tiene que: 1 det(ab) = det(a) det(b) 2 det(a) = det(a t ) n i=1 a ii

89 Cálculo de determinantes Si A = LU, con l ii = 1, i, entonces det(a) = det(u) Si A = LU, con u ii = 1, i, entonces det(a) = det(l) Si A = LL t, det(a) = det(l) 2

90 5. Métodos iterativos clásicos 1 Introducción 2 Criterios de parada 3 Métodos de descomposición 1 Método de Jacobi 2 Método de Gauss-Seidel 3 Métodos de relajación 4 Convergencia de los métodos iterativos clásicos

91 5.1 Introducción Los métodos iterativos son, en general, más eficientes que los métodos directos para resolver sistemas de ecuaciones lineales grandes y de matriz hueca ya que se basan en la operación "multiplicación matriz por vector". Como consecuencia: - Solo es necesario almacenar los coeficientes no nulos de la matriz del sistema. - Son menos sensibles a los errores de redondeo. - No se produce el llenado de la matriz.

92 Ejemplo: llenado en LU A =

93 Ejemplo: llenado en LU nz = 33 Estructura de nulidad de la matriz A

94 Ejemplo: llenado en LU nz = 49 Estructura de nulidad de la factorización LU de A

95 Introducción Algunas desventajas de los métodos iterativos frente a los métodos directos: - En general, no es posible predecir el número de operaciones que se requieren para obtener una aproximación a la solución con una precisión determinada. - El tiempo de cálculo y la precisión del resultado pueden depender de la elección de ciertos parámetros.

96 Introducción Dada una aproximación inicial x (0), un método iterativo genera una sucesión de aproximaciones x (k), para k = 1, 2,..., que converge a la solución del sistema. Para generar esta sucesión, se repite el mismo esquema de operaciones hasta que: - se obtiene una aproximación a la solución con una precisión especificada de antemano, - o se rebasa un número máximo de iteraciones.

97 Introducción Clases de métodos iterativos: 1 Métodos iterativos clásicos (estacionarios o lineales): Algunos pueden usarse para construir precondicionadores, que permiten mejorar el condicionamiento de un sistema. 2 Métodos iterativos de descenso (no estacionarios): Son los más eficientes para resolver sistemas grandes de matriz hueca.

98 Introducción Los métodos iterativos clásicos (lineales) se basan en reescribir el problema: donde G M n (R) y c R n. Algoritmo: A x = b x = G x + c 1 Sea x (0) una aproximación inicial a la solución. 2 Para k = 1, 2,..., x (k) = G x (k 1) + c La matriz G se llama matriz de iteración y el vector c se llama vector de iteración.

99 Introducción Se dice que un método iterativo es consistente con el sistema de ecuaciones lineales A x = b si, en el caso en que la sucesión generada por el método iterativo sea convergente, su límite es solución del sistema de ecuaciones lineales. En lo que sigue, suponemos que el método iterativo considerado es consistente. Número de operaciones en cada iteración: n 2 multiplicaciones + n 2 sumas

100 5.2 Criterios de parada 1 Basado en el error absoluto en la aproximación: x (k) x (k 1) < ɛ 2 Basado en el error relativo en la aproximación: x (k) x (k 1) < ɛ x (k) 3 Basado en el residuo: r (k) < ɛ b donde r (k) es el vector residuo en la iteración k: r (k) := b A x (k)

101 Criterios de parada La comprobación del criterio de parada no debe incrementar en exceso el número de operaciones por iteración. Conviene organizar los cálculos de forma adecuada. La norma vectorial que se emplea con más frecuencia en la implementación de métodos iterativos lineales es la norma infinito.

102 5.3 Métodos de descomposición Los métodos de descomposición son métodos iterativos clásicos. Se obtienen a partir de una descomposición de la matriz de coeficientes de la forma: A = M N donde M es una matriz fácil de invertir (diagonal, triangular,... ).

103 Métodos de descomposición Entonces: A x = b M x = N x + b x = M 1 N x + M 1 b G := M 1 N c := M 1 b El método iterativo asociado es: 1 Sea x (0) una aproximación inicial a la solución. 2 Para k = 1, 2,..., resolver el sistema de ecuaciones lineales M x (k) = N x (k 1) + b Este método iterativo es consistente, por construcción.

104 Métodos de descomposición Usando que N = M A, la ecuación que define el método iterativo se escribe: x (k) = x (k 1) + M 1 r (k 1) Esta formulación del método iterativo se conoce como formulación eficiente. Si la matriz de coeficientes A es bien condicionada, el criterio de parada basado en el residuo es fiable y no supone muchos cálculos adicionales.

105 Métodos de descomposición Algoritmo: 1 Sea x (0) una aproximación inicial a la solución. 2 Para k = 1, 2,...,max_it: 1 Calcular el vector residuo: r (k 1) = b A x (k 1) 2 Si r (k 1) < ɛ b, parar y tomar x (k 1) como aproximación a la solución. 3 Resolver el sistema de ecuaciones lineales M z = r (k 1) 4 Actualizar la aproximación a la solución: x (k) = x (k 1) + z

106 Métodos de descomposición Los principales métodos de descomposición son: - El método de Jacobi - El método de Gauss Seidel - Los métodos de relajación Para usar estos métodos, es necesario que a ii 0 i = 1, 2,..., n En lo que sigue, supondremos que se verifica esta condición.

107 5.3.1 El método de Jacobi K.G.J. Jacobi (1845) Se basa en la descomposición A = D (D A) donde D = a a a nn D A = 0 a a 1n a a 2n a n1 a n2... 0

108 El método de Jacobi En cada iteración, se resuelve un sistema de matriz diagonal: D x (k) = (D A) x (k 1) + b Por esta razón, el método de Jacobi también se llama método de inversión diagonal. Multiplicando por D 1 : x (k) = D 1 (D A) x (k 1) + D 1 b se tiene que la matriz del método de Jacobi es J := D 1 (D A) = I D 1 A

109 El método de Jacobi: forma en componentes De la ecuación D x (k) = (D A) x (k 1) + b se deduce que, para i = 1, 2,..., n, a ii x (k) i = b i n j=1 j i a ij x (k 1) j Por tanto, si a ii 0, para i = 1, 2,..., n, ( x (k) i = b i n j=1 j i ) a ij x (k 1) j /a ii

110 El método de Jacobi: forma en componentes Las n componentes de x (k) se pueden calcular simultáneamente. Por esta razón, el método de Jacobi también se conoce como método de los desplazamientos simultáneos. En este caso, es menos costoso usar un criterio de parada sobre la aproximación, como por ejemplo, el criterio de error relativo x (k) x (k 1) < ɛ x (k)

111 El método de Jacobi: forma en componentes Algoritmo (Jacobi, forma en componentes): 1 Elegir una aproximación inicial, x (0) 2 Para k = 1, 2,..., max_it : 1 Para i = 1, 2,..., n, calcular x (k) i = b i nx j=1 j i a ij x (k 1) j /a ii 2 Si x (k) x (k 1) < ɛ x (k), parar y tomar x (k) como aproximación a la solución.

112 El método de Jacobi: formulación eficiente Formulación eficiente: x (k) = x (k 1) + D 1 (b A x (k 1) ) En cada iteración, hay que: 1 Calcular z = A x (k 1) 2 Calcular el vector residuo r (k 1) = b z 3 Si r (k 1) < ɛ b, parar y tomar x (k 1) como aproximación a la solución. 4 Resolver el sistema D z = r (k 1) 5 Calcular x (k) = x (k 1) + z

113 El método de Jacobi: ejemplo Consideremos el sistema A x = b: A = b = x = x(0) = Primera iteración del método de Jacobi: x (1) = x (0) + D 1( b A x (0)) x (1) = [0,2500 1,4000 2,6667 3,5000]

114 5.3.2 El método de Gauss Seidel En el método de Jacobi: ( x (k) i = b i i 1 j=1 a ij x (k 1) j n j=i+1 ) a ij x (k 1) j /a ii En el método de Gauss Seidel: ( x (k) i = b i i 1 j=1 a ij x (k) j n j=i+1 ) a ij x (k 1) j /a ii C.F. Gauss (1845) K.G.J. Jacobi L.P. von Seidel (1874)

115 El método de Gauss Seidel Algoritmo (Gauss Seidel, forma en componentes): 1 Elegir una aproximación inicial, x (0) 2 Para k = 1, 2,..., max_it : 1 Para i = 1, 2,..., n, calcular x (k) i = b i Xi 1 j=1 a ij x (k) j nx j=i+1 a ij x (k 1) j /a ii 2 Si x (k) x (k 1) < ɛ x (k), parar y tomar x (k) como aproximación a la solución.

116 El método de Gauss Seidel El método de Gauss Seidel es un método de descomposición. En efecto, para i = 1, 2,..., n, la ecuación ( x (k) i = b i i 1 j=1 puede escribirse como b i i j=1 a ij x (k) j a ij x (k) j n j=i+1 n j=i+1 ) a ij x (k 1) j /a ii a ij x (k 1) j = 0

117 El método de Gauss Seidel Si consideramos la descomposición A = L (L A) donde a a 21 a L = a n1 a n2... a nn L A = 0 a a 1n a 2n

118 El método de Gauss Seidel b i i j=1 a ij x (k) j n j=i+1 se puede escribir como de donde se deduce que a ij x (k 1) j = 0, i = 1, 2,..., n b L x (k) + (L A) x (k 1) = 0 x (k) = L 1 (L A) x (k 1) + L 1 b Luego, el método de Gauss-Seidel es un método de descomposición y la matriz de iteración del método es L 1 := L 1 (L A) = I L 1 A

119 El método de Gauss Seidel Formulación eficiente: x (k) = x (k 1) + L 1 (b A x (k 1) ) En cada iteración, hay que: 1 Calcular z = A x (k 1) 2 Calcular el vector residuo r (k 1) = b z 3 Si r (k 1) < ɛ b, parar y tomar x (k 1) como aproximación a la solución. 4 Resolver el sistema L z = r (k 1) 5 Calcular x (k) = x (k 1) + z

120 El método de Gauss Seidel: ejemplo Consideremos el sistema A x = b: A = b = x = x(0) = Primera iteración del método de Gauss Seidel: x (1) = x (0) + L 1( b A x (0)) x (1) = [0,2500 1,3500 2,4417 2,8271]

121 5.3.3 Métodos de relajación La convergencia de los métodos de Jacobi y Gauss Seidel es en general bastante lenta. Los métodos de relajación pueden mejorar sustancialmente la convergencia del método de Gauss Seidel. La convergencia de los métodos de relajación depende de la elección adecuada de un parámetro. También se conocen como métodos SOR (Successive Over Relaxation).

122 Métodos de relajación Consideramos la descomposición de la matriz A : A = D E F donde: a E = a n1 a n F = 0 a a 1n a 2n

123 Métodos de relajación Los métodos de relajación se basan en la descomposición: ω A = (D ω E) (ω F + (1 ω) D) donde ω 0 es el parámetro de relajación. Entonces la solución del sistema satisface x = (D ω E) 1 (ω F + (1 ω) D) x + ω (D ω E) 1 b El método iterativo correspondiente es: x (k) = (D ω E) 1 (ω F +(1 ω) D) x (k 1) +ω (D ω E) 1 b

124 Métodos de relajación La matriz de iteración es L ω := (D ω E) 1 (ω F + (1 ω) D) Nótese que para ω = 1, se tiene el método de Gauss Seidel. Como ω F + (1 ω) D = D ω (D F) = D ω E ω (D E F) = (D ω E) ω A la matriz de iteración se puede expresar como L ω = I ω (D ω E) 1 A

125 Métodos de relajación Formulación eficiente: x (k) = x (k 1) + ω (D ω E) 1( b A x (k 1)) En cada iteración, hay que: 1 Calcular z = A x (k 1) 2 Calcular el vector residuo r (k 1) = b z 3 Si r (k 1) < ɛ b, parar y tomar x (k 1) como aproximación a la solución. 4 Resolver el sistema (D ω E) z = r (k 1) 5 Calcular x (k) = x (k 1) + ω z

126 Métodos de relajación: forma en componentes De la ecuación (D ω E) x (k) = (ω F + (1 ω) D) x (k 1) + ω b se deduce que, para i = 1, 2,..., n, a ii x (k) i ( = (1 ω) a ii x (k 1) i +ω b i Si a ii 0, para i = 1, 2,..., n, x (k) i ( = (1 ω) x (k 1) i +ω b i i 1 j=1 i 1 j=1 a ij x (k) j a ij x (k) j n j=i+1 n j=i+1 ) a ij x (k 1) j ) a ij x (k 1) j /a ii

127 Métodos de relajación: ejemplo Consideremos el sistema A x = b: A = b = x = x(0) = Primera iteración del método de relajación (ω = 1,03): x (1) = (1 ω) x (0) + ω x (1) GS x (1) = (1 1,03) x (0) + 1,03 [0,2500 1,3500 2,4417 2,8271] x (1) = [0,2575 1,3905 2,5149 2,9119]

128 5.4 Convergencia de los métodos iterativos clásicos Consideramos el método iterativo lineal: x (k) = G x (k 1) + c, k = 1, 2,... donde x (0) es una aproximación inicial a la solución del sistema de ecuaciones lineales. Se dice que el método iterativo es convergente si la sucesión generada por el método converge a la solución del sistema de ecuaciones lineales cualquiera que sea la aproximación inicial x (0).

129 Convergencia y acotación del error Teorema: (Caracterización de la convergencia) Un método iterativo lineal consistente es convergente si, y solo si, el radio espectral de la matriz de iteración es menor que uno. Corolario: (Acotación del error) Si G < 1, para alguna norma matricial subordinada, entonces el método iterativo es convergente y se verifican las acotaciones del error: 1 x (k) x G k x (0) x 2 x (k) x G k 1 G x(1) x (0)

130 Velocidad de convergencia Se tiene que x (k) x ρ(g) k x (0) x Dados dos métodos iterativos lineales: (1) x (k) = G 1 x (k 1) + c 1 para k = 1, 2,... (2) x (k) = G 2 x (k 1) + c 2 para k = 1, 2,... se dice que el método (1) converge más rápido que el método (2) si ρ(g 1 ) < ρ(g 2 ) < 1

131 Velocidad de convergencia Algunos parámetros para medir la velocidad de convergencia: - Velocidad media de convergencia: v j (G) = log( G j ) 1/j - Velocidad asintótica de convergencia: v (G) = log ρ(g)

132 Convergencia (Jacobi y Gauss Seidel) Teorema: Si A es estrictamente diagonal dominante, los métodos de Jacobi y Gauss Seidel son convergentes. Teorema: Si A es simétrica, definida positiva y tridiagonal, entonces los métodos de Jacobi y de Gauss Seidel son convergentes. Además, en este caso, el método de Gauss Seidel converge más rápido que el de Jacobi: ρ(l 1 ) = ρ(j ) 2 < 1

133 Convergencia (Jacobi y Gauss Seidel) Teorema: (Stein Rosenberg) Si a ii > 0 i y a ij 0 i j, entonces se cumple una y solo una de las afirmaciones siguientes: 1 0 < ρ(l 1 ) < ρ(j ) < < ρ(j ) < ρ(l 1 ) 3 ρ(l 1 ) = ρ(j ) = 0 4 ρ(l 1 ) = ρ(j ) = 1

134 Convergencia (métodos de relajación) La convergencia de los métodos de relajación depende de la elección del parámetro de relajación ω. Teorema: (Kahan) El método de relajación solo puede converger si ω (0, 2). Teorema: (Ostrowski Reich) Si A es simétrica y definida positiva, el método de relajación es convergente para cualquier elección del parámetro ω (0, 2).

135 Convergencia (métodos de relajación) Teorema: Si A es una matriz simétrica, definida positiva y tridiagonal, entonces la elección óptima del parámetro ω para el método de relajación es 2 ω opt = ρ(j ) 2 Para esta elección del parámetro de relajación, ρ(l ωopt ) = ω opt 1

136 6. Referencias 1 R.L. Burden y J.D. Faires, Análisis Numérico, Thomson Learning, 7 a edición, C. Conde y G. Winter, Métodos y algoritmos básicos del álgebra numérica, Reverté, J.F. Epperson, An introduction to numerical methods and analysis, Wiley, G.H. Golub & C.F. van Loan, Matrix Computations, 3 a ed., The Johns Hopkins University Press, A. Quarteroni & F. Saleri, Cálculo científico con MATLAB y Octave, Springer, 2006.

Parte 2. Métodos directos para la resolución de sistemas de ecuaciones lineales

Parte 2. Métodos directos para la resolución de sistemas de ecuaciones lineales Parte 2. Métodos directos para la resolución de sistemas de ecuaciones lineales Gustavo Montero Escuela Técnica Superior de Ingenieros Industriales University of Las Palmas de Gran Canaria Curso 2006-2007

Más detalles

I. Métodos directos para resolución de SEL. Se dice que una matriz A admite una factorización LU indirecta A = LU

I. Métodos directos para resolución de SEL. Se dice que una matriz A admite una factorización LU indirecta A = LU I. Métodos directos para resolución de SEL 1. Factorización LU Se dice que una matriz A admite una factorización LU si dicha matriz puede escribirse como el producto de una matriz triangular inferior,

Más detalles

Resolución de sistemas de ecuaciones lineales

Resolución de sistemas de ecuaciones lineales Tema 2 Resolución de sistemas de ecuaciones lineales 21 Métodos directos de resolución de sistemas de ecuaciones lineales 211 Resolución de sistemas triangulares Definición 211 Una matriz A se dice triangular

Más detalles

Clase. 1. Resolución de sistemas de ecuaciones lineales: preliminares

Clase. 1. Resolución de sistemas de ecuaciones lineales: preliminares Clase 1. Resolución de sistemas de ecuaciones lineales: preliminares 2. Método directo y exacto: Gauss 3. Método directo y exacto (II): descomposición LU 4. Métodos indirectos: Jacobi, Gauss-Seidel 2 Sistemas

Más detalles

1.II.3. Sistemas de ecuaciones lineales: métodos iterativos.

1.II.3. Sistemas de ecuaciones lineales: métodos iterativos. 1.II.3. Sistemas de ecuaciones lineales: métodos iterativos. Manuel Palacios Departamento de Matemática Aplicada Centro Politécnico Superior Universidad de Zaragoza Otoño 2003 Referencias [1] Burden, R.

Más detalles

Sistemas de ecuaciones lineales

Sistemas de ecuaciones lineales Chapter 2 Sistemas de ecuaciones lineales 2.1 Resolución de sistemas de ecuaciones lineales El problema que se pretende resolver en este capítulo es el de un sistema de m ecuaciones lineales con n incógnitas

Más detalles

9. Normas y métodos iterativos de resolución de sistemas lineales.

9. Normas y métodos iterativos de resolución de sistemas lineales. 9. Normas y métodos iterativos de resolución de sistemas lineales. Manuel Palacios Departamento de Matemática Aplicada Centro Politécnico Superior Universidad de Zaragoza Otoño 2010 Contents 9 Normas

Más detalles

Elementos de Cálculo Numérico

Elementos de Cálculo Numérico Universidad de Buenos Aires - Facultad de Ciencias Exactas y Naturales - Depto. de Matemática Elementos de Cálculo Numérico Primer cuatrimestre 2006 Práctica N 2: Condicionamiento de una matriz. Descomposición

Más detalles

2. Sistemas de ecuaciones lineales

2. Sistemas de ecuaciones lineales 2 Sistemas de ecuaciones lineales 2 Ejercicios resueltos Ejercicio 2 Estudiar el número de condición de Frobenius de la matriz a b A a + ε b Solución: El determinante de A es A ab + ba + ε b ε Si b 0 y

Más detalles

Profesor Francisco R. Villatoro 13 de Diciembre de 1999 SOLUCIONES. 1. Una matriz A de n n es diagonalmente dominante (estrictamente) por filas si

Profesor Francisco R. Villatoro 13 de Diciembre de 1999 SOLUCIONES. 1. Una matriz A de n n es diagonalmente dominante (estrictamente) por filas si Cuarta relación de problemas Técnicas Numéricas Profesor Francisco R. Villatoro 13 de Diciembre de 1999 SOLUCIONES 1. Una matriz A de n n es diagonalmente dominante estrictamente por filas si a ii > a

Más detalles

METODOS ITERATIVOS. Hermes Pantoja Carhuavilca. Facultad de Ingeniería Mecanica Universidad Nacional de Ingenieria

METODOS ITERATIVOS. Hermes Pantoja Carhuavilca. Facultad de Ingeniería Mecanica Universidad Nacional de Ingenieria Facultad de Ingeniería Mecanica Universidad Nacional de Ingenieria Métodos Numéricos Contenido 1 Métodos Iterativos Introducción Definición Métodos Iterativos Método de Jacobi Convergencia Método de Gauss

Más detalles

Sistemas de Ecuaciones Lineales

Sistemas de Ecuaciones Lineales Sistemas de Ecuaciones Lineales José Vicente Romero Bauset ETSIT-curso 2009/200 José Vicente Romero Bauset Tema 2.- Sistemas de Ecuaciones Lineales Sistema de ecuaciones lineales Un sistema de ecuaciones

Más detalles

Resolverlo mediante el método de Gauss con aritmética exacta y sin pivoteo.

Resolverlo mediante el método de Gauss con aritmética exacta y sin pivoteo. Asignatura Cálculo Numérico Página de Sistemas Lineales lineales (Gauss con variantes y estudio iterativo) Examen Diciembre 000 Ejercicio. Dado el sistema lineal 4x+ y+ z = 9 x+ 4y z = 5, x+ y z = 9 (a)

Más detalles

Unidad 5 Problemas de álgebra lineal numérica.

Unidad 5 Problemas de álgebra lineal numérica. Unidad 5 Problemas de álgebra lineal numérica. Eliminación gaussiana. Factorización LU. Sea Ax = b un sistema de n ecuaciones lineales con n incógnitas, donde A es una matriz cuadrada de orden n no singular

Más detalles

Cálculo Numérico. Curso Ejercicios: Preliminares I

Cálculo Numérico. Curso Ejercicios: Preliminares I Cálculo Numérico. Curso 07-08. Ejercicios: Preliminares I 1. (a) Compruebe que la inversa de una matriz, L, triangular inferior de orden n puede calcularse como sigue: Para j = 1,,..., n e i = j, j + 1,...,

Más detalles

Resolución numérica de sistemas de ecuaciones. Introducción

Resolución numérica de sistemas de ecuaciones. Introducción Motivación La cercha de la figura se carga con una fuerza uniforme repartida sobre el cordón superior Resolución numérica de sistemas de ecuaciones. Introducción El planteamiento del problema conduce a

Más detalles

Resolución de Sistema de Ecuaciones Lineales

Resolución de Sistema de Ecuaciones Lineales Resolución de Sistema de Ecuaciones Lineales Hermes Pantoja Carhuavilca Facultad de Ingeniería Industrial Universidad Nacional Mayor de San Marcos Métodos Computacionales Hermes Pantoja Carhuavilca 1 de

Más detalles

OCW-V.Muto Sistemas lineales: Preliminares Cap. XIII CAPITULO XIII. METODOS PARA LA RESOLUCION DE SISTEMAS LINEALES: PRELIMINARES

OCW-V.Muto Sistemas lineales: Preliminares Cap. XIII CAPITULO XIII. METODOS PARA LA RESOLUCION DE SISTEMAS LINEALES: PRELIMINARES CAPITULO XIII. METODOS PARA LA RESOLUCION DE SISTEMAS LINEALES: PRELIMINARES. SISTEMAS LINEALES DE ECUACIONES En esta tercera parte se consideran técnicas para resolver el sistema de ecuaciones lineales:

Más detalles

Métodos Numéricos para Sistemas de Ecuaciones Lineales

Métodos Numéricos para Sistemas de Ecuaciones Lineales Universidad de Chile Departamento de Ingeniería Matemática Cálculo Numérico MA-33A Métodos Numéricos para Sistemas de Ecuaciones Lineales Gonzalo Hernández Oliva GHO SEL - MA33A 1 MN para SEL: Temario

Más detalles

Métodos de factorización para resolver sistemas de ecuaciones lineales. 22 de agosto, 2012

Métodos de factorización para resolver sistemas de ecuaciones lineales. 22 de agosto, 2012 Cálculo numérico Métodos de factorización para resolver sistemas de ecuaciones lineales 22 de agosto, 2012 1 Factorización LU Considera el siguiente ejemplo de factorización LU de una matriz en un sistema

Más detalles

Para resolver un sistema lineal estan permitidas tres operaciones en las ecuaciones.

Para resolver un sistema lineal estan permitidas tres operaciones en las ecuaciones. Para resolver un sistema lineal estan permitidas tres operaciones en las ecuaciones. 1. La ecuación E i puede multiplicarse por cualquier costante diferente de cero y se puede usar la ecuación resultante

Más detalles

Sistemas de Ecuaciones. Lineales II

Sistemas de Ecuaciones. Lineales II Sistemas de Ecuaciones Lineales II Factorización LU: Eliminación Gaussiana Relación con la factorización LU 521230-1 - DIM Universidad de Concepción Solución de sistemas con matriz triangular Dadas L =

Más detalles

1.IV Aproximación numérica de valores y vectores propios.

1.IV Aproximación numérica de valores y vectores propios. .IV Aproximación numérica de valores y vectores propios. Manuel Palacios Departamento de Matemática Aplicada Centro Politécnico Superior. Universidad de Zaragoza Primavera 2007 Contents Introducción 2

Más detalles

2.2 Normas matriciales

2.2 Normas matriciales P Castillo Capítulo 2 13 22 Normas matriciales En el caso de las matrices cuadradas de orden n la estructura algebraica es mucho más rica que la de un espacio vectorial K n ; además de tener operaciones

Más detalles

Métodos numéricos para sistemas de ecuaciones. (Prácticas)

Métodos numéricos para sistemas de ecuaciones. (Prácticas) Métodos numéricos para sistemas de ecuaciones (Prácticas) Métodos iterativos UNIVERSIDAD POLITÉCNICA DE VALENCIA 1 Índice general 3. Métodos iterativos 3 3.1. Métodos iterativos básicos....................

Más detalles

Métodos Numéricos: ecuaciones lineales Eduardo P. Serrano

Métodos Numéricos: ecuaciones lineales Eduardo P. Serrano Métodos Numéricos: ecuaciones lineales Eduardo P. Serrano Versión previa Feb 2012 1. Ecuaciones lineales. El álgebra lineal numérica aborda principalmente dos problemas: - El análisis y resolución de sistemas

Más detalles

Elementos de Cálculo Numérico (M) - Cálculo Numérico

Elementos de Cálculo Numérico (M) - Cálculo Numérico Universidad de Buenos Aires - Facultad de Ciencias Exactas y Naturales - Depto. de Matemática Elementos de Cálculo Numérico (M) - Cálculo Numérico Primer Cuatrimestre 204 Práctica N 2: Normas y Condicionamiento.

Más detalles

Al considerar varios polígonos regulares inscritos resulta: perímetro del cuadrado < π. perímetro del 96 gono < π

Al considerar varios polígonos regulares inscritos resulta: perímetro del cuadrado < π. perímetro del 96 gono < π AMPLIACIÓN DE MATEMÁTICAS INTRODUCCIÓN Método Constructivo: Conjunto de instrucciones que permiten calcular la solución de un problema, bien en un número finito de pasos, bien en un proceso de paso al

Más detalles

UNIVERSIDAD CATÓLICA DE TEMUCO FACULTAD DE INGENIERÍA DEPTO. DE CIENCIAS MATEMÁTICAS Y FÍSICAS SOLUCIÓN NUMÉRICA DE SISTEMAS DE ECUACIONES LINEALES

UNIVERSIDAD CATÓLICA DE TEMUCO FACULTAD DE INGENIERÍA DEPTO. DE CIENCIAS MATEMÁTICAS Y FÍSICAS SOLUCIÓN NUMÉRICA DE SISTEMAS DE ECUACIONES LINEALES UNIVERSIDAD CATÓLICA DE TEMUCO FACULTAD DE INGENIERÍA DEPTO. DE CIENCIAS MATEMÁTICAS Y FÍSICAS Asignatura : Cálculo Numérico, MAT-1123. Profesor : Emilio Cariaga L. Periodo : 1er. Semestre 216. SOLUCIÓN

Más detalles

Tema 1: Matrices. Sistemas de ecuaciones. Determinantes

Tema 1: Matrices. Sistemas de ecuaciones. Determinantes Tema 1: Matrices. Sistemas de ecuaciones. Determinantes José M. Salazar Octubre de 2016 Tema 1: Matrices. Sistemas de ecuaciones. Determinantes Lección 1. Matrices. Sistemas de ecuaciones. Determinantes

Más detalles

Gustavo Rodríguez Gómez. Agosto Dicembre 2011

Gustavo Rodríguez Gómez. Agosto Dicembre 2011 Computación Científica Gustavo Rodríguez Gómez INAOE Agosto Dicembre 2011 1 / 46 Capítulo II 2 / 46 1 Introducción Métodos Directos Sistemas Triangulares Sustitución Hacia Atrás Invertibilidad de una Matriz

Más detalles

Métodos iterativos para resolver sistemas de ecuaciones lineales

Métodos iterativos para resolver sistemas de ecuaciones lineales Clase No. 8 (Parte 1): MAT 251 Métodos iterativos para resolver sistemas de ecuaciones lineales Dr. Alonso Ramírez Manzanares Depto. de Matemáticas Univ. de Guanajuato e-mail: alram@ cimat.mx web: http://www.cimat.mx/

Más detalles

Sistemas de Ecuaciones Lineales y Matrices

Sistemas de Ecuaciones Lineales y Matrices Capítulo 4 Sistemas de Ecuaciones Lineales y Matrices El problema central del Álgebra Lineal es la resolución de ecuaciones lineales simultáneas Una ecuación lineal con n-incógnitas x 1, x 2,, x n es una

Más detalles

Análisis Numérico para Ingeniería. Clase Nro. 6

Análisis Numérico para Ingeniería. Clase Nro. 6 Análisis Numérico para Ingeniería Clase Nro. 6 Sistemas de Ecuaciones Lineales Temas a tratar: Normas Vectoriales y Matriciales. Análisis de Sensibilidad de Sistemas Lineales. Número de Condición. Estimación

Más detalles

Parte 4. Métodos iterativos para la resolución de sistemas de ecuaciones lineales

Parte 4. Métodos iterativos para la resolución de sistemas de ecuaciones lineales Parte 4. Métodos iterativos para la resolución de sistemas de ecuaciones lineales Gustavo Montero Escuela Técnica Superior de Ingenieros Industriales Universidad de Las Palmas de Gran Canaria Curso 2006-2007

Más detalles

Matrices y Sistemas Lineales

Matrices y Sistemas Lineales Matrices y Sistemas Lineales Natalia Boal María Luisa Sein-Echaluce Universidad de Zaragoza Matrices sobre IR ó C. Definición Dado un conjunto K (IR ó C) y dos conjuntos finitos de índices I = {,, m} J

Más detalles

Sistema de Ecuaciones Lineales

Sistema de Ecuaciones Lineales Pantoja Carhuavilca Métodos Computacionales Agenda Ejemplos Ejemplos Aplicaciones de los Sistemas La solución de sistemas lineales de ecuaciones lineales es un tema clásico de las matemáticas, rico en

Más detalles

3. Sistemas inconsistentes y sistemas indeterminados

3. Sistemas inconsistentes y sistemas indeterminados . Sistemas inconsistentes sistemas indeterminados. Ejercicios resueltos Ejercicio. Dado el sistema: 4x + 5 x + 5 a Realizar la factorización QR de la matriz, resolverlo basándose en ella a. Mediante el

Más detalles

Cálculo Numérico - CO3211. Ejercicios. d ) Sabiendo que la inversa de la matriz A = es A c d

Cálculo Numérico - CO3211. Ejercicios. d ) Sabiendo que la inversa de la matriz A = es A c d Cálculo Numérico - CO32 Ejercicios Decida cuáles de las siguientes proposiciones son verdaderas y cuáles son falsas Si una proposición es verdadera, demuéstrela, y si es falsa dé un contraejemplo: a Sea

Más detalles

Cálculo de autovalores

Cálculo de autovalores Cálculo de autovalores Damián Ginestar Peiró Departamento de Matemática Aplicada Universidad Politécnica de Valencia Curso 2011-2012 (UPV) Cálculo de autovalores Curso 2011-2012 1 / 28 Índice 1 Preliminares

Más detalles

Elementos de Cálculo Numérico / Cálculo Numérico Segundo Cuatrimestre 2017

Elementos de Cálculo Numérico / Cálculo Numérico Segundo Cuatrimestre 2017 Universidad de Buenos Aires - Facultad de Ciencias Exactas y Naturales - Depto. de Matemática Elementos de Cálculo Numérico / Cálculo Numérico Segundo Cuatrimestre 207 Práctica N : Número de condición.

Más detalles

Resolución numérica de sistemas de ecuaciones. Introducción

Resolución numérica de sistemas de ecuaciones. Introducción Resolución numérica de sistemas de ecuaciones. Introducción Laboratori de Càlcul Numèric (LaCàN) Departament de Matemàtica Aplicada III Universitat Politècnica de Catalunya (Spain) http://www-lacan.upc.es

Más detalles

RESOLUCIÓN DE SISTEMAS LINEALES

RESOLUCIÓN DE SISTEMAS LINEALES Contenido 1 Métodos de Solución Contenido Métodos de Solución 1 Métodos de Solución Desarrollamos el algoritmo de sustitución regresiva, con el que podremos resolver un sistema de ecuaciones lineales cuya

Más detalles

Problemas Ampliación de Matemáticas. Sistemas lineales 1.- Encontrar la factorización L U de las siguientes matrices:

Problemas Ampliación de Matemáticas. Sistemas lineales 1.- Encontrar la factorización L U de las siguientes matrices: Problemas Ampliación de Matemáticas. Sistemas lineales 1.- Encontrar la factorización L U de las siguientes matrices: 5 2 1 1 0 3 1 0 3 3 1 6. 3 1 6 5 2 1 2.- Dada la matriz A = 10 7 8 7 5 6, 8 6 10 hallar

Más detalles

Curso Hoja 1. Análisis de errores

Curso Hoja 1. Análisis de errores Hoja 1. Análisis de errores 1 Teniendo en cuenta que MATLAB trabaja en doble precisión, calcular el número máquina inmediatamente anterior a 1 y comprobar que dista 2 53 de 1. 2 Calcular 1 2 52, 1 2 53,

Más detalles

Resolución de Sistema de Ecuaciones Lineales

Resolución de Sistema de Ecuaciones Lineales Resolución de Sistema de Ecuaciones Lineales Hermes Pantoja Carhuavilca Facultad de Ingeniería Mecanica Universidad Nacional de Ingenieria Métodos Numérico Hermes Pantoja Carhuavilca 1 de 37 CONTENIDO

Más detalles

Unidad 1: Fuentes y propagación de errores

Unidad 1: Fuentes y propagación de errores Unidad 1: Fuentes y propagación de errores 1.1 Qué es el Análisis Numérico. Fuentes de errores. Errores de redondeo y discretización. Propagación de errores. 1.2 Sistemas numéricos. Aritmética del computador.

Más detalles

3. ÁLGEBRA LINEAL // 3.1. SISTEMAS DE

3. ÁLGEBRA LINEAL // 3.1. SISTEMAS DE 3. ÁLGEBRA LINEAL // 3.1. SISTEMAS DE ECUACIONES LINEALES Y MATRICES COMPLEMENTOS PARA LA FORMACIÓN DISCIPLINAR EN MATEMÁTICAS Curso 2011-2012 3.1.1. Resolución de sistemas de ecuaciones lineales. Método

Más detalles

OCW-V.Muto Los métodos de transformación ortogonal. Cap. XX CAPITULO XX. LOS METODOS DE TRANSFORMACION ORTOGONAL

OCW-V.Muto Los métodos de transformación ortogonal. Cap. XX CAPITULO XX. LOS METODOS DE TRANSFORMACION ORTOGONAL CAPITULO XX. LOS METODOS DE TRANSFORMACION ORTOGONAL 1. LAS TRANSFORMACIONES DE HOUSEHOLDER Debido a las posibles dificultades numéricas del uso de las ecuaciones normales, los modernos métodos de mínimos

Más detalles

3. ÁLGEBRA LINEAL // 3.1. SISTEMAS DE

3. ÁLGEBRA LINEAL // 3.1. SISTEMAS DE 3. ÁLGEBRA LINEAL // 3.1. SISTEMAS DE ECUACIONES LINEALES Y MATRICES COMPLEMENTOS PARA LA FORMACIÓN DISCIPLINAR EN MATEMÁTICAS // Curso 2017-18 3.1.1. Resolución de sistemas de ecuaciones lineales. Método

Más detalles

1.2 Valores y vectores propios. Método de las potencias y Rayleigh.

1.2 Valores y vectores propios. Método de las potencias y Rayleigh. 20 Prelininares. 1.2 Valores y vectores propios. Método de las potencias y Rayleigh. 1.2.1 Cálculo del Polinomio Caracterstico: ALGORITMO DE SOURIAU. ENTRADA: la matriz A 1 = A, p 1 = traza(a 1 ), n =

Más detalles

Resolución de Sistema de Ecuaciones Lineales

Resolución de Sistema de Ecuaciones Lineales Resolución de Sistema de Ecuaciones Lineales Hermes Pantoja Carhuavilca Facultad de Ingeniería Mecanica Universidad Nacional de Ingenieria Métodos Numérico Hermes Pantoja Carhuavilca 1 de 29 CONTENIDO

Más detalles

Métodos Numéricos Cap 4: Solución de Sistemas de Ecuaciones lineales y no lineales 1/15

Métodos Numéricos Cap 4: Solución de Sistemas de Ecuaciones lineales y no lineales 1/15 Métodos Numéricos Cap 4: Solución de Sistemas de Ecuaciones lineales y no lineales 1/15 Representación matricial para sistemas de ecuaciones Resolución de Sistemas de ecuaciones lineales y no lineales

Más detalles

SEL - Métodos Directos

SEL - Métodos Directos Facultad de Ingeniería Mecánica Universidad Nacional de Ingeniería Métodos Numéricos Contenido 1 Métodos Directos Generalidades sobre Métodos Directos Eliminación Gaussiana Pivoteo Factorización LU Generalidades

Más detalles

Ejercicios. CÁLCULO NUMÉRICO II Curso 2009/2010. Departamento de Ecuaciones Diferenciales y Análisis Numérico

Ejercicios. CÁLCULO NUMÉRICO II Curso 2009/2010. Departamento de Ecuaciones Diferenciales y Análisis Numérico Departamento de Ecuaciones Diferenciales y Análisis Numérico CÁLCULO NUMÉRICO II Curso 009/00 Ejercicios. Probar las siguientes desigualdades entre números: a Desigualdad de Young: Si a, b 0, y p, q >

Más detalles

Sistemas de Ecuaciones. Lineales III

Sistemas de Ecuaciones. Lineales III Sistemas de Ecuaciones Lineales III Pivoteo: Estrategia de pivoteo parcial Adaptación a matrices con estructuras particulares: Matrices banda y tridiagonales Método de holesky 52123-1 - DIM Universidad

Más detalles

Matrices triangulares y descomposición LU

Matrices triangulares y descomposición LU Matrices triangulares y descomposición LU Problemas para examen Si en algún problema se pide calcular el número de flops (operaciones aritméticas con punto flotante), entonces en el examen será suficiente

Más detalles

Departamento de Ecuaciones Diferenciales y Análisis Numérico. CÁLCULO NUMÉRICO I (Tema 3 - Relación 2)

Departamento de Ecuaciones Diferenciales y Análisis Numérico. CÁLCULO NUMÉRICO I (Tema 3 - Relación 2) CÁLCULO NUMÉRICO I (Tema - Relación 2) 5 Resolver mediante el método de Gauss los siguientes sistemas de ecuaciones. 2x 2 + x = 0 2x + 2x 2 + x + 2x = 2 x x 2 + x = 7 6x + x 2 6x 5x = 6. x + x 2 x = x

Más detalles

SISTEMAS DE ECUACIONES

SISTEMAS DE ECUACIONES 16 de Mayo de 2013 SISTEMAS DE ECUACIONES Departamento de Matemática Aplicada Facultad de Ingeniería Universidad Central de Venezuela Cálculo Numérico José Luis Quintero 1 Puntos a tratar 1. Sistemas fáciles

Más detalles

Matrices y sistemas de ecuaciones lineales. Autovalores y autovectores.

Matrices y sistemas de ecuaciones lineales. Autovalores y autovectores. Tema 5 Matrices y sistemas de ecuaciones lineales Autovalores y autovectores 5 Introducción Una matriz es una disposición ordenada de elementos de la forma: a a a m a a a m a n a n a nm Sus filas son las

Más detalles

2. Sistemas de ecuaciones lineales.

2. Sistemas de ecuaciones lineales. 2. Sistemas de ecuaciones lineales. Manuel Palacios Departamento de Matemática Aplicada Centro Politécnico Superior Universidad de Zaragoza Otoño 2002 Contents 1 Introducción 2 2 Operaciones elementales

Más detalles

Métodos Numéricos Cap 4: Solución de Sistemas de Ecuaciones lineales y no lineales 1/15

Métodos Numéricos Cap 4: Solución de Sistemas de Ecuaciones lineales y no lineales 1/15 Métodos Numéricos Cap 4: Solución de Sistemas de Ecuaciones lineales y no lineales 1/15 Representación matricial para sistemas de ecuaciones Resolución de Sistemas de ecuaciones lineales y no lineales

Más detalles

Lección 8. Matrices y Sistemas de Ecuaciones Lineales

Lección 8. Matrices y Sistemas de Ecuaciones Lineales Lección 8 Matrices y Sistemas de Ecuaciones Lineales MIGUEL ANGEL UH ZAPATA 1 Análisis Numérico I Facultad de Matemáticas, UADY Septiembre 2014 1 Centro de Investigación en Matemáticas, Unidad Mérida En

Más detalles

Tema 1. Espacios Vectoriales. Sistemas de ecuaciones.

Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Álgebra Lineal Escuela Politécnica Superior Universidad de Málaga Emilio Muñoz-Velasco (Basado en los apuntes de Jesús Medina e Inmaculada Fortes)

Más detalles

Sistema de ecuaciones lineales

Sistema de ecuaciones lineales 1 El sistema de ecuaciones lineales Sistema de ecuaciones lineales puede ser escrito en forma matricial como, donde: es llamada matriz de los coeficientes (reales) del sistema es el vector de las incógnitas

Más detalles

Conjuntos y matrices. Sistemas de ecuaciones lineales

Conjuntos y matrices. Sistemas de ecuaciones lineales 1 Conjuntos y matrices Sistemas de ecuaciones lineales 11 Matrices Nuestro objetivo consiste en estudiar sistemas de ecuaciones del tipo: a 11 x 1 ++ a 1m x m = b 1 a n1 x 1 ++ a nm x m = b n Una solución

Más detalles

1.1 Sistemas de ecuaciones lineales: método del gradiente conjugado.

1.1 Sistemas de ecuaciones lineales: método del gradiente conjugado. Capítulo 1 Preliminares 11 Sistemas de ecuaciones lineales: método del gradiente conjugado 111 Algunos conceptos de Algebra Matricial Notaciones y conceptos básicos Vectores en K n y matrices de orden

Más detalles

Resolución de sistemas lineales

Resolución de sistemas lineales Resolución de sistemas lineales Contenidos Introducción Métodos directos Métodos iterativos La operación \ Introducción Queremos resolver sistemas de ecuaciones lineales con el mismo número de ecuaciones

Más detalles

MÉTODOS MATEMÁTICOS (Curso ) Cuarto Curso de Ingeniero Industrial Departamento de Matemática Aplicada II. Universidad de Sevilla

MÉTODOS MATEMÁTICOS (Curso ) Cuarto Curso de Ingeniero Industrial Departamento de Matemática Aplicada II. Universidad de Sevilla MÉTODOS MATEMÁTICOS (Curso 2012-201) Cuarto Curso de Ingeniero Industrial Departamento de Matemática Aplicada II Universidad de Sevilla Lección 2: Sistemas de ecuaciones lineales ELIMINACIÓN GAUSSIANA

Más detalles

SEL Métodos Directos

SEL Métodos Directos SEL Pantoja Carhuavilca Métodos Numérico Agenda métodos directos Encuentra una solución en un número finito de operaciones(en ausencia de errores de redondeo) transformando el sistema en un sistema equivalente

Más detalles

Tema 1. Espacios Vectoriales. Sistemas de ecuaciones.

Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Álgebra Lineal Escuela Politécnica Superior Universidad de Málaga Emilio Muñoz-Velasco (Basado en los apuntes de Jesús Medina e Inmaculada Fortes)

Más detalles

OCW-V.Muto El problema de mínimos cuadrados. Cap. XIX CAPITULO XIX. EL PROBLEMA DE LOS MINIMOS CUADRADOS: PRELIMINARES

OCW-V.Muto El problema de mínimos cuadrados. Cap. XIX CAPITULO XIX. EL PROBLEMA DE LOS MINIMOS CUADRADOS: PRELIMINARES CAPITULO XIX. EL PROBLEMA DE LOS MINIMOS CUADRADOS: PRELIMINARES. SISTEMAS LINEALES DE ECUACIONES SOBREDETERMINADOS La discusión de los problemas algebráicos de la parte anterior se había centrado exclusivamente

Más detalles

Sistemas de Ecuaciones Lineales. Matrices y determinantes.

Sistemas de Ecuaciones Lineales. Matrices y determinantes. Capítulo 3 Sistemas de Ecuaciones Lineales Matrices y determinantes 31 Sistemas de Ecuaciones Lineales El problema central del Álgebra Lineal es la resolución de ecuaciones lineales simultáneas Una ecuación

Más detalles

6. Forma canónica de matrices

6. Forma canónica de matrices 6. Forma canónica de matrices Manuel Palacios Departamento de Matemática Aplicada Centro Politécnico Superior Universidad de Zaragoza Otoño 2010 Contents 6 6. Forma canónica de matrices 7 6.1 Introducción....................................

Más detalles

CURSO DE METODOS NUMERICOS T ERCERA PART E METODOS PARA LA RESOLUCION DE SISTEMAS LINEALES

CURSO DE METODOS NUMERICOS T ERCERA PART E METODOS PARA LA RESOLUCION DE SISTEMAS LINEALES CURSO DE METODOS NUMERICOS T ERCERA PART E METODOS PARA LA RESOLUCION DE SISTEMAS LINEALES V. Muto Sistemas lineales: Preliminares Cap. XIII CAPITULO XIII. METODOS PARA LA RESOLUCION DE SISTEMAS LINEALES:

Más detalles

Aplicar este algoritmo para resolver el sistema de ecuaciones: º «« º ««

Aplicar este algoritmo para resolver el sistema de ecuaciones: º «« º «« Introducción al Cálculo Numérico y Programación 1 MÓDULO 8: SISTEMA DE ECUACIONES LINEALES. A- MÉTODOS DIRECTOS 6LVWHPDVIiFLOHVGHUHVROYHU Ejercicio 1: Escribe una función MATLAB llamada =sp(a,b) que admita

Más detalles

Matrices y sistemas de ecuaciones

Matrices y sistemas de ecuaciones Matrices y sistemas de ecuaciones María Muñoz Guillermo maria.mg@upct.es U.P.C.T. Matemáticas I M. Muñoz (U.P.C.T.) Matrices y sistemas de ecuaciones Matemáticas I 1 / 59 Definición de Matriz Matrices

Más detalles

OCW-V.Muto Eliminación Gaussiana y sustitución hacia atrás Cap. XIV CAPITULO XIV. ELIMINACION GAUSSIANA Y SUSTITUCION HACIA ATRAS

OCW-V.Muto Eliminación Gaussiana y sustitución hacia atrás Cap. XIV CAPITULO XIV. ELIMINACION GAUSSIANA Y SUSTITUCION HACIA ATRAS CAPITULO XIV ELIMINACION GAUSSIANA Y SUSTITUCION HACIA ATRAS 1 INTRODUCCION Y METODO El procedimiento general de eliminación Gaussiana aplicado al sistema E 1 : a 11 x 1 + a 1 x + + a 1n x n = b 1 E :

Más detalles

ALN - Curso 2007 Gradiente Conjugado

ALN - Curso 2007 Gradiente Conjugado ALN - Curso 27 Gradiente Conjugado Cecilia González Pérez Junio 27 Métodos Iterativos Pueden ser: Métodos estacionarios Métodos no estacionarios Métodos no estacionarios hacen uso de información, evaluada

Más detalles

Matrices 3. Matrices. Verónica Briceño V. agosto 2012

Matrices 3. Matrices. Verónica Briceño V. agosto 2012 3 agosto 2012 En esta Presentación... En esta Presentación veremos: Matriz Inversa En esta Presentación... En esta Presentación veremos: Matriz Inversa Determinante En esta Presentación... En esta Presentación

Más detalles

1. Normas matriciales

1. Normas matriciales Guía álgebra lineal ING 40: Cálculo numérico 203-20 Facultad de Ingeniería y Ciencias Aplicadas Profesor cátedra: Marcelo Tapia Ayudantes de corrección: José Manuel Barberis Ignacia Scarneo Normas matriciales

Más detalles

ÁLGEBRA LINEAL I NOTAS DE CLASE UNIDAD 2

ÁLGEBRA LINEAL I NOTAS DE CLASE UNIDAD 2 ÁLGEBRA LINEAL I NOTAS DE CLASE UNIDAD 2 Abstract Estas notas conciernen al álgebra de matrices y serán actualizadas conforme el material se cubre Las notas no son substituto de la clase pues solo contienen

Más detalles

Métodos Numéricos Grado en Informática Tema 6: Análisis Numérico Matricial II

Métodos Numéricos Grado en Informática Tema 6: Análisis Numérico Matricial II Métodos Numéricos Grado en Informática Tema 6: Análisis Numérico Matricial II Luis Alvarez León Univ. de Las Palmas de G.C. Luis Alvarez León () Métodos Numéricos Univ. de Las Palmas de G.C. 1 / 84 Contenido

Más detalles

Tema 6: Resolución aproximada de sistemas de ecuaciones lineales

Tema 6: Resolución aproximada de sistemas de ecuaciones lineales Métodos Numéricos: Resumen y ejemplos Tema 6: Resolución aproximada de sistemas de ecuaciones lineales Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de

Más detalles

CURSO DE METODOS NUMERICOS Año Académico Curso Tercero de Matemáticas EXAMEN FINAL FEBRERO

CURSO DE METODOS NUMERICOS Año Académico Curso Tercero de Matemáticas EXAMEN FINAL FEBRERO Año Académico 2000-2001 Curso Tercero de Matemáticas EXAMEN FINAL FEBRERO 1. Dá el enunciado y demuestra el teorema de convergencia del método del punto fijo. (2 puntos) 2. Resuelve el siguiente sistema

Más detalles

Edgar Acuña/ ESMA 6665 Lecc1-2 1 ESTADISTICA COMPUTACIONAL. Capítulo I. Matrices y solución de Ecuaciones lineales

Edgar Acuña/ ESMA 6665 Lecc1-2 1 ESTADISTICA COMPUTACIONAL. Capítulo I. Matrices y solución de Ecuaciones lineales Edgar Acuña/ ESMA 6665 Lecc1-2 1 ESTADISTICA COMPUTACIONAL Capítulo I. Matrices y solución de Ecuaciones lineales Referencias: 1. Datta, B. (1995) Numerical Linear Algebra. Brooks Cole 2. Golub, G. and

Más detalles

Métodos directos para resolver sistemas de ecuaciones lineales

Métodos directos para resolver sistemas de ecuaciones lineales Métodos directos para resolver sistemas de ecuaciones lineales Problemas para examen Si en algún problema se pide calcular el número de flops (operaciones aritméticas con punto flotante), entonces en el

Más detalles

Métodos iterativos de solución de SEL

Métodos iterativos de solución de SEL Métodos iterativos de solución de SEL Método de Gauss-Seidel MAT-251 Dr. Depto. de Matemáticas Univ. de Guanajuato e-mail: alram@cimat.mx web: http://www.cimat.mx/~alram/met_num/ Dr. Joaquín Peña Acevedo

Más detalles

Definición Dados dos números naturales m y n, una matriz de orden o dimensión m n es una tabla numérica rectangular con m filas y n columnas.

Definición Dados dos números naturales m y n, una matriz de orden o dimensión m n es una tabla numérica rectangular con m filas y n columnas. Tema 1 Matrices 1.1. Conceptos básicos y ejemplos Definición 1.1.1. Dados dos números naturales m y n, una matriz de orden o dimensión m n es una tabla numérica rectangular con m filas y n columnas. NOTA:

Más detalles

TEMA 8.- NORMAS DE MATRICES Y

TEMA 8.- NORMAS DE MATRICES Y Álgebra II: Tema 8. TEMA 8.- NORMAS DE MATRICES Y NúMERO DE CONDICIóN Índice. Introducción 2. Norma vectorial y norma matricial. 2 2.. Norma matricial inducida por normas vectoriales......... 4 2.2. Algunos

Más detalles

Apuntes de CÁLCULO NUMÉRICO II. Curso 2008/2009

Apuntes de CÁLCULO NUMÉRICO II. Curso 2008/2009 Apuntes de CÁLCULO NUMÉRICO II Curso 2008/2009 Septiembre de 2008 2 Índice general 1. Elementos de Álgebra lineal. Normas. 5 1.1. Normas..................................... 5 1.2. Normas matriciales...............................

Más detalles

METODOS NUMERICOS. Curso

METODOS NUMERICOS. Curso Boletín 1 de prácticas. 1. Localizar las raíces de la ecuación F (x) = 0, para los siguientes casos: (a) F (x) = x + e x. (b) F (x) = 0.5 x + 0.2 sen(x). (c) F (x) = x tg(x). (d) F (x) = x 5 3. (e) F (x)

Más detalles

Método de diferencias finitas para ecuaciones diferenciales parciales elípticas. (Parte II)

Método de diferencias finitas para ecuaciones diferenciales parciales elípticas. (Parte II) Método de diferencias finitas para ecuaciones diferenciales parciales elípticas (Parte II) Métodos numéricos para sistemas lineales Solución numérica de EDPs requiere resolver sistemas de ecuaciones lineales

Más detalles

Elementos de Cálculo Numérico / Cálculo Numérico Primer Cuatrimestre 2016

Elementos de Cálculo Numérico / Cálculo Numérico Primer Cuatrimestre 2016 Universidad de Buenos Aires - Facultad de Ciencias Exactas y Naturales - Depto. de Matemática Elementos de Cálculo Numérico / Cálculo Numérico Primer Cuatrimestre 206 Práctica N : Número de condición.

Más detalles

CONTENIDOS MATEMÁTICAS II SEGUNDA EVALUACIÓN CURSO 2017/2018 MATRICES

CONTENIDOS MATEMÁTICAS II SEGUNDA EVALUACIÓN CURSO 2017/2018 MATRICES CONTENIDOS MATEMÁTICAS II SEGUNDA EVALUACIÓN CURSO 2017/2018 Unidades: - Matrices (Bloque Álgebra) - Determinantes (Bloque Álgebra) - Sistemas de ecuaciones lineales (Bloque Álgebra) - Vectores (Bloque

Más detalles