Resolución numérica de sistemas de ecuaciones lineales
|
|
- Beatriz Mora Valverde
- hace 7 años
- Vistas:
Transcripción
1 Resolución numérica de sistemas de ecuaciones lineales María González Taboada Departamento de Matemáticas Febrero de 2008
2 Esquema: 1 Descripción del problema 2 Algunas definiciones y propiedades 3 Condicionamiento de un sistema de ecuaciones lineales 4 Métodos directos 5 Métodos iterativos clásicos 6 Referencias
3 1. El problema Resolver sistemas de ecuaciones lineales con el mismo número de ecuaciones que de incógnitas. Dados los números a i j y b i, para i, j = 1, 2,..., n, se trata de hallar los números x 1, x 2,..., x n que verifican las n ecuaciones lineales siguientes simultáneamente : a 11 x 1 + a 12 x a 1n x n = b 1 a 21 x 1 + a 22 x a 2n x n = b 2. a n1 x 1 + a n2 x a nn x n = b n
4 El problema Definimos: - la matriz de coeficientes : A = (a ij ) n i,j=1 - el vector del segundo miembro : b = (b i ) n i=1 - el vector de incógnitas : x = (x i ) n i=1 Usando la notación matricial, el sistema se escribe A x = b En lo que sigue, suponemos que el sistema tiene una única solución.
5 Solución algebraica Si conocemos A 1, simplemente hay que hacer x = A 1 b El coste de resolver el sistema en este caso es el de una multiplicación "matriz por vector" : n 2 multiplicaciones y n (n 1) sumas Si no conocemos la matriz inversa, A 1, desde el punto de vista de los cálculos necesarios, no es eficiente determinarla para resolver el sistema.
6 Solución numérica Disponemos de dos tipos de métodos: 1 Métodos directos: Permiten calcular la solución en un número finito de pasos conocido a priori. Solo están sujetos a errores de redondeo. 2 Métodos iterativos: Construyen una sucesión que converge a la solución del sistema. Además de los errores de redondeo, existe un error de truncamiento.
7 2. Algunas definiciones y propiedades 1 Autovalores y autovectores 2 Normas vectoriales. Normas vectoriales equivalentes 3 Normas matriciales. Normas matriciales subordinadas a normas vectoriales 4 Sucesiones de vectores y de matrices
8 2.1 Autovalores y autovectores Dada una matriz A M n, se dice que un número λ C es un autovalor o valor propio de la matriz A si existe un vector x 0 tal que A x = λ x Cualquier vector x 0 que verifique la relación anterior se llama autovector o vector propio asociado al autovalor λ de la matriz A. Si x 0 es un autovector asociado a un autovalor λ de la matriz A, α x también lo es, α K ( K = R ó C ).
9 Autovalores y autovectores Si λ es un autovalor de la matriz A, el sistema homogéneo tiene soluciones no triviales. (A λ I) x = 0 Por tanto, si λ es un autovalor de la matriz A, det(a λ I) = 0 - p A (λ) := det(a λ I) es un polinomio de grado n en λ. - Se llama polinomio característico de la matriz A. Los autovalores de A son las raíces de su polinomio característico.
10 Autovalores y autovectores Una matriz A M n tiene exactamente n autovalores, contando sus multiplicidades. Si λ = a + b i es un autovalor de A, entonces λ = a b i también lo es. Teorema: (N.H. Abel - E. Galois) Los polinomios de grado n 5 no se pueden resolver por radicales. Para calcular los autovalores de matrices de orden 5 o superior, es necesario emplear métodos numéricos.
11 Autovalores y autovectores Si A es una matriz diagonal o triangular, sus autovalores son los elementos de su diagonal principal. Si A es una matriz simétrica, sus autovalores son números reales. Si A es una matriz ortogonal, todos sus autovalores tienen módulo 1. Se llama radio espectral de una matriz A a la cantidad ρ(a) := max { λ : λ C es un autovalor de A }
12 2.2 Norma vectorial Sea V un espacio vectorial sobre un cuerpo K ( K = R ó C ). Una norma sobre V es una aplicación : V R con las propiedades siguientes: 1 v 0, v V 2 v = 0 v = 0 3 α v = α v, α K, v V 4 Desigualdad triangular: u + v u + v, u, v V El espacio vectorial V dotado de una norma vectorial, (V, ), se denomina espacio vectorial normado.
13 Normas vectoriales más utilizadas Sea V un espacio vectorial de dimensión n. Dado v V, denotamos por v 1, v 2,..., v n sus componentes en la base canónica de V. Norma uno: Norma euclídea: v 1 := v 1 + v v n v 2 := Norma del máximo: v v v n 2 v := max ( v 1, v 2,..., v n )
14 Normas vectoriales equivalentes Dos normas y son equivalentes si existen constantes positivas, c y C, tales que c v v C v v V Todas las normas definidas sobre un espacio de dimensión finita son equivalentes.
15 2.3 Norma matricial Sea M n (K) el espacio vectorial de las matrices cuadradas de orden n con coeficientes en K. Una norma matricial sobre M n (K) es una aplicación : M n (K) R con las propiedades siguientes: 1 A 0, A M n (K) 2 A = 0 A = O 3 α A = α A, α K, A M n (K) 4 A + B A + B, A, B M n (K) 5 AB A B, A, B M n (K) Si no hay posibilidad de confusión, escribiremos simplemente M n.
16 Norma matricial subordinada Dada una norma vectorial sobre K n, la aplicación : M n R definida por A v A := sup v K n v = sup A v = sup A v v K n v K n v 0 v =1 v 1 es una norma matricial y se llama norma matricial subordinada a la norma vectorial. Una norma matricial se dice compatible con una norma vectorial sobre K n si A v A v v K n
17 Norma matricial subordinada Si es una norma matricial subordinada, entonces: A v A v v K n Además, existe al menos un vector u 0 tal que A u = A u Alternativamente, la norma matricial subordinada a la norma vectorial se puede definir como: A = inf { α R : A v α v v K n } En particular, si es una norma matricial subordinada, I = 1
18 Normas matriciales subordinadas más utilizadas Norma matricial subordinada a la norma uno: A v 1 A 1 = sup v K n v 1 v 0 = m«ax 1 j n n a ij i=1 Norma matricial subordinada a la norma del máximo: A v A = sup v K n v v 0 = m«ax 1 i n n a ij j=1 Norma matricial subordinada a la norma euclídea: A v 2 A 2 = sup = ρ(a v K n v A) 2 v 0
19 Propiedades Si la matriz A es simétrica, A 2 = ρ(a) Si la matriz A es ortogonal, A 2 = 1. Relación entre radio espectral y normas matriciales : 1 Para cualquier norma matricial, ρ(a) A 2 El radio espectral es el ínfimo de las normas matriciales subordinadas: ρ(a) = «ınf A subordinada
20 Un ejemplo de norma matricial no subordinada La aplicación E : M n R definida por ( n A E := a ij 2) 1/2 i,j=1 es una norma matricial no subordinada para n 2, llamada norma de Frobenius. La norma E es fácil de calcular y proporciona una cota superior de la norma euclídea ya que A 2 A E n A 2 A M n
21 2.4 Sucesiones de vectores Sea (V, ) un espacio vectorial normado sobre un cuerpo K. Una sucesión de vectores en V es una aplicación x : N V k x(k) =: x (k) Se denota (x (k) ) k N o, simplemente, (x (k) ) k. Se dice que la sucesión (x (k) ) k V converge a x V si l«ım x (k) x = 0 k + En ese caso, se escribe l«ım k x (k) = x.
22 Sucesiones de matrices Una sucesión de matrices en M n es una aplicación A : N M n k A(k) =: A (k) Se denota (A (k) ) k N o, simplemente, (A (k) ) k. Si es una norma matricial, se dice que la sucesión (A (k) ) k N M n converge a la matriz A M n si l«ım k A(k) A = 0 En ese caso, se escribe l«ım k A (k) = A.
23 Sucesiones de matrices Lema: Si A M n (R), las afirmaciones siguientes son equivalentes: 1 l«ım k A (k) = O 2 l«ım k A (k) x = 0 3 ρ(a) < 1 x R n 4 Existe alguna norma matricial subordinada tal que A < 1
24 3. Condicionamiento de un sistema de ecuaciones lineales 1 Ejemplo (R.S. Wilson) 2 Perturbación del vector del segundo miembro 3 Perturbación de la matriz de coeficientes 4 Número de condición de una matriz 5 Recopilación de resultados 6 Implicaciones prácticas
25 3.1 Ejemplo (R.S. Wilson) x y z = t 31 x 1 y z = 1 1 t 1 - La matriz de coeficientes es simétrica. - Su determinante vale 1. - Su inversa también es simétrica:
26 Ejemplo (R.S. Wilson) x 32, y z = 22,9 33, t 30,9 x y z = t 9,2 12,6 4,5 1,1 - Error relativo en los datos: 0, Error relativo en los resultados: 0, El error relativo se ha multiplicado por más de 2460! Nota: Todos los errores han sido calculados en la norma 2.
27 Ejemplo (R.S. Wilson) ,1 7,2 x 32 7,08 5, y 8 5,98 9,89 9 z = ,99 4,99 9 9,98 t 31 x y z = t Error relativo en los datos: 0, Error relativo en los resultados: 0, El error relativo se ha multiplicado por más de 10757! Nota: Todos los errores han sido calculados en la norma 2.
28 Ejemplo (R.S. Wilson) El ejemplo es preocupante: El orden de los errores en los datos es considerado aceptable en las ciencias experimentales. Son fiables los resultados que obtenemos? En lo que sigue, analizamos este problema. Suponemos que - A es una matriz invertible - denota una norma vectorial y la norma matricial subordinada correspondiente.
29 3.2 Perturbación del vector del segundo miembro Consideramos el sistema de ecuaciones lineales A x = b y el sistema de ecuaciones lineales perturbado A (x + δx) = b + δb Se tiene que δx x A A 1 δb b El error relativo en el resultado está acotado superiormente en función del error relativo en los datos.
30 3.3 Perturbación de la matriz de coeficientes Comparamos ahora la solución exacta del sistema de ecuaciones A x = b con la solución exacta del sistema perturbado (A + δa)(x + δx) = b (Suponemos que admite una única solución). Se tiene que δx x + δx A A 1 δa A δx El error relativo en el resultado, medido por x+δx, está acotado superiormente en función del error relativo en los datos.
31 3.4 Número de condición de una matriz Se llama condicionamiento o número de condición de una matriz A relativo a la norma matricial subordinada a la cantidad cond(a) := A A 1 También se suele denotar χ(a) o κ(a). En la práctica, suelen calcularse los números de condición relativos a las normas matriciales 1, 2 y. Escribiremos cond p (A) = A p A 1 p, p = 1, 2,
32 Número de condición de una matriz Propiedades: 1 cond(a) 1 2 cond(a) = cond(a 1 ) 3 cond(α A) = cond(a), α 0 4 Si A es una matriz ortogonal, cond 2 (A) = 1.
33 3.5 Recopilación de resultados Teorema: (Perturbación del vector del segundo miembro) Sea A una matriz invertible, y sean x y x + δx las soluciones de los sistemas de ecuaciones lineales Si b 0, entonces A x = b A (x + δx) = b + δb δx x δb cond (A) b Además, esta cota es óptima: es posible encontrar vectores b 0 y δb 0 para los que se tiene la igualdad.
34 Ejemplo (R.S. Wilson) A = b = δb = 31 0,1 0,1 0,1 0,1 cond 2 (A) 2984 δx 2 x 2 0, , cond 2 (A) δb 2 b 2
35 Recopilación de resultados Teorema: (Perturbación de la matriz de coeficientes) Sea A una matriz invertible, y sean x y x + δx las soluciones de los sistemas de ecuaciones lineales A x = b (A + δa) (x + δx) = b Si b 0, entonces δx x + δx cond (A) δa A y la cota es óptima: es posible encontrar un vector b 0 y una matriz δa O para los que se tiene la igualdad. Además, δx x δa ( ) cond (A) 1 + O( δa ) A
36 Ejemplo (R.S. Wilson) A = δa = 0 0 0,1 0,2 0,08 0, ,02 0,11 0 0,01 0,01 0 0,02 cond 2 (A) 2984 δx 2 x + δx 2 0, , cond 2 (A) δa 2 A 2
37 3.6 Implicaciones prácticas El número de condición de una matriz A mide la sensibilidad de la solución de un sistema de ecuaciones de matriz A respecto a variaciones en la matriz de coeficientes y/o en el segundo miembro. Se dice que un sistema de ecuaciones lineales es bien condicionado si el número de condición de su matriz de coeficientes es pequeño. En caso contrario, se dice que es mal condicionado. Un sistema de ecuaciones lineales es tanto mejor condicionado cuanto más próximo a 1 es el número de condición de su matriz de coeficientes.
38 Implicaciones prácticas No se puede mejorar el condicionamiento de un sistema de ecuaciones lineales multiplicando todas las ecuaciones por el mismo escalar. Sí es posible hacerlo multiplicando cada fila y/o columna por un número adecuado (problema del equilibrado de una matriz). Las matrices ortogonales son muy bien condicionadas para la resolución de sistemas de ecuaciones lineales.
39 4. Métodos directos 1 Introducción 2 Sistemas de matriz diagonal 3 Sistemas de matriz triangular inferior 4 Sistemas de matriz triangular superior 5 Factorización LU 6 Factorización de Cholesky o LL t 7 Factorización QR 8 Cálculo de determinantes
40 4.1 Introducción Los métodos directos permiten obtener la solución exacta del sistema realizando un número de operaciones conocido a priori. Si se emplea aritmética finita, la solución estará afectada por errores de redondeo. La mayoría de los métodos directos se basan en factorizaciones de la matriz de coeficientes.
41 Introducción La idea del método de Gauss es transformar el sistema de ecuaciones lineales original en un sistema de matriz triangular superior con las mismas soluciones. Para ello, se realizan tres tipos de operaciones: 1 E i λ E i, λ 0 2 E i E i + λ E j, j i 3 E i E j En estos cálculos, solo intervienen la matriz de coeficientes y el vector del segundo miembro.
42 Introducción Por tanto, para resolver el sistema de ecuaciones lineales, solo es necesario almacenar la matriz aumentada: a 11 a a 1n b 1 a 21 a a 2n b 2 [A b] = a n1 a n2... a nn b n
43 Introducción El tiempo de cálculo y el error de redondeo que contiene el resultado dependen del número de operaciones que se realicen (que a su vez depende del orden del sistema). Por ejemplo, para resolver un sistema de orden n usando el método de Gauss, son necesarias n n2 n 3 multiplicaciones / divisiones n n2 2 5n 6 sumas / restas Las diferencias reales en el tiempo de ejecución también dependen de la precisión que usemos y del ordenador empleado.
44 Introducción n Multiplicaciones/Divisiones Sumas/Restas Operaciones del método de Gauss
45 4.2 Sistemas de matriz diagonal Consideramos el sistema de ecuaciones lineales D x = b donde D es una matriz diagonal: d d D = 0 0 d d nn
46 Sistemas de matriz diagonal La ecuación i-ésima del sistema (i = 1, 2,..., n) es: d ii x i = b i Por tanto, si d ii 0, para i = 1, 2,..., n, tenemos que x i = b i d ii
47 Sistemas de matriz diagonal Algoritmo: Para i = 1,..., n, Fin Implementación: Si d ii 0, hacer x i = b i /d ii La diagonal principal de la matriz D se almacena en un vector d. Número de operaciones: n divisiones
48 Sistemas de matriz diagonal Nota: Si se van a resolver muchos sistemas de matriz D, en lugar de su diagonal principal, suelen almacenarse los números d 1 ii, i = 1, 2,..., n. En ese caso, para resolver un sistema de orden n, realizaríamos n multiplicaciones.
49 4.3 Sistemas de matriz triangular inferior Consideramos el sistema de ecuaciones lineales L x = b donde L es una matriz triangular inferior: l l 21 l L = l 31 l 32 l l n1 l n2 l n3... l nn
50 Sistemas de matriz triangular inferior La ecuación i-ésima del sistema (i = 1, 2,..., n) es: l i1 x l ii 1 x i 1 + l ii x i = b i Por tanto, si l ii 0, para i = 1, 2,..., n, tenemos que x i = b i l i1 x 1... l ii 1 x i 1 l ii = i 1 b i l ij x j j=1 l ii
51 Sistemas de matriz triangular inferior Algoritmo (sustitución hacia adelante o descenso): 1 Si l 11 = 0, parar (no existe solución única). 2 Hacer x 1 = b 1 l 11 3 Para i = 2,..., n, 1 Si l ii = 0, parar (no existe solución única). 2 Hacer x i = Xi 1 b i l ij x j j=1 l ii
52 Sistemas de matriz triangular inferior Implementación: Los elementos de la parte triangular inferior de L se almacenan en un vector l siguiendo el orden por filas o por columnas. Se suele usar un vector puntero para señalar la posición en que comienza cada fila o columna en l. La solución del sistema se puede almacenar sobre el vector del segundo miembro. Número de operaciones: n 2 + n 2 n 2 n 2 multiplicaciones / divisiones sumas / restas
53 Sistemas de matriz triangular inferior n Multip./Divisiones Sumas/Restas Operaciones para resolver sistemas de matriz triangular
54 4.4 Sistemas de matriz triangular superior Consideramos el sistema de ecuaciones lineales U x = b donde U es una matriz triangular superior: u 11 u 12 u u 1n 0 u 22 u u 2n U = 0 0 u u 3n u nn
55 Sistemas de matriz triangular superior La ecuación i-ésima del sistema, para i = 1, 2,..., n, es: u ii x i + u ii+1 x i u in x n = b i Por tanto, si u ii 0, para i = 1, 2,..., n, tenemos que x i = b i u ii+1 x i+1... u in x n u ii = b i n j=i+1 u ii u ij x j
56 Sistemas de matriz triangular superior Algoritmo (sustitución hacia atrás o remonte): 1 Si u nn = 0, parar (no existe solución única). 2 Hacer x n = b n u nn 3 Para i = n 1,..., 1, 1 Si u ii = 0, parar (no existe solución única). 2 Hacer x i = nx b i u ij x j j=i+1 u ii
57 Sistemas de matriz triangular superior Implementación: Los elementos de la parte triangular superior de U se almacenan en un vector u siguiendo el orden por filas o por columnas. Se suele usar un vector puntero para señalar la posición en que comienza cada fila o columna en el vector u. La solución del sistema se puede almacenar sobre el vector del segundo miembro. Número de operaciones: las mismas que requiere el algoritmo de sustitución hacia adelante.
58 4.5 Factorización LU Notación: Dada una matriz cuadrada A, de orden n, para k = 1,..., n, denotamos por a a 1k A k :=..... a k1... a kk Teorema: (Existencia de la factorización LU ) Si det(a k ) 0, para k = 1,..., n, entonces existen una matriz triangular inferior L y una matriz triangular superior U tales que A = LU
59 Factorización LU Muchas matrices que aparecen en las aplicaciones admiten factorización LU: 1 Las matrices estrictamente diagonal dominantes: - Por filas: a ii > n a ij, para i = 1,..., n j=1 j i - Por columnas: a ii > n a ji, para i = 1,..., n j=1 j i 2 Las matrices simétricas y definidas positivas: A = A t y x t A x > 0 x 0
60 Factorización LU La factorización LU de una matriz A no es única. Habitualmente, se fija l ii = 1, para i = 1,..., n En este caso: - U = A (n), la matriz triangular superior que se obtiene al aplicar eliminación gaussiana a la matriz A. - Para i = 2,..., n y j = 1,..., i 1, l ij = m ij siendo m ij los pivotes de la eliminación gaussiana.
61 Factorización LU Consideramos el sistema de ecuaciones lineales A x = b donde la matriz A admite la factorización LU. Entonces A x = b LU x = b Para resolver el sistema, hay que hacer: 1 Resolver L y = b 2 Resolver U x = y
62 Factorización LU El uso de la factorización LU presenta ventajas cuando hay que resolver varios sistemas de ecuaciones lineales con la misma matriz de coeficientes: A x (k) = b (k), k = 1,..., K Pasos a seguir: 1 Calcular la factorización LU de la matriz A 2 Para k = 1,..., K, 1 Resolver L y (k) = b (k) 2 Resolver U x (k) = y (k) Una vez obtenida la factorización, la resolución de cada sistema requiere n 2 multiplicaciones/divisiones y n 2 n sumas/restas.
63 Factorización LU Algoritmo ( factorización LU ): Para i = 1,..., n : i 1 1 Hacer u ii = a ii l ik u ki k=1 2 Si u ii = 0, parar (factorización imposible). 3 Para j = i + 1,..., n : Xi 1 1 Hacer u ij = a ij l ik u kj k=1 Xi 1 2 Hacer l ji = a ji l jk u ki /u ii k=1
64 Factorización LU Implementación: Factorización LU : Es suficiente usar un array n n, en el que inicialmente se almacena la matriz A. A medida que se va calculando la factorización, se almacenan en el array la parte triangular superior de U y la parte estrictamente triangular inferior de L (la diagonal principal de L no se almacena). Resolución de los sistemas triangulares: En el algoritmo de sustitución hacia adelante, hay que tener en cuenta que l ii = 1, para i = 1,..., n.
65 Factorización LU En la práctica, la factorización LU solo es útil cuando no se requieren intercambios de filas para controlar el error de redondeo. Teorema: Si A es una matriz invertible, entonces existe una matriz de permutación P tal que PA admite una factorización LU. Entonces: A x = b P A x = P b LU x = P b 1 Calcular c = P b 2 Resolver L y = c 3 Resolver U x = y
66 Factorización LU (matriz tridiagonal) En el caso particular en que la matriz A es tridiagonal: a 1 b 1 c 2 a 2 b 2 A = c n 1 a n 1 b n 1 c n a n solo es necesario emplear 3n 2 posiciones de memoria para almacenar la matriz A.
67 Factorización LU (matriz tridiagonal) Para factorizar la matriz A, son necesarias 2n 2 multiplicaciones / divisiones n 1 sumas / restas Para resolver los sistemas triangulares, son necesarias 3n 2 multiplicaciones / divisiones 2n 2 sumas / restas
68 4.6 Factorización de Cholesky (L L t ) La factorización de Cholesky se usa para resolver sistemas de ecuaciones lineales de matriz simétrica y definida positiva. Una matriz cuadrada A de orden n es definida positiva si, y solo si, x t A x > 0 x 0 Si det(a k ) > 0, para k = 1,..., n, entonces la matriz A es definida positiva.
69 Factorización de Cholesky (L L t ) Teorema: (Cholesky) Una matriz simétrica A es definida positiva si y solo si se puede factorizar en la forma LL t, donde L es una matriz triangular inferior con elementos distintos de cero en su diagonal principal. Si se fija el signo de los elementos l ii, i = 1, 2,..., n, la factorización es única. Tomaremos los elementos l ii > 0, para i = 1, 2,..., n.
70 Factorización de Cholesky (L L t ) Consideramos el sistema de ecuaciones lineales A x = b donde la matriz A es simétrica y definida positiva. Entonces: A x = b LL t x = b Para resolver el sistema, hay que hacer: 1 Resolver L y = b 2 Resolver L t x = y
71 Factorización de Cholesky (L L t ) Algoritmo ( factorización de Cholesky para calcular L ): 1 Si a 11 > 0, hacer l 11 = a 11 2 Para j = 2,..., n, hacer l j1 = a j1 /l 11 3 Para i = 2,..., n 1, v i 1 X u Xi 1 1 Si a ii lik 2 > 0, hacer l ii = t aii k=1 k=1 Xi 1 2 Para j = i + 1,..., n, hacer l ji = a ji l jk l ik /l ii n 1 4 Si a nn lnk 2 > 0, hacer l nn = k=1 l 2 ik k=1 n 1 ann k=1 l 2 nk
72 Factorización de Cholesky (L L t ) Implementación: Factorización LL t : La parte triangular inferior de la matriz A se almacena en un vector. A medida que se va calculando la factorización, se almacena en el vector la parte triangular inferior de la matriz L. Resolución de los sistemas triangulares: Al implementar el algoritmo de sustitución hacia atrás, hay que tener en cuenta que solo se ha almacenado la parte triangular inferior de L.
73 Factorización de Cholesky (L L t ) Número de operaciones: Para la factorización: n n2 2 2n 3 multiplicaciones / divisiones n 3 6 n 6 sumas / restas n raíces cuadradas Para la resolución de los sistemas triangulares: n 2 + n multiplicaciones / divisiones n 2 n sumas / restas
74 Factorización de Cholesky (LL t ) n Multiplic./Divisiones Sumas/Restas Operaciones del método de Cholesky (sin contar )
75 4.7 Factorización Q R Una matriz cuadrada Q de orden n es ortogonal si Q Q t = Q t Q = I n es decir, si es invertible y su inversa es su traspuesta. Teorema: ( Existencia de la factorización QR ) Dada una matriz cualquiera A, existen una matriz ortogonal Q y una matriz triangular superior R tales que A = QR
76 Factorización QR Consideramos el sistema de ecuaciones lineales A x = b donde A es una matriz cuadrada invertible. Si conocemos una factorización QR de la matriz A, A x = b QR x = b R x = Q t b Para resolver el sistema, hay que: 1 Calcular c := Q t b 2 Resolver R x = c
77 Factorización QR Para obtener una factorización QR de una matriz o resolver un sistema de ecuaciones lineales por el método QR, usaremos las matrices de Householder. Una matriz de Householder es una matriz de la forma H = H(v) = I n 2 v vt v t v donde v 0 es un vector columna. La matriz H = I n también se considera una matriz de Householder.
78 Factorización QR Propiedades de las matrices de Householder: 1 Las matrices de Householder son simétricas y ortogonales. Por tanto, H = H t = H 1 2 Dado a R n, existe una matriz de Householder H M n (R) tal que Si α := H a = a 2 e 1 n a i y v := a a 2 e 1, entonces i=2 H(v) si α 0 ó si α = 0 y a 1 < 0 H := I n si α = 0 y a 1 > 0
79 Factorización QR Usando la factorización QR, A x = b R x = Q t b El método QR para resolver sistemas de ecuaciones lineales consiste en transformar la matriz ampliada (A b) en (R Q t b) usando matrices de Householder.
80 Factorización QR Sean A (1) := A y b (1) := b. Si a (1) es la primera columna de la matriz A, entonces existe una matriz de Householder, H (1), tal que H (1) a (1) = a (1) 2 e 1 Definimos A (2) := H (1) A (1) y b (2) := H (1) b (1). Entonces: A x = b A (2) x = b (2) Todos los elementos de la primera columna de A (2) por debajo del diagonal son cero.
81 Factorización QR En la etapa k 1, se tiene un sistema equivalente al original: A x = b A (k) x = b (k) Los coeficientes de las k 1 primeras columnas de A (k) por debajo de la diagonal principal son cero. Sea a (k) := (a (k) kk... a(k) nk )t R n k+1. Entonces existe H (k) M n k+1 tal que H (k) a (k) = a (k) 2 e 1
82 Factorización QR Definimos ( H (k) Ik 1 0 := 0 H(k) ) A (k+1) := H (k) A (k) y b (k+1) = H (k) b (k) Los coeficientes de las k primeras columnas de A (k+1) por debajo de la diagonal principal son cero. Además, A x = b A (k+1) x = b (k+1)
83 Factorización QR Tras n etapas, se tiene que A x = b A (n+1) x = b (n+1) donde la matriz A (n+1) = H (n) H (n 1)... H (2) H (1) A es triangular superior y b (n+1) = H (n) H (n 1)... H (2) H (1) b. Por tanto, R := A (n+1) Q := H (1) H (2)... H (n 1) H (n)
84 Factorización QR Algoritmo: 1 Para k = 1,..., n 1 Calcular 2 Calcular H (k) (A (k+1) b (k+1) ) k:n,k:n+1 = H (k) (A (k) b (k) ) k:n,k:n+1
85 Factorización QR Número de operaciones: Para resolver el sistema: Para cálcular la matriz Q: 4 3 n3 flops 4 3 n3 flops El método QR se emplea para resolver sistemas de ecuaciones lineales mal condicionados.
86 4.8 Cálculo de determinantes Sea A una matriz cuadrada, de orden n. El cálculo del determinante de A mediante el método de los menores requiere O(n!) operaciones elementales. Concretamente, se precisan n 1 1 n! multiplicaciones / divisiones k! k=1 n! 1 sumas / restas
87 Cálculo de determinantes n Multip./Divisiones Sumas/Restas , , , , Operaciones necesarias para calcular el determinante de una matriz de orden n por el método de los menores Incluso para valores de n relativamente pequeños, la cantidad de cálculos es demasiado grande.
88 Cálculo de determinantes Si A es una matriz diagonal o triangular, entonces det(a) = a 11 a a nn = Por otra parte, se tiene que: 1 det(ab) = det(a) det(b) 2 det(a) = det(a t ) n i=1 a ii
89 Cálculo de determinantes Si A = LU, con l ii = 1, i, entonces det(a) = det(u) Si A = LU, con u ii = 1, i, entonces det(a) = det(l) Si A = LL t, det(a) = det(l) 2
90 5. Métodos iterativos clásicos 1 Introducción 2 Criterios de parada 3 Métodos de descomposición 1 Método de Jacobi 2 Método de Gauss-Seidel 3 Métodos de relajación 4 Convergencia de los métodos iterativos clásicos
91 5.1 Introducción Los métodos iterativos son, en general, más eficientes que los métodos directos para resolver sistemas de ecuaciones lineales grandes y de matriz hueca ya que se basan en la operación "multiplicación matriz por vector". Como consecuencia: - Solo es necesario almacenar los coeficientes no nulos de la matriz del sistema. - Son menos sensibles a los errores de redondeo. - No se produce el llenado de la matriz.
92 Ejemplo: llenado en LU A =
93 Ejemplo: llenado en LU nz = 33 Estructura de nulidad de la matriz A
94 Ejemplo: llenado en LU nz = 49 Estructura de nulidad de la factorización LU de A
95 Introducción Algunas desventajas de los métodos iterativos frente a los métodos directos: - En general, no es posible predecir el número de operaciones que se requieren para obtener una aproximación a la solución con una precisión determinada. - El tiempo de cálculo y la precisión del resultado pueden depender de la elección de ciertos parámetros.
96 Introducción Dada una aproximación inicial x (0), un método iterativo genera una sucesión de aproximaciones x (k), para k = 1, 2,..., que converge a la solución del sistema. Para generar esta sucesión, se repite el mismo esquema de operaciones hasta que: - se obtiene una aproximación a la solución con una precisión especificada de antemano, - o se rebasa un número máximo de iteraciones.
97 Introducción Clases de métodos iterativos: 1 Métodos iterativos clásicos (estacionarios o lineales): Algunos pueden usarse para construir precondicionadores, que permiten mejorar el condicionamiento de un sistema. 2 Métodos iterativos de descenso (no estacionarios): Son los más eficientes para resolver sistemas grandes de matriz hueca.
98 Introducción Los métodos iterativos clásicos (lineales) se basan en reescribir el problema: donde G M n (R) y c R n. Algoritmo: A x = b x = G x + c 1 Sea x (0) una aproximación inicial a la solución. 2 Para k = 1, 2,..., x (k) = G x (k 1) + c La matriz G se llama matriz de iteración y el vector c se llama vector de iteración.
99 Introducción Se dice que un método iterativo es consistente con el sistema de ecuaciones lineales A x = b si, en el caso en que la sucesión generada por el método iterativo sea convergente, su límite es solución del sistema de ecuaciones lineales. En lo que sigue, suponemos que el método iterativo considerado es consistente. Número de operaciones en cada iteración: n 2 multiplicaciones + n 2 sumas
100 5.2 Criterios de parada 1 Basado en el error absoluto en la aproximación: x (k) x (k 1) < ɛ 2 Basado en el error relativo en la aproximación: x (k) x (k 1) < ɛ x (k) 3 Basado en el residuo: r (k) < ɛ b donde r (k) es el vector residuo en la iteración k: r (k) := b A x (k)
101 Criterios de parada La comprobación del criterio de parada no debe incrementar en exceso el número de operaciones por iteración. Conviene organizar los cálculos de forma adecuada. La norma vectorial que se emplea con más frecuencia en la implementación de métodos iterativos lineales es la norma infinito.
102 5.3 Métodos de descomposición Los métodos de descomposición son métodos iterativos clásicos. Se obtienen a partir de una descomposición de la matriz de coeficientes de la forma: A = M N donde M es una matriz fácil de invertir (diagonal, triangular,... ).
103 Métodos de descomposición Entonces: A x = b M x = N x + b x = M 1 N x + M 1 b G := M 1 N c := M 1 b El método iterativo asociado es: 1 Sea x (0) una aproximación inicial a la solución. 2 Para k = 1, 2,..., resolver el sistema de ecuaciones lineales M x (k) = N x (k 1) + b Este método iterativo es consistente, por construcción.
104 Métodos de descomposición Usando que N = M A, la ecuación que define el método iterativo se escribe: x (k) = x (k 1) + M 1 r (k 1) Esta formulación del método iterativo se conoce como formulación eficiente. Si la matriz de coeficientes A es bien condicionada, el criterio de parada basado en el residuo es fiable y no supone muchos cálculos adicionales.
105 Métodos de descomposición Algoritmo: 1 Sea x (0) una aproximación inicial a la solución. 2 Para k = 1, 2,...,max_it: 1 Calcular el vector residuo: r (k 1) = b A x (k 1) 2 Si r (k 1) < ɛ b, parar y tomar x (k 1) como aproximación a la solución. 3 Resolver el sistema de ecuaciones lineales M z = r (k 1) 4 Actualizar la aproximación a la solución: x (k) = x (k 1) + z
106 Métodos de descomposición Los principales métodos de descomposición son: - El método de Jacobi - El método de Gauss Seidel - Los métodos de relajación Para usar estos métodos, es necesario que a ii 0 i = 1, 2,..., n En lo que sigue, supondremos que se verifica esta condición.
107 5.3.1 El método de Jacobi K.G.J. Jacobi (1845) Se basa en la descomposición A = D (D A) donde D = a a a nn D A = 0 a a 1n a a 2n a n1 a n2... 0
108 El método de Jacobi En cada iteración, se resuelve un sistema de matriz diagonal: D x (k) = (D A) x (k 1) + b Por esta razón, el método de Jacobi también se llama método de inversión diagonal. Multiplicando por D 1 : x (k) = D 1 (D A) x (k 1) + D 1 b se tiene que la matriz del método de Jacobi es J := D 1 (D A) = I D 1 A
109 El método de Jacobi: forma en componentes De la ecuación D x (k) = (D A) x (k 1) + b se deduce que, para i = 1, 2,..., n, a ii x (k) i = b i n j=1 j i a ij x (k 1) j Por tanto, si a ii 0, para i = 1, 2,..., n, ( x (k) i = b i n j=1 j i ) a ij x (k 1) j /a ii
110 El método de Jacobi: forma en componentes Las n componentes de x (k) se pueden calcular simultáneamente. Por esta razón, el método de Jacobi también se conoce como método de los desplazamientos simultáneos. En este caso, es menos costoso usar un criterio de parada sobre la aproximación, como por ejemplo, el criterio de error relativo x (k) x (k 1) < ɛ x (k)
111 El método de Jacobi: forma en componentes Algoritmo (Jacobi, forma en componentes): 1 Elegir una aproximación inicial, x (0) 2 Para k = 1, 2,..., max_it : 1 Para i = 1, 2,..., n, calcular x (k) i = b i nx j=1 j i a ij x (k 1) j /a ii 2 Si x (k) x (k 1) < ɛ x (k), parar y tomar x (k) como aproximación a la solución.
112 El método de Jacobi: formulación eficiente Formulación eficiente: x (k) = x (k 1) + D 1 (b A x (k 1) ) En cada iteración, hay que: 1 Calcular z = A x (k 1) 2 Calcular el vector residuo r (k 1) = b z 3 Si r (k 1) < ɛ b, parar y tomar x (k 1) como aproximación a la solución. 4 Resolver el sistema D z = r (k 1) 5 Calcular x (k) = x (k 1) + z
113 El método de Jacobi: ejemplo Consideremos el sistema A x = b: A = b = x = x(0) = Primera iteración del método de Jacobi: x (1) = x (0) + D 1( b A x (0)) x (1) = [0,2500 1,4000 2,6667 3,5000]
114 5.3.2 El método de Gauss Seidel En el método de Jacobi: ( x (k) i = b i i 1 j=1 a ij x (k 1) j n j=i+1 ) a ij x (k 1) j /a ii En el método de Gauss Seidel: ( x (k) i = b i i 1 j=1 a ij x (k) j n j=i+1 ) a ij x (k 1) j /a ii C.F. Gauss (1845) K.G.J. Jacobi L.P. von Seidel (1874)
115 El método de Gauss Seidel Algoritmo (Gauss Seidel, forma en componentes): 1 Elegir una aproximación inicial, x (0) 2 Para k = 1, 2,..., max_it : 1 Para i = 1, 2,..., n, calcular x (k) i = b i Xi 1 j=1 a ij x (k) j nx j=i+1 a ij x (k 1) j /a ii 2 Si x (k) x (k 1) < ɛ x (k), parar y tomar x (k) como aproximación a la solución.
116 El método de Gauss Seidel El método de Gauss Seidel es un método de descomposición. En efecto, para i = 1, 2,..., n, la ecuación ( x (k) i = b i i 1 j=1 puede escribirse como b i i j=1 a ij x (k) j a ij x (k) j n j=i+1 n j=i+1 ) a ij x (k 1) j /a ii a ij x (k 1) j = 0
117 El método de Gauss Seidel Si consideramos la descomposición A = L (L A) donde a a 21 a L = a n1 a n2... a nn L A = 0 a a 1n a 2n
118 El método de Gauss Seidel b i i j=1 a ij x (k) j n j=i+1 se puede escribir como de donde se deduce que a ij x (k 1) j = 0, i = 1, 2,..., n b L x (k) + (L A) x (k 1) = 0 x (k) = L 1 (L A) x (k 1) + L 1 b Luego, el método de Gauss-Seidel es un método de descomposición y la matriz de iteración del método es L 1 := L 1 (L A) = I L 1 A
119 El método de Gauss Seidel Formulación eficiente: x (k) = x (k 1) + L 1 (b A x (k 1) ) En cada iteración, hay que: 1 Calcular z = A x (k 1) 2 Calcular el vector residuo r (k 1) = b z 3 Si r (k 1) < ɛ b, parar y tomar x (k 1) como aproximación a la solución. 4 Resolver el sistema L z = r (k 1) 5 Calcular x (k) = x (k 1) + z
120 El método de Gauss Seidel: ejemplo Consideremos el sistema A x = b: A = b = x = x(0) = Primera iteración del método de Gauss Seidel: x (1) = x (0) + L 1( b A x (0)) x (1) = [0,2500 1,3500 2,4417 2,8271]
121 5.3.3 Métodos de relajación La convergencia de los métodos de Jacobi y Gauss Seidel es en general bastante lenta. Los métodos de relajación pueden mejorar sustancialmente la convergencia del método de Gauss Seidel. La convergencia de los métodos de relajación depende de la elección adecuada de un parámetro. También se conocen como métodos SOR (Successive Over Relaxation).
122 Métodos de relajación Consideramos la descomposición de la matriz A : A = D E F donde: a E = a n1 a n F = 0 a a 1n a 2n
123 Métodos de relajación Los métodos de relajación se basan en la descomposición: ω A = (D ω E) (ω F + (1 ω) D) donde ω 0 es el parámetro de relajación. Entonces la solución del sistema satisface x = (D ω E) 1 (ω F + (1 ω) D) x + ω (D ω E) 1 b El método iterativo correspondiente es: x (k) = (D ω E) 1 (ω F +(1 ω) D) x (k 1) +ω (D ω E) 1 b
124 Métodos de relajación La matriz de iteración es L ω := (D ω E) 1 (ω F + (1 ω) D) Nótese que para ω = 1, se tiene el método de Gauss Seidel. Como ω F + (1 ω) D = D ω (D F) = D ω E ω (D E F) = (D ω E) ω A la matriz de iteración se puede expresar como L ω = I ω (D ω E) 1 A
125 Métodos de relajación Formulación eficiente: x (k) = x (k 1) + ω (D ω E) 1( b A x (k 1)) En cada iteración, hay que: 1 Calcular z = A x (k 1) 2 Calcular el vector residuo r (k 1) = b z 3 Si r (k 1) < ɛ b, parar y tomar x (k 1) como aproximación a la solución. 4 Resolver el sistema (D ω E) z = r (k 1) 5 Calcular x (k) = x (k 1) + ω z
126 Métodos de relajación: forma en componentes De la ecuación (D ω E) x (k) = (ω F + (1 ω) D) x (k 1) + ω b se deduce que, para i = 1, 2,..., n, a ii x (k) i ( = (1 ω) a ii x (k 1) i +ω b i Si a ii 0, para i = 1, 2,..., n, x (k) i ( = (1 ω) x (k 1) i +ω b i i 1 j=1 i 1 j=1 a ij x (k) j a ij x (k) j n j=i+1 n j=i+1 ) a ij x (k 1) j ) a ij x (k 1) j /a ii
127 Métodos de relajación: ejemplo Consideremos el sistema A x = b: A = b = x = x(0) = Primera iteración del método de relajación (ω = 1,03): x (1) = (1 ω) x (0) + ω x (1) GS x (1) = (1 1,03) x (0) + 1,03 [0,2500 1,3500 2,4417 2,8271] x (1) = [0,2575 1,3905 2,5149 2,9119]
128 5.4 Convergencia de los métodos iterativos clásicos Consideramos el método iterativo lineal: x (k) = G x (k 1) + c, k = 1, 2,... donde x (0) es una aproximación inicial a la solución del sistema de ecuaciones lineales. Se dice que el método iterativo es convergente si la sucesión generada por el método converge a la solución del sistema de ecuaciones lineales cualquiera que sea la aproximación inicial x (0).
129 Convergencia y acotación del error Teorema: (Caracterización de la convergencia) Un método iterativo lineal consistente es convergente si, y solo si, el radio espectral de la matriz de iteración es menor que uno. Corolario: (Acotación del error) Si G < 1, para alguna norma matricial subordinada, entonces el método iterativo es convergente y se verifican las acotaciones del error: 1 x (k) x G k x (0) x 2 x (k) x G k 1 G x(1) x (0)
130 Velocidad de convergencia Se tiene que x (k) x ρ(g) k x (0) x Dados dos métodos iterativos lineales: (1) x (k) = G 1 x (k 1) + c 1 para k = 1, 2,... (2) x (k) = G 2 x (k 1) + c 2 para k = 1, 2,... se dice que el método (1) converge más rápido que el método (2) si ρ(g 1 ) < ρ(g 2 ) < 1
131 Velocidad de convergencia Algunos parámetros para medir la velocidad de convergencia: - Velocidad media de convergencia: v j (G) = log( G j ) 1/j - Velocidad asintótica de convergencia: v (G) = log ρ(g)
132 Convergencia (Jacobi y Gauss Seidel) Teorema: Si A es estrictamente diagonal dominante, los métodos de Jacobi y Gauss Seidel son convergentes. Teorema: Si A es simétrica, definida positiva y tridiagonal, entonces los métodos de Jacobi y de Gauss Seidel son convergentes. Además, en este caso, el método de Gauss Seidel converge más rápido que el de Jacobi: ρ(l 1 ) = ρ(j ) 2 < 1
133 Convergencia (Jacobi y Gauss Seidel) Teorema: (Stein Rosenberg) Si a ii > 0 i y a ij 0 i j, entonces se cumple una y solo una de las afirmaciones siguientes: 1 0 < ρ(l 1 ) < ρ(j ) < < ρ(j ) < ρ(l 1 ) 3 ρ(l 1 ) = ρ(j ) = 0 4 ρ(l 1 ) = ρ(j ) = 1
134 Convergencia (métodos de relajación) La convergencia de los métodos de relajación depende de la elección del parámetro de relajación ω. Teorema: (Kahan) El método de relajación solo puede converger si ω (0, 2). Teorema: (Ostrowski Reich) Si A es simétrica y definida positiva, el método de relajación es convergente para cualquier elección del parámetro ω (0, 2).
135 Convergencia (métodos de relajación) Teorema: Si A es una matriz simétrica, definida positiva y tridiagonal, entonces la elección óptima del parámetro ω para el método de relajación es 2 ω opt = ρ(j ) 2 Para esta elección del parámetro de relajación, ρ(l ωopt ) = ω opt 1
136 6. Referencias 1 R.L. Burden y J.D. Faires, Análisis Numérico, Thomson Learning, 7 a edición, C. Conde y G. Winter, Métodos y algoritmos básicos del álgebra numérica, Reverté, J.F. Epperson, An introduction to numerical methods and analysis, Wiley, G.H. Golub & C.F. van Loan, Matrix Computations, 3 a ed., The Johns Hopkins University Press, A. Quarteroni & F. Saleri, Cálculo científico con MATLAB y Octave, Springer, 2006.
Parte 2. Métodos directos para la resolución de sistemas de ecuaciones lineales
Parte 2. Métodos directos para la resolución de sistemas de ecuaciones lineales Gustavo Montero Escuela Técnica Superior de Ingenieros Industriales University of Las Palmas de Gran Canaria Curso 2006-2007
Más detallesI. Métodos directos para resolución de SEL. Se dice que una matriz A admite una factorización LU indirecta A = LU
I. Métodos directos para resolución de SEL 1. Factorización LU Se dice que una matriz A admite una factorización LU si dicha matriz puede escribirse como el producto de una matriz triangular inferior,
Más detallesResolución de sistemas de ecuaciones lineales
Tema 2 Resolución de sistemas de ecuaciones lineales 21 Métodos directos de resolución de sistemas de ecuaciones lineales 211 Resolución de sistemas triangulares Definición 211 Una matriz A se dice triangular
Más detallesClase. 1. Resolución de sistemas de ecuaciones lineales: preliminares
Clase 1. Resolución de sistemas de ecuaciones lineales: preliminares 2. Método directo y exacto: Gauss 3. Método directo y exacto (II): descomposición LU 4. Métodos indirectos: Jacobi, Gauss-Seidel 2 Sistemas
Más detalles1.II.3. Sistemas de ecuaciones lineales: métodos iterativos.
1.II.3. Sistemas de ecuaciones lineales: métodos iterativos. Manuel Palacios Departamento de Matemática Aplicada Centro Politécnico Superior Universidad de Zaragoza Otoño 2003 Referencias [1] Burden, R.
Más detallesSistemas de ecuaciones lineales
Chapter 2 Sistemas de ecuaciones lineales 2.1 Resolución de sistemas de ecuaciones lineales El problema que se pretende resolver en este capítulo es el de un sistema de m ecuaciones lineales con n incógnitas
Más detalles9. Normas y métodos iterativos de resolución de sistemas lineales.
9. Normas y métodos iterativos de resolución de sistemas lineales. Manuel Palacios Departamento de Matemática Aplicada Centro Politécnico Superior Universidad de Zaragoza Otoño 2010 Contents 9 Normas
Más detallesElementos de Cálculo Numérico
Universidad de Buenos Aires - Facultad de Ciencias Exactas y Naturales - Depto. de Matemática Elementos de Cálculo Numérico Primer cuatrimestre 2006 Práctica N 2: Condicionamiento de una matriz. Descomposición
Más detalles2. Sistemas de ecuaciones lineales
2 Sistemas de ecuaciones lineales 2 Ejercicios resueltos Ejercicio 2 Estudiar el número de condición de Frobenius de la matriz a b A a + ε b Solución: El determinante de A es A ab + ba + ε b ε Si b 0 y
Más detallesProfesor Francisco R. Villatoro 13 de Diciembre de 1999 SOLUCIONES. 1. Una matriz A de n n es diagonalmente dominante (estrictamente) por filas si
Cuarta relación de problemas Técnicas Numéricas Profesor Francisco R. Villatoro 13 de Diciembre de 1999 SOLUCIONES 1. Una matriz A de n n es diagonalmente dominante estrictamente por filas si a ii > a
Más detallesMETODOS ITERATIVOS. Hermes Pantoja Carhuavilca. Facultad de Ingeniería Mecanica Universidad Nacional de Ingenieria
Facultad de Ingeniería Mecanica Universidad Nacional de Ingenieria Métodos Numéricos Contenido 1 Métodos Iterativos Introducción Definición Métodos Iterativos Método de Jacobi Convergencia Método de Gauss
Más detallesSistemas de Ecuaciones Lineales
Sistemas de Ecuaciones Lineales José Vicente Romero Bauset ETSIT-curso 2009/200 José Vicente Romero Bauset Tema 2.- Sistemas de Ecuaciones Lineales Sistema de ecuaciones lineales Un sistema de ecuaciones
Más detallesResolverlo mediante el método de Gauss con aritmética exacta y sin pivoteo.
Asignatura Cálculo Numérico Página de Sistemas Lineales lineales (Gauss con variantes y estudio iterativo) Examen Diciembre 000 Ejercicio. Dado el sistema lineal 4x+ y+ z = 9 x+ 4y z = 5, x+ y z = 9 (a)
Más detallesUnidad 5 Problemas de álgebra lineal numérica.
Unidad 5 Problemas de álgebra lineal numérica. Eliminación gaussiana. Factorización LU. Sea Ax = b un sistema de n ecuaciones lineales con n incógnitas, donde A es una matriz cuadrada de orden n no singular
Más detallesCálculo Numérico. Curso Ejercicios: Preliminares I
Cálculo Numérico. Curso 07-08. Ejercicios: Preliminares I 1. (a) Compruebe que la inversa de una matriz, L, triangular inferior de orden n puede calcularse como sigue: Para j = 1,,..., n e i = j, j + 1,...,
Más detallesResolución numérica de sistemas de ecuaciones. Introducción
Motivación La cercha de la figura se carga con una fuerza uniforme repartida sobre el cordón superior Resolución numérica de sistemas de ecuaciones. Introducción El planteamiento del problema conduce a
Más detallesResolución de Sistema de Ecuaciones Lineales
Resolución de Sistema de Ecuaciones Lineales Hermes Pantoja Carhuavilca Facultad de Ingeniería Industrial Universidad Nacional Mayor de San Marcos Métodos Computacionales Hermes Pantoja Carhuavilca 1 de
Más detallesOCW-V.Muto Sistemas lineales: Preliminares Cap. XIII CAPITULO XIII. METODOS PARA LA RESOLUCION DE SISTEMAS LINEALES: PRELIMINARES
CAPITULO XIII. METODOS PARA LA RESOLUCION DE SISTEMAS LINEALES: PRELIMINARES. SISTEMAS LINEALES DE ECUACIONES En esta tercera parte se consideran técnicas para resolver el sistema de ecuaciones lineales:
Más detallesMétodos Numéricos para Sistemas de Ecuaciones Lineales
Universidad de Chile Departamento de Ingeniería Matemática Cálculo Numérico MA-33A Métodos Numéricos para Sistemas de Ecuaciones Lineales Gonzalo Hernández Oliva GHO SEL - MA33A 1 MN para SEL: Temario
Más detallesMétodos de factorización para resolver sistemas de ecuaciones lineales. 22 de agosto, 2012
Cálculo numérico Métodos de factorización para resolver sistemas de ecuaciones lineales 22 de agosto, 2012 1 Factorización LU Considera el siguiente ejemplo de factorización LU de una matriz en un sistema
Más detallesPara resolver un sistema lineal estan permitidas tres operaciones en las ecuaciones.
Para resolver un sistema lineal estan permitidas tres operaciones en las ecuaciones. 1. La ecuación E i puede multiplicarse por cualquier costante diferente de cero y se puede usar la ecuación resultante
Más detallesSistemas de Ecuaciones. Lineales II
Sistemas de Ecuaciones Lineales II Factorización LU: Eliminación Gaussiana Relación con la factorización LU 521230-1 - DIM Universidad de Concepción Solución de sistemas con matriz triangular Dadas L =
Más detalles1.IV Aproximación numérica de valores y vectores propios.
.IV Aproximación numérica de valores y vectores propios. Manuel Palacios Departamento de Matemática Aplicada Centro Politécnico Superior. Universidad de Zaragoza Primavera 2007 Contents Introducción 2
Más detalles2.2 Normas matriciales
P Castillo Capítulo 2 13 22 Normas matriciales En el caso de las matrices cuadradas de orden n la estructura algebraica es mucho más rica que la de un espacio vectorial K n ; además de tener operaciones
Más detallesMétodos numéricos para sistemas de ecuaciones. (Prácticas)
Métodos numéricos para sistemas de ecuaciones (Prácticas) Métodos iterativos UNIVERSIDAD POLITÉCNICA DE VALENCIA 1 Índice general 3. Métodos iterativos 3 3.1. Métodos iterativos básicos....................
Más detallesMétodos Numéricos: ecuaciones lineales Eduardo P. Serrano
Métodos Numéricos: ecuaciones lineales Eduardo P. Serrano Versión previa Feb 2012 1. Ecuaciones lineales. El álgebra lineal numérica aborda principalmente dos problemas: - El análisis y resolución de sistemas
Más detallesElementos de Cálculo Numérico (M) - Cálculo Numérico
Universidad de Buenos Aires - Facultad de Ciencias Exactas y Naturales - Depto. de Matemática Elementos de Cálculo Numérico (M) - Cálculo Numérico Primer Cuatrimestre 204 Práctica N 2: Normas y Condicionamiento.
Más detallesAl considerar varios polígonos regulares inscritos resulta: perímetro del cuadrado < π. perímetro del 96 gono < π
AMPLIACIÓN DE MATEMÁTICAS INTRODUCCIÓN Método Constructivo: Conjunto de instrucciones que permiten calcular la solución de un problema, bien en un número finito de pasos, bien en un proceso de paso al
Más detallesUNIVERSIDAD CATÓLICA DE TEMUCO FACULTAD DE INGENIERÍA DEPTO. DE CIENCIAS MATEMÁTICAS Y FÍSICAS SOLUCIÓN NUMÉRICA DE SISTEMAS DE ECUACIONES LINEALES
UNIVERSIDAD CATÓLICA DE TEMUCO FACULTAD DE INGENIERÍA DEPTO. DE CIENCIAS MATEMÁTICAS Y FÍSICAS Asignatura : Cálculo Numérico, MAT-1123. Profesor : Emilio Cariaga L. Periodo : 1er. Semestre 216. SOLUCIÓN
Más detallesTema 1: Matrices. Sistemas de ecuaciones. Determinantes
Tema 1: Matrices. Sistemas de ecuaciones. Determinantes José M. Salazar Octubre de 2016 Tema 1: Matrices. Sistemas de ecuaciones. Determinantes Lección 1. Matrices. Sistemas de ecuaciones. Determinantes
Más detallesGustavo Rodríguez Gómez. Agosto Dicembre 2011
Computación Científica Gustavo Rodríguez Gómez INAOE Agosto Dicembre 2011 1 / 46 Capítulo II 2 / 46 1 Introducción Métodos Directos Sistemas Triangulares Sustitución Hacia Atrás Invertibilidad de una Matriz
Más detallesMétodos iterativos para resolver sistemas de ecuaciones lineales
Clase No. 8 (Parte 1): MAT 251 Métodos iterativos para resolver sistemas de ecuaciones lineales Dr. Alonso Ramírez Manzanares Depto. de Matemáticas Univ. de Guanajuato e-mail: alram@ cimat.mx web: http://www.cimat.mx/
Más detallesSistemas de Ecuaciones Lineales y Matrices
Capítulo 4 Sistemas de Ecuaciones Lineales y Matrices El problema central del Álgebra Lineal es la resolución de ecuaciones lineales simultáneas Una ecuación lineal con n-incógnitas x 1, x 2,, x n es una
Más detallesAnálisis Numérico para Ingeniería. Clase Nro. 6
Análisis Numérico para Ingeniería Clase Nro. 6 Sistemas de Ecuaciones Lineales Temas a tratar: Normas Vectoriales y Matriciales. Análisis de Sensibilidad de Sistemas Lineales. Número de Condición. Estimación
Más detallesParte 4. Métodos iterativos para la resolución de sistemas de ecuaciones lineales
Parte 4. Métodos iterativos para la resolución de sistemas de ecuaciones lineales Gustavo Montero Escuela Técnica Superior de Ingenieros Industriales Universidad de Las Palmas de Gran Canaria Curso 2006-2007
Más detallesMatrices y Sistemas Lineales
Matrices y Sistemas Lineales Natalia Boal María Luisa Sein-Echaluce Universidad de Zaragoza Matrices sobre IR ó C. Definición Dado un conjunto K (IR ó C) y dos conjuntos finitos de índices I = {,, m} J
Más detallesSistema de Ecuaciones Lineales
Pantoja Carhuavilca Métodos Computacionales Agenda Ejemplos Ejemplos Aplicaciones de los Sistemas La solución de sistemas lineales de ecuaciones lineales es un tema clásico de las matemáticas, rico en
Más detalles3. Sistemas inconsistentes y sistemas indeterminados
. Sistemas inconsistentes sistemas indeterminados. Ejercicios resueltos Ejercicio. Dado el sistema: 4x + 5 x + 5 a Realizar la factorización QR de la matriz, resolverlo basándose en ella a. Mediante el
Más detallesCálculo Numérico - CO3211. Ejercicios. d ) Sabiendo que la inversa de la matriz A = es A c d
Cálculo Numérico - CO32 Ejercicios Decida cuáles de las siguientes proposiciones son verdaderas y cuáles son falsas Si una proposición es verdadera, demuéstrela, y si es falsa dé un contraejemplo: a Sea
Más detallesCálculo de autovalores
Cálculo de autovalores Damián Ginestar Peiró Departamento de Matemática Aplicada Universidad Politécnica de Valencia Curso 2011-2012 (UPV) Cálculo de autovalores Curso 2011-2012 1 / 28 Índice 1 Preliminares
Más detallesElementos de Cálculo Numérico / Cálculo Numérico Segundo Cuatrimestre 2017
Universidad de Buenos Aires - Facultad de Ciencias Exactas y Naturales - Depto. de Matemática Elementos de Cálculo Numérico / Cálculo Numérico Segundo Cuatrimestre 207 Práctica N : Número de condición.
Más detallesResolución numérica de sistemas de ecuaciones. Introducción
Resolución numérica de sistemas de ecuaciones. Introducción Laboratori de Càlcul Numèric (LaCàN) Departament de Matemàtica Aplicada III Universitat Politècnica de Catalunya (Spain) http://www-lacan.upc.es
Más detallesRESOLUCIÓN DE SISTEMAS LINEALES
Contenido 1 Métodos de Solución Contenido Métodos de Solución 1 Métodos de Solución Desarrollamos el algoritmo de sustitución regresiva, con el que podremos resolver un sistema de ecuaciones lineales cuya
Más detallesProblemas Ampliación de Matemáticas. Sistemas lineales 1.- Encontrar la factorización L U de las siguientes matrices:
Problemas Ampliación de Matemáticas. Sistemas lineales 1.- Encontrar la factorización L U de las siguientes matrices: 5 2 1 1 0 3 1 0 3 3 1 6. 3 1 6 5 2 1 2.- Dada la matriz A = 10 7 8 7 5 6, 8 6 10 hallar
Más detallesCurso Hoja 1. Análisis de errores
Hoja 1. Análisis de errores 1 Teniendo en cuenta que MATLAB trabaja en doble precisión, calcular el número máquina inmediatamente anterior a 1 y comprobar que dista 2 53 de 1. 2 Calcular 1 2 52, 1 2 53,
Más detallesResolución de Sistema de Ecuaciones Lineales
Resolución de Sistema de Ecuaciones Lineales Hermes Pantoja Carhuavilca Facultad de Ingeniería Mecanica Universidad Nacional de Ingenieria Métodos Numérico Hermes Pantoja Carhuavilca 1 de 37 CONTENIDO
Más detallesUnidad 1: Fuentes y propagación de errores
Unidad 1: Fuentes y propagación de errores 1.1 Qué es el Análisis Numérico. Fuentes de errores. Errores de redondeo y discretización. Propagación de errores. 1.2 Sistemas numéricos. Aritmética del computador.
Más detalles3. ÁLGEBRA LINEAL // 3.1. SISTEMAS DE
3. ÁLGEBRA LINEAL // 3.1. SISTEMAS DE ECUACIONES LINEALES Y MATRICES COMPLEMENTOS PARA LA FORMACIÓN DISCIPLINAR EN MATEMÁTICAS Curso 2011-2012 3.1.1. Resolución de sistemas de ecuaciones lineales. Método
Más detallesOCW-V.Muto Los métodos de transformación ortogonal. Cap. XX CAPITULO XX. LOS METODOS DE TRANSFORMACION ORTOGONAL
CAPITULO XX. LOS METODOS DE TRANSFORMACION ORTOGONAL 1. LAS TRANSFORMACIONES DE HOUSEHOLDER Debido a las posibles dificultades numéricas del uso de las ecuaciones normales, los modernos métodos de mínimos
Más detalles3. ÁLGEBRA LINEAL // 3.1. SISTEMAS DE
3. ÁLGEBRA LINEAL // 3.1. SISTEMAS DE ECUACIONES LINEALES Y MATRICES COMPLEMENTOS PARA LA FORMACIÓN DISCIPLINAR EN MATEMÁTICAS // Curso 2017-18 3.1.1. Resolución de sistemas de ecuaciones lineales. Método
Más detalles1.2 Valores y vectores propios. Método de las potencias y Rayleigh.
20 Prelininares. 1.2 Valores y vectores propios. Método de las potencias y Rayleigh. 1.2.1 Cálculo del Polinomio Caracterstico: ALGORITMO DE SOURIAU. ENTRADA: la matriz A 1 = A, p 1 = traza(a 1 ), n =
Más detallesResolución de Sistema de Ecuaciones Lineales
Resolución de Sistema de Ecuaciones Lineales Hermes Pantoja Carhuavilca Facultad de Ingeniería Mecanica Universidad Nacional de Ingenieria Métodos Numérico Hermes Pantoja Carhuavilca 1 de 29 CONTENIDO
Más detallesMétodos Numéricos Cap 4: Solución de Sistemas de Ecuaciones lineales y no lineales 1/15
Métodos Numéricos Cap 4: Solución de Sistemas de Ecuaciones lineales y no lineales 1/15 Representación matricial para sistemas de ecuaciones Resolución de Sistemas de ecuaciones lineales y no lineales
Más detallesSEL - Métodos Directos
Facultad de Ingeniería Mecánica Universidad Nacional de Ingeniería Métodos Numéricos Contenido 1 Métodos Directos Generalidades sobre Métodos Directos Eliminación Gaussiana Pivoteo Factorización LU Generalidades
Más detallesEjercicios. CÁLCULO NUMÉRICO II Curso 2009/2010. Departamento de Ecuaciones Diferenciales y Análisis Numérico
Departamento de Ecuaciones Diferenciales y Análisis Numérico CÁLCULO NUMÉRICO II Curso 009/00 Ejercicios. Probar las siguientes desigualdades entre números: a Desigualdad de Young: Si a, b 0, y p, q >
Más detallesSistemas de Ecuaciones. Lineales III
Sistemas de Ecuaciones Lineales III Pivoteo: Estrategia de pivoteo parcial Adaptación a matrices con estructuras particulares: Matrices banda y tridiagonales Método de holesky 52123-1 - DIM Universidad
Más detallesMatrices triangulares y descomposición LU
Matrices triangulares y descomposición LU Problemas para examen Si en algún problema se pide calcular el número de flops (operaciones aritméticas con punto flotante), entonces en el examen será suficiente
Más detallesDepartamento de Ecuaciones Diferenciales y Análisis Numérico. CÁLCULO NUMÉRICO I (Tema 3 - Relación 2)
CÁLCULO NUMÉRICO I (Tema - Relación 2) 5 Resolver mediante el método de Gauss los siguientes sistemas de ecuaciones. 2x 2 + x = 0 2x + 2x 2 + x + 2x = 2 x x 2 + x = 7 6x + x 2 6x 5x = 6. x + x 2 x = x
Más detallesSISTEMAS DE ECUACIONES
16 de Mayo de 2013 SISTEMAS DE ECUACIONES Departamento de Matemática Aplicada Facultad de Ingeniería Universidad Central de Venezuela Cálculo Numérico José Luis Quintero 1 Puntos a tratar 1. Sistemas fáciles
Más detallesMatrices y sistemas de ecuaciones lineales. Autovalores y autovectores.
Tema 5 Matrices y sistemas de ecuaciones lineales Autovalores y autovectores 5 Introducción Una matriz es una disposición ordenada de elementos de la forma: a a a m a a a m a n a n a nm Sus filas son las
Más detalles2. Sistemas de ecuaciones lineales.
2. Sistemas de ecuaciones lineales. Manuel Palacios Departamento de Matemática Aplicada Centro Politécnico Superior Universidad de Zaragoza Otoño 2002 Contents 1 Introducción 2 2 Operaciones elementales
Más detallesMétodos Numéricos Cap 4: Solución de Sistemas de Ecuaciones lineales y no lineales 1/15
Métodos Numéricos Cap 4: Solución de Sistemas de Ecuaciones lineales y no lineales 1/15 Representación matricial para sistemas de ecuaciones Resolución de Sistemas de ecuaciones lineales y no lineales
Más detallesLección 8. Matrices y Sistemas de Ecuaciones Lineales
Lección 8 Matrices y Sistemas de Ecuaciones Lineales MIGUEL ANGEL UH ZAPATA 1 Análisis Numérico I Facultad de Matemáticas, UADY Septiembre 2014 1 Centro de Investigación en Matemáticas, Unidad Mérida En
Más detallesTema 1. Espacios Vectoriales. Sistemas de ecuaciones.
Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Álgebra Lineal Escuela Politécnica Superior Universidad de Málaga Emilio Muñoz-Velasco (Basado en los apuntes de Jesús Medina e Inmaculada Fortes)
Más detallesSistema de ecuaciones lineales
1 El sistema de ecuaciones lineales Sistema de ecuaciones lineales puede ser escrito en forma matricial como, donde: es llamada matriz de los coeficientes (reales) del sistema es el vector de las incógnitas
Más detallesConjuntos y matrices. Sistemas de ecuaciones lineales
1 Conjuntos y matrices Sistemas de ecuaciones lineales 11 Matrices Nuestro objetivo consiste en estudiar sistemas de ecuaciones del tipo: a 11 x 1 ++ a 1m x m = b 1 a n1 x 1 ++ a nm x m = b n Una solución
Más detalles1.1 Sistemas de ecuaciones lineales: método del gradiente conjugado.
Capítulo 1 Preliminares 11 Sistemas de ecuaciones lineales: método del gradiente conjugado 111 Algunos conceptos de Algebra Matricial Notaciones y conceptos básicos Vectores en K n y matrices de orden
Más detallesResolución de sistemas lineales
Resolución de sistemas lineales Contenidos Introducción Métodos directos Métodos iterativos La operación \ Introducción Queremos resolver sistemas de ecuaciones lineales con el mismo número de ecuaciones
Más detallesMÉTODOS MATEMÁTICOS (Curso ) Cuarto Curso de Ingeniero Industrial Departamento de Matemática Aplicada II. Universidad de Sevilla
MÉTODOS MATEMÁTICOS (Curso 2012-201) Cuarto Curso de Ingeniero Industrial Departamento de Matemática Aplicada II Universidad de Sevilla Lección 2: Sistemas de ecuaciones lineales ELIMINACIÓN GAUSSIANA
Más detallesSEL Métodos Directos
SEL Pantoja Carhuavilca Métodos Numérico Agenda métodos directos Encuentra una solución en un número finito de operaciones(en ausencia de errores de redondeo) transformando el sistema en un sistema equivalente
Más detallesTema 1. Espacios Vectoriales. Sistemas de ecuaciones.
Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Álgebra Lineal Escuela Politécnica Superior Universidad de Málaga Emilio Muñoz-Velasco (Basado en los apuntes de Jesús Medina e Inmaculada Fortes)
Más detallesOCW-V.Muto El problema de mínimos cuadrados. Cap. XIX CAPITULO XIX. EL PROBLEMA DE LOS MINIMOS CUADRADOS: PRELIMINARES
CAPITULO XIX. EL PROBLEMA DE LOS MINIMOS CUADRADOS: PRELIMINARES. SISTEMAS LINEALES DE ECUACIONES SOBREDETERMINADOS La discusión de los problemas algebráicos de la parte anterior se había centrado exclusivamente
Más detallesSistemas de Ecuaciones Lineales. Matrices y determinantes.
Capítulo 3 Sistemas de Ecuaciones Lineales Matrices y determinantes 31 Sistemas de Ecuaciones Lineales El problema central del Álgebra Lineal es la resolución de ecuaciones lineales simultáneas Una ecuación
Más detalles6. Forma canónica de matrices
6. Forma canónica de matrices Manuel Palacios Departamento de Matemática Aplicada Centro Politécnico Superior Universidad de Zaragoza Otoño 2010 Contents 6 6. Forma canónica de matrices 7 6.1 Introducción....................................
Más detallesCURSO DE METODOS NUMERICOS T ERCERA PART E METODOS PARA LA RESOLUCION DE SISTEMAS LINEALES
CURSO DE METODOS NUMERICOS T ERCERA PART E METODOS PARA LA RESOLUCION DE SISTEMAS LINEALES V. Muto Sistemas lineales: Preliminares Cap. XIII CAPITULO XIII. METODOS PARA LA RESOLUCION DE SISTEMAS LINEALES:
Más detallesAplicar este algoritmo para resolver el sistema de ecuaciones: º «« º ««
Introducción al Cálculo Numérico y Programación 1 MÓDULO 8: SISTEMA DE ECUACIONES LINEALES. A- MÉTODOS DIRECTOS 6LVWHPDVIiFLOHVGHUHVROYHU Ejercicio 1: Escribe una función MATLAB llamada =sp(a,b) que admita
Más detallesMatrices y sistemas de ecuaciones
Matrices y sistemas de ecuaciones María Muñoz Guillermo maria.mg@upct.es U.P.C.T. Matemáticas I M. Muñoz (U.P.C.T.) Matrices y sistemas de ecuaciones Matemáticas I 1 / 59 Definición de Matriz Matrices
Más detallesOCW-V.Muto Eliminación Gaussiana y sustitución hacia atrás Cap. XIV CAPITULO XIV. ELIMINACION GAUSSIANA Y SUSTITUCION HACIA ATRAS
CAPITULO XIV ELIMINACION GAUSSIANA Y SUSTITUCION HACIA ATRAS 1 INTRODUCCION Y METODO El procedimiento general de eliminación Gaussiana aplicado al sistema E 1 : a 11 x 1 + a 1 x + + a 1n x n = b 1 E :
Más detallesALN - Curso 2007 Gradiente Conjugado
ALN - Curso 27 Gradiente Conjugado Cecilia González Pérez Junio 27 Métodos Iterativos Pueden ser: Métodos estacionarios Métodos no estacionarios Métodos no estacionarios hacen uso de información, evaluada
Más detallesMatrices 3. Matrices. Verónica Briceño V. agosto 2012
3 agosto 2012 En esta Presentación... En esta Presentación veremos: Matriz Inversa En esta Presentación... En esta Presentación veremos: Matriz Inversa Determinante En esta Presentación... En esta Presentación
Más detalles1. Normas matriciales
Guía álgebra lineal ING 40: Cálculo numérico 203-20 Facultad de Ingeniería y Ciencias Aplicadas Profesor cátedra: Marcelo Tapia Ayudantes de corrección: José Manuel Barberis Ignacia Scarneo Normas matriciales
Más detallesÁLGEBRA LINEAL I NOTAS DE CLASE UNIDAD 2
ÁLGEBRA LINEAL I NOTAS DE CLASE UNIDAD 2 Abstract Estas notas conciernen al álgebra de matrices y serán actualizadas conforme el material se cubre Las notas no son substituto de la clase pues solo contienen
Más detallesMétodos Numéricos Grado en Informática Tema 6: Análisis Numérico Matricial II
Métodos Numéricos Grado en Informática Tema 6: Análisis Numérico Matricial II Luis Alvarez León Univ. de Las Palmas de G.C. Luis Alvarez León () Métodos Numéricos Univ. de Las Palmas de G.C. 1 / 84 Contenido
Más detallesTema 6: Resolución aproximada de sistemas de ecuaciones lineales
Métodos Numéricos: Resumen y ejemplos Tema 6: Resolución aproximada de sistemas de ecuaciones lineales Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de
Más detallesCURSO DE METODOS NUMERICOS Año Académico Curso Tercero de Matemáticas EXAMEN FINAL FEBRERO
Año Académico 2000-2001 Curso Tercero de Matemáticas EXAMEN FINAL FEBRERO 1. Dá el enunciado y demuestra el teorema de convergencia del método del punto fijo. (2 puntos) 2. Resuelve el siguiente sistema
Más detallesEdgar Acuña/ ESMA 6665 Lecc1-2 1 ESTADISTICA COMPUTACIONAL. Capítulo I. Matrices y solución de Ecuaciones lineales
Edgar Acuña/ ESMA 6665 Lecc1-2 1 ESTADISTICA COMPUTACIONAL Capítulo I. Matrices y solución de Ecuaciones lineales Referencias: 1. Datta, B. (1995) Numerical Linear Algebra. Brooks Cole 2. Golub, G. and
Más detallesMétodos directos para resolver sistemas de ecuaciones lineales
Métodos directos para resolver sistemas de ecuaciones lineales Problemas para examen Si en algún problema se pide calcular el número de flops (operaciones aritméticas con punto flotante), entonces en el
Más detallesMétodos iterativos de solución de SEL
Métodos iterativos de solución de SEL Método de Gauss-Seidel MAT-251 Dr. Depto. de Matemáticas Univ. de Guanajuato e-mail: alram@cimat.mx web: http://www.cimat.mx/~alram/met_num/ Dr. Joaquín Peña Acevedo
Más detallesDefinición Dados dos números naturales m y n, una matriz de orden o dimensión m n es una tabla numérica rectangular con m filas y n columnas.
Tema 1 Matrices 1.1. Conceptos básicos y ejemplos Definición 1.1.1. Dados dos números naturales m y n, una matriz de orden o dimensión m n es una tabla numérica rectangular con m filas y n columnas. NOTA:
Más detallesTEMA 8.- NORMAS DE MATRICES Y
Álgebra II: Tema 8. TEMA 8.- NORMAS DE MATRICES Y NúMERO DE CONDICIóN Índice. Introducción 2. Norma vectorial y norma matricial. 2 2.. Norma matricial inducida por normas vectoriales......... 4 2.2. Algunos
Más detallesApuntes de CÁLCULO NUMÉRICO II. Curso 2008/2009
Apuntes de CÁLCULO NUMÉRICO II Curso 2008/2009 Septiembre de 2008 2 Índice general 1. Elementos de Álgebra lineal. Normas. 5 1.1. Normas..................................... 5 1.2. Normas matriciales...............................
Más detallesMETODOS NUMERICOS. Curso
Boletín 1 de prácticas. 1. Localizar las raíces de la ecuación F (x) = 0, para los siguientes casos: (a) F (x) = x + e x. (b) F (x) = 0.5 x + 0.2 sen(x). (c) F (x) = x tg(x). (d) F (x) = x 5 3. (e) F (x)
Más detallesMétodo de diferencias finitas para ecuaciones diferenciales parciales elípticas. (Parte II)
Método de diferencias finitas para ecuaciones diferenciales parciales elípticas (Parte II) Métodos numéricos para sistemas lineales Solución numérica de EDPs requiere resolver sistemas de ecuaciones lineales
Más detallesElementos de Cálculo Numérico / Cálculo Numérico Primer Cuatrimestre 2016
Universidad de Buenos Aires - Facultad de Ciencias Exactas y Naturales - Depto. de Matemática Elementos de Cálculo Numérico / Cálculo Numérico Primer Cuatrimestre 206 Práctica N : Número de condición.
Más detallesCONTENIDOS MATEMÁTICAS II SEGUNDA EVALUACIÓN CURSO 2017/2018 MATRICES
CONTENIDOS MATEMÁTICAS II SEGUNDA EVALUACIÓN CURSO 2017/2018 Unidades: - Matrices (Bloque Álgebra) - Determinantes (Bloque Álgebra) - Sistemas de ecuaciones lineales (Bloque Álgebra) - Vectores (Bloque
Más detalles