Métodos numéricos para la determinación de autovalores

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Métodos numéricos para la determinación de autovalores"

Transcripción

1 Métodos numéricos para la determinación de autovalores Pablo J. Santamaría Introducción Muchos problemas de interés conducen al cálculo, o por lo menos a la estimación, de los valores característicos o autovalores de una matriz asociada con un sistema lineal de ecuaciones. Algebraicamente el problema consiste en, dada una matriz real n n A, encontrar los escalares (generalmente complejos) λ (los autovalores de A) y los vectores no nulos x (los autovectores de A asociados a λ) tales que Ax = λx, x 0 Sabemos que tal matriz A tiene precisamente n autovalores, no necesariamente distintos, que son las raíces del polinomio característico de grado n p(λ) = det(a λi) Así pues, formalmente, los autovalores de A se pueden obtener encontrando las n raíces de p(λ). En la práctica esto puede llevarse a cabo con matrices o bien de pequeño tamaño o bien de formas particulares. En el caso general el polinomio característico es difícil de obtener y, de cualquier modo, sabemos que la determinación de las raíces de un polinomio de grado n ésimo es también un problema difícil, puesto que, excepto para valores pequeños de n, no es un problema cerrado (esto es, no hay fórmulas explícitas). En consecuencia es necesario considerar algoritmos que permitan determinar sistemáticamente todos los autovalores de una matriz dada en una forma eficiente, esto es, con el menor número de operaciones posibles, y además, dado que operar con grandes matrices involucra muchas sustracciones aritméticas, tales algoritmos deben ser estables de manera que los resultados numéricos no sean en realidad números aleatorios en lugar de los autovalores deseados. La estrategia práctica a considerar es dividir el problema en dos partes: en primer lugar se reduce la matriz original A a una matriz B = (b i,j ) de una estructura más simple (en el sentido de que posea la mayor cantidad de elementos nulos posibles) pero con los mismos autovalores; y luego se calculan los autovalores de esta nueva matriz. Típicamente, las matrices buscadas son ya sea una matriz tridiagonal o una matriz de Hessenberg (superior) b ij = 0, para i j + 2 b ij = 0, para i j > cuyas formas se ilustran en la fig. 0.. Una matriz tridiagonal tiene elementos nulos fuera de las diagonales principal, superior e inferior. Una matriz de Hessenberg tiene elementos nulos debajo de la diagonal inferior. La utilidad de esta estrategia dual resulta clara si se considera la cantidad de cómputo realizada en la manipulación de una matriz grande (digamos n = 00 o 200), tal como la multiplicación por

2 (a) Una matriz tridiagonal (b) Una matriz de Hessenberg Figura 0.. otra matriz. Para una matriz densa (esto es, con pocos elementos nulos) el número de operaciones requeridas es del orden de n 3, en tanto que para una matriz de Hessenberg tal cálculo requiere en realidad del orden de n 2 operaciones y para una matriz tridiagonal el número requerido es de orden n. Así para una matriz grande la diferencia entre n 2 y n 3 es apreciable ( sin mencionar n versus n 3!) y por lo tanto la búsqueda de los autovalores de una matriz simplificada resultará más eficiente. Dado que podemos reducir una matriz dada a la forma de Hessenberg (o a la forma tridiagonal en ciertos casos) mediante un número finito de pasos aritméticos, la estrategia diseñada resulta de suma utilidad práctica. Como las dos etapas de nuestra estrategia son (casi) independientes vamos a discutirlas separadamente. Así trataremos en primer lugar la posibilidad de reducir una matriz dada a una forma más simple. Aquí es donde las cuestiones de la forma de proceder y estabilidad de los métodos resultan cruciales. Reducción de matrices a una forma más simple Los métodos para reducir una matriz general dada a una forma más simple se basan en las transformaciones de similitud o semejanza. Definición Dos matrices n A y B se dicen semejantes si existe una matriz T n n no singular tal que B = T AT La transformación de similitud tiene la propiedad de preservar los autovalores. En efecto, a partir de la ecuación de autovalores Ax = λx premultiplicando por T tenemos que Si definimos obtenemos T x = y, T Ax = λt x con lo cual x = Ty T ATy = λt Ty = λy es decir tenemos el nuevo problema de autovalores By = λy 2

3 para la matriz B que es semejante a la matriz A, donde los nuevos autovectores y están relacionados en forma simple con los de A, pero los autovalores son los mismos. Este resultado se sigue también del hecho de que matrices semejantes tienen el mismo polinomio característico. En efecto, p B (λ) = det(b λi) = det(t AT λt T) = det(t (A λi)t) = dett det(a λi)dett = det(a λi) = p A (λ) La clase de transformaciones de similitud es muy amplia. Dentro de ella está incluida un tipo de transformación mucho más restrictivo, la transformación ortogonal. Aquí la matriz de transformación es ortogonal, esto es, su inversa es su traspuesta T = T t Una transformación ortogonal no solo preserva los autovalores sino también la simetría si ésta existe. En efecto, si A es una matriz simétrica y B es semejante a A por una transformación ortogonal, la traspuesta de B es B t = (T t AT) t = T t A t T = T t AT = B es decir, B es también simétrica. Recuérdese también que si una matriz real es simétrica sus autovalores serán necesariamente números reales y no complejos como en el caso general. La estrategia general de los métodos para calcular los autovalores de una matriz A es realizar primero una sucesión de transformaciones de semejanza A (0) = A A (i) = T i A (i ) T i, i =, 2,..., m para gradualmente transformar la matriz A en una matriz B de forma más simple B = A m = T AT, T = T T 2...T m y entonces determinar los autovalores λ de B (que serán necesariamente los de A). La matriz B es escogida de manera tal que La determinación de los autovalores de B sea lo más simple posible y El problema de autovalores para B no esté (sustancialmente) peor condicionado que el de A (esto es, que pequeños cambios en la matriz B no empeoren los autovalores más que de lo que lo hacen pequeños cambios en A). Si A y B son las matrices que contienen a las perturbaciones en los coeficientes de A y B, dado que tenemos que B = T AT, B = T AT B + B = T (A + A)T y por lo tanto A = T BT Así para una norma vectorial y su correspondiente norma matricial subordinada obtenemos las siguientes estimaciones B condt A A condt B 3

4 donde condt = T T es el número de condición de la matriz T. Así A A (condt)2 B B Entonces es de esperar que para condt el problema para B estará peor condicionando que el problema para A. Puesto que condt = cond (T...T m ) condt...condt m un buen condicionamiento estará asegurado si escogemos matrices de transformación T i tales que cond T i no sea demasiado grande. Este es el caso, en particular, para la norma máxima x = max i n x i 2 y las matrices de eliminación de la forma 0... T i = G j =. l.., l kj j+,j l nj 0 la cual es una matriz triangular inferior que difiere de la identidad en la columna j-ésima y cuya inversa es 0... G j =. l.. j+,j l nj 0 Para estas matrices cond T i 4 Para lo norma euclideana x 2 = x t x 3 un ejemplo son las matrices ortogonales T i para las cuales cond 2 T i = 4. De acuerdo a lo anterior, es de esperar que algoritmos basados en transformaciones ortogonales sean muy estables (como contrapartida estos algoritmos requieren más aritmética que aquellos basados en transformaciones de semejanza generales). Recuérdese que conda para cualquier matriz no singular A. En efecto, = I = AA A A = conda. 2 P Cuya norma matricial subordinada es A = max n i n j= a ij. 3 Cuya norma matricial subordinada es A 2 = µ donde µ es el máximo valor de las raíces cuadradas no negativas de los autovalores (necesariamente reales y no negativos) de la matriz simétrica semidefinida positiva A t A. 4 En efecto, si T es ortogonal TT t = I y como los autovalores de la matriz identidad son (con multiplicidad n), cond 2 T = T T t = =. 4

5 La transformación de Jacobi Una de las transformaciones ortogonales más simples es una rotación en un plano, llamada usualmente transformación de Jacobi. La matriz de transformación T i = Ω j,k es de la forma Ω jk =... c... s.. s... c... Aquí todos los elementos diagonales son la unidad excepto los dos elementos c en las filas (y columnas) j y k. Todos los elementos fuera de la diagonal son nulos excepto los dos elementos s y s. Los números c y s son el seno y el coseno de cierto ángulo de rotación φ así que no son, en magnitud, mayores que la unidad y c 2 + s 2 = Esta relación de normalización implica que solo un valor puede ser escogido libremente. Esta matriz es utilizada para transformar a la matriz según A = Ω t jk AΩ jk Ahora bien, la multiplicación Ω t jka cambia solo las filas j y k de A, mientras que la multiplicación AΩ jk cambia solo las columnas j y k. Así A difiere de A solo en los elementos de las columnas y filas j y k. Si realiza la multiplicación matricial se obtienen fórmulas explícitas para los elementos de estas filas y columnas. La idea del método de Jacobi es escoger el valor de c de manera de anular el elemento de A situado en la posición correspondiente a +s en T, esto es, hacer que a kj = 0 Esta condición permite determinar unívocamente el valor apropiada del ángulo de rotación y los valores de c y s que definen a la correspondiente matriz de transformación Ω jk. Nótese que si A es simétrica entonces también a jk = 0 ya que A debe ser simétrica como lo requiere la transformación ortogonal. Sin embargo, aunque podemos producir ceros fuera de la diagonal en forma efectiva con esta transformación, una sucesión finita de transformaciones de Jacobi no reducirán una matriz simétrica general a una matriz tridiagonal o a otra forma simple, debido a que la siguiente transformación destruirá los ceros obtenidos por la anterior. Para ver ésto consideremos la matriz simétrica densa 4 4 de la figura 0.2. Inicialmente podemos elegir libremente cualesquiera dos columnas y sus correspondientes filas; los ceros aparecerán en las dos intersecciones que no se encuentran sobre la diagonal principal. Así si elegimos las dos últimas filas y columnas la transformación producirá los ceros mostrados en la figura y alterará todos los elementos de estas dos filas y columnas. Si ahora intentamos anular otro elemento ubicado, por ejemplo, en la última columna la siguiente transformación de Jacobi involucrará esta columna y el cero actualmente localizado en la posición (3, 4) será destruido. Así no hay posibilidad de alcanzar ninguna forma simple a través de una sucesión finita de transformaciones de Jacobi eliminando un elemento a la vez. Sin embargo, puede probarse que, para una matriz real simétrica, una sucesión de transformaciones de Jacobi en un orden adecuado 5 hacen cada vez más y más pequeños los elementos fuera de la diagonal de las matrices transformadas de tal manera que, para una sucesión infinita de transformaciones, 5 A saber, llevando inicialmente a 2 a cero y posteriormente haciendo que a 3,..., a n, a 23,..., a 2n..., a n,n vayan a cero en este orden y repitiendo nuevamente el ciclo. 5

6 ¾ Figura 0.2. la matriz A (i) converge a una matriz diagonal, cuyos elementos son precisamente los autovalores buscados. Dado que este proceso es infinito, en una implementación práctica uno debería iterar hasta una matriz A (i) cuya suma de los módulos de los elementos fuera de la diagonal n i= n j= (j i) a (i) ij sea suficientemente pequeña dentro de la precisión de los cálculos. Los autovalores de A pueden aproximarse entonces por las componentes diagonales de A. Sin embargo, este es un proceso generalmente lento; en la práctica se requieren de alrededor de 6n 3 multiplicaciones antes de considerar los elementos fuera de la diagonal suficientemente pequeños, y con matrices grandes esto es mucho trabajo. Otras estrategias que consideraremos que pronto consideraremos realizan una mejor labor. Mencionemos también que el método de Jacobi puede ser implementado de manera de llevar una matriz no simétrica a una matriz triangular, proceso que, en general, requerirá de alrededor de 2n 3 multiplicaciones antes de que converga. Reducción de Givens Aunque la transformación de Jacobi no es útil en la forma presentada, una pequeña modificación permite una estrategia finita para reducir una matriz simétrica A a una forma tridiagonal. En lugar de producir un cero en las esquinas del cuadrado que defina la rotación en el plano, se escoge el parámetro c de manera de llevar a cero un elemento que no esté localizado en una de estas cuatro esquinas, esto es, que no estén en las posiciones a jj, a jk, a kk. Específicamente, tomamos primero T = Ω 23 de manera de anular el elemento en la posición a 3 (si la matriz es simétrica esto anulará también a a 3 ). Después elegimos T = Ω 23 de manera de anular el elemento en la posición a 4, etc. En general, elegimos la sucesión de transformaciones T i dados por Ω 23, Ω 24,..., Ω 2n Ω 34,..., Ω 3n.. Ω n,n de manera tal que Ω jk, j = 2,...,n, k = j +, j + 2,...,n anule el elemento de la posición a k,j. En la figura 0.3 se ilustra el procedimiento para una matriz 4 4. El método funciona debido a que los elementos en las posiciones fuera del cuadrado que define la rotación Ω jk (esto es, a rj y a rk con r j, r k) son simples combinaciones lineales de los valores 6

7 anteriores situados en la misma posición 6. Es esta simple combinación lineal la que preserva los ceros obtenidos en el paso anterior, ya que si estos elementos eran ceros, permanecerán nulos en la siguiente transformación. Así pues, después de (n )(n 2)/2 n 2 /2 rotaciones, una matriz simétrica es reducida a una forma tridiagonal. Dado que el método involucra solo matrices ortogonales es estable, y requiere de aproximadamente 4n 3 /3 multiplicaciones. Esta técnica es, pues, eficiente, la única desventaja es que existe una técnica de estrategia similar que realiza la misma tarea con la mitad de trabajo. Tal método será discutido en la siguiente sección. Finalmente mencionemos que la técnica de Givens puede ser implementada para llevar una matriz no simétrica a la forma de Hessenberg. En este caso el número de multiplicaciones realizadas en el proceso es alrededor de 0n 3 /3. ¾ ¾ ¼ ¼ (a) A () = Ω t 23 A(0) Ω 23 ¾ ¼ ¼ ¼ ¼ (b) A (2) = Ω t 24 A() Ω 24 (c) A (3) = Ω t 34 A(2) Ω 34 Figura 0.3. Reducción de Householder Al igual que la técnica de Givens, el algoritmo de Householder produce ceros a partir de transformaciones ortogonales. Sin embargo, distinto de Givens, cada transformación está diseñada para llevar a cero parte de toda una columna (y su correspondiente fila si la matriz es simétrica) de una vez. El ingrediente básico del algoritmo es una matriz ortogonal simétrica P, llamada matriz de Householder, la cual tiene la forma P = I 2ww t donde w es un vector real con w 2 2 = wt w = 7. Que P es simétrica resulta claro de inmediato P t = (I 2ww t ) t = I 2(ww t ) t = I 2(w t ) t w t = I 2ww t = = P 6 Sólo los cuatro elementos que se encuentran en las esquinas del cuadrado tienen fórmulas más complicadas, pero esto no es importante aquí. 7 Nótese que, en P, ww t es una matriz cuadrada, en tanto que w t w es un escalar 7

8 La ortogonalidad se deduce como sigue P 2 = (I 2ww t )(I 2ww t ) = I 4ww t + 4w(w t w)w t = I Así P = P, pero como P t P, tenemos que P = P t, lo que prueba la ortogonalidad. El vector w se escoge de manera tal que para un vector x dado Px = ke donde e es el vector [, 0,...,0] t ; es decir la matriz P actuando sobre un dado vector x lleva a cero todos sus componentes excepto el primero. Nótese que el módulo del escalar k es necesariamente la norma euclideana de x 8. Para reducir una matriz simétrica A a la forma tridiagonal construimos la matriz de transformación T como una matriz particionada que consiste de un en la posición (, ), una matriz P de Householder de orden (n ) (n ) y ceros en el resto como se muestra a continuación T = P 0 Nótese que esta matriz así construida es ortogonal y simétrica, con lo cual T = T t = T. Si tomamos como vector x los (n ) elementos inferiores de la primer columna de A, la premultiplicación por T = T llevará los (n 2) elementos inferiores de dicha columna a cero T A = = P. 0 a a 2 a 3 a n a 2 a 3. irrelevante a n a a 2 a 3 a n k 0. irrelevante 0 y la postmultiplicación por P no destruye los ceros ya que cualquier postmultiplicación por T no cambia la primer columna, de la misma manera que cualquier premultiplicación no cambia la primer fila. Además, si la matriz A es simétrica, dado que la simetría debe preservarse por la transformación ortogonal, tendremos los correspondientes ceros en la primera fila de la transformación completa a k 0 0 k 0 T AT =. irrelevante 0 8 En efecto, siendo P ortogonal, x 2 2 = xt x = xp t Px = (Px) t (Px) = k 2 e t e = k 2, de donde x 2 = k. 8

9 Así hemos producido todos los ceros en la primer columna y fila que son necesarios para la forma diagonal. Procedemos ahora con la segunda columna, construyendo la matriz de trasformación T 2 en la forma particionada T 2 = P donde P 2 es la matriz de Householder de tamaño (n 2) (n 2) que actúa sobre el vector x que tiene por componentes los (n 2) elementos inferiores de la segunda columna de A. El bloque identidad en la esquina superior derecha asegura que la tridiagonalización alcanzada en el primer paso no sea destruida, mientras que P 2 crea una nueva fila y columna de la matriz tridiagonal deseada. Claramente, una sucesión de (n 2) de tales transformaciones reducirá a la matriz A a la forma tridiagonal. El trabajo total realizado por el algoritmo contiene alrededor de 2n 3 /3 multiplicaciones, el cual es la mitad de las operaciones para el algoritmo de Givens. Así, pues. para matrices reales simétricas, la técnica de reducción de Householder es la estrategia estable más eficiente. Finalmente indiquemos que esta estrategia puede ser implementada para reducir matrices no simétricas a la forma triadiagonal con un costo de 5n 3 /3 multiplicaciones. Reducción directa a la forma de Hessenberg Con una pequeña pérdida en la estabilidad puede implementarse un algoritmo eficiente en el número de operaciones que el algoritmo de Householder para llevar a una matriz cualquiera a la forma de Hessenberg. Este algoritmo utiliza transformaciones de semejanza que no son ortogonales, y está basado en un procedimiento análogo a la eliminación gaussiana con pivoteo (de manera de asegurar estabilidad) y modificado adecuadamente para ser realmente una transformación de similitud de la matriz. Las matrices de transformación T i del método se construyen a partir de matrices de permutación... 0 P rs = las cuales consisten en una modificación de la matriz identidad reemplazando las posiciones (r, r) y (s, s) de la diagonal por ceros y colocando unos en las posiciones (r, s) y (s, r); y matrices de 9

10 eliminación de la forma 0... G j =. l.., l kj j+,j l nj 0 Estas matrices tienen las propiedades P rs = P rs 0... G j =. l.. j+,j l nj 0 La premultiplicación Prs A de A por P rs = P rs tiene el efecto de intercambiar las filas r y s de A, mientras que la postmultiplicación AP rs intercambia las columnas r y s de A. Una premultiplicación G j A de A por G j tiene el efecto de sustraer l rj veces la fila j de la fila r de la matriz A para r = j +, j + 2,...,n mientras que una postmultiplicación AG j suma l rj veces la columna r a la columna j de A para r = j +, j + 2,..., n. El proceso de transformación de la matriz A a la forma de Hessenberg procede como sigue. Sea A (0) = A y asumamos, por inducción, que A (i ) tiene la forma de una matriz cuyas (i ) columnas tienen la forma de Hessenberg El paso i-ésimo consiste entonces de las siguientes operaciones. Encontrar el elemento de máxima magnitud en la columna i-ésima debajo de la diagonal. Si este es cero, saltar los dos pasos siguientes y considerar esta etapa hecha. De lo contrario, supongamos que el elemento máximo está en la fila r. 2. Intercambiar las filas r y i+. Ese es el procedimiento de pivoteo. Para hacer esta permutación una transformación de semejanza se intercambian también las columnas r y j +. Así, en este paso calculamos la matriz A = P r,i+ A(i ) Pr, i + El elemento dominante del paso se encuentra ahora en la posición (i +, i). 0

11 3. Para j = i + 2, i + 3,...,n se calculan los multiplicadores l j,i+ = a ji a i+,j y se sustrae l j,i+ veces la fila i+ de la fila j. Para hacer esta eliminación una transformación de semejanza, también se suma l j,i+ veces la columna j a la columna i+. Así en este paso hemos calculado la matriz G i+ A G i+ Como resultado de los pasos anteriores la matriz obtenida A (i) = G i+ A G i+ = G i+ P rs A (i) P rs G i+ = T i A (i ) = T i, T i = P rs G i+ tiene sus primeras i columnas en la forma de Hessenberg. Repitiendo este proceso n 2 veces obtenemos la matriz de Hessenberg B = A n 2 deseada. El número de multiplicaciones realizadas por este algoritmo es del orden de 5n 3 /6, la mitad de operaciones necesarias para llevar a cabo la misma tarea con el algoritmo de Householder. Ya que en la mayoría de los casos prácticos este método no es esencialmente menos estable que el método de Householder, resulta ser el preferido en la práctica para reducir una matriz no simétrica la matriz de Hessenberg. Métodos para determinar los autovalores Aunque, formalmente, los autovalores de una matriz n n son las raíces su polinomio característico, encontrar la forma explícita de este polinomio y, recién entonces, determinar sus raíces es un procedimiento demasiado costoso para ser llevado a cabo en una matriz grande. Una estrategia más razonable a la construcción explícita, es evaluar el polinomio característico directamente para algún valor de prueba. Si nuestro valor de prueba es próximo a un autovalor de la matriz el valor del polinomio será pequeño, y nulo si nuestra estimación es exacta (salvo por errores de redondeo en la evaluación aritmética). Para una matriz dada la evaluación del polinomio característico requiere del cómputo de un determinante de orden n. Para una matriz densa el cómputo de tal determinante a través de su definición recursiva requiere del orden de n! operaciones por supuesto, tal cálculo es tremendamente ineficiente En su lugar el uso de un procedimiento de eliminación gaussiana permite reducir el número de operaciones a aproximadamente n 3 9. Ahora bien, para una matriz de Hessenberg tal cálculo requiere en realidad de n 2 operaciones y para una matriz tridiagonal el número es proporcional a n. De aquí nuestro interés en algoritmos que permitan evaluar los polinomios característicos de estas matrices especiales. 9 El método se basa en que el algoritmo de eliminación gaussiana produce una factorización A = PLU de una matriz A donde P es una matriz de permutación determinada por la estrategia de pivoteo, L una matriz triangular inferior con elementos de su diagonal iguales a la unidad y U = (u ij ) una matriz triangular superior. Entonces, como el determinante de una matriz triangular (inferior o superior) es el producto de los elementos de su diagonal y el determinante de una matriz de permutación (la cual intercambia filas de la matriz identidad) es o si la permutación es par o impar, tenemos que Y n deta = ( ) p u i,i i= donde p es el número de intercambios de filas realizados durante el algoritmo de eliminación.

12 Evaluación del polinomio característico de una matriz tridiagonal (simétrica) Consideremos una matriz tridiagonal simétrica α β 2. A = β βn β n α n Sin pérdida de generalidad podemos asumir que A es una matriz tridiagonal irreducible, esto es, β i 0 para todo i. De lo contrario, A pude escribirse como una matriz triangular por bloques, cuyos bloques son matrices tridiagonales irreducibles A (i), i =,...,k A () A (2) A =... A (k) Como el polinomio característico de A es el producto de los polinomios característicos de los bloques A (i), los autovalores de A serán los autovalores de A (i), i =,...,k. Así, pues, es suficiente considerar matrices irreducibles A. Escribamos el polinomio característico p (λ) de A como el determinante que lo define α λ β 2 β 2 α 2 λ β 3 β 3 α 3 λ p (λ) =. β.. 4 α n λ β n α n λ Desarrollando el determinante por la última columna resulta α λ β 2 β 2 α 2 λ β 3 β 3 α 3 λ p (λ) = (α n λ)... βn α n λ α λ β 2 β 2 α 2 λ β 3 β 3 α 3 λ β n... βn 2 α n 2 λ β n Tenemos así un término que es el producto de (α λ) por el polinomio característico p n (λ) de la submatriz tridiagonal de dimensiones (n ) (n ), y otro término que es el producto de β n por otro determinante de orden (n ). Desarrollando éste por su última fila, la cual contiene solo a β n obtenemos la fórmula β n p (λ) = (α n λ)p n (λ) β 2 n p n 2 (λ) β n 2

13 Notando que p (λ) = (α λ), p 2 (λ) = (α 2 λ)p (λ) β2 2 y definiendo p 0 (λ) = podemos calcular p (λ) de A en forma recursiva. En efecto, si α β 2. p i (λ) = det(a i λi), A i = β βi β i α i calculamos p 0 (λ) = p (λ) = (α λ) p i (λ) = (α i λ)p i (λ) β 2 i p i 2 (λ), i = 2, 3,...,n con lo cual p (λ) = p n (λ). Para un valor dado de λ este algoritmo proporciona una forma razonable de evaluar p (λ). Podemos entonces utilizar los métodos numéricos clásicos para determinar las raíces de un polinomio. Así utilizando un cierto paso en los valores de prueba λ podemos evaluar p (λ) hasta obtener un cambio de signo y entonces encerrar la raíz dividiendo el intervalo a la mitad este es el método dicotómico. O bien, habiendo obtenido una aproximación a la raíz, utilizar un método como el de la secante o el método de Newton. En este último caso es necesario el conocimiento de la derivada del polinomio p (λ), pero ésta puede ser calculada recursivamente por el algoritmo que resulta de diferenciar la fórmula recursiva que permite el cálculo del polinomio. Esto conduce a p 0 (λ) = 0 p (λ) = p i (λ) = (α i λ)p i (λ) β2 i p i 2 (λ) p i (λ), i = 2, 3,...,n con lo cual p (λ) = p n (λ). Evaluación del polinomio característico de una matriz de Hessenberg Podemos evaluar el determinante del polinomio característico de una matriz de Hessenberg para un valor de prueba λ por un método similar al usado con una matriz tridiagonal. Deseamos encontrar el valor numérico de a λ a 2 a 3 a 4... a,n a n b a 22 λ a 23 a 24 a 2,n a 2n b 2 a 33 λ a 34 a 3,n a 3n p (λ) = b 3 a 44 λ a 4,n a 44 b. 4. a n,n λ a n,n... b n a nn λ donde todas las cantidades en el determinante son números conocidos. Nuestra estrategia consiste en encontrar una combinación lineal de las (n ) primeras columnas que, cuando es sumada a 3

14 la última columna, reduzca a ésta a ceros excepto la primer posición. Esto es, queremos encontrar un conjunto de escalares β i tales que n C n + β i C i = k(λ)e (0.) i= donde los C i son las columnas de nuestro determinante. Si reemplazamos la ultima columna del determinante por esta combinación lineal de columnas, el valor numérico del determinante no cambia, y éste tiene ahora la forma a λ a 2 a 3 a 4... a,n k b a 22 λ a 23 a 24 a 2,n 0 b 2 a 33 λ a 34 a 3,n 0 p (λ) = b 3 a 44 λ a 4,n 0.. b 4.. a n,n λ 0... b n 0 Desarrollando este determinante por la última columna obtenemos b a 22 λ a a 2,n b 2 a 33 λ a 3,n p (λ) = ( ) n+ b 3 a 4,n k(λ).... a n,n λ b n el cual es el determinante de una matriz triangular y por lo tanto es el producto de los elementos de su diagonal. Así n p (λ) = ( ) n+ k(λ) b ii (0.2) Podemos encontrar los β i en forma sucesiva a partir de las ecuaciones (0.) y por lo tanto obtenemos k de y ahora podemos evaluar p (λ) de (0.2). i= β n b n + (a nn λ) = 0 β n 2 b n 2 + β n (a n,n λ) + a n,n = 0 β b + β 2 (a 22 λ) + β 3 a β n a 2,n + a 2n = 0 β (a λ) + β 2 a β n a,n + a n = k. Algoritmos de factorización Para finalizar vamos a presentar un conjunto de algoritmos iterativos para calcular los autovalores de una matriz A n n que si bien no convergen exactamente en número finito de pasos resultan de suma importancia. Estos algoritmos son conocidos como métodos de factorización ya que se basan en la suposición de que la matriz A puede ser factorizada en una matriz izquierda F L y una matriz derecha F R A = F L F R 4

15 Si ahora invertimos el orden de los factores obtenemos una matriz A = F R F L = F L AF L (dado que F L A = F R) que es semejante a la matriz A a través de la transformación F L. Así, cualquier factorización en dos matrices al ser multiplicadas en orden inverso constituyen una transformación de semejanza. Los métodos de factorización explotan esta idea, pero para que el algoritmo sea práctico la factorización de ser tal que el método converja, sea estable y eficiente. El primero de los dos métodos que consideraremos es el llamado método LR. Aquí se genera una sucesión de matrices comenzando con A () = A, y se utiliza el procedimiento de eliminación gaussiana para representar la matriz A (i) como el producto de una matriz triangular inferior L i = (l jk ) con l jj = y una matriz triangular superior R i 0 A (i) = L i R i, L i =...., R i = y entonces se toma A (i+) = R i L i = L i+ R i+, i =, 2,... Ahora bien, sabemos que para una matriz arbitraria A (i+) no siempre existe tal factorización sin intercambio de filas. Sin embargo, asumiendo que A (i) puede ser factorizada, es posible asegurar que, bajo ciertas condiciones, la sucesión de matrices A (i), i =,... converge a una matriz triangular superior cuyos elementos de la diagonal son los autovalores de A. Para una matriz densa n n, la factorización requiere del orden de n 3 /3 multiplicaciones, y la multiplicación matricial en orden inverso de otras n 3 /3. Así, en cada paso del algoritmo (necesariamente infinito) tenemos del orden de n 3 operaciones. Por lo tanto, el algoritmo LR no es práctico para matrices generales. Ahora bien, puede verificarse fácilmente que las formas tridiagonales y de Hessenberg se preservan bajo el algoritmo LR. Como la factorización de matrices tridiagonales requiere del orden de n multiplicaciones, y n 2 para matrices de Hessenberg, vemos que el algoritmo LR puede ser efectivo para encontrar los autovalores de estas matrices particulares. Para una matriz general solo debe reducirse primero a una de las formas anteriores por los métodos ya discutidos. Sin embargo el método LR adolece de problemas. En primer lugar las iteraciones se detendrán si alguna de las matrices A (i) no tiene la descomposición triangular, y aún, si esta descomposición existe el problema de calcular L (i) y R i puede estar mal condicionado al no permitir el intercambio de filas con el fin de evitar elementos de pivote pequeños. Así el método puede ser inestable. Para evitar estas dificultades, y hacer el método numéricamente estable, uno podría realizar la descomposición con pivote parcial 0 0 La cual siempre existe. P (i) A (i) = L i R i, P i matriz de permutación, P i A (i+) = R i P t i L i = L i (P i A (i) P t i )L i = P t i 5

16 Sin embargo, hay ejemplos para los cuales este proceso no converge. Por ejemplo, sea [ ] A () 3 =, λ 2 0 = 3, λ 2 = 2 [ ] [ ] [ ] [ ] P =, P 0 A () = = = L 3 /2 0 3 R [ ] A (2) = R P t 2 L = 3 0 [ ] [ ] [ ] [ ] P 2 =, P 0 2 A () = = = L 2 / R 2 [ ] A (3) = R 2 P t 3 2 L 2 = = A 2 0 () Estas dificultades del método LR desaparecen en el llamado método QR. Formalmente, el método comienza con A () = A y genera matrices Q i y R i tales que A (i) = Q i R i donde Q i es una matriz ortogonal, Q t i Q = I y R i es una matriz triangular superior R i = Puede mostrarse que una factorización de este tipo siempre existe y puede ser calculada en una manera estable a través de matrices de Householder que anulen los elementos de las sucesivas columnas A (i) debajo de la diagonal. El método toma ahora como siguiente matriz de la sucesión A (i+) = R i Q i La transformación A (i) A (i+) no solo es de semejanza, sino que también es ortogonal. En efecto, ya que Q es ortogonal, R i = Q i A (i) = Q t i A(i) y por lo tanto A (i+) = R i Q i = Q t i A(i) Q i Puede mostrarse que, bajo ciertas condiciones en particular que los autovalores λ i de A tengan módulos distintos λ > λ 2 > > λ n entonces la sucesión de matrices A (i) converge a una matriz triangular superior siendo sus elementos diagonales los autovalores de A. Además la velocidad de convergencia con que las componentes debajo de la diagonal principal tienden a cero está determinada por los cocientes λ j λ k, j > k Así la convergencia puede resultar muy lenta si algunos de estos cocientes son cercanos a la unidad. Sin embargo, con una modificación del procedimiento se puede acelerar la convergencia. Como en el método LR, un paso en el método QR para una matriz densa n n requiere del orden de n 3 operaciones. Debido a esto, el método QR se aplica en la práctica solo a matrices simples, como son las matrices de Hessenberg, o en la caso de matrices simétricas, las matrices tridiagonales (simétricas). Así una matriz cualquiera debe ser reducida previamente a una de estas formas por los métodos ya discutidos. Por supuesto, para que este procedimiento tenga sentido 6

17 debe mostrarse que estas formas especiales son invariantes por una transformación QR; esto es, si A (i) es una matriz de Hessenberg (posiblemente simétrica, en cuyo caso es tridiagonal), entonces también lo es A i+. Esta invarianza puede ser establecida fácilmente. En primer lugar, si A (i) es simétrica, A (i+) también lo es debido que la transformación QR es ortogonal. Supongamos ahora que A (i) es una matriz de Hessenberg n n, como ya mencionamos A (i+) puede ser calculada a partir de una sucesión de transformaciones de Householder, sin embargo, en el caso de matrices de Hessenberg, resulta más eficiente utilizar transformaciones de Givens. Primero, reducimos los elementos de la subdiagonal A (i) a cero a través de matrices de Givens adecuadas del tipo Ω 2,...,Ω n,n y entonces calculamos A (i+) Ω n,n Ω 2,3 Ω,2 A (i) = R i = A (i) = Q i R i, Q i = Ω t 2Ω t 23 Ω t n,n A (i+) = R i Q i = R i Ω t 2 Ωt 23 Ωt n,n Debido a la estructura especial de Ω j,j+, la matriz triangular superior R i es transformada por la postmultiplicación con Ω t j,j+ a una matriz A(i+) de la forma de Hessenberg. Nótese que A (i+) puede ser calculada de A (i) muy eficientemente si las multiplicaciones matriciales son realizadas en el siguiente orden A (i+) = (Ω n,n...(ω 23 ((Ω 2 A (i) )Ω t 2 ))Ωt )Ωt n,n Llevada a cabo de esta manera, un paso en la transformación de una matriz de Hessenberg n n requiere solo de n 2 multiplicaciones y solo n operaciones en el caso simétrico, esto es, en el caso de una matriz tridiagonal simétrica. Aplicado de esta forma, el método QR resulta ser uno de los mejores métodos conocidos para determinar todos los autovalores de una matriz. Referencias [] F. S. Acton: Numerical Methods that Work. [2] J. Stoer and R. Bulirsch: Introduction to Numerical Analisis. [3] Numerical Recipes in FORTRAN 77: The art of scientifc computing. 7

Clase No. 13: Factorización QR MAT 251. Joaquín Peña (CIMAT) Métodos Numéricos (MAT 251) / 16

Clase No. 13: Factorización QR MAT 251. Joaquín Peña (CIMAT) Métodos Numéricos (MAT 251) / 16 Clase No 13: Factorización QR MAT 251 Joaquín Peña (CIMAT) Métodos Numéricos (MAT 251) 03102011 1 / 16 Factorización QR Sea A R m n con m n La factorización QR de A es A = QR = [Q 1 Q 2 ] R1 = Q 0 1 R

Más detalles

OCW-V.Muto Los métodos de transformación ortogonal. Cap. XX CAPITULO XX. LOS METODOS DE TRANSFORMACION ORTOGONAL

OCW-V.Muto Los métodos de transformación ortogonal. Cap. XX CAPITULO XX. LOS METODOS DE TRANSFORMACION ORTOGONAL CAPITULO XX. LOS METODOS DE TRANSFORMACION ORTOGONAL 1. LAS TRANSFORMACIONES DE HOUSEHOLDER Debido a las posibles dificultades numéricas del uso de las ecuaciones normales, los modernos métodos de mínimos

Más detalles

1.IV Aproximación numérica de valores y vectores propios.

1.IV Aproximación numérica de valores y vectores propios. .IV Aproximación numérica de valores y vectores propios. Manuel Palacios Departamento de Matemática Aplicada Centro Politécnico Superior. Universidad de Zaragoza Primavera 2007 Contents Introducción 2

Más detalles

Factorización QR Método iterativo de Jacobi

Factorización QR Método iterativo de Jacobi Clase No. 13: MAT 251 Factorización QR Método iterativo de Jacobi Dr. Alonso Ramírez Manzanares CIMAT A.C. e-mail: alram@ cimat.mx web: http://www.cimat.mx/ alram/met_num/ Dr. Joaquín Peña Acevedo CIMAT

Más detalles

Unidad 5 Problemas de álgebra lineal numérica.

Unidad 5 Problemas de álgebra lineal numérica. Unidad 5 Problemas de álgebra lineal numérica. Eliminación gaussiana. Factorización LU. Sea Ax = b un sistema de n ecuaciones lineales con n incógnitas, donde A es una matriz cuadrada de orden n no singular

Más detalles

Cálculo de autovalores

Cálculo de autovalores Cálculo de autovalores Damián Ginestar Peiró Departamento de Matemática Aplicada Universidad Politécnica de Valencia Curso 2011-2012 (UPV) Cálculo de autovalores Curso 2011-2012 1 / 28 Índice 1 Preliminares

Más detalles

Sistemas de ecuaciones lineales

Sistemas de ecuaciones lineales Chapter 2 Sistemas de ecuaciones lineales 2.1 Resolución de sistemas de ecuaciones lineales El problema que se pretende resolver en este capítulo es el de un sistema de m ecuaciones lineales con n incógnitas

Más detalles

Resolución de sistemas de ecuaciones lineales

Resolución de sistemas de ecuaciones lineales Tema 2 Resolución de sistemas de ecuaciones lineales 21 Métodos directos de resolución de sistemas de ecuaciones lineales 211 Resolución de sistemas triangulares Definición 211 Una matriz A se dice triangular

Más detalles

1.2 Valores y vectores propios. Método de las potencias y Rayleigh.

1.2 Valores y vectores propios. Método de las potencias y Rayleigh. 20 Prelininares. 1.2 Valores y vectores propios. Método de las potencias y Rayleigh. 1.2.1 Cálculo del Polinomio Caracterstico: ALGORITMO DE SOURIAU. ENTRADA: la matriz A 1 = A, p 1 = traza(a 1 ), n =

Más detalles

Métodos de factorización para resolver sistemas de ecuaciones lineales. 22 de agosto, 2012

Métodos de factorización para resolver sistemas de ecuaciones lineales. 22 de agosto, 2012 Cálculo numérico Métodos de factorización para resolver sistemas de ecuaciones lineales 22 de agosto, 2012 1 Factorización LU Considera el siguiente ejemplo de factorización LU de una matriz en un sistema

Más detalles

Sistemas de Ecuaciones. Lineales III

Sistemas de Ecuaciones. Lineales III Sistemas de Ecuaciones Lineales III Pivoteo: Estrategia de pivoteo parcial Adaptación a matrices con estructuras particulares: Matrices banda y tridiagonales Método de holesky 52123-1 - DIM Universidad

Más detalles

Parte 2. Métodos directos para la resolución de sistemas de ecuaciones lineales

Parte 2. Métodos directos para la resolución de sistemas de ecuaciones lineales Parte 2. Métodos directos para la resolución de sistemas de ecuaciones lineales Gustavo Montero Escuela Técnica Superior de Ingenieros Industriales University of Las Palmas de Gran Canaria Curso 2006-2007

Más detalles

Dr. Alonso Ramírez Manzanares Depto. de Matemáticas Univ. de Guanajuato cimat.mx web:

Dr. Alonso Ramírez Manzanares Depto. de Matemáticas Univ. de Guanajuato   cimat.mx web: Clase No 12: MAT 251 Factorización QR Dr Alonso Ramírez Manzanares Depto de Matemáticas Univ de Guanajuato e-mail: alram@ cimatmx web: http://wwwcimatmx/alram/met_num/ Dr Joaquín Peña Acevedo CIMAT AC

Más detalles

Elementos de Cálculo Numérico

Elementos de Cálculo Numérico Universidad de Buenos Aires - Facultad de Ciencias Exactas y Naturales - Depto. de Matemática Elementos de Cálculo Numérico Primer cuatrimestre 2006 Práctica N 2: Condicionamiento de una matriz. Descomposición

Más detalles

Gustavo Rodríguez Gómez. Agosto Dicembre 2011

Gustavo Rodríguez Gómez. Agosto Dicembre 2011 Computación Científica Gustavo Rodríguez Gómez INAOE Agosto Dicembre 2011 1 / 46 Capítulo II 2 / 46 1 Introducción Métodos Directos Sistemas Triangulares Sustitución Hacia Atrás Invertibilidad de una Matriz

Más detalles

Profesor Francisco R. Villatoro 13 de Diciembre de 1999 SOLUCIONES. 1. Una matriz A de n n es diagonalmente dominante (estrictamente) por filas si

Profesor Francisco R. Villatoro 13 de Diciembre de 1999 SOLUCIONES. 1. Una matriz A de n n es diagonalmente dominante (estrictamente) por filas si Cuarta relación de problemas Técnicas Numéricas Profesor Francisco R. Villatoro 13 de Diciembre de 1999 SOLUCIONES 1. Una matriz A de n n es diagonalmente dominante estrictamente por filas si a ii > a

Más detalles

OCW-V.Muto Sistemas lineales: Preliminares Cap. XIII CAPITULO XIII. METODOS PARA LA RESOLUCION DE SISTEMAS LINEALES: PRELIMINARES

OCW-V.Muto Sistemas lineales: Preliminares Cap. XIII CAPITULO XIII. METODOS PARA LA RESOLUCION DE SISTEMAS LINEALES: PRELIMINARES CAPITULO XIII. METODOS PARA LA RESOLUCION DE SISTEMAS LINEALES: PRELIMINARES. SISTEMAS LINEALES DE ECUACIONES En esta tercera parte se consideran técnicas para resolver el sistema de ecuaciones lineales:

Más detalles

Cálculo Numérico. Curso Ejercicios: Preliminares I

Cálculo Numérico. Curso Ejercicios: Preliminares I Cálculo Numérico. Curso 07-08. Ejercicios: Preliminares I 1. (a) Compruebe que la inversa de una matriz, L, triangular inferior de orden n puede calcularse como sigue: Para j = 1,,..., n e i = j, j + 1,...,

Más detalles

ÁLGEBRA LINEAL I Algunas soluciones a la Práctica 3

ÁLGEBRA LINEAL I Algunas soluciones a la Práctica 3 ÁLGEBRA LINEAL I Algunas soluciones a la Práctica 3 Matrices y determinantes (Curso 2011 2012) 2. Sea A una matriz diagonal n n y supongamos que todos los elementos de su diagonal son distintos entre sí.

Más detalles

Métodos Estadísticos Multivariados

Métodos Estadísticos Multivariados Métodos Estadísticos Multivariados Victor Muñiz ITESM Victor Muñiz (ITESM) Métodos Estadísticos Multivariados Agosto-Diciembre 2011 1 / 34 Álgebra matricial y vectores aleatorios Una matriz es un arreglo

Más detalles

Al considerar varios polígonos regulares inscritos resulta: perímetro del cuadrado < π. perímetro del 96 gono < π

Al considerar varios polígonos regulares inscritos resulta: perímetro del cuadrado < π. perímetro del 96 gono < π AMPLIACIÓN DE MATEMÁTICAS INTRODUCCIÓN Método Constructivo: Conjunto de instrucciones que permiten calcular la solución de un problema, bien en un número finito de pasos, bien en un proceso de paso al

Más detalles

Conjuntos y matrices. Sistemas de ecuaciones lineales

Conjuntos y matrices. Sistemas de ecuaciones lineales 1 Conjuntos y matrices Sistemas de ecuaciones lineales 11 Matrices Nuestro objetivo consiste en estudiar sistemas de ecuaciones del tipo: a 11 x 1 ++ a 1m x m = b 1 a n1 x 1 ++ a nm x m = b n Una solución

Más detalles

Definición Dados dos números naturales m y n, una matriz de orden o dimensión m n es una tabla numérica rectangular con m filas y n columnas.

Definición Dados dos números naturales m y n, una matriz de orden o dimensión m n es una tabla numérica rectangular con m filas y n columnas. Tema 1 Matrices 1.1. Conceptos básicos y ejemplos Definición 1.1.1. Dados dos números naturales m y n, una matriz de orden o dimensión m n es una tabla numérica rectangular con m filas y n columnas. NOTA:

Más detalles

Resolución de Sistema de Ecuaciones Lineales

Resolución de Sistema de Ecuaciones Lineales Resolución de Sistema de Ecuaciones Lineales Hermes Pantoja Carhuavilca Facultad de Ingeniería Mecanica Universidad Nacional de Ingenieria Métodos Numérico Hermes Pantoja Carhuavilca 1 de 29 CONTENIDO

Más detalles

Elementos de Cálculo Numérico / Cálculo Numérico Segundo Cuatrimestre 2017

Elementos de Cálculo Numérico / Cálculo Numérico Segundo Cuatrimestre 2017 Universidad de Buenos Aires - Facultad de Ciencias Exactas y Naturales - Depto. de Matemática Elementos de Cálculo Numérico / Cálculo Numérico Segundo Cuatrimestre 207 Práctica N : Número de condición.

Más detalles

SEL - Métodos Directos

SEL - Métodos Directos Facultad de Ingeniería Mecánica Universidad Nacional de Ingeniería Métodos Numéricos Contenido 1 Métodos Directos Generalidades sobre Métodos Directos Eliminación Gaussiana Pivoteo Factorización LU Generalidades

Más detalles

Tema 1 CÁLCULO MATRICIAL y ECUACIONES LINEALES

Tema 1 CÁLCULO MATRICIAL y ECUACIONES LINEALES Tema 1 CÁLCULO MATRICIAL y ECUACIONES LINEALES Prof. Rafael López Camino Universidad de Granada 1 Matrices Definición 1.1 Una matriz (real) de n filas y m columnas es una expresión de la forma a 11...

Más detalles

Algunos Tipos de matrices. Matrices. Algunos Tipos de matrices. Algunos Tipos de matrices

Algunos Tipos de matrices. Matrices. Algunos Tipos de matrices. Algunos Tipos de matrices Matrices Una matriz de orden m n es un conjunto ordenado de m n números reales dispuestos en m filas y n columnas de la forma: A = a 11 a 12 a 1j a 1n a 21 a 22 a 2j a 2n a i1 a i2 a ij a in a m1 a m2

Más detalles

Elementos de Cálculo Numérico (M) - Cálculo Numérico

Elementos de Cálculo Numérico (M) - Cálculo Numérico Universidad de Buenos Aires - Facultad de Ciencias Exactas y Naturales - Depto. de Matemática Elementos de Cálculo Numérico (M) - Cálculo Numérico Primer Cuatrimestre 204 Práctica N 2: Normas y Condicionamiento.

Más detalles

Contenido. 2 Operatoria con matrices. 3 Determinantes. 4 Matrices elementales. 1 Definición y tipos de matrices

Contenido. 2 Operatoria con matrices. 3 Determinantes. 4 Matrices elementales. 1 Definición y tipos de matrices elementales Diciembre 2010 Contenido Definición y tipos de matrices elementales 1 Definición y tipos de matrices 2 3 4 elementales 5 elementales Definición 1.1 (Matriz) Una matriz de m filas y n columnas

Más detalles

ÁLGEBRA LINEAL I Algunas soluciones a la Práctica 3

ÁLGEBRA LINEAL I Algunas soluciones a la Práctica 3 ÁLGEBRA LINEAL I Algunas soluciones a la Práctica 3 Matrices y determinantes (Curso 010 011). Sea A una matriz diagonal n n y supongamos que todos los elementos de su diagonal son distintos entre sí. Demostrar

Más detalles

ÁLGEBRA Ejercicios no resueltos de la Práctica 3

ÁLGEBRA Ejercicios no resueltos de la Práctica 3 ÁLGEBRA Ejercicios no resueltos de la Práctica 3 Matrices y determinantes (Curso 2007 2008) 15. Encontrar la (única) respuesta correcta, de entre las indicadas, a las siguientes cuestiones: (b) En una

Más detalles

Valores y Vectores Propios

Valores y Vectores Propios Valores y Vectores Propios Iván Huerta Facultad de Matemáticas Pontificia Universidad Católica de Chile ihuerta@mat.puc.cl Segundo Semestre, 1999 Definición Valores y Vectores Propios Valores y Vectores

Más detalles

Álgebra Lineal - Grado de Estadística. Examen final 26 de junio de 2013 APELLIDOS, NOMBRE:

Álgebra Lineal - Grado de Estadística. Examen final 26 de junio de 2013 APELLIDOS, NOMBRE: Álgebra Lineal - Grado de Estadística Examen final de junio de APELLIDOS, NOMBRE: DNI: Firma Primer parcial Ejercicio ( Sea A una matriz simétrica definida positiva de orden n y v R n Pruebe que la matriz

Más detalles

Sistemas de Ecuaciones. Lineales II

Sistemas de Ecuaciones. Lineales II Sistemas de Ecuaciones Lineales II Factorización LU: Eliminación Gaussiana Relación con la factorización LU 521230-1 - DIM Universidad de Concepción Solución de sistemas con matriz triangular Dadas L =

Más detalles

I. Métodos directos para resolución de SEL. Se dice que una matriz A admite una factorización LU indirecta A = LU

I. Métodos directos para resolución de SEL. Se dice que una matriz A admite una factorización LU indirecta A = LU I. Métodos directos para resolución de SEL 1. Factorización LU Se dice que una matriz A admite una factorización LU si dicha matriz puede escribirse como el producto de una matriz triangular inferior,

Más detalles

6.8. Descomposición mediante valores singulares. v 2 =

6.8. Descomposición mediante valores singulares. v 2 = 68 Descomposición mediante valores singulares Los valores singulares de una matriz m n Supongamos que A es una matriz real cualquiera Los autovalores de A T A tienen la siguiente propiedad A T Ax = λx

Más detalles

METODOS ITERATIVOS. Hermes Pantoja Carhuavilca. Facultad de Ingeniería Mecanica Universidad Nacional de Ingenieria

METODOS ITERATIVOS. Hermes Pantoja Carhuavilca. Facultad de Ingeniería Mecanica Universidad Nacional de Ingenieria Facultad de Ingeniería Mecanica Universidad Nacional de Ingenieria Métodos Numéricos Contenido 1 Métodos Iterativos Introducción Definición Métodos Iterativos Método de Jacobi Convergencia Método de Gauss

Más detalles

Tema 11.- Autovalores y Autovectores.

Tema 11.- Autovalores y Autovectores. Álgebra 004-005 Ingenieros Industriales Departamento de Matemática Aplicada II Universidad de Sevilla Tema - Autovalores y Autovectores Definición, propiedades e interpretación geométrica La ecuación característica

Más detalles

CONTENIDOS MATEMÁTICAS II SEGUNDA EVALUACIÓN CURSO 2017/2018 MATRICES

CONTENIDOS MATEMÁTICAS II SEGUNDA EVALUACIÓN CURSO 2017/2018 MATRICES CONTENIDOS MATEMÁTICAS II SEGUNDA EVALUACIÓN CURSO 2017/2018 Unidades: - Matrices (Bloque Álgebra) - Determinantes (Bloque Álgebra) - Sistemas de ecuaciones lineales (Bloque Álgebra) - Vectores (Bloque

Más detalles

Problemas Ampliación de Matemáticas. Sistemas lineales 1.- Encontrar la factorización L U de las siguientes matrices:

Problemas Ampliación de Matemáticas. Sistemas lineales 1.- Encontrar la factorización L U de las siguientes matrices: Problemas Ampliación de Matemáticas. Sistemas lineales 1.- Encontrar la factorización L U de las siguientes matrices: 5 2 1 1 0 3 1 0 3 3 1 6. 3 1 6 5 2 1 2.- Dada la matriz A = 10 7 8 7 5 6, 8 6 10 hallar

Más detalles

Podemos pues formular los dos problemas anteriores en términos de matrices.

Podemos pues formular los dos problemas anteriores en términos de matrices. Tema 5 Diagonalización 51 Introducción Valores y vectores propios 511 Planteamiento del problema Problema general de diagonalización Dado un operador lineal f sobre un espacio vectorial V de dimensión

Más detalles

a) Plantear un sistema de ecuaciones para calcular los coeficientes de f y resolverlo usando la descomposición LU de la matriz del sistema.

a) Plantear un sistema de ecuaciones para calcular los coeficientes de f y resolverlo usando la descomposición LU de la matriz del sistema. E.T.S. de Álgebra Numérica 30 de junio de 2006 Se quiere encontrar una función de la forma f(x) = ax 3 + bx + c que pase por los puntos (1, 4), ( 2, 23) y (2, 21). a) Plantear un sistema de ecuaciones

Más detalles

Métodos Numéricos para Sistemas de Ecuaciones Lineales

Métodos Numéricos para Sistemas de Ecuaciones Lineales Universidad de Chile Departamento de Ingeniería Matemática Cálculo Numérico MA-33A Métodos Numéricos para Sistemas de Ecuaciones Lineales Gonzalo Hernández Oliva GHO SEL - MA33A 1 MN para SEL: Temario

Más detalles

Matrices y sistemas de ecuaciones lineales. Autovalores y autovectores.

Matrices y sistemas de ecuaciones lineales. Autovalores y autovectores. Tema 5 Matrices y sistemas de ecuaciones lineales Autovalores y autovectores 5 Introducción Una matriz es una disposición ordenada de elementos de la forma: a a a m a a a m a n a n a nm Sus filas son las

Más detalles

RESUMEN DEL TEMA 7 VALORES Y VECTORES PROPIOS

RESUMEN DEL TEMA 7 VALORES Y VECTORES PROPIOS RESUMEN DEL TEMA 7 VALORES Y VECTORES PROPIOS 1. Determinantes El determinante de una matriz cuadrada n n A = a 21 a 22 a 2n a n1 a n2 a nn es un número real, y se representa por: A = a 21 a 22 a 2n a

Más detalles

Tema 1: Matrices. Sistemas de ecuaciones. Determinantes

Tema 1: Matrices. Sistemas de ecuaciones. Determinantes Tema 1: Matrices. Sistemas de ecuaciones. Determinantes José M. Salazar Octubre de 2016 Tema 1: Matrices. Sistemas de ecuaciones. Determinantes Lección 1. Matrices. Sistemas de ecuaciones. Determinantes

Más detalles

Resolución numérica de sistemas de ecuaciones lineales

Resolución numérica de sistemas de ecuaciones lineales Resolución numérica de sistemas de ecuaciones lineales María González Taboada Departamento de Matemáticas Febrero de 2008 Esquema: 1 Descripción del problema 2 Algunas definiciones y propiedades 3 Condicionamiento

Más detalles

Las matrices se denotarán usualmente por letras mayúsculas, A, B,..., y los elementos de las mismas por minúsculas, a, b,...

Las matrices se denotarán usualmente por letras mayúsculas, A, B,..., y los elementos de las mismas por minúsculas, a, b,... INTRO. MATRICES Y DETERMINANTES Prof. Gustavo Sosa Las matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones lineales, de las ecuaciones diferenciales y de las derivadas

Más detalles

Matrices ortogonales y descomposición QR

Matrices ortogonales y descomposición QR Matrices ortogonales y descomposición QR Problemas para examen Agradezco a Aldo Iván Leal García por varias correcciones importantes. Invertibilidad por la izquierda y por la derecha (repaso) 1. Conceptos

Más detalles

Matrices y determinantes

Matrices y determinantes Matrices y determinantes 1 Matrices Una matriz de orden m n es un conjunto de m n números ordenados en m filas y n columnas Por ejemplo, 1 1 2 0 2 0 2 1 1 1 2 1 3 0 2 es una matriz de orden 3 5 Una matriz

Más detalles

ALGEBRA LINEAL Segundo Semestre. Parte II

ALGEBRA LINEAL Segundo Semestre. Parte II 1 Universidad Nacional de La Plata Facultad de Ciencias Astronómicas y Geofísicas ALGEBRA LINEAL 2015 Segundo Semestre Parte II 2 1. Valores y Vectores propios. Diagonalización.Forma de Jordan. 1.1. Polinomios

Más detalles

Asignaturas antecedentes y subsecuentes Álgebra Lineal I y Análisis Numérico I.

Asignaturas antecedentes y subsecuentes Álgebra Lineal I y Análisis Numérico I. PROGRAMA DE ESTUDIOS ÁLGEBRA LINEAL NUMÉRICA Área a la que pertenece: ÁREA DE FORMACION INTEGRAL PROFESIONAL Horas teóricas: 3 Horas prácticas: 2 Créditos: 8 Clave: F0069 Asignaturas antecedentes y subsecuentes

Más detalles

Métodos iterativos para resolver sistemas de ecuaciones lineales

Métodos iterativos para resolver sistemas de ecuaciones lineales Clase No. 8 (Parte 1): MAT 251 Métodos iterativos para resolver sistemas de ecuaciones lineales Dr. Alonso Ramírez Manzanares Depto. de Matemáticas Univ. de Guanajuato e-mail: alram@ cimat.mx web: http://www.cimat.mx/

Más detalles

Una forma fácil de recordar esta suma (regla de Sarrus): Primero vamos a estudiar algunas propiedades de los determinantes.

Una forma fácil de recordar esta suma (regla de Sarrus): Primero vamos a estudiar algunas propiedades de los determinantes. Una forma fácil de recordar esta suma (regla de Sarrus): Ejemplos: Tarea: realizar al menos tres ejercicios de cálculo de determinantes de matrices de 2x2 y otros tres de 3x3. PARA DETERMINANTES DE MATRICES

Más detalles

2. Sistemas de ecuaciones lineales

2. Sistemas de ecuaciones lineales 2 Sistemas de ecuaciones lineales 2 Ejercicios resueltos Ejercicio 2 Estudiar el número de condición de Frobenius de la matriz a b A a + ε b Solución: El determinante de A es A ab + ba + ε b ε Si b 0 y

Más detalles

METODOS NUMERICOS. Curso

METODOS NUMERICOS. Curso Boletín 1 de prácticas. 1. Localizar las raíces de la ecuación F (x) = 0, para los siguientes casos: (a) F (x) = x + e x. (b) F (x) = 0.5 x + 0.2 sen(x). (c) F (x) = x tg(x). (d) F (x) = x 5 3. (e) F (x)

Más detalles

APÉNDICE A. Algebra matricial

APÉNDICE A. Algebra matricial APÉNDICE A Algebra matricial El estudio de la econometría requiere cierta familiaridad con el álgebra matricial. La teoría de matrices simplifica la descripción, desarrollo y aplicación de los métodos

Más detalles

Departamento de Ingeniería Matemática - Universidad de Chile

Departamento de Ingeniería Matemática - Universidad de Chile Ingeniería Matemática FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE Álgebra Lineal 8-7 Formas cuadráticas SEMANA 4: FORMAS CUADRÁTICAS 7 Formas cuadráticas y matrices definidas positivas

Más detalles

Matrices y Sistemas Lineales

Matrices y Sistemas Lineales Matrices y Sistemas Lineales Natalia Boal María Luisa Sein-Echaluce Universidad de Zaragoza Matrices sobre IR ó C. Definición Dado un conjunto K (IR ó C) y dos conjuntos finitos de índices I = {,, m} J

Más detalles

2.1 Introducción. Propiedades.

2.1 Introducción. Propiedades. 19 2 MATRICES II: DETERMINANTES En este segundo capítulo de matrices, aprenderemos a utilizar una herramienta muy importante como son los determinantes Gracias a ellos, podremos calcular la inversa de

Más detalles

6.5.7 Orientación de un espacio vectorial eucĺıdeo Producto vectorial Diagonalización de formas bilineales simétricas...

6.5.7 Orientación de un espacio vectorial eucĺıdeo Producto vectorial Diagonalización de formas bilineales simétricas... Contents 6 Formas Bilineales y Producto Escalar 3 6.1 Formas bilineales............................... 3 6.1.1 Matriz de una forma bilineal....................... 4 6.1. Formas bilineales simétricas.......................

Más detalles

Definición (matriz): Definición (dimensión de una matriz): Si una matriz tiene m renglones y n columnas se dice que es de dimensión m n.

Definición (matriz): Definición (dimensión de una matriz): Si una matriz tiene m renglones y n columnas se dice que es de dimensión m n. Índice general 1. Álgebra de Matrices 1 1.1. Conceptos Fundamentales............................ 1 1.1.1. Vectores y Matrices........................... 1 1.1.2. Transpuesta................................

Más detalles

SEL Métodos Directos

SEL Métodos Directos SEL Pantoja Carhuavilca Métodos Numérico Agenda métodos directos Encuentra una solución en un número finito de operaciones(en ausencia de errores de redondeo) transformando el sistema en un sistema equivalente

Más detalles

ALN - Curso 2007 Gradiente Conjugado

ALN - Curso 2007 Gradiente Conjugado ALN - Curso 27 Gradiente Conjugado Cecilia González Pérez Junio 27 Métodos Iterativos Pueden ser: Métodos estacionarios Métodos no estacionarios Métodos no estacionarios hacen uso de información, evaluada

Más detalles

a n1 a n2 a nn x n a ij x i x j = [x] t B A+At ) t = At +(A t ) t = At +A x j x i = s ij x i x j + s ji x j x i 2 x i x j + a ij + a ji

a n1 a n2 a nn x n a ij x i x j = [x] t B A+At ) t = At +(A t ) t = At +A x j x i = s ij x i x j + s ji x j x i 2 x i x j + a ij + a ji 16 Fundamentos de Matemáticas : Álgebra Lineal Capítulo 1 Formas cuadráticas Aunque, pueda parecernos que vamos a estudiar un nuevo concepto, un caso particular de las formas cudráticas ya ha sido estudiado,

Más detalles

MATRICES. Una matriz es un conjunto de números o expresiones dispuestos en forma rectangular, formando filas y columnas.

MATRICES. Una matriz es un conjunto de números o expresiones dispuestos en forma rectangular, formando filas y columnas. MATRICES Una matriz es un conjunto de números o expresiones dispuestos en forma rectangular, formando filas y columnas. Cada uno de los números de que consta la matriz se denomina elemento. Un elemento

Más detalles

Autovalores y autovectores Diagonalización y formas canónicas

Autovalores y autovectores Diagonalización y formas canónicas Autovalores y autovectores Diagonalización y formas canónicas Autovalores y autovectores.propiedades Sea V un espacio vectorial sobre K y f End(V ). Fijada una base de V, existirá una matriz cuadrada A,

Más detalles

Sistemas de Ecuaciones Lineales

Sistemas de Ecuaciones Lineales Sistemas de Ecuaciones Lineales José Vicente Romero Bauset ETSIT-curso 2009/200 José Vicente Romero Bauset Tema 2.- Sistemas de Ecuaciones Lineales Sistema de ecuaciones lineales Un sistema de ecuaciones

Más detalles

1.II.3. Sistemas de ecuaciones lineales: métodos iterativos.

1.II.3. Sistemas de ecuaciones lineales: métodos iterativos. 1.II.3. Sistemas de ecuaciones lineales: métodos iterativos. Manuel Palacios Departamento de Matemática Aplicada Centro Politécnico Superior Universidad de Zaragoza Otoño 2003 Referencias [1] Burden, R.

Más detalles

Matrices 1. Se denomina matriz a todo conjunto de números o expresiones dispuestos en forma rectangular, formando filas y columnas.

Matrices 1. Se denomina matriz a todo conjunto de números o expresiones dispuestos en forma rectangular, formando filas y columnas. Matrices 1 Concepto de matriz Se denomina matriz a todo conjunto de números o expresiones dispuestos en forma rectangular, formando filas y columnas. Cada uno de los números de que consta la matriz se

Más detalles

Sistemas lineales de ecuaciones

Sistemas lineales de ecuaciones Sistemas lineales de ecuaciones Conceptos previos a) Sistemas de ecuaciones lineales. b) Solución de un sistema. c) Sistemas triangulares. Resolución de sistemas Métodos directos a) Método de eliminación

Más detalles

Clase 7 Herramientas de Álgebra Lineal

Clase 7 Herramientas de Álgebra Lineal Clase 7 Herramientas de Álgebra Lineal 1 Formas cuadráticas La descomposición en valores singulares 3 Normas de matrices 4 Ejercicios Dada una matriz M R n n, la función escalar x T Mx, donde x R n, es

Más detalles

Tema 5. Matrices y Determinantes

Tema 5. Matrices y Determinantes Tema 5. Matrices y Determinantes 1. Definiciones 2. Operaciones Propiedades 3. Determinantes Orden 2 Orden 3: Regla de Sarrus Orden mayor de 3 Propiedades 4. Matriz inversa Ecuaciones matriciales 5. Rango

Más detalles

Chapter 1. Matrices. 1.1 Introducción y definiciones

Chapter 1. Matrices. 1.1 Introducción y definiciones Chapter 1 Matrices 1.1 Introducción y definiciones Los conceptos de las matrices y determinantes se remonta al siglo segundo BC, incluso antes. Pero no es hasta el siglo XVII cuando las ideas reaparecen

Más detalles

Métodos Numéricos: ecuaciones lineales Eduardo P. Serrano

Métodos Numéricos: ecuaciones lineales Eduardo P. Serrano Métodos Numéricos: ecuaciones lineales Eduardo P. Serrano Versión previa Feb 2012 1. Ecuaciones lineales. El álgebra lineal numérica aborda principalmente dos problemas: - El análisis y resolución de sistemas

Más detalles

A cada matriz n-cuadrada A = (ai j ) se le asigna un escalar particular denominado determinante de A, denotado por det (A), A o

A cada matriz n-cuadrada A = (ai j ) se le asigna un escalar particular denominado determinante de A, denotado por det (A), A o DETERMINANTES A cada matriz n-cuadrada A = (ai j ) se le asigna un escalar particular denominado determinante de A, denotado por det (A), A o Una tabla ordenada n ð n de escalares situada entre dos líneas

Más detalles

MATRICES Y SISTEMAS DE ECUACIONES

MATRICES Y SISTEMAS DE ECUACIONES MATRICES Y SISTEMAS DE ECUACIONES Definición Una matriz real de orden m n es una tabla ordenada de m n números reales a 11 a 12 a 1n A = a 21 a 22 a 2n a m1 a m2 a mn en la cual las líneas horizontales

Más detalles

Resolución de Sistema de Ecuaciones Lineales

Resolución de Sistema de Ecuaciones Lineales Resolución de Sistema de Ecuaciones Lineales Hermes Pantoja Carhuavilca Facultad de Ingeniería Industrial Universidad Nacional Mayor de San Marcos Métodos Computacionales Hermes Pantoja Carhuavilca 1 de

Más detalles

Cálculo numérico. Sistemas de ecuaciones lineales.

Cálculo numérico. Sistemas de ecuaciones lineales. José Luis Morales http://allman.rhon.itam.mx/ jmorales Departamento de Matemáticas. ITAM. 2010. Las raíces de x 2 bx + c = 0. r = b ± b 2 4c 2 b = 3.6778, c = 0.0020798 r 1 = 3.67723441190... r 2 = 0.00056558809...

Más detalles

a ij x i x j = [x] t B A+At ) t = At +(A t ) t = At +A x i x j + a ij + a ji x j x i = s ij x i x j + s ji x j x i 2

a ij x i x j = [x] t B A+At ) t = At +(A t ) t = At +A x i x j + a ij + a ji x j x i = s ij x i x j + s ji x j x i 2 68 Matemáticas I : Álgebra Lineal Tema 7 Formas cuadráticas Aunque, pueda parecernos que vamos a estudiar un nuevo concepto, un caso particular de las formas cudráticas ya ha sido estudiado, pues el cuadrado

Más detalles

MATRICES DETERMINANTES

MATRICES DETERMINANTES MATRICES Y DETERMINANTES INTRODUCCIÓN, MATRICES Y DETERMINANTES Las matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones lineales, de las ecuaciones diferenciales y de

Más detalles

Método de diferencias finitas para ecuaciones diferenciales parciales elípticas. (Parte II)

Método de diferencias finitas para ecuaciones diferenciales parciales elípticas. (Parte II) Método de diferencias finitas para ecuaciones diferenciales parciales elípticas (Parte II) Métodos numéricos para sistemas lineales Solución numérica de EDPs requiere resolver sistemas de ecuaciones lineales

Más detalles

Sistemas de Ecuaciones Lineales y Matrices

Sistemas de Ecuaciones Lineales y Matrices Capítulo 4 Sistemas de Ecuaciones Lineales y Matrices El problema central del Álgebra Lineal es la resolución de ecuaciones lineales simultáneas Una ecuación lineal con n-incógnitas x 1, x 2,, x n es una

Más detalles

Parte 3. Vectores y valores propios

Parte 3. Vectores y valores propios Parte 3. Vectores y valores propios Gustavo Montero Escuela Universitaria Politécnica Universidad de Las Palmas de Gran Canaria Curso 2004-2005 1 Introducción a los valores y vectores propios 2 3 4 5 Valores

Más detalles

Estos apuntes se han sacado de la página de internet de vitutor con pequeñas modificaciones.

Estos apuntes se han sacado de la página de internet de vitutor con pequeñas modificaciones. TEMA 1: MATRICES Concepto de matriz Se denomina matriz a todo conjunto de números o expresiones ordenados en filas y columnas. Cada uno de los números de que consta la matriz se denomina elemento. Un elemento

Más detalles

Cálculo Numérico - CO3211. Ejercicios. d ) Sabiendo que la inversa de la matriz A = es A c d

Cálculo Numérico - CO3211. Ejercicios. d ) Sabiendo que la inversa de la matriz A = es A c d Cálculo Numérico - CO32 Ejercicios Decida cuáles de las siguientes proposiciones son verdaderas y cuáles son falsas Si una proposición es verdadera, demuéstrela, y si es falsa dé un contraejemplo: a Sea

Más detalles

E.T.S. Minas: Métodos Matemáticos Resumen y ejemplos Tema 9: Sistemas de EDOs lineales

E.T.S. Minas: Métodos Matemáticos Resumen y ejemplos Tema 9: Sistemas de EDOs lineales ETS Minas: Métodos Matemáticos Resumen y ejemplos Tema 9: Sistemas de EDOs lineales Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de Cataluña Noviembre

Más detalles

(a) (0.5 puntos) Compruebe que esta ecuación tiene exactamente una solución en el intervalo

(a) (0.5 puntos) Compruebe que esta ecuación tiene exactamente una solución en el intervalo UNIVERSIDAD DIEGO PORTALES. FACULTAD DE INGENIERÍA. INSTITUTO DE CIENCIAS BÁSICAS. Cálculo Numérico, Control 1. Semestre Otoño 007 Problema 1. Se desea encontrar una raíz de la función f(x) = cos (x) x.

Más detalles

Tema 1. Espacios Vectoriales. Sistemas de ecuaciones.

Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Álgebra Lineal Escuela Politécnica Superior Universidad de Málaga Emilio Muñoz-Velasco (Basado en los apuntes de Jesús Medina e Inmaculada Fortes)

Más detalles

VALORES Y VECTORES PROPIOS

VALORES Y VECTORES PROPIOS VALORES Y VECTORES PROPIOS En diversos campos de la ingeniería y las matemáticas surge el problema de calcular los valores escalares λ y los vectores x 0 tales que para la matriz cuadrada A se cumple Ax

Más detalles

de la forma ), i =1,..., m, j =1,..., n, o simplemente por (a i j ).

de la forma ), i =1,..., m, j =1,..., n, o simplemente por (a i j ). INTRODUCCIÓN. MATRICES Y DETERMINANTES Las matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones lineales, de las ecuaciones diferenciales y de las derivadas parciales.

Más detalles

CURSO DE METODOS NUMERICOS CUART A PART E METODOS DE MINIMO CUADRADOS

CURSO DE METODOS NUMERICOS CUART A PART E METODOS DE MINIMO CUADRADOS CURSO DE METODOS NUMERICOS CUART A PART E METODOS DE MINIMO CUADRADOS V Muto El problema de mínimos cuadrados Cap XIX CAPITULO XIX EL PROBLEMA DE LOS MINIMOS CUADRADOS: PRELIMINARES 1 SISTEMAS LINEALES

Más detalles

Tema 1. 1 Álgebra lineal. Aurea Grané Departamento de Estadística Universidad Carlos III de Madrid. 1.1 Vectores de R n. 1. Vectores. 2.

Tema 1. 1 Álgebra lineal. Aurea Grané Departamento de Estadística Universidad Carlos III de Madrid. 1.1 Vectores de R n. 1. Vectores. 2. Aurea Grané. Máster en Estadística. Universidade Pedagógica. 1 Aurea Grané. Máster en Estadística. Universidade Pedagógica. 2 Tema 1 Álgebra lineal 1. Vectores 2. Matrices 1 Álgebra lineal Aurea Grané

Más detalles

3.3. Número de condición de una matriz.

3.3. Número de condición de una matriz. 96 33 Número de condición de una matriz Consideremos el sistema Ax = b, de solución u Queremos controlar qué cambios se producen en la solución cuando hacemos pequeños cambios en las componentes de b o

Más detalles

Resolverlo mediante el método de Gauss con aritmética exacta y sin pivoteo.

Resolverlo mediante el método de Gauss con aritmética exacta y sin pivoteo. Asignatura Cálculo Numérico Página de Sistemas Lineales lineales (Gauss con variantes y estudio iterativo) Examen Diciembre 000 Ejercicio. Dado el sistema lineal 4x+ y+ z = 9 x+ 4y z = 5, x+ y z = 9 (a)

Más detalles