Métodos numéricos para la determinación de autovalores
|
|
- Laura Ortíz Blázquez
- hace 7 años
- Vistas:
Transcripción
1 Métodos numéricos para la determinación de autovalores Pablo J. Santamaría Introducción Muchos problemas de interés conducen al cálculo, o por lo menos a la estimación, de los valores característicos o autovalores de una matriz asociada con un sistema lineal de ecuaciones. Algebraicamente el problema consiste en, dada una matriz real n n A, encontrar los escalares (generalmente complejos) λ (los autovalores de A) y los vectores no nulos x (los autovectores de A asociados a λ) tales que Ax = λx, x 0 Sabemos que tal matriz A tiene precisamente n autovalores, no necesariamente distintos, que son las raíces del polinomio característico de grado n p(λ) = det(a λi) Así pues, formalmente, los autovalores de A se pueden obtener encontrando las n raíces de p(λ). En la práctica esto puede llevarse a cabo con matrices o bien de pequeño tamaño o bien de formas particulares. En el caso general el polinomio característico es difícil de obtener y, de cualquier modo, sabemos que la determinación de las raíces de un polinomio de grado n ésimo es también un problema difícil, puesto que, excepto para valores pequeños de n, no es un problema cerrado (esto es, no hay fórmulas explícitas). En consecuencia es necesario considerar algoritmos que permitan determinar sistemáticamente todos los autovalores de una matriz dada en una forma eficiente, esto es, con el menor número de operaciones posibles, y además, dado que operar con grandes matrices involucra muchas sustracciones aritméticas, tales algoritmos deben ser estables de manera que los resultados numéricos no sean en realidad números aleatorios en lugar de los autovalores deseados. La estrategia práctica a considerar es dividir el problema en dos partes: en primer lugar se reduce la matriz original A a una matriz B = (b i,j ) de una estructura más simple (en el sentido de que posea la mayor cantidad de elementos nulos posibles) pero con los mismos autovalores; y luego se calculan los autovalores de esta nueva matriz. Típicamente, las matrices buscadas son ya sea una matriz tridiagonal o una matriz de Hessenberg (superior) b ij = 0, para i j + 2 b ij = 0, para i j > cuyas formas se ilustran en la fig. 0.. Una matriz tridiagonal tiene elementos nulos fuera de las diagonales principal, superior e inferior. Una matriz de Hessenberg tiene elementos nulos debajo de la diagonal inferior. La utilidad de esta estrategia dual resulta clara si se considera la cantidad de cómputo realizada en la manipulación de una matriz grande (digamos n = 00 o 200), tal como la multiplicación por
2 (a) Una matriz tridiagonal (b) Una matriz de Hessenberg Figura 0.. otra matriz. Para una matriz densa (esto es, con pocos elementos nulos) el número de operaciones requeridas es del orden de n 3, en tanto que para una matriz de Hessenberg tal cálculo requiere en realidad del orden de n 2 operaciones y para una matriz tridiagonal el número requerido es de orden n. Así para una matriz grande la diferencia entre n 2 y n 3 es apreciable ( sin mencionar n versus n 3!) y por lo tanto la búsqueda de los autovalores de una matriz simplificada resultará más eficiente. Dado que podemos reducir una matriz dada a la forma de Hessenberg (o a la forma tridiagonal en ciertos casos) mediante un número finito de pasos aritméticos, la estrategia diseñada resulta de suma utilidad práctica. Como las dos etapas de nuestra estrategia son (casi) independientes vamos a discutirlas separadamente. Así trataremos en primer lugar la posibilidad de reducir una matriz dada a una forma más simple. Aquí es donde las cuestiones de la forma de proceder y estabilidad de los métodos resultan cruciales. Reducción de matrices a una forma más simple Los métodos para reducir una matriz general dada a una forma más simple se basan en las transformaciones de similitud o semejanza. Definición Dos matrices n A y B se dicen semejantes si existe una matriz T n n no singular tal que B = T AT La transformación de similitud tiene la propiedad de preservar los autovalores. En efecto, a partir de la ecuación de autovalores Ax = λx premultiplicando por T tenemos que Si definimos obtenemos T x = y, T Ax = λt x con lo cual x = Ty T ATy = λt Ty = λy es decir tenemos el nuevo problema de autovalores By = λy 2
3 para la matriz B que es semejante a la matriz A, donde los nuevos autovectores y están relacionados en forma simple con los de A, pero los autovalores son los mismos. Este resultado se sigue también del hecho de que matrices semejantes tienen el mismo polinomio característico. En efecto, p B (λ) = det(b λi) = det(t AT λt T) = det(t (A λi)t) = dett det(a λi)dett = det(a λi) = p A (λ) La clase de transformaciones de similitud es muy amplia. Dentro de ella está incluida un tipo de transformación mucho más restrictivo, la transformación ortogonal. Aquí la matriz de transformación es ortogonal, esto es, su inversa es su traspuesta T = T t Una transformación ortogonal no solo preserva los autovalores sino también la simetría si ésta existe. En efecto, si A es una matriz simétrica y B es semejante a A por una transformación ortogonal, la traspuesta de B es B t = (T t AT) t = T t A t T = T t AT = B es decir, B es también simétrica. Recuérdese también que si una matriz real es simétrica sus autovalores serán necesariamente números reales y no complejos como en el caso general. La estrategia general de los métodos para calcular los autovalores de una matriz A es realizar primero una sucesión de transformaciones de semejanza A (0) = A A (i) = T i A (i ) T i, i =, 2,..., m para gradualmente transformar la matriz A en una matriz B de forma más simple B = A m = T AT, T = T T 2...T m y entonces determinar los autovalores λ de B (que serán necesariamente los de A). La matriz B es escogida de manera tal que La determinación de los autovalores de B sea lo más simple posible y El problema de autovalores para B no esté (sustancialmente) peor condicionado que el de A (esto es, que pequeños cambios en la matriz B no empeoren los autovalores más que de lo que lo hacen pequeños cambios en A). Si A y B son las matrices que contienen a las perturbaciones en los coeficientes de A y B, dado que tenemos que B = T AT, B = T AT B + B = T (A + A)T y por lo tanto A = T BT Así para una norma vectorial y su correspondiente norma matricial subordinada obtenemos las siguientes estimaciones B condt A A condt B 3
4 donde condt = T T es el número de condición de la matriz T. Así A A (condt)2 B B Entonces es de esperar que para condt el problema para B estará peor condicionando que el problema para A. Puesto que condt = cond (T...T m ) condt...condt m un buen condicionamiento estará asegurado si escogemos matrices de transformación T i tales que cond T i no sea demasiado grande. Este es el caso, en particular, para la norma máxima x = max i n x i 2 y las matrices de eliminación de la forma 0... T i = G j =. l.., l kj j+,j l nj 0 la cual es una matriz triangular inferior que difiere de la identidad en la columna j-ésima y cuya inversa es 0... G j =. l.. j+,j l nj 0 Para estas matrices cond T i 4 Para lo norma euclideana x 2 = x t x 3 un ejemplo son las matrices ortogonales T i para las cuales cond 2 T i = 4. De acuerdo a lo anterior, es de esperar que algoritmos basados en transformaciones ortogonales sean muy estables (como contrapartida estos algoritmos requieren más aritmética que aquellos basados en transformaciones de semejanza generales). Recuérdese que conda para cualquier matriz no singular A. En efecto, = I = AA A A = conda. 2 P Cuya norma matricial subordinada es A = max n i n j= a ij. 3 Cuya norma matricial subordinada es A 2 = µ donde µ es el máximo valor de las raíces cuadradas no negativas de los autovalores (necesariamente reales y no negativos) de la matriz simétrica semidefinida positiva A t A. 4 En efecto, si T es ortogonal TT t = I y como los autovalores de la matriz identidad son (con multiplicidad n), cond 2 T = T T t = =. 4
5 La transformación de Jacobi Una de las transformaciones ortogonales más simples es una rotación en un plano, llamada usualmente transformación de Jacobi. La matriz de transformación T i = Ω j,k es de la forma Ω jk =... c... s.. s... c... Aquí todos los elementos diagonales son la unidad excepto los dos elementos c en las filas (y columnas) j y k. Todos los elementos fuera de la diagonal son nulos excepto los dos elementos s y s. Los números c y s son el seno y el coseno de cierto ángulo de rotación φ así que no son, en magnitud, mayores que la unidad y c 2 + s 2 = Esta relación de normalización implica que solo un valor puede ser escogido libremente. Esta matriz es utilizada para transformar a la matriz según A = Ω t jk AΩ jk Ahora bien, la multiplicación Ω t jka cambia solo las filas j y k de A, mientras que la multiplicación AΩ jk cambia solo las columnas j y k. Así A difiere de A solo en los elementos de las columnas y filas j y k. Si realiza la multiplicación matricial se obtienen fórmulas explícitas para los elementos de estas filas y columnas. La idea del método de Jacobi es escoger el valor de c de manera de anular el elemento de A situado en la posición correspondiente a +s en T, esto es, hacer que a kj = 0 Esta condición permite determinar unívocamente el valor apropiada del ángulo de rotación y los valores de c y s que definen a la correspondiente matriz de transformación Ω jk. Nótese que si A es simétrica entonces también a jk = 0 ya que A debe ser simétrica como lo requiere la transformación ortogonal. Sin embargo, aunque podemos producir ceros fuera de la diagonal en forma efectiva con esta transformación, una sucesión finita de transformaciones de Jacobi no reducirán una matriz simétrica general a una matriz tridiagonal o a otra forma simple, debido a que la siguiente transformación destruirá los ceros obtenidos por la anterior. Para ver ésto consideremos la matriz simétrica densa 4 4 de la figura 0.2. Inicialmente podemos elegir libremente cualesquiera dos columnas y sus correspondientes filas; los ceros aparecerán en las dos intersecciones que no se encuentran sobre la diagonal principal. Así si elegimos las dos últimas filas y columnas la transformación producirá los ceros mostrados en la figura y alterará todos los elementos de estas dos filas y columnas. Si ahora intentamos anular otro elemento ubicado, por ejemplo, en la última columna la siguiente transformación de Jacobi involucrará esta columna y el cero actualmente localizado en la posición (3, 4) será destruido. Así no hay posibilidad de alcanzar ninguna forma simple a través de una sucesión finita de transformaciones de Jacobi eliminando un elemento a la vez. Sin embargo, puede probarse que, para una matriz real simétrica, una sucesión de transformaciones de Jacobi en un orden adecuado 5 hacen cada vez más y más pequeños los elementos fuera de la diagonal de las matrices transformadas de tal manera que, para una sucesión infinita de transformaciones, 5 A saber, llevando inicialmente a 2 a cero y posteriormente haciendo que a 3,..., a n, a 23,..., a 2n..., a n,n vayan a cero en este orden y repitiendo nuevamente el ciclo. 5
6 ¾ Figura 0.2. la matriz A (i) converge a una matriz diagonal, cuyos elementos son precisamente los autovalores buscados. Dado que este proceso es infinito, en una implementación práctica uno debería iterar hasta una matriz A (i) cuya suma de los módulos de los elementos fuera de la diagonal n i= n j= (j i) a (i) ij sea suficientemente pequeña dentro de la precisión de los cálculos. Los autovalores de A pueden aproximarse entonces por las componentes diagonales de A. Sin embargo, este es un proceso generalmente lento; en la práctica se requieren de alrededor de 6n 3 multiplicaciones antes de considerar los elementos fuera de la diagonal suficientemente pequeños, y con matrices grandes esto es mucho trabajo. Otras estrategias que consideraremos que pronto consideraremos realizan una mejor labor. Mencionemos también que el método de Jacobi puede ser implementado de manera de llevar una matriz no simétrica a una matriz triangular, proceso que, en general, requerirá de alrededor de 2n 3 multiplicaciones antes de que converga. Reducción de Givens Aunque la transformación de Jacobi no es útil en la forma presentada, una pequeña modificación permite una estrategia finita para reducir una matriz simétrica A a una forma tridiagonal. En lugar de producir un cero en las esquinas del cuadrado que defina la rotación en el plano, se escoge el parámetro c de manera de llevar a cero un elemento que no esté localizado en una de estas cuatro esquinas, esto es, que no estén en las posiciones a jj, a jk, a kk. Específicamente, tomamos primero T = Ω 23 de manera de anular el elemento en la posición a 3 (si la matriz es simétrica esto anulará también a a 3 ). Después elegimos T = Ω 23 de manera de anular el elemento en la posición a 4, etc. En general, elegimos la sucesión de transformaciones T i dados por Ω 23, Ω 24,..., Ω 2n Ω 34,..., Ω 3n.. Ω n,n de manera tal que Ω jk, j = 2,...,n, k = j +, j + 2,...,n anule el elemento de la posición a k,j. En la figura 0.3 se ilustra el procedimiento para una matriz 4 4. El método funciona debido a que los elementos en las posiciones fuera del cuadrado que define la rotación Ω jk (esto es, a rj y a rk con r j, r k) son simples combinaciones lineales de los valores 6
7 anteriores situados en la misma posición 6. Es esta simple combinación lineal la que preserva los ceros obtenidos en el paso anterior, ya que si estos elementos eran ceros, permanecerán nulos en la siguiente transformación. Así pues, después de (n )(n 2)/2 n 2 /2 rotaciones, una matriz simétrica es reducida a una forma tridiagonal. Dado que el método involucra solo matrices ortogonales es estable, y requiere de aproximadamente 4n 3 /3 multiplicaciones. Esta técnica es, pues, eficiente, la única desventaja es que existe una técnica de estrategia similar que realiza la misma tarea con la mitad de trabajo. Tal método será discutido en la siguiente sección. Finalmente mencionemos que la técnica de Givens puede ser implementada para llevar una matriz no simétrica a la forma de Hessenberg. En este caso el número de multiplicaciones realizadas en el proceso es alrededor de 0n 3 /3. ¾ ¾ ¼ ¼ (a) A () = Ω t 23 A(0) Ω 23 ¾ ¼ ¼ ¼ ¼ (b) A (2) = Ω t 24 A() Ω 24 (c) A (3) = Ω t 34 A(2) Ω 34 Figura 0.3. Reducción de Householder Al igual que la técnica de Givens, el algoritmo de Householder produce ceros a partir de transformaciones ortogonales. Sin embargo, distinto de Givens, cada transformación está diseñada para llevar a cero parte de toda una columna (y su correspondiente fila si la matriz es simétrica) de una vez. El ingrediente básico del algoritmo es una matriz ortogonal simétrica P, llamada matriz de Householder, la cual tiene la forma P = I 2ww t donde w es un vector real con w 2 2 = wt w = 7. Que P es simétrica resulta claro de inmediato P t = (I 2ww t ) t = I 2(ww t ) t = I 2(w t ) t w t = I 2ww t = = P 6 Sólo los cuatro elementos que se encuentran en las esquinas del cuadrado tienen fórmulas más complicadas, pero esto no es importante aquí. 7 Nótese que, en P, ww t es una matriz cuadrada, en tanto que w t w es un escalar 7
8 La ortogonalidad se deduce como sigue P 2 = (I 2ww t )(I 2ww t ) = I 4ww t + 4w(w t w)w t = I Así P = P, pero como P t P, tenemos que P = P t, lo que prueba la ortogonalidad. El vector w se escoge de manera tal que para un vector x dado Px = ke donde e es el vector [, 0,...,0] t ; es decir la matriz P actuando sobre un dado vector x lleva a cero todos sus componentes excepto el primero. Nótese que el módulo del escalar k es necesariamente la norma euclideana de x 8. Para reducir una matriz simétrica A a la forma tridiagonal construimos la matriz de transformación T como una matriz particionada que consiste de un en la posición (, ), una matriz P de Householder de orden (n ) (n ) y ceros en el resto como se muestra a continuación T = P 0 Nótese que esta matriz así construida es ortogonal y simétrica, con lo cual T = T t = T. Si tomamos como vector x los (n ) elementos inferiores de la primer columna de A, la premultiplicación por T = T llevará los (n 2) elementos inferiores de dicha columna a cero T A = = P. 0 a a 2 a 3 a n a 2 a 3. irrelevante a n a a 2 a 3 a n k 0. irrelevante 0 y la postmultiplicación por P no destruye los ceros ya que cualquier postmultiplicación por T no cambia la primer columna, de la misma manera que cualquier premultiplicación no cambia la primer fila. Además, si la matriz A es simétrica, dado que la simetría debe preservarse por la transformación ortogonal, tendremos los correspondientes ceros en la primera fila de la transformación completa a k 0 0 k 0 T AT =. irrelevante 0 8 En efecto, siendo P ortogonal, x 2 2 = xt x = xp t Px = (Px) t (Px) = k 2 e t e = k 2, de donde x 2 = k. 8
9 Así hemos producido todos los ceros en la primer columna y fila que son necesarios para la forma diagonal. Procedemos ahora con la segunda columna, construyendo la matriz de trasformación T 2 en la forma particionada T 2 = P donde P 2 es la matriz de Householder de tamaño (n 2) (n 2) que actúa sobre el vector x que tiene por componentes los (n 2) elementos inferiores de la segunda columna de A. El bloque identidad en la esquina superior derecha asegura que la tridiagonalización alcanzada en el primer paso no sea destruida, mientras que P 2 crea una nueva fila y columna de la matriz tridiagonal deseada. Claramente, una sucesión de (n 2) de tales transformaciones reducirá a la matriz A a la forma tridiagonal. El trabajo total realizado por el algoritmo contiene alrededor de 2n 3 /3 multiplicaciones, el cual es la mitad de las operaciones para el algoritmo de Givens. Así, pues. para matrices reales simétricas, la técnica de reducción de Householder es la estrategia estable más eficiente. Finalmente indiquemos que esta estrategia puede ser implementada para reducir matrices no simétricas a la forma triadiagonal con un costo de 5n 3 /3 multiplicaciones. Reducción directa a la forma de Hessenberg Con una pequeña pérdida en la estabilidad puede implementarse un algoritmo eficiente en el número de operaciones que el algoritmo de Householder para llevar a una matriz cualquiera a la forma de Hessenberg. Este algoritmo utiliza transformaciones de semejanza que no son ortogonales, y está basado en un procedimiento análogo a la eliminación gaussiana con pivoteo (de manera de asegurar estabilidad) y modificado adecuadamente para ser realmente una transformación de similitud de la matriz. Las matrices de transformación T i del método se construyen a partir de matrices de permutación... 0 P rs = las cuales consisten en una modificación de la matriz identidad reemplazando las posiciones (r, r) y (s, s) de la diagonal por ceros y colocando unos en las posiciones (r, s) y (s, r); y matrices de 9
10 eliminación de la forma 0... G j =. l.., l kj j+,j l nj 0 Estas matrices tienen las propiedades P rs = P rs 0... G j =. l.. j+,j l nj 0 La premultiplicación Prs A de A por P rs = P rs tiene el efecto de intercambiar las filas r y s de A, mientras que la postmultiplicación AP rs intercambia las columnas r y s de A. Una premultiplicación G j A de A por G j tiene el efecto de sustraer l rj veces la fila j de la fila r de la matriz A para r = j +, j + 2,...,n mientras que una postmultiplicación AG j suma l rj veces la columna r a la columna j de A para r = j +, j + 2,..., n. El proceso de transformación de la matriz A a la forma de Hessenberg procede como sigue. Sea A (0) = A y asumamos, por inducción, que A (i ) tiene la forma de una matriz cuyas (i ) columnas tienen la forma de Hessenberg El paso i-ésimo consiste entonces de las siguientes operaciones. Encontrar el elemento de máxima magnitud en la columna i-ésima debajo de la diagonal. Si este es cero, saltar los dos pasos siguientes y considerar esta etapa hecha. De lo contrario, supongamos que el elemento máximo está en la fila r. 2. Intercambiar las filas r y i+. Ese es el procedimiento de pivoteo. Para hacer esta permutación una transformación de semejanza se intercambian también las columnas r y j +. Así, en este paso calculamos la matriz A = P r,i+ A(i ) Pr, i + El elemento dominante del paso se encuentra ahora en la posición (i +, i). 0
11 3. Para j = i + 2, i + 3,...,n se calculan los multiplicadores l j,i+ = a ji a i+,j y se sustrae l j,i+ veces la fila i+ de la fila j. Para hacer esta eliminación una transformación de semejanza, también se suma l j,i+ veces la columna j a la columna i+. Así en este paso hemos calculado la matriz G i+ A G i+ Como resultado de los pasos anteriores la matriz obtenida A (i) = G i+ A G i+ = G i+ P rs A (i) P rs G i+ = T i A (i ) = T i, T i = P rs G i+ tiene sus primeras i columnas en la forma de Hessenberg. Repitiendo este proceso n 2 veces obtenemos la matriz de Hessenberg B = A n 2 deseada. El número de multiplicaciones realizadas por este algoritmo es del orden de 5n 3 /6, la mitad de operaciones necesarias para llevar a cabo la misma tarea con el algoritmo de Householder. Ya que en la mayoría de los casos prácticos este método no es esencialmente menos estable que el método de Householder, resulta ser el preferido en la práctica para reducir una matriz no simétrica la matriz de Hessenberg. Métodos para determinar los autovalores Aunque, formalmente, los autovalores de una matriz n n son las raíces su polinomio característico, encontrar la forma explícita de este polinomio y, recién entonces, determinar sus raíces es un procedimiento demasiado costoso para ser llevado a cabo en una matriz grande. Una estrategia más razonable a la construcción explícita, es evaluar el polinomio característico directamente para algún valor de prueba. Si nuestro valor de prueba es próximo a un autovalor de la matriz el valor del polinomio será pequeño, y nulo si nuestra estimación es exacta (salvo por errores de redondeo en la evaluación aritmética). Para una matriz dada la evaluación del polinomio característico requiere del cómputo de un determinante de orden n. Para una matriz densa el cómputo de tal determinante a través de su definición recursiva requiere del orden de n! operaciones por supuesto, tal cálculo es tremendamente ineficiente En su lugar el uso de un procedimiento de eliminación gaussiana permite reducir el número de operaciones a aproximadamente n 3 9. Ahora bien, para una matriz de Hessenberg tal cálculo requiere en realidad de n 2 operaciones y para una matriz tridiagonal el número es proporcional a n. De aquí nuestro interés en algoritmos que permitan evaluar los polinomios característicos de estas matrices especiales. 9 El método se basa en que el algoritmo de eliminación gaussiana produce una factorización A = PLU de una matriz A donde P es una matriz de permutación determinada por la estrategia de pivoteo, L una matriz triangular inferior con elementos de su diagonal iguales a la unidad y U = (u ij ) una matriz triangular superior. Entonces, como el determinante de una matriz triangular (inferior o superior) es el producto de los elementos de su diagonal y el determinante de una matriz de permutación (la cual intercambia filas de la matriz identidad) es o si la permutación es par o impar, tenemos que Y n deta = ( ) p u i,i i= donde p es el número de intercambios de filas realizados durante el algoritmo de eliminación.
12 Evaluación del polinomio característico de una matriz tridiagonal (simétrica) Consideremos una matriz tridiagonal simétrica α β 2. A = β βn β n α n Sin pérdida de generalidad podemos asumir que A es una matriz tridiagonal irreducible, esto es, β i 0 para todo i. De lo contrario, A pude escribirse como una matriz triangular por bloques, cuyos bloques son matrices tridiagonales irreducibles A (i), i =,...,k A () A (2) A =... A (k) Como el polinomio característico de A es el producto de los polinomios característicos de los bloques A (i), los autovalores de A serán los autovalores de A (i), i =,...,k. Así, pues, es suficiente considerar matrices irreducibles A. Escribamos el polinomio característico p (λ) de A como el determinante que lo define α λ β 2 β 2 α 2 λ β 3 β 3 α 3 λ p (λ) =. β.. 4 α n λ β n α n λ Desarrollando el determinante por la última columna resulta α λ β 2 β 2 α 2 λ β 3 β 3 α 3 λ p (λ) = (α n λ)... βn α n λ α λ β 2 β 2 α 2 λ β 3 β 3 α 3 λ β n... βn 2 α n 2 λ β n Tenemos así un término que es el producto de (α λ) por el polinomio característico p n (λ) de la submatriz tridiagonal de dimensiones (n ) (n ), y otro término que es el producto de β n por otro determinante de orden (n ). Desarrollando éste por su última fila, la cual contiene solo a β n obtenemos la fórmula β n p (λ) = (α n λ)p n (λ) β 2 n p n 2 (λ) β n 2
13 Notando que p (λ) = (α λ), p 2 (λ) = (α 2 λ)p (λ) β2 2 y definiendo p 0 (λ) = podemos calcular p (λ) de A en forma recursiva. En efecto, si α β 2. p i (λ) = det(a i λi), A i = β βi β i α i calculamos p 0 (λ) = p (λ) = (α λ) p i (λ) = (α i λ)p i (λ) β 2 i p i 2 (λ), i = 2, 3,...,n con lo cual p (λ) = p n (λ). Para un valor dado de λ este algoritmo proporciona una forma razonable de evaluar p (λ). Podemos entonces utilizar los métodos numéricos clásicos para determinar las raíces de un polinomio. Así utilizando un cierto paso en los valores de prueba λ podemos evaluar p (λ) hasta obtener un cambio de signo y entonces encerrar la raíz dividiendo el intervalo a la mitad este es el método dicotómico. O bien, habiendo obtenido una aproximación a la raíz, utilizar un método como el de la secante o el método de Newton. En este último caso es necesario el conocimiento de la derivada del polinomio p (λ), pero ésta puede ser calculada recursivamente por el algoritmo que resulta de diferenciar la fórmula recursiva que permite el cálculo del polinomio. Esto conduce a p 0 (λ) = 0 p (λ) = p i (λ) = (α i λ)p i (λ) β2 i p i 2 (λ) p i (λ), i = 2, 3,...,n con lo cual p (λ) = p n (λ). Evaluación del polinomio característico de una matriz de Hessenberg Podemos evaluar el determinante del polinomio característico de una matriz de Hessenberg para un valor de prueba λ por un método similar al usado con una matriz tridiagonal. Deseamos encontrar el valor numérico de a λ a 2 a 3 a 4... a,n a n b a 22 λ a 23 a 24 a 2,n a 2n b 2 a 33 λ a 34 a 3,n a 3n p (λ) = b 3 a 44 λ a 4,n a 44 b. 4. a n,n λ a n,n... b n a nn λ donde todas las cantidades en el determinante son números conocidos. Nuestra estrategia consiste en encontrar una combinación lineal de las (n ) primeras columnas que, cuando es sumada a 3
14 la última columna, reduzca a ésta a ceros excepto la primer posición. Esto es, queremos encontrar un conjunto de escalares β i tales que n C n + β i C i = k(λ)e (0.) i= donde los C i son las columnas de nuestro determinante. Si reemplazamos la ultima columna del determinante por esta combinación lineal de columnas, el valor numérico del determinante no cambia, y éste tiene ahora la forma a λ a 2 a 3 a 4... a,n k b a 22 λ a 23 a 24 a 2,n 0 b 2 a 33 λ a 34 a 3,n 0 p (λ) = b 3 a 44 λ a 4,n 0.. b 4.. a n,n λ 0... b n 0 Desarrollando este determinante por la última columna obtenemos b a 22 λ a a 2,n b 2 a 33 λ a 3,n p (λ) = ( ) n+ b 3 a 4,n k(λ).... a n,n λ b n el cual es el determinante de una matriz triangular y por lo tanto es el producto de los elementos de su diagonal. Así n p (λ) = ( ) n+ k(λ) b ii (0.2) Podemos encontrar los β i en forma sucesiva a partir de las ecuaciones (0.) y por lo tanto obtenemos k de y ahora podemos evaluar p (λ) de (0.2). i= β n b n + (a nn λ) = 0 β n 2 b n 2 + β n (a n,n λ) + a n,n = 0 β b + β 2 (a 22 λ) + β 3 a β n a 2,n + a 2n = 0 β (a λ) + β 2 a β n a,n + a n = k. Algoritmos de factorización Para finalizar vamos a presentar un conjunto de algoritmos iterativos para calcular los autovalores de una matriz A n n que si bien no convergen exactamente en número finito de pasos resultan de suma importancia. Estos algoritmos son conocidos como métodos de factorización ya que se basan en la suposición de que la matriz A puede ser factorizada en una matriz izquierda F L y una matriz derecha F R A = F L F R 4
15 Si ahora invertimos el orden de los factores obtenemos una matriz A = F R F L = F L AF L (dado que F L A = F R) que es semejante a la matriz A a través de la transformación F L. Así, cualquier factorización en dos matrices al ser multiplicadas en orden inverso constituyen una transformación de semejanza. Los métodos de factorización explotan esta idea, pero para que el algoritmo sea práctico la factorización de ser tal que el método converja, sea estable y eficiente. El primero de los dos métodos que consideraremos es el llamado método LR. Aquí se genera una sucesión de matrices comenzando con A () = A, y se utiliza el procedimiento de eliminación gaussiana para representar la matriz A (i) como el producto de una matriz triangular inferior L i = (l jk ) con l jj = y una matriz triangular superior R i 0 A (i) = L i R i, L i =...., R i = y entonces se toma A (i+) = R i L i = L i+ R i+, i =, 2,... Ahora bien, sabemos que para una matriz arbitraria A (i+) no siempre existe tal factorización sin intercambio de filas. Sin embargo, asumiendo que A (i) puede ser factorizada, es posible asegurar que, bajo ciertas condiciones, la sucesión de matrices A (i), i =,... converge a una matriz triangular superior cuyos elementos de la diagonal son los autovalores de A. Para una matriz densa n n, la factorización requiere del orden de n 3 /3 multiplicaciones, y la multiplicación matricial en orden inverso de otras n 3 /3. Así, en cada paso del algoritmo (necesariamente infinito) tenemos del orden de n 3 operaciones. Por lo tanto, el algoritmo LR no es práctico para matrices generales. Ahora bien, puede verificarse fácilmente que las formas tridiagonales y de Hessenberg se preservan bajo el algoritmo LR. Como la factorización de matrices tridiagonales requiere del orden de n multiplicaciones, y n 2 para matrices de Hessenberg, vemos que el algoritmo LR puede ser efectivo para encontrar los autovalores de estas matrices particulares. Para una matriz general solo debe reducirse primero a una de las formas anteriores por los métodos ya discutidos. Sin embargo el método LR adolece de problemas. En primer lugar las iteraciones se detendrán si alguna de las matrices A (i) no tiene la descomposición triangular, y aún, si esta descomposición existe el problema de calcular L (i) y R i puede estar mal condicionado al no permitir el intercambio de filas con el fin de evitar elementos de pivote pequeños. Así el método puede ser inestable. Para evitar estas dificultades, y hacer el método numéricamente estable, uno podría realizar la descomposición con pivote parcial 0 0 La cual siempre existe. P (i) A (i) = L i R i, P i matriz de permutación, P i A (i+) = R i P t i L i = L i (P i A (i) P t i )L i = P t i 5
16 Sin embargo, hay ejemplos para los cuales este proceso no converge. Por ejemplo, sea [ ] A () 3 =, λ 2 0 = 3, λ 2 = 2 [ ] [ ] [ ] [ ] P =, P 0 A () = = = L 3 /2 0 3 R [ ] A (2) = R P t 2 L = 3 0 [ ] [ ] [ ] [ ] P 2 =, P 0 2 A () = = = L 2 / R 2 [ ] A (3) = R 2 P t 3 2 L 2 = = A 2 0 () Estas dificultades del método LR desaparecen en el llamado método QR. Formalmente, el método comienza con A () = A y genera matrices Q i y R i tales que A (i) = Q i R i donde Q i es una matriz ortogonal, Q t i Q = I y R i es una matriz triangular superior R i = Puede mostrarse que una factorización de este tipo siempre existe y puede ser calculada en una manera estable a través de matrices de Householder que anulen los elementos de las sucesivas columnas A (i) debajo de la diagonal. El método toma ahora como siguiente matriz de la sucesión A (i+) = R i Q i La transformación A (i) A (i+) no solo es de semejanza, sino que también es ortogonal. En efecto, ya que Q es ortogonal, R i = Q i A (i) = Q t i A(i) y por lo tanto A (i+) = R i Q i = Q t i A(i) Q i Puede mostrarse que, bajo ciertas condiciones en particular que los autovalores λ i de A tengan módulos distintos λ > λ 2 > > λ n entonces la sucesión de matrices A (i) converge a una matriz triangular superior siendo sus elementos diagonales los autovalores de A. Además la velocidad de convergencia con que las componentes debajo de la diagonal principal tienden a cero está determinada por los cocientes λ j λ k, j > k Así la convergencia puede resultar muy lenta si algunos de estos cocientes son cercanos a la unidad. Sin embargo, con una modificación del procedimiento se puede acelerar la convergencia. Como en el método LR, un paso en el método QR para una matriz densa n n requiere del orden de n 3 operaciones. Debido a esto, el método QR se aplica en la práctica solo a matrices simples, como son las matrices de Hessenberg, o en la caso de matrices simétricas, las matrices tridiagonales (simétricas). Así una matriz cualquiera debe ser reducida previamente a una de estas formas por los métodos ya discutidos. Por supuesto, para que este procedimiento tenga sentido 6
17 debe mostrarse que estas formas especiales son invariantes por una transformación QR; esto es, si A (i) es una matriz de Hessenberg (posiblemente simétrica, en cuyo caso es tridiagonal), entonces también lo es A i+. Esta invarianza puede ser establecida fácilmente. En primer lugar, si A (i) es simétrica, A (i+) también lo es debido que la transformación QR es ortogonal. Supongamos ahora que A (i) es una matriz de Hessenberg n n, como ya mencionamos A (i+) puede ser calculada a partir de una sucesión de transformaciones de Householder, sin embargo, en el caso de matrices de Hessenberg, resulta más eficiente utilizar transformaciones de Givens. Primero, reducimos los elementos de la subdiagonal A (i) a cero a través de matrices de Givens adecuadas del tipo Ω 2,...,Ω n,n y entonces calculamos A (i+) Ω n,n Ω 2,3 Ω,2 A (i) = R i = A (i) = Q i R i, Q i = Ω t 2Ω t 23 Ω t n,n A (i+) = R i Q i = R i Ω t 2 Ωt 23 Ωt n,n Debido a la estructura especial de Ω j,j+, la matriz triangular superior R i es transformada por la postmultiplicación con Ω t j,j+ a una matriz A(i+) de la forma de Hessenberg. Nótese que A (i+) puede ser calculada de A (i) muy eficientemente si las multiplicaciones matriciales son realizadas en el siguiente orden A (i+) = (Ω n,n...(ω 23 ((Ω 2 A (i) )Ω t 2 ))Ωt )Ωt n,n Llevada a cabo de esta manera, un paso en la transformación de una matriz de Hessenberg n n requiere solo de n 2 multiplicaciones y solo n operaciones en el caso simétrico, esto es, en el caso de una matriz tridiagonal simétrica. Aplicado de esta forma, el método QR resulta ser uno de los mejores métodos conocidos para determinar todos los autovalores de una matriz. Referencias [] F. S. Acton: Numerical Methods that Work. [2] J. Stoer and R. Bulirsch: Introduction to Numerical Analisis. [3] Numerical Recipes in FORTRAN 77: The art of scientifc computing. 7
Clase No. 13: Factorización QR MAT 251. Joaquín Peña (CIMAT) Métodos Numéricos (MAT 251) / 16
Clase No 13: Factorización QR MAT 251 Joaquín Peña (CIMAT) Métodos Numéricos (MAT 251) 03102011 1 / 16 Factorización QR Sea A R m n con m n La factorización QR de A es A = QR = [Q 1 Q 2 ] R1 = Q 0 1 R
Más detallesOCW-V.Muto Los métodos de transformación ortogonal. Cap. XX CAPITULO XX. LOS METODOS DE TRANSFORMACION ORTOGONAL
CAPITULO XX. LOS METODOS DE TRANSFORMACION ORTOGONAL 1. LAS TRANSFORMACIONES DE HOUSEHOLDER Debido a las posibles dificultades numéricas del uso de las ecuaciones normales, los modernos métodos de mínimos
Más detalles1.IV Aproximación numérica de valores y vectores propios.
.IV Aproximación numérica de valores y vectores propios. Manuel Palacios Departamento de Matemática Aplicada Centro Politécnico Superior. Universidad de Zaragoza Primavera 2007 Contents Introducción 2
Más detallesFactorización QR Método iterativo de Jacobi
Clase No. 13: MAT 251 Factorización QR Método iterativo de Jacobi Dr. Alonso Ramírez Manzanares CIMAT A.C. e-mail: alram@ cimat.mx web: http://www.cimat.mx/ alram/met_num/ Dr. Joaquín Peña Acevedo CIMAT
Más detallesUnidad 5 Problemas de álgebra lineal numérica.
Unidad 5 Problemas de álgebra lineal numérica. Eliminación gaussiana. Factorización LU. Sea Ax = b un sistema de n ecuaciones lineales con n incógnitas, donde A es una matriz cuadrada de orden n no singular
Más detallesCálculo de autovalores
Cálculo de autovalores Damián Ginestar Peiró Departamento de Matemática Aplicada Universidad Politécnica de Valencia Curso 2011-2012 (UPV) Cálculo de autovalores Curso 2011-2012 1 / 28 Índice 1 Preliminares
Más detallesSistemas de ecuaciones lineales
Chapter 2 Sistemas de ecuaciones lineales 2.1 Resolución de sistemas de ecuaciones lineales El problema que se pretende resolver en este capítulo es el de un sistema de m ecuaciones lineales con n incógnitas
Más detallesResolución de sistemas de ecuaciones lineales
Tema 2 Resolución de sistemas de ecuaciones lineales 21 Métodos directos de resolución de sistemas de ecuaciones lineales 211 Resolución de sistemas triangulares Definición 211 Una matriz A se dice triangular
Más detalles1.2 Valores y vectores propios. Método de las potencias y Rayleigh.
20 Prelininares. 1.2 Valores y vectores propios. Método de las potencias y Rayleigh. 1.2.1 Cálculo del Polinomio Caracterstico: ALGORITMO DE SOURIAU. ENTRADA: la matriz A 1 = A, p 1 = traza(a 1 ), n =
Más detallesMétodos de factorización para resolver sistemas de ecuaciones lineales. 22 de agosto, 2012
Cálculo numérico Métodos de factorización para resolver sistemas de ecuaciones lineales 22 de agosto, 2012 1 Factorización LU Considera el siguiente ejemplo de factorización LU de una matriz en un sistema
Más detallesSistemas de Ecuaciones. Lineales III
Sistemas de Ecuaciones Lineales III Pivoteo: Estrategia de pivoteo parcial Adaptación a matrices con estructuras particulares: Matrices banda y tridiagonales Método de holesky 52123-1 - DIM Universidad
Más detallesParte 2. Métodos directos para la resolución de sistemas de ecuaciones lineales
Parte 2. Métodos directos para la resolución de sistemas de ecuaciones lineales Gustavo Montero Escuela Técnica Superior de Ingenieros Industriales University of Las Palmas de Gran Canaria Curso 2006-2007
Más detallesDr. Alonso Ramírez Manzanares Depto. de Matemáticas Univ. de Guanajuato cimat.mx web:
Clase No 12: MAT 251 Factorización QR Dr Alonso Ramírez Manzanares Depto de Matemáticas Univ de Guanajuato e-mail: alram@ cimatmx web: http://wwwcimatmx/alram/met_num/ Dr Joaquín Peña Acevedo CIMAT AC
Más detallesElementos de Cálculo Numérico
Universidad de Buenos Aires - Facultad de Ciencias Exactas y Naturales - Depto. de Matemática Elementos de Cálculo Numérico Primer cuatrimestre 2006 Práctica N 2: Condicionamiento de una matriz. Descomposición
Más detallesGustavo Rodríguez Gómez. Agosto Dicembre 2011
Computación Científica Gustavo Rodríguez Gómez INAOE Agosto Dicembre 2011 1 / 46 Capítulo II 2 / 46 1 Introducción Métodos Directos Sistemas Triangulares Sustitución Hacia Atrás Invertibilidad de una Matriz
Más detallesProfesor Francisco R. Villatoro 13 de Diciembre de 1999 SOLUCIONES. 1. Una matriz A de n n es diagonalmente dominante (estrictamente) por filas si
Cuarta relación de problemas Técnicas Numéricas Profesor Francisco R. Villatoro 13 de Diciembre de 1999 SOLUCIONES 1. Una matriz A de n n es diagonalmente dominante estrictamente por filas si a ii > a
Más detallesOCW-V.Muto Sistemas lineales: Preliminares Cap. XIII CAPITULO XIII. METODOS PARA LA RESOLUCION DE SISTEMAS LINEALES: PRELIMINARES
CAPITULO XIII. METODOS PARA LA RESOLUCION DE SISTEMAS LINEALES: PRELIMINARES. SISTEMAS LINEALES DE ECUACIONES En esta tercera parte se consideran técnicas para resolver el sistema de ecuaciones lineales:
Más detallesCálculo Numérico. Curso Ejercicios: Preliminares I
Cálculo Numérico. Curso 07-08. Ejercicios: Preliminares I 1. (a) Compruebe que la inversa de una matriz, L, triangular inferior de orden n puede calcularse como sigue: Para j = 1,,..., n e i = j, j + 1,...,
Más detallesÁLGEBRA LINEAL I Algunas soluciones a la Práctica 3
ÁLGEBRA LINEAL I Algunas soluciones a la Práctica 3 Matrices y determinantes (Curso 2011 2012) 2. Sea A una matriz diagonal n n y supongamos que todos los elementos de su diagonal son distintos entre sí.
Más detallesMétodos Estadísticos Multivariados
Métodos Estadísticos Multivariados Victor Muñiz ITESM Victor Muñiz (ITESM) Métodos Estadísticos Multivariados Agosto-Diciembre 2011 1 / 34 Álgebra matricial y vectores aleatorios Una matriz es un arreglo
Más detallesAl considerar varios polígonos regulares inscritos resulta: perímetro del cuadrado < π. perímetro del 96 gono < π
AMPLIACIÓN DE MATEMÁTICAS INTRODUCCIÓN Método Constructivo: Conjunto de instrucciones que permiten calcular la solución de un problema, bien en un número finito de pasos, bien en un proceso de paso al
Más detallesConjuntos y matrices. Sistemas de ecuaciones lineales
1 Conjuntos y matrices Sistemas de ecuaciones lineales 11 Matrices Nuestro objetivo consiste en estudiar sistemas de ecuaciones del tipo: a 11 x 1 ++ a 1m x m = b 1 a n1 x 1 ++ a nm x m = b n Una solución
Más detallesDefinición Dados dos números naturales m y n, una matriz de orden o dimensión m n es una tabla numérica rectangular con m filas y n columnas.
Tema 1 Matrices 1.1. Conceptos básicos y ejemplos Definición 1.1.1. Dados dos números naturales m y n, una matriz de orden o dimensión m n es una tabla numérica rectangular con m filas y n columnas. NOTA:
Más detallesResolución de Sistema de Ecuaciones Lineales
Resolución de Sistema de Ecuaciones Lineales Hermes Pantoja Carhuavilca Facultad de Ingeniería Mecanica Universidad Nacional de Ingenieria Métodos Numérico Hermes Pantoja Carhuavilca 1 de 29 CONTENIDO
Más detallesElementos de Cálculo Numérico / Cálculo Numérico Segundo Cuatrimestre 2017
Universidad de Buenos Aires - Facultad de Ciencias Exactas y Naturales - Depto. de Matemática Elementos de Cálculo Numérico / Cálculo Numérico Segundo Cuatrimestre 207 Práctica N : Número de condición.
Más detallesSEL - Métodos Directos
Facultad de Ingeniería Mecánica Universidad Nacional de Ingeniería Métodos Numéricos Contenido 1 Métodos Directos Generalidades sobre Métodos Directos Eliminación Gaussiana Pivoteo Factorización LU Generalidades
Más detallesTema 1 CÁLCULO MATRICIAL y ECUACIONES LINEALES
Tema 1 CÁLCULO MATRICIAL y ECUACIONES LINEALES Prof. Rafael López Camino Universidad de Granada 1 Matrices Definición 1.1 Una matriz (real) de n filas y m columnas es una expresión de la forma a 11...
Más detallesAlgunos Tipos de matrices. Matrices. Algunos Tipos de matrices. Algunos Tipos de matrices
Matrices Una matriz de orden m n es un conjunto ordenado de m n números reales dispuestos en m filas y n columnas de la forma: A = a 11 a 12 a 1j a 1n a 21 a 22 a 2j a 2n a i1 a i2 a ij a in a m1 a m2
Más detallesElementos de Cálculo Numérico (M) - Cálculo Numérico
Universidad de Buenos Aires - Facultad de Ciencias Exactas y Naturales - Depto. de Matemática Elementos de Cálculo Numérico (M) - Cálculo Numérico Primer Cuatrimestre 204 Práctica N 2: Normas y Condicionamiento.
Más detallesContenido. 2 Operatoria con matrices. 3 Determinantes. 4 Matrices elementales. 1 Definición y tipos de matrices
elementales Diciembre 2010 Contenido Definición y tipos de matrices elementales 1 Definición y tipos de matrices 2 3 4 elementales 5 elementales Definición 1.1 (Matriz) Una matriz de m filas y n columnas
Más detallesÁLGEBRA LINEAL I Algunas soluciones a la Práctica 3
ÁLGEBRA LINEAL I Algunas soluciones a la Práctica 3 Matrices y determinantes (Curso 010 011). Sea A una matriz diagonal n n y supongamos que todos los elementos de su diagonal son distintos entre sí. Demostrar
Más detallesÁLGEBRA Ejercicios no resueltos de la Práctica 3
ÁLGEBRA Ejercicios no resueltos de la Práctica 3 Matrices y determinantes (Curso 2007 2008) 15. Encontrar la (única) respuesta correcta, de entre las indicadas, a las siguientes cuestiones: (b) En una
Más detallesValores y Vectores Propios
Valores y Vectores Propios Iván Huerta Facultad de Matemáticas Pontificia Universidad Católica de Chile ihuerta@mat.puc.cl Segundo Semestre, 1999 Definición Valores y Vectores Propios Valores y Vectores
Más detallesÁlgebra Lineal - Grado de Estadística. Examen final 26 de junio de 2013 APELLIDOS, NOMBRE:
Álgebra Lineal - Grado de Estadística Examen final de junio de APELLIDOS, NOMBRE: DNI: Firma Primer parcial Ejercicio ( Sea A una matriz simétrica definida positiva de orden n y v R n Pruebe que la matriz
Más detallesSistemas de Ecuaciones. Lineales II
Sistemas de Ecuaciones Lineales II Factorización LU: Eliminación Gaussiana Relación con la factorización LU 521230-1 - DIM Universidad de Concepción Solución de sistemas con matriz triangular Dadas L =
Más detallesI. Métodos directos para resolución de SEL. Se dice que una matriz A admite una factorización LU indirecta A = LU
I. Métodos directos para resolución de SEL 1. Factorización LU Se dice que una matriz A admite una factorización LU si dicha matriz puede escribirse como el producto de una matriz triangular inferior,
Más detalles6.8. Descomposición mediante valores singulares. v 2 =
68 Descomposición mediante valores singulares Los valores singulares de una matriz m n Supongamos que A es una matriz real cualquiera Los autovalores de A T A tienen la siguiente propiedad A T Ax = λx
Más detallesMETODOS ITERATIVOS. Hermes Pantoja Carhuavilca. Facultad de Ingeniería Mecanica Universidad Nacional de Ingenieria
Facultad de Ingeniería Mecanica Universidad Nacional de Ingenieria Métodos Numéricos Contenido 1 Métodos Iterativos Introducción Definición Métodos Iterativos Método de Jacobi Convergencia Método de Gauss
Más detallesTema 11.- Autovalores y Autovectores.
Álgebra 004-005 Ingenieros Industriales Departamento de Matemática Aplicada II Universidad de Sevilla Tema - Autovalores y Autovectores Definición, propiedades e interpretación geométrica La ecuación característica
Más detallesCONTENIDOS MATEMÁTICAS II SEGUNDA EVALUACIÓN CURSO 2017/2018 MATRICES
CONTENIDOS MATEMÁTICAS II SEGUNDA EVALUACIÓN CURSO 2017/2018 Unidades: - Matrices (Bloque Álgebra) - Determinantes (Bloque Álgebra) - Sistemas de ecuaciones lineales (Bloque Álgebra) - Vectores (Bloque
Más detallesProblemas Ampliación de Matemáticas. Sistemas lineales 1.- Encontrar la factorización L U de las siguientes matrices:
Problemas Ampliación de Matemáticas. Sistemas lineales 1.- Encontrar la factorización L U de las siguientes matrices: 5 2 1 1 0 3 1 0 3 3 1 6. 3 1 6 5 2 1 2.- Dada la matriz A = 10 7 8 7 5 6, 8 6 10 hallar
Más detallesPodemos pues formular los dos problemas anteriores en términos de matrices.
Tema 5 Diagonalización 51 Introducción Valores y vectores propios 511 Planteamiento del problema Problema general de diagonalización Dado un operador lineal f sobre un espacio vectorial V de dimensión
Más detallesa) Plantear un sistema de ecuaciones para calcular los coeficientes de f y resolverlo usando la descomposición LU de la matriz del sistema.
E.T.S. de Álgebra Numérica 30 de junio de 2006 Se quiere encontrar una función de la forma f(x) = ax 3 + bx + c que pase por los puntos (1, 4), ( 2, 23) y (2, 21). a) Plantear un sistema de ecuaciones
Más detallesMétodos Numéricos para Sistemas de Ecuaciones Lineales
Universidad de Chile Departamento de Ingeniería Matemática Cálculo Numérico MA-33A Métodos Numéricos para Sistemas de Ecuaciones Lineales Gonzalo Hernández Oliva GHO SEL - MA33A 1 MN para SEL: Temario
Más detallesMatrices y sistemas de ecuaciones lineales. Autovalores y autovectores.
Tema 5 Matrices y sistemas de ecuaciones lineales Autovalores y autovectores 5 Introducción Una matriz es una disposición ordenada de elementos de la forma: a a a m a a a m a n a n a nm Sus filas son las
Más detallesRESUMEN DEL TEMA 7 VALORES Y VECTORES PROPIOS
RESUMEN DEL TEMA 7 VALORES Y VECTORES PROPIOS 1. Determinantes El determinante de una matriz cuadrada n n A = a 21 a 22 a 2n a n1 a n2 a nn es un número real, y se representa por: A = a 21 a 22 a 2n a
Más detallesTema 1: Matrices. Sistemas de ecuaciones. Determinantes
Tema 1: Matrices. Sistemas de ecuaciones. Determinantes José M. Salazar Octubre de 2016 Tema 1: Matrices. Sistemas de ecuaciones. Determinantes Lección 1. Matrices. Sistemas de ecuaciones. Determinantes
Más detallesResolución numérica de sistemas de ecuaciones lineales
Resolución numérica de sistemas de ecuaciones lineales María González Taboada Departamento de Matemáticas Febrero de 2008 Esquema: 1 Descripción del problema 2 Algunas definiciones y propiedades 3 Condicionamiento
Más detallesLas matrices se denotarán usualmente por letras mayúsculas, A, B,..., y los elementos de las mismas por minúsculas, a, b,...
INTRO. MATRICES Y DETERMINANTES Prof. Gustavo Sosa Las matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones lineales, de las ecuaciones diferenciales y de las derivadas
Más detallesMatrices ortogonales y descomposición QR
Matrices ortogonales y descomposición QR Problemas para examen Agradezco a Aldo Iván Leal García por varias correcciones importantes. Invertibilidad por la izquierda y por la derecha (repaso) 1. Conceptos
Más detallesMatrices y determinantes
Matrices y determinantes 1 Matrices Una matriz de orden m n es un conjunto de m n números ordenados en m filas y n columnas Por ejemplo, 1 1 2 0 2 0 2 1 1 1 2 1 3 0 2 es una matriz de orden 3 5 Una matriz
Más detallesALGEBRA LINEAL Segundo Semestre. Parte II
1 Universidad Nacional de La Plata Facultad de Ciencias Astronómicas y Geofísicas ALGEBRA LINEAL 2015 Segundo Semestre Parte II 2 1. Valores y Vectores propios. Diagonalización.Forma de Jordan. 1.1. Polinomios
Más detallesAsignaturas antecedentes y subsecuentes Álgebra Lineal I y Análisis Numérico I.
PROGRAMA DE ESTUDIOS ÁLGEBRA LINEAL NUMÉRICA Área a la que pertenece: ÁREA DE FORMACION INTEGRAL PROFESIONAL Horas teóricas: 3 Horas prácticas: 2 Créditos: 8 Clave: F0069 Asignaturas antecedentes y subsecuentes
Más detallesMétodos iterativos para resolver sistemas de ecuaciones lineales
Clase No. 8 (Parte 1): MAT 251 Métodos iterativos para resolver sistemas de ecuaciones lineales Dr. Alonso Ramírez Manzanares Depto. de Matemáticas Univ. de Guanajuato e-mail: alram@ cimat.mx web: http://www.cimat.mx/
Más detallesUna forma fácil de recordar esta suma (regla de Sarrus): Primero vamos a estudiar algunas propiedades de los determinantes.
Una forma fácil de recordar esta suma (regla de Sarrus): Ejemplos: Tarea: realizar al menos tres ejercicios de cálculo de determinantes de matrices de 2x2 y otros tres de 3x3. PARA DETERMINANTES DE MATRICES
Más detalles2. Sistemas de ecuaciones lineales
2 Sistemas de ecuaciones lineales 2 Ejercicios resueltos Ejercicio 2 Estudiar el número de condición de Frobenius de la matriz a b A a + ε b Solución: El determinante de A es A ab + ba + ε b ε Si b 0 y
Más detallesMETODOS NUMERICOS. Curso
Boletín 1 de prácticas. 1. Localizar las raíces de la ecuación F (x) = 0, para los siguientes casos: (a) F (x) = x + e x. (b) F (x) = 0.5 x + 0.2 sen(x). (c) F (x) = x tg(x). (d) F (x) = x 5 3. (e) F (x)
Más detallesAPÉNDICE A. Algebra matricial
APÉNDICE A Algebra matricial El estudio de la econometría requiere cierta familiaridad con el álgebra matricial. La teoría de matrices simplifica la descripción, desarrollo y aplicación de los métodos
Más detallesDepartamento de Ingeniería Matemática - Universidad de Chile
Ingeniería Matemática FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE Álgebra Lineal 8-7 Formas cuadráticas SEMANA 4: FORMAS CUADRÁTICAS 7 Formas cuadráticas y matrices definidas positivas
Más detallesMatrices y Sistemas Lineales
Matrices y Sistemas Lineales Natalia Boal María Luisa Sein-Echaluce Universidad de Zaragoza Matrices sobre IR ó C. Definición Dado un conjunto K (IR ó C) y dos conjuntos finitos de índices I = {,, m} J
Más detalles2.1 Introducción. Propiedades.
19 2 MATRICES II: DETERMINANTES En este segundo capítulo de matrices, aprenderemos a utilizar una herramienta muy importante como son los determinantes Gracias a ellos, podremos calcular la inversa de
Más detalles6.5.7 Orientación de un espacio vectorial eucĺıdeo Producto vectorial Diagonalización de formas bilineales simétricas...
Contents 6 Formas Bilineales y Producto Escalar 3 6.1 Formas bilineales............................... 3 6.1.1 Matriz de una forma bilineal....................... 4 6.1. Formas bilineales simétricas.......................
Más detallesDefinición (matriz): Definición (dimensión de una matriz): Si una matriz tiene m renglones y n columnas se dice que es de dimensión m n.
Índice general 1. Álgebra de Matrices 1 1.1. Conceptos Fundamentales............................ 1 1.1.1. Vectores y Matrices........................... 1 1.1.2. Transpuesta................................
Más detallesSEL Métodos Directos
SEL Pantoja Carhuavilca Métodos Numérico Agenda métodos directos Encuentra una solución en un número finito de operaciones(en ausencia de errores de redondeo) transformando el sistema en un sistema equivalente
Más detallesALN - Curso 2007 Gradiente Conjugado
ALN - Curso 27 Gradiente Conjugado Cecilia González Pérez Junio 27 Métodos Iterativos Pueden ser: Métodos estacionarios Métodos no estacionarios Métodos no estacionarios hacen uso de información, evaluada
Más detallesa n1 a n2 a nn x n a ij x i x j = [x] t B A+At ) t = At +(A t ) t = At +A x j x i = s ij x i x j + s ji x j x i 2 x i x j + a ij + a ji
16 Fundamentos de Matemáticas : Álgebra Lineal Capítulo 1 Formas cuadráticas Aunque, pueda parecernos que vamos a estudiar un nuevo concepto, un caso particular de las formas cudráticas ya ha sido estudiado,
Más detallesMATRICES. Una matriz es un conjunto de números o expresiones dispuestos en forma rectangular, formando filas y columnas.
MATRICES Una matriz es un conjunto de números o expresiones dispuestos en forma rectangular, formando filas y columnas. Cada uno de los números de que consta la matriz se denomina elemento. Un elemento
Más detallesAutovalores y autovectores Diagonalización y formas canónicas
Autovalores y autovectores Diagonalización y formas canónicas Autovalores y autovectores.propiedades Sea V un espacio vectorial sobre K y f End(V ). Fijada una base de V, existirá una matriz cuadrada A,
Más detallesSistemas de Ecuaciones Lineales
Sistemas de Ecuaciones Lineales José Vicente Romero Bauset ETSIT-curso 2009/200 José Vicente Romero Bauset Tema 2.- Sistemas de Ecuaciones Lineales Sistema de ecuaciones lineales Un sistema de ecuaciones
Más detalles1.II.3. Sistemas de ecuaciones lineales: métodos iterativos.
1.II.3. Sistemas de ecuaciones lineales: métodos iterativos. Manuel Palacios Departamento de Matemática Aplicada Centro Politécnico Superior Universidad de Zaragoza Otoño 2003 Referencias [1] Burden, R.
Más detallesMatrices 1. Se denomina matriz a todo conjunto de números o expresiones dispuestos en forma rectangular, formando filas y columnas.
Matrices 1 Concepto de matriz Se denomina matriz a todo conjunto de números o expresiones dispuestos en forma rectangular, formando filas y columnas. Cada uno de los números de que consta la matriz se
Más detallesSistemas lineales de ecuaciones
Sistemas lineales de ecuaciones Conceptos previos a) Sistemas de ecuaciones lineales. b) Solución de un sistema. c) Sistemas triangulares. Resolución de sistemas Métodos directos a) Método de eliminación
Más detallesClase 7 Herramientas de Álgebra Lineal
Clase 7 Herramientas de Álgebra Lineal 1 Formas cuadráticas La descomposición en valores singulares 3 Normas de matrices 4 Ejercicios Dada una matriz M R n n, la función escalar x T Mx, donde x R n, es
Más detallesTema 5. Matrices y Determinantes
Tema 5. Matrices y Determinantes 1. Definiciones 2. Operaciones Propiedades 3. Determinantes Orden 2 Orden 3: Regla de Sarrus Orden mayor de 3 Propiedades 4. Matriz inversa Ecuaciones matriciales 5. Rango
Más detallesChapter 1. Matrices. 1.1 Introducción y definiciones
Chapter 1 Matrices 1.1 Introducción y definiciones Los conceptos de las matrices y determinantes se remonta al siglo segundo BC, incluso antes. Pero no es hasta el siglo XVII cuando las ideas reaparecen
Más detallesMétodos Numéricos: ecuaciones lineales Eduardo P. Serrano
Métodos Numéricos: ecuaciones lineales Eduardo P. Serrano Versión previa Feb 2012 1. Ecuaciones lineales. El álgebra lineal numérica aborda principalmente dos problemas: - El análisis y resolución de sistemas
Más detallesA cada matriz n-cuadrada A = (ai j ) se le asigna un escalar particular denominado determinante de A, denotado por det (A), A o
DETERMINANTES A cada matriz n-cuadrada A = (ai j ) se le asigna un escalar particular denominado determinante de A, denotado por det (A), A o Una tabla ordenada n ð n de escalares situada entre dos líneas
Más detallesMATRICES Y SISTEMAS DE ECUACIONES
MATRICES Y SISTEMAS DE ECUACIONES Definición Una matriz real de orden m n es una tabla ordenada de m n números reales a 11 a 12 a 1n A = a 21 a 22 a 2n a m1 a m2 a mn en la cual las líneas horizontales
Más detallesResolución de Sistema de Ecuaciones Lineales
Resolución de Sistema de Ecuaciones Lineales Hermes Pantoja Carhuavilca Facultad de Ingeniería Industrial Universidad Nacional Mayor de San Marcos Métodos Computacionales Hermes Pantoja Carhuavilca 1 de
Más detallesCálculo numérico. Sistemas de ecuaciones lineales.
José Luis Morales http://allman.rhon.itam.mx/ jmorales Departamento de Matemáticas. ITAM. 2010. Las raíces de x 2 bx + c = 0. r = b ± b 2 4c 2 b = 3.6778, c = 0.0020798 r 1 = 3.67723441190... r 2 = 0.00056558809...
Más detallesa ij x i x j = [x] t B A+At ) t = At +(A t ) t = At +A x i x j + a ij + a ji x j x i = s ij x i x j + s ji x j x i 2
68 Matemáticas I : Álgebra Lineal Tema 7 Formas cuadráticas Aunque, pueda parecernos que vamos a estudiar un nuevo concepto, un caso particular de las formas cudráticas ya ha sido estudiado, pues el cuadrado
Más detallesMATRICES DETERMINANTES
MATRICES Y DETERMINANTES INTRODUCCIÓN, MATRICES Y DETERMINANTES Las matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones lineales, de las ecuaciones diferenciales y de
Más detallesMétodo de diferencias finitas para ecuaciones diferenciales parciales elípticas. (Parte II)
Método de diferencias finitas para ecuaciones diferenciales parciales elípticas (Parte II) Métodos numéricos para sistemas lineales Solución numérica de EDPs requiere resolver sistemas de ecuaciones lineales
Más detallesSistemas de Ecuaciones Lineales y Matrices
Capítulo 4 Sistemas de Ecuaciones Lineales y Matrices El problema central del Álgebra Lineal es la resolución de ecuaciones lineales simultáneas Una ecuación lineal con n-incógnitas x 1, x 2,, x n es una
Más detallesParte 3. Vectores y valores propios
Parte 3. Vectores y valores propios Gustavo Montero Escuela Universitaria Politécnica Universidad de Las Palmas de Gran Canaria Curso 2004-2005 1 Introducción a los valores y vectores propios 2 3 4 5 Valores
Más detallesEstos apuntes se han sacado de la página de internet de vitutor con pequeñas modificaciones.
TEMA 1: MATRICES Concepto de matriz Se denomina matriz a todo conjunto de números o expresiones ordenados en filas y columnas. Cada uno de los números de que consta la matriz se denomina elemento. Un elemento
Más detallesCálculo Numérico - CO3211. Ejercicios. d ) Sabiendo que la inversa de la matriz A = es A c d
Cálculo Numérico - CO32 Ejercicios Decida cuáles de las siguientes proposiciones son verdaderas y cuáles son falsas Si una proposición es verdadera, demuéstrela, y si es falsa dé un contraejemplo: a Sea
Más detallesE.T.S. Minas: Métodos Matemáticos Resumen y ejemplos Tema 9: Sistemas de EDOs lineales
ETS Minas: Métodos Matemáticos Resumen y ejemplos Tema 9: Sistemas de EDOs lineales Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de Cataluña Noviembre
Más detalles(a) (0.5 puntos) Compruebe que esta ecuación tiene exactamente una solución en el intervalo
UNIVERSIDAD DIEGO PORTALES. FACULTAD DE INGENIERÍA. INSTITUTO DE CIENCIAS BÁSICAS. Cálculo Numérico, Control 1. Semestre Otoño 007 Problema 1. Se desea encontrar una raíz de la función f(x) = cos (x) x.
Más detallesTema 1. Espacios Vectoriales. Sistemas de ecuaciones.
Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Álgebra Lineal Escuela Politécnica Superior Universidad de Málaga Emilio Muñoz-Velasco (Basado en los apuntes de Jesús Medina e Inmaculada Fortes)
Más detallesVALORES Y VECTORES PROPIOS
VALORES Y VECTORES PROPIOS En diversos campos de la ingeniería y las matemáticas surge el problema de calcular los valores escalares λ y los vectores x 0 tales que para la matriz cuadrada A se cumple Ax
Más detallesde la forma ), i =1,..., m, j =1,..., n, o simplemente por (a i j ).
INTRODUCCIÓN. MATRICES Y DETERMINANTES Las matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones lineales, de las ecuaciones diferenciales y de las derivadas parciales.
Más detallesCURSO DE METODOS NUMERICOS CUART A PART E METODOS DE MINIMO CUADRADOS
CURSO DE METODOS NUMERICOS CUART A PART E METODOS DE MINIMO CUADRADOS V Muto El problema de mínimos cuadrados Cap XIX CAPITULO XIX EL PROBLEMA DE LOS MINIMOS CUADRADOS: PRELIMINARES 1 SISTEMAS LINEALES
Más detallesTema 1. 1 Álgebra lineal. Aurea Grané Departamento de Estadística Universidad Carlos III de Madrid. 1.1 Vectores de R n. 1. Vectores. 2.
Aurea Grané. Máster en Estadística. Universidade Pedagógica. 1 Aurea Grané. Máster en Estadística. Universidade Pedagógica. 2 Tema 1 Álgebra lineal 1. Vectores 2. Matrices 1 Álgebra lineal Aurea Grané
Más detalles3.3. Número de condición de una matriz.
96 33 Número de condición de una matriz Consideremos el sistema Ax = b, de solución u Queremos controlar qué cambios se producen en la solución cuando hacemos pequeños cambios en las componentes de b o
Más detallesResolverlo mediante el método de Gauss con aritmética exacta y sin pivoteo.
Asignatura Cálculo Numérico Página de Sistemas Lineales lineales (Gauss con variantes y estudio iterativo) Examen Diciembre 000 Ejercicio. Dado el sistema lineal 4x+ y+ z = 9 x+ 4y z = 5, x+ y z = 9 (a)
Más detalles