ALGORITMO SOLVER: RESOLUCIÓN DEL SISTEMA A*X=B

Tamaño: px
Comenzar la demostración a partir de la página:

Download "ALGORITMO SOLVER: RESOLUCIÓN DEL SISTEMA A*X=B"

Transcripción

1 III. ALGORITMO SOLVER: RESOLUCIÓN DEL SISTEMA A*X=B Tras el análisis del código de partida se observó que uno de los bloques que se debían adaptar a tecnología CUDA para su aceleración era el bloque encargado de la resolución de la ecuación propiamente dicha. Sin embargo, este bloque poseía una complejidad que hizo necesario un estudio previo y detallado de los algoritmos numéricos disponibles para encontrar la opción más adecuada. En concreto se deseaba aprovechar la particularidad de que el sistema es un sistema disperso. La selección del método para implementar el Solver debe tener en consideración ciertos factores: - Velocidad de convergencia: Se prefieren aquellos métodos que convergen rápidamente (en tiempo y no necesariamente en iteraciones). - Memoria: Cuando se manejan matrices muy grandes, se deben evitar algoritmos que manejan matrices en los pasos intermedios. - Paralelismo: En principio CUBLAS se encarga de la paralelización de modo óptimo. - Sencillez: A la hora de implementar y codificar para evitar bugs y un desarrollo rápido. Tras un análisis de la literatura acerca de este caso se encontraron dos alternativas que pasamos a describir: 1. MÉTODOS DIRECTOS Los métodos directos tienen como objetivo resolver el problema en un número finito de pasos y, aparte de errores por redondeo, encontrar una solución exacta. Generalmente estos métodos exigen más memoria que los métodos iterativos. Por tanto se deben usar con reservas. De hecho éste factor fue fundamental para descartarlos en nuestra implementación. En la bibliografía consultada se indican para casos de matrices densas. Sin embargo como ejemplo de método directo estudiamos el llamado de Factorización o Descomposición QR. a. DESCOMPOSICIÓN QR: Es uno de los métodos que permiten una resolución fácil de un problema Ax=b. La descomposición QR es la base del algoritmo QR utilizado para el cálculo de los vectores y valores propios de una matriz. 89

2 La idea se basa en descomponer la matriz A en dos matrices Q y R tal que A=QR donde Q es una matriz ortogonal (Q T =Q -1 ) y R es una matriz triangular superior. A partir de ahí se puede resolver fácilmente X, ya que: Ax=B-> QRx=B-> Rx= Q -1 B= Q T B. Como R es triangular la resolución de RX= Q T B se realiza usando las bibliotecas apropiadas de BLAS. Sin embargo se observa a simple vista que hay que almacenar dos matrices lo cual consume bastante memoria. Para el cálculo de Q y R existen fundamentalmente tres métodos: Mediante el método de ortogonalización de Gram-Schmidt Sensible a los errores de redondeo ; Recurriendo al método de ortogonalización de Gram-Schmidt, con las columnas de A como los vectores a procesar.. Entonces Naturalmente, utilizamos los a i de A para obtener: 90

3 Ahora estas ecuaciones pueden ser escritas en forma matricial de esta manera: ::::::::: El producto de cada fila con cada columna de las matrices de arriba, da la columna correspondiente de A con la que se comienza y, por tanto, dada la matriz A, ha sido factorizada en una matriz ortogonal Q (la matriz de e k ), aplicando el proceso de Gram-Schmidt, y en una matriz triangular superior R. Alternativamente, la matriz puede calcularse de la siguiente manera: Recordemos que: Entonces, tenemos Nótese que <e j,a j >= u j, <e j,a k >=0 para j>k y QQ T = I, por tanto Q T = Q 1. Mediante rotaciones de Givens: fácilmente paralelizable, pero requiere muchos productos de matrices, accesos de memoria y cálculos trigonométricos poco precisos. Las descomposiciones QR también pueden calcularse utilizando una serie de rotaciones de Givens. Cada rotación anula un elemento en la subdiagonal de la matriz, formando de este modo la matriz R. La concatenación de todas las rotaciones de Givens realizadas, forma la matriz ortogonal Q. En la práctica, las rotaciones de Givens no se utilizan en la actualidad para construir una matriz completa y realizar un producto de matrices. En su lugar, se utiliza un procedimiento de rotación de Givens, que es equivalente a la multiplicación reducida de matrices de Givens, sin el trabajo extra de manejar los elementos reducidos. El procedimiento de rotación de Givens es útil en situaciones donde sólo algunos elementos fuera de la diagonal necesitan ser anulados y es más fácil de paralelizar que las transformaciones de Householder. 91

4 Mediante el uso de reflexiones de Householder: es el más estable numéricamente. Una transformación de Householder o reflexión de Householder es una transformación que refleja el espacio con respecto a un plano determinado. Esta propiedad se puede utilizar para realizar la transformación QR de una matriz si tenemos en cuenta que es posible elegir la matriz de Householder de manera que un vector seleccionado quede con una única componente no nula tras ser transformado (es decir, premultiplicando por la matriz de Householder). Gráficamente, esto significa que es posible reflejar el vector elegido respecto de un plano de forma que el reflejado quede sobre uno de los ejes de la base cartesiana. La manera de elegir el plano de reflexión y formar la matriz de Householder asociada es el siguiente: Sea un vector columna arbitrario m-dimensional tal que X = α, donde α es un escalar; (si el algoritmo se implementa utilizando aritmética de coma flotante, entonces α debe adoptar el signo contrario que x 1 para evitar pérdida de precisión). Entonces, siendo se define: el vector (1,0,...,0) T, y la Norma Euclídea, v es un vector unitario perpendicular al plano de reflexión elegido. Q es una matriz de Householder asociada a dicho plano. Esta propiedad se puede usar para transformar gradualmente los vectores columna de una matriz A de dimensiones m por n en una matriz triangular superior. En primer lugar se multiplica A por la matriz de Householder Q 1 que obtenemos al elegir como vector la primera columna de la matriz. Esto proporciona una matriz QA con ceros en la primera columna (excepto el elemento de la primera fila). 92

5 El procedimiento se puede repetir para A (que se obtiene de A eliminando la primera fila y la primera columna), obteniendo así una matriz de Householder Q 2. Hay que tener en cuenta que Q 2 es menor que Q 1. Para conseguir que esta matriz opere con Q 1 A en lugar de A es necesario expandirla hacia arriba a la izquierda, completando con un uno en la diagonal, o en general: Tras repetir el proceso t veces, donde t = min(m 1,n), es una matriz triangular superior. De forma que tomando A = QR es una descomposición QR de la matriz A. Este método tiene una estabilidad numérica mayor que la del método de Gram-Schmidt descrito arriba. Una pequeña variación de este método se utiliza para obtener matrices semejantes con forma de Hessenberg, muy útiles en el cálculo de autovalores por acelerar la convergencia del algoritmo QR reduciendo así enormemente su coste computacional. En general, este método es el más usado. Tiene una complejidad del orden O(n 3 ), pero es el que ofrece mejores resultados. Sin embargo no aprovecha las particularidades de las matrices dispersas y en especial su modo de almacenamiento. b. CONCLUSIÓN Desde el punto de vista de la programación, el desarrollo de un Solver basado sobre alguno de los métodos directos descritos resultaría en la adaptación a CUDA de algunas de las rutinas de la biblioteca LAPACK como por ejemplo SGEQRF, SORGQR, SORMQR y STRTRS (en la versión de precisión simple), incluyendo todas sus dependencias en LAPACK y las dependencias de éstas con las rutinas BLAS. 93

6 Como se ha expuesto anteriormente, CUBLAS, al ser la versión BLAS adaptada a CUDA, proporciona los bloques necesarios para la construcción de las rutinas de LAPACK. Sin embargo, hay que recordar que las rutinas LAPACK están escritas en FORTRAN. La labor en ese sentido consistiría en identificar hacia atrás todas las rutinas LAPACK necesarias para el método directo y sus dependencias. Y a partir de ahí codificar hacia delante a partir de CUBLAS las rutinas necesarias en C CUDA. Este trabajo no se consideró apropiado para los fines del proyecto. Especialmente porque aparte de la enorme y exigente tarea de adaptación, se obtendría un SOLVER indicado para sistemas Densos y no para Dispersos como es nuestro caso. 2. MÉTODOS ITERATIVOS Un método iterativo trata de resolver un problema (como una ecuación o un sistema de ecuaciones) mediante aproximaciones sucesivas a la solución, empezando desde una estimación inicial. Esta aproximación contrasta con los métodos directos, que tratan de resolver el problema de una sola vez (como resolver un sistema de ecuaciones Ax=b encontrando la inversa de la matriz A). Los métodos iterativos son útiles para resolver problemas que involucran un número grande de variables (a veces del orden de millones), donde los métodos directos tendrían un coste prohibitivo incluso con la potencia del mejor computador disponible. Estos métodos se caracterizan por fundamentarse en la existencia de Puntos fijos atractivos, tal que si una ecuación puede ponerse en la forma f(x) = x, y una solución x es un punto fijo atractivo de la función f, entonces se puede empezar con un punto x 1 en la base de atracción de x, y haciendo x n+1 =f(x n ) para n 1, entonces la secuencia {x n } para n 1 convergerá a la solución x. En el caso de un sistema lineal de ecuaciones, las dos clases principales de métodos iterativos son los métodos iterativos estacionarios y los más generales métodos del subespacio de Krylov. Los métodos iterativos estacionarios resuelven un sistema lineal con un operador que se aproxima al original; y basándose en la medida de error (el residuo), desde una ecuación de corrección para la que se repite este proceso. Mientras que estos métodos son sencillos de derivar, implementar y analizar, la convergencia normalmente sólo está garantizada para una clase limitada de matrices. Los métodos del subespacio de Krylov forman una base ortogonal de la secuencia de potencias de la matriz por el residuo inicial (la secuencia de Krylov). Las aproximaciones a la solución se forman minimizando el residuo en el subespacio formado. El método más representativo de esta clase es el método de gradiente conjugado. Otros métodos son el método del residuo mínimo generalizado (GMRES) y el método del gradiente biconjugado. 94

7 Dado que estos métodos forman una base, el método converge en N iteraciones, donde N es el tamaño del sistema. Sin embargo, en la presencia de errores de redondeo esta afirmación no se sostiene; además, en la práctica N puede ser muy grande, y el proceso iterativo alcanza una precisión suficiente mucho antes. El análisis de estos métodos es difícil, dependiendo de lo complicada que sea la función del espectro del operador. Para acelerar dicha convergencia se puede recurrir al uso de precondicionadores. De hecho el operador aproximativo que aparece en los métodos iterativos estacionarios puede incorporarse también en los métodos del subespacio de Krylov, donde pasan de ser transformaciones del operador original a un operador mejor condicionado. La construcción de precondicionadores es un área de investigación muy extensa. Un precondicionador P de una matriz A es una matriz tal que P 1 A tiene un número de condicionamiento bajo. Los precondicionadores son útiles cuando se utiliza un método iterativo para resolver un sistema lineal grande de matriz dispersa (sparse) del tipo: En lugar de resolver el sistema lineal anterior se puede resolver el sistema precondicionado por la izquierda A través de la solución de estos dos o precondicionando el sistema por la derecha A través de la solución de estos dos Estos son equivalentes al sistema original siempre que la matriz P sea no singular. Básicamente todos los métodos se basan en el mismo principio: se construye un sistema de vectores x k que convergen hacia x. Se calculan sucesivamente los términos de la sucesión a partir de una solución de partida x 0, usando una función x k+1 =f(x k,a,b) y paramos cuando el error B-Ax k es suficientemente pequeño, cuando se llega a un número límite de iteraciones, o bien cuando el error alcanza un límite y deja de disminuir. 95

8 a. MÉTODOS ITERATIVOS ESTACIONARIOS Existen varios métodos de los cuales describimos los siguientes, por ser los más apropiados para el proyecto: - Método de Gauss- Seidel En análisis numérico el método de Gauss-Seidel es un método iterativo utilizado para resolver sistemas de ecuaciones lineales. El método se llama así en honor a los matemáticos alemanes Carl Friedrich Gauss y Philipp Ludwig von Seidel y es similar al método de Jacobi. Es un método iterativo, lo que significa es que para encontrar la solución a un sistema de ecuaciones lineales, en notación matricial:, se parte de una aproximación inicial y se repite el proceso hasta llegar a una solución con un margen de error tan pequeño como se desee. De hecho el método de iteración Gauss-Seidel parte de: donde Y para i=j, o para. Si definimos:, y. Considerando el sistema Ax=b, con la condición de que, i= 1,..., n. Entonces podemos escribir la fórmula de iteración del método i=1,...,n(*), para La diferencia entre este método y el de Jacobi es que, en este último, las mejoras a las aproximaciones no se utilizan hasta completar las iteraciones. 96

9 Convergencia Teorema: Supongamos que cumple la condición de es una matriz no singular que ó. Entonces el método de Gauss-Seidel converge a una solución del sistema de ecuaciones Ax=b, y la convergencia es por lo menos tan rápida como la convergencia del método de Jacobi. Para ver los casos en que converge el método, primero mostraremos que se puede escribir de la siguiente forma: (**) (El término es la aproximación obtenida después de la k-ésima iteración) este modo de escribir la iteración es la forma general de un método iterativo estacionario. Ante todo debemos demostrar que el problema lineal que queremos resolver se puede representar en la forma (**), por este motivo debemos tratar de escribir la matriz A como la suma de una matriz triangular inferior, una diagonal y una triangular superior A=D(L+I+U), D=diag( ). Haciendo las operaciones necesarias escribimos el método de esta forma por lo tanto B=-(L+I) -1 U. Ahora podemos ver que la relación entre los errores, que se pueden calcular al restar x=bx+c de (**) es: Supongamos ahora que, i= 1,..., n, son los valores propios que corresponden a los vectores propios u i, i= 1,..., n, los cuales son linealmente independientes, entonces podemos escribir el error inicial (***) Por lo tanto la iteración converge si y sólo si λi <1, para i= 1,..., n. De este hecho se desprende el siguiente teorema: 97

10 Teorema: Una condición suficiente y necesaria para que un método iterativo estacionario converja para una aproximación arbitraria x (0) es que donde ρ(b) es el radio espectral de B. Explicación Se elige una aproximación inicial para.y se calculan las matrices M y el vector C con las fórmulas mencionadas. El proceso se repite hasta que x k sea lo suficientemente cercano a x k 1, donde k representa el número de pasos en la iteración. Algoritmo El método de Gauss-Seidel se puede escribir en forma de algoritmo de la siguiente manera: Algoritmo Método de Gauss-Seidel función Gauss-Seidel (A, x 0 ) //x 0 para es una aproximación inicial a la solución// hasta convergencia hacer para hasta hacer para hasta hacer si entonces fin para σ = σ + a ij x j fin para fin para comprobar si se alcanza convergencia 98

11 - Método de Jacobi En análisis numérico el método de Jacobi es un método iterativo, usado para resolver sistemas de ecuaciones lineales del tipo Ax = b. El algoritmo toma su nombre del matemático alemán Carl Gustav Jakob Jacobi. Descripción La base del método consiste en construir una sucesión convergente definida iterativamente. El límite de esta sucesión es precisamente la solución del sistema. A efectos prácticos si el algoritmo se detiene después de un número finito de pasos se llega a una aproximación al valor de x de la solución del sistema. La sucesión se construye descomponiendo la matriz del sistema forma siguiente: en la donde, es una matriz diagonal., es una matriz triangular inferior., es una matriz triangular superior. Partiendo de, podemos reescribir dicha ecuación como: Luego, Si a ii 0 para cada i. Por la regla iterativa, la definición del Método de Jacobi puede ser expresado de la forma: donde k es el contador de iteración, Finalmente tenemos: (k+1) Cabe destacar que al calcular x i se necesitan todos los elementos en x (k), excepto el que tenga el mismo i. Por eso, al contrario que en el (k) método Gauss-Seidel, no se puede sobreescribir x i con x i (k+1), ya que su valor será necesario para el resto de los cálculos. Esta es la diferencia más significativa entre los métodos de Jacobi y Gauss-Seidel. La cantidad mínima de almacenamiento es de dos vectores de dimensión n, y será necesario realizar una copia explícita. 99

12 Convergencia El método de Jacobi siempre converge si la matriz A es estrictamente diagonal dominante y puede converger incluso si esta condición no se satisface. Es necesario, sin embargo, que los elementos de la diagonal en la matriz sean mayores (en magnitud) que los otros elementos. Algoritmo El método de Jacobi se puede escribir en forma de algoritmo de la siguiente manera: Algoritmo Método de Jacobi función Jacobi (A, x 0 ) //x 0 para es una aproximación inicial a la solución// hasta convergencia hacer para hasta hacer para hasta hacer si entonces fin para fin para fin para comprobar si se alcanza convergencia b. MÉTODOS DEL SUBESPACIO DE KRYLOV Por su importancia describiremos los más importantes. Partiendo del método del gradiente conjugado que es el método básico, y concluiremos con su evolución en el método del gradiente bi-conjugado estabilizado. 100

13 Método del gradiente conjugado El método del gradiente conjugado es un algoritmo para resolver numéricamente los sistemas de ecuaciones lineales cuyas matrices son simétricas y definidas positivas. Es un método iterativo, así que se puede aplicar a los sistemas dispersos que son demasiado grandes para ser tratados por métodos directos como la descomposición de Cholesky. Tales sistemas surgen frecuentemente cuando se resuelve numéricamente las ecuaciones en derivadas parciales. El método del gradiente conjugado se puede utilizar también para resolver los problemas de optimización sin restricciones como la minimización de la energía. El método del gradiente bi-conjugado proporciona una generalización para matrices no simétricas. Varios métodos del gradiente conjugado no lineales buscan los mínimos de las ecuaciones no lineales. Descripción del método Supongamos que queremos resolver el siguiente sistema de ecuaciones lineales: Ax = b donde la matriz A, de dimensiones NxN, es simétrica (es decir, A T = A), definida positiva (es decir, x T Ax > 0 para todos los vectores no nulo x en R n ), y real. Denotamos la única solución de este sistema por x *. Decimos que dos vectores no nulos u y v son conjugados (con respecto a A) si Ya que A es simétrica y definida positiva, el lado izquierdo define un producto interior Así, dos vectores son conjugados si son ortogonales con respecto a este producto interior. La conjugación es una relación simétrica: si u es conjugado a v, entonces v es conjugado a u. (Esta noción de conjugación no se relaciona con la de conjugación compleja.) Supongamos que {p k } es una secuencia de n direcciones mutuamente conjugadas. Entonces los p k forman una base de R n, por lo tanto podemos extender la solución x * de Ax = b en esta base: 101

14 Los coeficientes se obtienen mediante: Este resultado es quizás más obvio si se considera el producto interior definido anteriormente. Esto da el siguiente método para resolver la ecuación Ax=b. Primero encontramos una secuencia de n direcciones conjugadas y luego calculamos los coeficientes α k. 102

15 Para acelerar la convergencia del método se usa el llamado Método del Gradiente Conjugado Precondicionado que Tiene la siguiente forma: Algoritmo Método del Gradiente Conjugado Precondicionado repetir if r k+1 es suficientemente pequeño entonces salir del bucle end if end repetir El resultado es x k+1 En el algoritmo anterior, M es el precondicionador y debe ser una matriz simétrica y definida positiva. Sería similar a aplicar el método de gradiente conjugado al sistema: Donde y. Para la versión no precondicionada, basta reemplazar M por la matriz Identidad e identificar los vectores z y r. De hecho se eliminan los pasos donde aparece la instrucción z=m -1 r. 103

16 Método del gradiente biconjugado: A diferencia del método del gradiente conjugado no necesita que la matriz A sea adjunta, sin embargo se deben realizar multiplicaciones por la matriz conjugada transpuesta. Algoritmo gradiente biconjugado: 1. Se elige una solución de partida, dos vectores adicionales y y un precondicionador M para realizar { a. b. c. d. e. f. g. h. } En el algoritmo los vectores y deben cumplir y y por tanto son los residuos correspondientes a y, que son las soluciones aproximadas del sistema: Ax=b y x * A=b *. 104

17 Método del gradiente bi-conjugado estabilizado El método del gradiente bi-conjugado estabilizado, generalmente abreviado como BiCGSTAB (del inglés «biconjugate gradient stabilized method»), es un método iterativo propuesto por H. A. van der Vorst para la resolución numérica de los sistemas de ecuaciones lineales no simétricos. Es una variante del método del gradiente bi-conjugado (BiCG) y ofrece convergencia más rápida y suave que el original BiCG así como otras variantes como el método del gradiente conjugado cuadrado (CGS). Es un método del subespacio de Krylov. Algoritmo BiCGSTAB sin precondicionamiento Para resolver el sistema, el BiCGSTAB comienza con una aproximación inicial y procede como sigue: Se elige un vector arbitrario tal que, por ejemplo, a. Para { b. c. d. e. f. g. h. i. j. k. Termina si es lo suficientemente preciso l. } 105

18 También existe la versión de BiCGSTAB precondicionado Generalmente se utilizan los precondicionadores para acelerar la convergencia de los métodos iterativos. Para resolver el sistema con un precondicionador precondicionado comienza con una aproximación inicial sigue: 1., el BiCGSTAB y procede como 2. Elige un vector arbitrario tal que, por ejemplo, Para a. b. c. d. e. f. g. h. i. j. k. l. Termina si es lo suficientemente preciso m. 106

19 Esta formulación es equivalente a aplicar el BiCGSTAB sin precondicionamiento al sistema explícitamente precondicionado:. con,,. En otras palabras; el precondicionamiento a ambos lados, tanto a la izquierda como a la derecha es posible en esta formulación. 3. CONCLUSIÓN: Atendiendo a los criterios de selección enunciados al principio de éste apartado y en especial al hecho de que desarrollamos un SOLVER para matrices dispersas se optó por realizar un desarrollo basado en los métodos basados en los subespacios de Krylov, en concreto en los métodos del Gradiente Conjugado (CG) y el Gradiente Bi-Conjugado Estabilizado ambos no precondicionados. Aunque para las etapas de desarrollo y pruebas también se probaron alternativas con precondicionador. Esta opción está indicada en los casos de matrices dispersas aunque su exactitud es menor que la de los métodos directos. 107

Clase. 1. Resolución de sistemas de ecuaciones lineales: preliminares

Clase. 1. Resolución de sistemas de ecuaciones lineales: preliminares Clase 1. Resolución de sistemas de ecuaciones lineales: preliminares 2. Método directo y exacto: Gauss 3. Método directo y exacto (II): descomposición LU 4. Métodos indirectos: Jacobi, Gauss-Seidel 2 Sistemas

Más detalles

Resolución de sistemas de ecuaciones lineales

Resolución de sistemas de ecuaciones lineales Tema 2 Resolución de sistemas de ecuaciones lineales 21 Métodos directos de resolución de sistemas de ecuaciones lineales 211 Resolución de sistemas triangulares Definición 211 Una matriz A se dice triangular

Más detalles

I. Métodos directos para resolución de SEL. Se dice que una matriz A admite una factorización LU indirecta A = LU

I. Métodos directos para resolución de SEL. Se dice que una matriz A admite una factorización LU indirecta A = LU I. Métodos directos para resolución de SEL 1. Factorización LU Se dice que una matriz A admite una factorización LU si dicha matriz puede escribirse como el producto de una matriz triangular inferior,

Más detalles

ALN - Curso 2007 Gradiente Conjugado

ALN - Curso 2007 Gradiente Conjugado ALN - Curso 27 Gradiente Conjugado Cecilia González Pérez Junio 27 Métodos Iterativos Pueden ser: Métodos estacionarios Métodos no estacionarios Métodos no estacionarios hacen uso de información, evaluada

Más detalles

Clase No. 13: Factorización QR MAT 251. Joaquín Peña (CIMAT) Métodos Numéricos (MAT 251) / 16

Clase No. 13: Factorización QR MAT 251. Joaquín Peña (CIMAT) Métodos Numéricos (MAT 251) / 16 Clase No 13: Factorización QR MAT 251 Joaquín Peña (CIMAT) Métodos Numéricos (MAT 251) 03102011 1 / 16 Factorización QR Sea A R m n con m n La factorización QR de A es A = QR = [Q 1 Q 2 ] R1 = Q 0 1 R

Más detalles

Resolución numérica de sistemas de ecuaciones. Introducción

Resolución numérica de sistemas de ecuaciones. Introducción Resolución numérica de sistemas de ecuaciones. Introducción Laboratori de Càlcul Numèric (LaCàN) Departament de Matemàtica Aplicada III Universitat Politècnica de Catalunya (Spain) http://www-lacan.upc.es

Más detalles

Dr. Alonso Ramírez Manzanares Depto. de Matemáticas Univ. de Guanajuato cimat.mx web:

Dr. Alonso Ramírez Manzanares Depto. de Matemáticas Univ. de Guanajuato   cimat.mx web: Clase No 12: MAT 251 Factorización QR Dr Alonso Ramírez Manzanares Depto de Matemáticas Univ de Guanajuato e-mail: alram@ cimatmx web: http://wwwcimatmx/alram/met_num/ Dr Joaquín Peña Acevedo CIMAT AC

Más detalles

Factorización QR Método iterativo de Jacobi

Factorización QR Método iterativo de Jacobi Clase No. 13: MAT 251 Factorización QR Método iterativo de Jacobi Dr. Alonso Ramírez Manzanares CIMAT A.C. e-mail: alram@ cimat.mx web: http://www.cimat.mx/ alram/met_num/ Dr. Joaquín Peña Acevedo CIMAT

Más detalles

Resolución numérica de sistemas de ecuaciones. Introducción

Resolución numérica de sistemas de ecuaciones. Introducción Motivación La cercha de la figura se carga con una fuerza uniforme repartida sobre el cordón superior Resolución numérica de sistemas de ecuaciones. Introducción El planteamiento del problema conduce a

Más detalles

a) Plantear un sistema de ecuaciones para calcular los coeficientes de f y resolverlo usando la descomposición LU de la matriz del sistema.

a) Plantear un sistema de ecuaciones para calcular los coeficientes de f y resolverlo usando la descomposición LU de la matriz del sistema. E.T.S. de Álgebra Numérica 30 de junio de 2006 Se quiere encontrar una función de la forma f(x) = ax 3 + bx + c que pase por los puntos (1, 4), ( 2, 23) y (2, 21). a) Plantear un sistema de ecuaciones

Más detalles

2. Sistemas de ecuaciones lineales

2. Sistemas de ecuaciones lineales 2 Sistemas de ecuaciones lineales 2 Ejercicios resueltos Ejercicio 2 Estudiar el número de condición de Frobenius de la matriz a b A a + ε b Solución: El determinante de A es A ab + ba + ε b ε Si b 0 y

Más detalles

El método de la potencia para el cálculo del autovalor dominante de una matriz se basa en el siguiente teorema.

El método de la potencia para el cálculo del autovalor dominante de una matriz se basa en el siguiente teorema. Práctica 8 Cálculo de autovalores 8.1. Método de la potencia El método de la potencia para el cálculo del autovalor dominante de una matriz se basa en el siguiente teorema. Teorema 8.1.1 (M. de la potencia]

Más detalles

Métodos de factorización para resolver sistemas de ecuaciones lineales. 22 de agosto, 2012

Métodos de factorización para resolver sistemas de ecuaciones lineales. 22 de agosto, 2012 Cálculo numérico Métodos de factorización para resolver sistemas de ecuaciones lineales 22 de agosto, 2012 1 Factorización LU Considera el siguiente ejemplo de factorización LU de una matriz en un sistema

Más detalles

Unidad 5 Problemas de álgebra lineal numérica.

Unidad 5 Problemas de álgebra lineal numérica. Unidad 5 Problemas de álgebra lineal numérica. Eliminación gaussiana. Factorización LU. Sea Ax = b un sistema de n ecuaciones lineales con n incógnitas, donde A es una matriz cuadrada de orden n no singular

Más detalles

Elementos de Cálculo Numérico

Elementos de Cálculo Numérico Universidad de Buenos Aires - Facultad de Ciencias Exactas y Naturales - Depto. de Matemática Elementos de Cálculo Numérico Primer cuatrimestre 2006 Práctica N 2: Condicionamiento de una matriz. Descomposición

Más detalles

Parte 4. Métodos iterativos para la resolución de sistemas de ecuaciones lineales

Parte 4. Métodos iterativos para la resolución de sistemas de ecuaciones lineales Parte 4. Métodos iterativos para la resolución de sistemas de ecuaciones lineales Gustavo Montero Escuela Técnica Superior de Ingenieros Industriales Universidad de Las Palmas de Gran Canaria Curso 2006-2007

Más detalles

3. Sistemas inconsistentes y sistemas indeterminados

3. Sistemas inconsistentes y sistemas indeterminados . Sistemas inconsistentes sistemas indeterminados. Ejercicios resueltos Ejercicio. Dado el sistema: 4x + 5 x + 5 a Realizar la factorización QR de la matriz, resolverlo basándose en ella a. Mediante el

Más detalles

Cálculo Numérico. Curso Ejercicios: Preliminares I

Cálculo Numérico. Curso Ejercicios: Preliminares I Cálculo Numérico. Curso 07-08. Ejercicios: Preliminares I 1. (a) Compruebe que la inversa de una matriz, L, triangular inferior de orden n puede calcularse como sigue: Para j = 1,,..., n e i = j, j + 1,...,

Más detalles

Cálculo de autovalores

Cálculo de autovalores Cálculo de autovalores Damián Ginestar Peiró Departamento de Matemática Aplicada Universidad Politécnica de Valencia Curso 2011-2012 (UPV) Cálculo de autovalores Curso 2011-2012 1 / 28 Índice 1 Preliminares

Más detalles

Matrices ortogonales y descomposición QR

Matrices ortogonales y descomposición QR Matrices ortogonales y descomposición QR Problemas para examen Agradezco a Aldo Iván Leal García por varias correcciones importantes. Invertibilidad por la izquierda y por la derecha (repaso) 1. Conceptos

Más detalles

CURSO DE METODOS NUMERICOS Año Académico Curso Tercero de Matemáticas EXAMEN FINAL FEBRERO

CURSO DE METODOS NUMERICOS Año Académico Curso Tercero de Matemáticas EXAMEN FINAL FEBRERO Año Académico 2000-2001 Curso Tercero de Matemáticas EXAMEN FINAL FEBRERO 1. Dá el enunciado y demuestra el teorema de convergencia del método del punto fijo. (2 puntos) 2. Resuelve el siguiente sistema

Más detalles

Descomposición QR. Problemas para examen. Agradezco a Aldo Iván Leal García por varias correcciones importantes.

Descomposición QR. Problemas para examen. Agradezco a Aldo Iván Leal García por varias correcciones importantes. Descomposición QR Problemas para examen Agradezco a Aldo Iván Leal García por varias correcciones importantes. Reflexión de Householder (repaso) 1. Reflexión ortogonal respecto a un hipersubespacio (repaso).

Más detalles

Método de diferencias finitas para ecuaciones diferenciales parciales elípticas. (Parte II)

Método de diferencias finitas para ecuaciones diferenciales parciales elípticas. (Parte II) Método de diferencias finitas para ecuaciones diferenciales parciales elípticas (Parte II) Métodos numéricos para sistemas lineales Solución numérica de EDPs requiere resolver sistemas de ecuaciones lineales

Más detalles

1.IV Aproximación numérica de valores y vectores propios.

1.IV Aproximación numérica de valores y vectores propios. .IV Aproximación numérica de valores y vectores propios. Manuel Palacios Departamento de Matemática Aplicada Centro Politécnico Superior. Universidad de Zaragoza Primavera 2007 Contents Introducción 2

Más detalles

Sistema de ecuaciones lineales

Sistema de ecuaciones lineales 1 El sistema de ecuaciones lineales Sistema de ecuaciones lineales puede ser escrito en forma matricial como, donde: es llamada matriz de los coeficientes (reales) del sistema es el vector de las incógnitas

Más detalles

Métodos iterativos de solución de SEL

Métodos iterativos de solución de SEL Métodos iterativos de solución de SEL Método de Gauss-Seidel MAT-251 Dr. Depto. de Matemáticas Univ. de Guanajuato e-mail: alram@cimat.mx web: http://www.cimat.mx/~alram/met_num/ Dr. Joaquín Peña Acevedo

Más detalles

Al considerar varios polígonos regulares inscritos resulta: perímetro del cuadrado < π. perímetro del 96 gono < π

Al considerar varios polígonos regulares inscritos resulta: perímetro del cuadrado < π. perímetro del 96 gono < π AMPLIACIÓN DE MATEMÁTICAS INTRODUCCIÓN Método Constructivo: Conjunto de instrucciones que permiten calcular la solución de un problema, bien en un número finito de pasos, bien en un proceso de paso al

Más detalles

METODOS ITERATIVOS. Hermes Pantoja Carhuavilca. Facultad de Ingeniería Mecanica Universidad Nacional de Ingenieria

METODOS ITERATIVOS. Hermes Pantoja Carhuavilca. Facultad de Ingeniería Mecanica Universidad Nacional de Ingenieria Facultad de Ingeniería Mecanica Universidad Nacional de Ingenieria Métodos Numéricos Contenido 1 Métodos Iterativos Introducción Definición Métodos Iterativos Método de Jacobi Convergencia Método de Gauss

Más detalles

Elementos de Cálculo Numérico / Cálculo Numérico Segundo Cuatrimestre 2017

Elementos de Cálculo Numérico / Cálculo Numérico Segundo Cuatrimestre 2017 Universidad de Buenos Aires - Facultad de Ciencias Exactas y Naturales - Depto. de Matemática Elementos de Cálculo Numérico / Cálculo Numérico Segundo Cuatrimestre 207 Práctica N : Número de condición.

Más detalles

OCW-V.Muto Los métodos de transformación ortogonal. Cap. XX CAPITULO XX. LOS METODOS DE TRANSFORMACION ORTOGONAL

OCW-V.Muto Los métodos de transformación ortogonal. Cap. XX CAPITULO XX. LOS METODOS DE TRANSFORMACION ORTOGONAL CAPITULO XX. LOS METODOS DE TRANSFORMACION ORTOGONAL 1. LAS TRANSFORMACIONES DE HOUSEHOLDER Debido a las posibles dificultades numéricas del uso de las ecuaciones normales, los modernos métodos de mínimos

Más detalles

Métodos numéricos para sistemas de ecuaciones. (Prácticas)

Métodos numéricos para sistemas de ecuaciones. (Prácticas) Métodos numéricos para sistemas de ecuaciones (Prácticas) Métodos iterativos UNIVERSIDAD POLITÉCNICA DE VALENCIA 1 Índice general 3. Métodos iterativos 3 3.1. Métodos iterativos básicos....................

Más detalles

Sistemas de Ecuaciones Lineales

Sistemas de Ecuaciones Lineales Sistemas de Ecuaciones Lineales José Vicente Romero Bauset ETSIT-curso 2009/200 José Vicente Romero Bauset Tema 2.- Sistemas de Ecuaciones Lineales Sistema de ecuaciones lineales Un sistema de ecuaciones

Más detalles

ALN - SVD. In. Co. Facultad de Ingeniería Universidad de la República

ALN - SVD. In. Co. Facultad de Ingeniería Universidad de la República ALN - SVD In. Co. Facultad de Ingeniería Universidad de la República Índice Definición Propiedades de SVD Ejemplo de SVD Métodos para calcular SVD Aplicaciones de SVD Repaso de matrices: m xm Una matriz

Más detalles

Problemas Ampliación de Matemáticas. Sistemas lineales 1.- Encontrar la factorización L U de las siguientes matrices:

Problemas Ampliación de Matemáticas. Sistemas lineales 1.- Encontrar la factorización L U de las siguientes matrices: Problemas Ampliación de Matemáticas. Sistemas lineales 1.- Encontrar la factorización L U de las siguientes matrices: 5 2 1 1 0 3 1 0 3 3 1 6. 3 1 6 5 2 1 2.- Dada la matriz A = 10 7 8 7 5 6, 8 6 10 hallar

Más detalles

GRADIENTE CONJUGADO. May 15, 2018 DWIN ANCIZAR DIAZ ZAPATA (UNIVERSIDAD NACIONAL GRADIENTE DECONJUGADO COLOMBIA )

GRADIENTE CONJUGADO. May 15, 2018 DWIN ANCIZAR DIAZ ZAPATA (UNIVERSIDAD NACIONAL GRADIENTE DECONJUGADO COLOMBIA ) GRADIENTE CONJUGADO EDWIN ANCIZAR DIAZ ZAPATA UNIVERSIDAD NACIONAL DE COLOMBIA May 15, 2018 May 15, 2018 1 / 37 A definida positiva x t Ax > 0 x 0 Definamos producto interno x, y A = x t Ay x es un vector

Más detalles

Análisis Numérico para Ingeniería. Clase Nro. 6

Análisis Numérico para Ingeniería. Clase Nro. 6 Análisis Numérico para Ingeniería Clase Nro. 6 Sistemas de Ecuaciones Lineales Temas a tratar: Normas Vectoriales y Matriciales. Análisis de Sensibilidad de Sistemas Lineales. Número de Condición. Estimación

Más detalles

Resolución de Sistema de Ecuaciones Lineales

Resolución de Sistema de Ecuaciones Lineales Resolución de Sistema de Ecuaciones Lineales Hermes Pantoja Carhuavilca Facultad de Ingeniería Industrial Universidad Nacional Mayor de San Marcos Métodos Computacionales Hermes Pantoja Carhuavilca 1 de

Más detalles

Métodos de Krylov. Damián Ginestar Peiró. Departamento de Matemática Aplicada Universidad Politécnica de Valencia. Curso

Métodos de Krylov. Damián Ginestar Peiró. Departamento de Matemática Aplicada Universidad Politécnica de Valencia. Curso Métodos de Krylov Damián Ginestar Peiró Departamento de Matemática Aplicada Universidad Politécnica de Valencia Curso 2013-2014 (UPV) Métodos de Krylov Curso 2013-2014 1 / 57 Índice 1 Introducción 2 Matrices

Más detalles

6.8. Descomposición mediante valores singulares. v 2 =

6.8. Descomposición mediante valores singulares. v 2 = 68 Descomposición mediante valores singulares Los valores singulares de una matriz m n Supongamos que A es una matriz real cualquiera Los autovalores de A T A tienen la siguiente propiedad A T Ax = λx

Más detalles

Métodos iterativos de solución de SEL

Métodos iterativos de solución de SEL Métodos iterativos de solución de SEL Método de Gauss-Seidel MAT-251 Dr. CIMAT A.C. e-mail: alram@cimat.mx web: http://www.cimat.mx/~alram/met_num/ Dr. Joaquín Peña Acevedo CIMAT A.C. e-mail: joaquin@cimat.mx

Más detalles

Métodos Numéricos: ecuaciones lineales Eduardo P. Serrano

Métodos Numéricos: ecuaciones lineales Eduardo P. Serrano Métodos Numéricos: ecuaciones lineales Eduardo P. Serrano Versión previa Feb 2012 1. Ecuaciones lineales. El álgebra lineal numérica aborda principalmente dos problemas: - El análisis y resolución de sistemas

Más detalles

Espacios Vectoriales Euclídeos. Métodos de los mínimos cuadrados

Espacios Vectoriales Euclídeos. Métodos de los mínimos cuadrados Capítulo 5 Espacios Vectoriales Euclídeos. Métodos de los mínimos cuadrados En este tema iniciamos el estudio de los conceptos geométricos de distancia y perpendicularidad en K n. Empezaremos con las definiciones

Más detalles

Gustavo Rodríguez Gómez. Agosto Dicembre 2011

Gustavo Rodríguez Gómez. Agosto Dicembre 2011 Computación Científica Gustavo Rodríguez Gómez INAOE Agosto Dicembre 2011 1 / 44 Capítulo III Descomposición de Matrices 2 / 44 1 Descomposición de Matrices Notación Matrices Operaciones con Matrices 2

Más detalles

SISTEMA DE ECUACIONES LINEALES Y NO LINEALES

SISTEMA DE ECUACIONES LINEALES Y NO LINEALES TEMA N o SISTEMA DE ECUACIONES LINEALES Y NO LINEALES SISTEMA DE ECUACIONES LINEALES Los metodos de resolucion de sistemas de ecuaciones lineales se dividen en dos grupos: a) MÉTODOS EXACTOS. Son algoritmos

Más detalles

MÉTODO DE DIFERENCIAS FINITAS (FDM)

MÉTODO DE DIFERENCIAS FINITAS (FDM) MÉTODO DE DIFERENCIAS FINITAS (FDM) MÉTODO DE DIFERENCIAS FINITAS (FDM) Cambia ecuaciones diferenciales ecuaciones en diferencias finitas a Relaciona el valor de la variable dependiente en un punto a valores

Más detalles

MA4301 ANÁLISIS NUMÉRICO Nombre en Inglés NUMERICAL ANALYSIS

MA4301 ANÁLISIS NUMÉRICO Nombre en Inglés NUMERICAL ANALYSIS PROGRAMA DE CURSO Código Nombre MA4301 ANÁLISIS NUMÉRICO Nombre en Inglés NUMERICAL ANALYSIS SCT es Docentes Horas de Cátedra Horas Docencia Auxiliar Horas de Trabajo Personal 6 10 3 5 Requisitos Carácter

Más detalles

Prerrequisitos de la asignatura Álgebra Lineal Numérica

Prerrequisitos de la asignatura Álgebra Lineal Numérica Prerrequisitos de la asignatura Álgebra Lineal Numérica El propósito de Álgebra Lineal Numérica es analizar algoritmos típicos de álgebra lineal, optimizando la rapidez y la precisión. Para analizar la

Más detalles

ITERATIVOS Y DIRECTOS PARA SISTEMAS LINEALES. Ayudante: Rodrigo Torres Aguirre Ejercicios:

ITERATIVOS Y DIRECTOS PARA SISTEMAS LINEALES. Ayudante: Rodrigo Torres Aguirre Ejercicios: Universidad de Santiago de Chile Facultad de Ciencia Departamento de Matemática y Ciencias de la Computación MÉTODOS ITERATIVOS Y DIRECTOS PARA SISTEMAS LINEALES Profesor: Jaime Álvarez Maldonado Ayudante:

Más detalles

Elementos de Cálculo Numérico (M) - Cálculo Numérico

Elementos de Cálculo Numérico (M) - Cálculo Numérico Universidad de Buenos Aires - Facultad de Ciencias Exactas y Naturales - Depto. de Matemática Elementos de Cálculo Numérico (M) - Cálculo Numérico Primer Cuatrimestre 204 Práctica N 2: Normas y Condicionamiento.

Más detalles

Clase 7 Herramientas de Álgebra Lineal

Clase 7 Herramientas de Álgebra Lineal Clase 7 Herramientas de Álgebra Lineal 1 Formas cuadráticas La descomposición en valores singulares 3 Normas de matrices 4 Ejercicios Dada una matriz M R n n, la función escalar x T Mx, donde x R n, es

Más detalles

OCW-V.Muto El problema de mínimos cuadrados. Cap. XIX CAPITULO XIX. EL PROBLEMA DE LOS MINIMOS CUADRADOS: PRELIMINARES

OCW-V.Muto El problema de mínimos cuadrados. Cap. XIX CAPITULO XIX. EL PROBLEMA DE LOS MINIMOS CUADRADOS: PRELIMINARES CAPITULO XIX. EL PROBLEMA DE LOS MINIMOS CUADRADOS: PRELIMINARES. SISTEMAS LINEALES DE ECUACIONES SOBREDETERMINADOS La discusión de los problemas algebráicos de la parte anterior se había centrado exclusivamente

Más detalles

Producto Escalar. AMD Grado en Ingeniería Informática. AMD Grado en Ingeniería Informática (UM) Producto Escalar 1 / 31

Producto Escalar. AMD Grado en Ingeniería Informática. AMD Grado en Ingeniería Informática (UM) Producto Escalar 1 / 31 Producto Escalar AMD Grado en Ingeniería Informática AMD Grado en Ingeniería Informática (UM) Producto Escalar 1 / 31 Objetivos Al finalizar este tema tendrás que: Saber usar el producto escalar. Calcular

Más detalles

METODOS NUMERICOS. Curso

METODOS NUMERICOS. Curso Boletín 1 de prácticas. 1. Localizar las raíces de la ecuación F (x) = 0, para los siguientes casos: (a) F (x) = x + e x. (b) F (x) = 0.5 x + 0.2 sen(x). (c) F (x) = x tg(x). (d) F (x) = x 5 3. (e) F (x)

Más detalles

Elementos de Cálculo Numérico / Cálculo Numérico Primer Cuatrimestre 2016

Elementos de Cálculo Numérico / Cálculo Numérico Primer Cuatrimestre 2016 Universidad de Buenos Aires - Facultad de Ciencias Exactas y Naturales - Depto. de Matemática Elementos de Cálculo Numérico / Cálculo Numérico Primer Cuatrimestre 206 Práctica N : Número de condición.

Más detalles

Resolverlo mediante el método de Gauss con aritmética exacta y sin pivoteo.

Resolverlo mediante el método de Gauss con aritmética exacta y sin pivoteo. Asignatura Cálculo Numérico Página de Sistemas Lineales lineales (Gauss con variantes y estudio iterativo) Examen Diciembre 000 Ejercicio. Dado el sistema lineal 4x+ y+ z = 9 x+ 4y z = 5, x+ y z = 9 (a)

Más detalles

Parte 2. Métodos directos para la resolución de sistemas de ecuaciones lineales

Parte 2. Métodos directos para la resolución de sistemas de ecuaciones lineales Parte 2. Métodos directos para la resolución de sistemas de ecuaciones lineales Gustavo Montero Escuela Técnica Superior de Ingenieros Industriales University of Las Palmas de Gran Canaria Curso 2006-2007

Más detalles

Inversas Aproximadas usando el producto escalar de Frobenius

Inversas Aproximadas usando el producto escalar de Frobenius Inversas Aproximadas usando el producto escalar de Frobenius E Flórez, MD García, L González, G Montero Instituto Universitario de Sistemas Inteligentes y Aplicaciones Numéricas en Ingeniería Universidad

Más detalles

Parte 3. Vectores y valores propios

Parte 3. Vectores y valores propios Parte 3. Vectores y valores propios Gustavo Montero Escuela Universitaria Politécnica Universidad de Las Palmas de Gran Canaria Curso 2004-2005 1 Introducción a los valores y vectores propios 2 3 4 5 Valores

Más detalles

Tema 1: Conceptos generales del Análisis Numérico

Tema 1: Conceptos generales del Análisis Numérico Tema 1: Conceptos generales del Análisis Numérico Asignatura: Cálculo Numérico I 1er. curso Grado en Matemáticas Anna Doubova Dpto. EDAN, Universidad de Sevilla 5 de febrero de 2018 A. Doubova (Dpto. EDAN)

Más detalles

(a) (0.5 puntos) Compruebe que esta ecuación tiene exactamente una solución en el intervalo

(a) (0.5 puntos) Compruebe que esta ecuación tiene exactamente una solución en el intervalo UNIVERSIDAD DIEGO PORTALES. FACULTAD DE INGENIERÍA. INSTITUTO DE CIENCIAS BÁSICAS. Cálculo Numérico, Control 1. Semestre Otoño 007 Problema 1. Se desea encontrar una raíz de la función f(x) = cos (x) x.

Más detalles

Métodos iterativos para resolver sistemas de ecuaciones lineales

Métodos iterativos para resolver sistemas de ecuaciones lineales Clase No. 8 (Parte 1): MAT 251 Métodos iterativos para resolver sistemas de ecuaciones lineales Dr. Alonso Ramírez Manzanares Depto. de Matemáticas Univ. de Guanajuato e-mail: alram@ cimat.mx web: http://www.cimat.mx/

Más detalles

Tareas de matrices especiales

Tareas de matrices especiales Tareas de matrices especiales Objetivos. Estudiar una clase especial de matrices. Para matrices de esta clase realizar un algoritmo rápido de multiplicación por vectores. Aplicar este algoritmo para resolver

Más detalles

Sistema de Ecuaciones Lineales - Métodos Iterativos -

Sistema de Ecuaciones Lineales - Métodos Iterativos - Sistema de Ecuaciones Lineales - Métodos Iterativos - Contenido Métodos Iterativos Método de Jacobi Método de Gauss-Seidel Fórmulas Recursivas Métodos Iterativos Los métodos iterativos son aquellos que

Más detalles

1.2 Valores y vectores propios. Método de las potencias y Rayleigh.

1.2 Valores y vectores propios. Método de las potencias y Rayleigh. 20 Prelininares. 1.2 Valores y vectores propios. Método de las potencias y Rayleigh. 1.2.1 Cálculo del Polinomio Caracterstico: ALGORITMO DE SOURIAU. ENTRADA: la matriz A 1 = A, p 1 = traza(a 1 ), n =

Más detalles

Deducción de las fórmulas del método del gradiente conjugado

Deducción de las fórmulas del método del gradiente conjugado Deducción de las fórmulas del método del gradiente conjugado Objetivos. Demostrar el teorema sobre los subespacios de Krylov en el método del gradiente conjugado. Requisitos. Subespacios generados por

Más detalles

Capítulo 5. Escalado Multidimensional 5.1. ESCALADO MÉTRICO

Capítulo 5. Escalado Multidimensional 5.1. ESCALADO MÉTRICO Capítulo 5 Escalado Multidimensional 5.1. ESCALADO MÉTRICO Dada una matriz de distancias D = (d ij ) o de disimilaridades = (δ ij ) entre n objetos, el escalado métrico consiste en encontrar las coordenadas

Más detalles

Parte 3. Vectores y valores propios

Parte 3. Vectores y valores propios Parte 3. Vectores y valores propios Gustavo Montero Escuela Universitaria Politécnica Universidad de Las Palmas de Gran Canaria Curso 2006-2007 Valores y vectores propios Valor propio Se dice que el número

Más detalles

Álgebra Lineal - Grado de Estadística. Examen final 27 de junio de 2014 APELLIDOS, NOMBRE:

Álgebra Lineal - Grado de Estadística. Examen final 27 de junio de 2014 APELLIDOS, NOMBRE: Álgebra Lineal - Grado de Estadística Examen final 7 de junio de 4 APELLIDOS, NOMBRE: DNI: irma Primer parcial Ejercicio Consideremos matrices A m m, B, C n n, Pruebe que bajo la hipótesis de que las inversas

Más detalles

Inversión de Matrices

Inversión de Matrices Inversión de Matrices Daniel Vaughan Es bien conocido que en diversas aplicaciones de contabilidad nacional, así como en otras áreas de la economía, es usual encontrarse con la inversión de matrices. Ejemplos

Más detalles

CONTENIDOS MATEMÁTICAS II SEGUNDA EVALUACIÓN CURSO 2017/2018 MATRICES

CONTENIDOS MATEMÁTICAS II SEGUNDA EVALUACIÓN CURSO 2017/2018 MATRICES CONTENIDOS MATEMÁTICAS II SEGUNDA EVALUACIÓN CURSO 2017/2018 Unidades: - Matrices (Bloque Álgebra) - Determinantes (Bloque Álgebra) - Sistemas de ecuaciones lineales (Bloque Álgebra) - Vectores (Bloque

Más detalles

Tema 1: Conceptos generales del Análisis

Tema 1: Conceptos generales del Análisis Tema 1: Conceptos generales del Análisis Numérico Cálculo Numérico I Anna Doubova y Blanca Climent Ezquerra Dpto. EDAN, Universidad de Sevilla 11 de febrero de 2018 A.Doubova y B. Climent Conceptos generales

Más detalles

SISTEMAS DE ECUACIONES

SISTEMAS DE ECUACIONES 16 de Mayo de 2013 SISTEMAS DE ECUACIONES Departamento de Matemática Aplicada Facultad de Ingeniería Universidad Central de Venezuela Cálculo Numérico José Luis Quintero 1 Puntos a tratar 1. Sistemas fáciles

Más detalles

Sistemas de ecuaciones lineales

Sistemas de ecuaciones lineales Chapter 2 Sistemas de ecuaciones lineales 2.1 Resolución de sistemas de ecuaciones lineales El problema que se pretende resolver en este capítulo es el de un sistema de m ecuaciones lineales con n incógnitas

Más detalles

Profesor Francisco R. Villatoro 13 de Diciembre de 1999 SOLUCIONES. 1. Una matriz A de n n es diagonalmente dominante (estrictamente) por filas si

Profesor Francisco R. Villatoro 13 de Diciembre de 1999 SOLUCIONES. 1. Una matriz A de n n es diagonalmente dominante (estrictamente) por filas si Cuarta relación de problemas Técnicas Numéricas Profesor Francisco R. Villatoro 13 de Diciembre de 1999 SOLUCIONES 1. Una matriz A de n n es diagonalmente dominante estrictamente por filas si a ii > a

Más detalles

W_ILU_GMRES. UNA ESTRATEGIA PARA SISTEMAS DE ECUACIONES LINEALES DENSOS

W_ILU_GMRES. UNA ESTRATEGIA PARA SISTEMAS DE ECUACIONES LINEALES DENSOS W_ILU_GMRES. UNA ESTRATEGIA PARA SISTEMAS DE ECUACIONES LINEALES DENSOS Angela León, Marta Lourdes Baguer, Yisleidy Linares, Universidad de La Habana Lilian Villarín, Universidad de Heidelberg, Alemania

Más detalles

5 Métodos iterativos para resolver sistemas de ecuaciones lineales

5 Métodos iterativos para resolver sistemas de ecuaciones lineales 94 5 Métodos iterativos para resolver sistemas de ecuaciones lineales La resolución de sistemas de ecuaciones lineales también puede hacerse con fórmulas iterativas que permiten acercarse a la respuesta

Más detalles

Inversa de una matriz

Inversa de una matriz Capítulo 2 Álgebra matricial 2.1. Inversa de una matriz Inversa de una matriz Para una matriz cuadrada A n n, la matriz B n n que verifica las condiciones AB = I n y B A=I n se denomina inversa de A, y

Más detalles

1.II.3. Sistemas de ecuaciones lineales: métodos iterativos.

1.II.3. Sistemas de ecuaciones lineales: métodos iterativos. 1.II.3. Sistemas de ecuaciones lineales: métodos iterativos. Manuel Palacios Departamento de Matemática Aplicada Centro Politécnico Superior Universidad de Zaragoza Otoño 2003 Referencias [1] Burden, R.

Más detalles

Matemáticas Aplicadas a los Negocios

Matemáticas Aplicadas a los Negocios LICENCIATURA EN NEGOCIOS INTERNACIONALES Matemáticas Aplicadas a los Negocios Unidad 4. Aplicación de Matrices OBJETIVOS PARTICULARES DE LA UNIDAD Al finalizar esta unidad, el estudiante será capaz de:

Más detalles

José Humberto Serrano Devia Página 1

José Humberto Serrano Devia Página 1 Similitudes entre el espacio y las series de Fourier Funciones Ortogonales En esta sección se muestra la forma en que los conceptos vectoriales de producto interno, o producto escalar, y el de ortogonalidad

Más detalles

Método de Newton Inexacto para Sistemas No Lineales de Gran Escala. NITSOL: Código en FORTRAN para estos problemas

Método de Newton Inexacto para Sistemas No Lineales de Gran Escala. NITSOL: Código en FORTRAN para estos problemas Método de Newton Inexacto para Sistemas No Lineales de Gran Escala. NITSOL: Código en FORTRAN para estos problemas Isidro A. Abelló Ugalde Seminario Semanal del Laboratorio de Cómputo Científico Posgrado

Más detalles

Cap 3: Álgebra lineal

Cap 3: Álgebra lineal Universidad Nacional de Ingeniería Facultad de Ciencias Cálculo Numérico 1 IF321 Cap 3: Álgebra lineal Prof: J. Solano 2018-I INTRODUCCION Aqui trabjaremos con operaciones basicas con matrices, tales como

Más detalles

Métodos Matemáticos Grado en Geomática y Topografía. J.L. Bravo. Curso

Métodos Matemáticos Grado en Geomática y Topografía. J.L. Bravo. Curso Métodos Matemáticos Grado en Geomática y Topografía Curso 2015-2016 Error Fuentes de error Propagación de errores Introducción al Cálculo Numérico Error Fuentes de error Propagación de errores Introducción

Más detalles

Conjuntos y matrices. Sistemas de ecuaciones lineales

Conjuntos y matrices. Sistemas de ecuaciones lineales 1 Conjuntos y matrices Sistemas de ecuaciones lineales 11 Matrices Nuestro objetivo consiste en estudiar sistemas de ecuaciones del tipo: a 11 x 1 ++ a 1m x m = b 1 a n1 x 1 ++ a nm x m = b n Una solución

Más detalles

Asignaturas antecedentes y subsecuentes Álgebra Lineal I y Análisis Numérico I.

Asignaturas antecedentes y subsecuentes Álgebra Lineal I y Análisis Numérico I. PROGRAMA DE ESTUDIOS ÁLGEBRA LINEAL NUMÉRICA Área a la que pertenece: ÁREA DE FORMACION INTEGRAL PROFESIONAL Horas teóricas: 3 Horas prácticas: 2 Créditos: 8 Clave: F0069 Asignaturas antecedentes y subsecuentes

Más detalles

Métodos de gradiente. Métodos de Krylov

Métodos de gradiente. Métodos de Krylov Métodos de gradiente. Métodos de Krylov Damián Ginestar Peiró Departamento de Matemática Aplicada Universidad Politécnica de Valencia Curso 2012-2013 (UPV) Métodos de gradiente. Métodos de Krylov Curso

Más detalles

Propiedades de matrices simétricas definidas positivas:

Propiedades de matrices simétricas definidas positivas: Propiedades de matrices simétricas definidas positivas: Propiedades de matrices simétricas definidas positivas: Sea A =[a ij ] 2 R n n. La matriz A es simétrica si A = A >. La matriz A es definida positiva

Más detalles

Álgebra Lineal. Ejercicios de evaluación. Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas

Álgebra Lineal. Ejercicios de evaluación. Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas Álgebra Lineal Ejercicios de evaluación Grado en Ingeniería Informática Doble Grado en Ingeniería Informática y Administración de Empresas AUTORES: J. S ALAS, A. T ORRENTE Y E.J.S. V ILLASEÑOR Problema

Más detalles

3.7. Determinantes. Definición. El determinante de una matriz cuadrada es la suma equilibrada de todos esos posibles Definición de determinante.

3.7. Determinantes. Definición. El determinante de una matriz cuadrada es la suma equilibrada de todos esos posibles Definición de determinante. 37 Determinantes 11 Definición de determinante Para calcular el determinante de una matriz cuadrada de orden n tenemos que saber elegir n elementos de la matriz de forma que tomemos solo un elemento de

Más detalles

Aplicar este algoritmo para resolver el sistema de ecuaciones: º «« º ««

Aplicar este algoritmo para resolver el sistema de ecuaciones: º «« º «« Introducción al Cálculo Numérico y Programación 1 MÓDULO 8: SISTEMA DE ECUACIONES LINEALES. A- MÉTODOS DIRECTOS 6LVWHPDVIiFLOHVGHUHVROYHU Ejercicio 1: Escribe una función MATLAB llamada =sp(a,b) que admita

Más detalles

Métodos matemáticos: Análisis funcional

Métodos matemáticos: Análisis funcional Métodos matemáticos: Análisis funcional Conceptos y resultados fundamentales Curso 2011/2012 Aquí encontrarás los Teoremas hay que saber para el primer parcial ( 1) así como las definiciones, problemas

Más detalles

Solución de problemas I 1

Solución de problemas I 1 Universidad Autónoma de Madrid Álgebra II. Físicas. Curso 5 6 Solución de problemas I Álgebra II Curso 5-6. Proyecciones en el producto escalar estándar Ejercicio 7.7. (a) Dada la ecuación x + y z, dar

Más detalles

Parte 5. Métodos iterativos para la resolución de sistemas de ecuaciones no lineales

Parte 5. Métodos iterativos para la resolución de sistemas de ecuaciones no lineales Parte 5. Métodos iterativos para la resolución de sistemas de ecuaciones no lineales Gustavo Montero Escuela Técnica Superior de Ingenieros Industriales Universidad de Las Palmas de Gran Canaria Curso

Más detalles

Lección 8. Matrices y Sistemas de Ecuaciones Lineales

Lección 8. Matrices y Sistemas de Ecuaciones Lineales Lección 8 Matrices y Sistemas de Ecuaciones Lineales MIGUEL ANGEL UH ZAPATA 1 Análisis Numérico I Facultad de Matemáticas, UADY Septiembre 2014 1 Centro de Investigación en Matemáticas, Unidad Mérida En

Más detalles

Últimas notas de SVD

Últimas notas de SVD Últimas notas de SVD MAT-251 Dr. CIMAT A.C. e-mail: alram@cimat.mx web: http://www.cimat.mx/~alram/met_num/ Dr. Salvador Botello CIMAT A.C. e-mail: botello@cimat.mx Relación entre los valores singulares

Más detalles

Tema 1: Matrices. Sistemas de ecuaciones. Determinantes

Tema 1: Matrices. Sistemas de ecuaciones. Determinantes Tema 1: Matrices. Sistemas de ecuaciones. Determinantes José M. Salazar Octubre de 2016 Tema 1: Matrices. Sistemas de ecuaciones. Determinantes Lección 1. Matrices. Sistemas de ecuaciones. Determinantes

Más detalles

Eigenvalores y eigenvectores

Eigenvalores y eigenvectores Eigenvalores y eigenvectores Los dos problemas principales del álgebra lineal son: resolver sistemas lineales de la forma Ax = b y resolver el problema de eigenvalores. En general, una matriz actúa sobre

Más detalles