Ampliación de Métodos. Ion Zaballa Departamento de Matemática Aplicada y Estadística e Investigación Operativa Euskal Herriko Unibertsitatea

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Ampliación de Métodos. Ion Zaballa Departamento de Matemática Aplicada y Estadística e Investigación Operativa Euskal Herriko Unibertsitatea"

Transcripción

1 Ampliación de Métodos Numéricos Ion Zaballa Departamento de Matemática Aplicada y Estadística e Investigación Operativa Euskal Herriko Unibertsitatea

2 2

3 Capítulo 1 Vectores y Matrices 1.1. Matrices y Aplicaciones Lineales El objetivo de este capítulo es jar algunas notaciones y convenciones, y también dar un repaso rápido a algunos conceptos básicos de álgebra lineal pero desde un punto de vista que, quizás, no es el habitual. Comenzamos recordando que una matriz no es más que una familia de elementos expuestos en un determinado orden de forma que su apariencia externa es la de un rectángulo de elementos ordenados:» a 11 a a 1n a 21 a a 2n A fl a m1 a m2... a mn Esta parece ser la forma en que Sylvester (1885) introdujo originalmente las matrices. De forma abreviada escribiremos A ra ij s 1ďiďm para indicar la matriz que tiene 1ďjďn 3

4 4 Vectores y Matrices en la posición o entrada pi, jq el elemento a ij. También diremos que a ij es el elemento pi, jq de A. Si A ra ij s 1ďiďm entonces diremos que A tiene m las y n columnas 1ďjďn y que A es de orden o tamaño m ˆ n o simplemente que es una matriz m ˆ n. Las matrices con igual número de las y columnas se llaman cuadradas. La i-ésima la y j-ésima columna de A son las matrices respectivamente. a i ra i1 a i2... a in s y a j Los elementos de una matriz pueden ser de muy diferente naturaleza: números, polinomios, funciones continuas, etc. Por lo general son elementos de algún conjunto con estructura de anillo (normalmente conmutativo y con elemento 1) de forma tal que si R es uno de tales anillos entonces podemos denir formalmente una matriz A de orden m ˆ n como una aplicación: µ : I ˆ J Ñ R donde I t1, 2,..., mu, J t1, 2,..., nu y µpi, jq a ij. De esta forma A es la aplicación µ y dos matrices son iguales si lo son las aplicaciones que las denen. Es decir, A ra ij s 1ďiďm y B rb ij s 1ďiďp son iguales si y sólo si n q, m p y 1ďjďn 1ďjďq a ij b j. Denotaremos con R mˆn al conjunto de las matrices de tamaño m ˆ n con elementos en R. Podemos entonces denir la suma y producto de matrices: Si A ra ij s P R mˆn y B rb ij s P R mˆn son matrices del mismo tamaño entonces A ` B ra ij ` b ij s P R mˆn ; y si A ra ij s P R mˆn y B rb ij s P R nˆp, entonces «ff ÿ n AB a ik b kj P R mˆp. k 1 En particular, si n m p entonces cualesquiera dos matrices de R nˆn se pueden sumar y multiplicar y pr nˆn, `, q es un anillo no conmutativo con elemento» a 1j a 2j. a mj fl,

5 1.1 Matrices y Aplicaciones Lineales 5 identidad. Este elemento es la matriz» I n fl rδ ijs, llamada matriz identidad. Las unidades de un anillo son aquellos elementos que admiten un inverso. En nuestro caso, y dado que R nˆn es una anillo no conmutativo, diremos que una matriz A P R nˆn es una unidad, que admite inversa o, más comúnmente, que es invertible si existe una única B P R nˆn tal que AB BA I n. Si A es invertible, a la única matriz B tal que AB BA I n se le llama inversa de A y se representa por A 1. Se puede demostrar que si R F es un cuerpo y AB I n entonces A 1 B. Esto es útil porque nos dice que basta comprobar que A es invertible por la derecha (o izquierda) para demostrar que lo es por los dos lados. Debe observarse que si A 1, A 2 P R nˆn son invertibles entonces el producto A 1 A 2 lo es y pa 1 A q 1 2 A 1 2 A 1 1. As pues, el conjunto de las matrices invertibles n ˆ n es un grupo, no abeliano, llamado grupo general lineal de orden n sobre R y que denotaremos por Gl n prq. Las matrices de R mˆn se pueden multiplicar por elementos de R (escalares): Si x P R y A ra ij s P R mˆn entonces xa rxa ij s P R mˆn. De esta forma el conjunto R mˆn tiene estructura de módulo libre sobre R. Una base de este módulo es el conjunto te ij : 1 ď i ď m, 1 ď j ď nu siendo E ij la matriz cuyos elementos son todos cero excepto el de la posición pi, jq que es 1. Dado que R es conmutativo con elemento identidad, todas las bases de R mˆn tienen el mismo número de elementos (a este número se le llama dimensión o rango del módulo), en este caso mn. En particular, si R F es un cuerpo, entonces F mˆn es un espacio vectorial y F nˆn un álgebra, no conmutativa, de dimensión n Algunos tipos de matrices 1. Transpuesta y transpuesta conjugada

6 6 Vectores y Matrices Dada una matriz A P R mˆn a la matriz que se obtiene al intercambiar las las por las columnas se le llama matriz transpuesta de A y se denota por A T. Así, si A ra ij s P R mˆn entonces A T ra ji s P R nˆm. Por su parte, si R C, el cuerpo de los números complejos y la unidad imaginaria la representamos con i (? 1), entonces cada elemento a kj x kj ` iy kj de una matriz A admite un conjugado ā kj x kj iy kj. La matriz Ā rā ijs se llama matriz conjugada de A. La transpuesta conjugada de A P C mˆn la denotaremos por A P C nˆm. Algunas propiedades elementales de la transposición son las siguientes: pa T q T A, pa q A Si λ es una escalar entonces pλaq T λa T y pλaq λa pa ` Bq T A T ` B T, pabq T BA, pa T q 1 pa 1 q T, pabq B A pa ` Bq A ` B pa q 1 pa 1 q. 2. Matrices Simétricas y Hermítices Las matrices que tienen la propiedad de ser iguales a sus transpuestas, A A T ; i. e. matrices A ra ij s tales que a ij a ji para todos i y j, reciben el nombre de matrices simétricas. El nombre es debido, posiblemente, a que sus elementos son simetrícos respecto de la diagonal principal. Es claro que estas matrices deben ser cuadradas. Las matrices skew-simétricas son las que cumple que A T A. Por su parte, si R C y A A entonces A se dice que es hermítica. Y si A A entonces A es skew-hermítica. Algunos ejemplos de estos tipos de matrices son los siguientes: j j i 2i 1 2i simétrica hermítica 2i 4 2i 4 0 j 2i 2i 0 j 0 i i 0 skew-simétrica simétrica y skew-hermítica j i 2i skew-hermítica 2i 4i j 0 i hermítica y skew-simétrica i 0 Cualquiera que sea A P R nˆm, las matrices AA T, A T A y A`A T son simétricas; mientras que si A P C mˆn entonces AA, A A y A ` A son hermíticas.

7 1.1 Matrices y Aplicaciones Lineales 7 3. Matrices Diagonales Una matriz n ˆ n se dice que es diagonal si todos sus elementos son cero excepto los de las posiciones pi, iq, 1 ď i ď n. Si D P R nˆn y d i es elemento que ocupa la posición pi, iq, escribiremos: D Diagpd 1,..., d n q. En general si A P R nˆn los elementos a ii, 1 ď i ď n, se dice que son o forman la diagonal principal de A. Las matrices diagonales se pueden considerar como un caso especial de matrices diagonales por bloques. Éstas son las que tienen la forma:» A A fl A p siendo A i una matriz cuadrada de tamaño n i ˆ n i, 1 ď i ď p. 4. Matrices Triangulares Una matriz A ra ij s P R nˆn se dice que es triangular superior si a ij 0 para i ą j. Si a ij 0 para i ă j entonces A es triangular inferior. De la misma forma que con matrices diagonales, las triangulares son un caso particular de las matrices triangulares por bloques. Una matriz triangular superior por bloques tiene la siguiente forma: con A ij P R n iˆn j.» A A 11 A A 1p 0 A A 2p A pp Las inversas de matrices triangulares superiores (inferiores) son triangulares superiores (inferiores, respectivamente). Hay otros tipos de matrices que iremos deniendo a medida que los vayamos necesitando. 5. Matrices de Permutación Una matriz P P R nˆn se dice que es de permutación si en cada la y columna hay un elemento igual a 1 y todos los demás son cero. La multiplicación por fl.

8 8 Vectores y Matrices este tipo de matrices efectúa una permutación de las las o columnas del objeto multiplicado. Así por ejemplo,» P 0 0 1» fl y P T fl son matrices de permutación y»» P fl fl y P T Es decir, P pone la la 1 en la 2, la 2 en la 3 y la 3 en la 1. Y P T hace lo mismo pero en las columnas. En general, si S n es el grupo simétrico de orden n; i. e. el grupo de permutaciones de n elementos, y σ pi 1, i 2,..., i n q P S n ; i. e. σpkq i k, denotamos con P σ rδ iσpjq s rδ iik s P R nˆn. Es decir, P σ es la matriz que tiene exactamente un 1 en la posición pσpiq, iq, 1 ď i ď n y todos los demás elementos son cero. Así, en el ejemplo de arriba, P es la matriz de la permutación σ p2, 3, 1q. Notemos que P T P σ 1 P 1 y si A ra ij s entonces P σ A ra σpiqj s y AP T ra iσpjq s. Es decir, P σ A se obtiene de A poniendo la la i en la σpiq, y AP T se obtiene de A poniendo la columna j en la σpjq Submatrices Dada una matriz A ra ij s P R mˆn, diremos que la matriz B rb ij s P R pˆq es una submatriz de A si existen índices pi 1,..., i p q y pj 1,..., j q q tales que 1 ď i 1 ă ă i p ď m, 1 ď j 1 ă ă j q ď n y a irj s b rs, 1 ď r ď p, 1 ď s ď q. Esto signica, simplemente, que los elementos que componen B están en la intersección de algunas las y columnas de A:

9 1.1 Matrices y Aplicaciones Lineales 9 A b 11 b 12 b 13 b 21 b 31 b 41 b 22 b 32 b 42 b 23 b 33 b 43 i 1 i 2 i 3 i 4 j 1 j 2 j 3 Trabajaremos a menudo con submatrices para lo que vamos a introducir una notación más compacta y útil. Denotamos con Q r,n tpi 1,..., i r q : 1 ď i 1 ă... ă i r ď nu el conjunto de todas las secuencias de r números enteros positivos entre 1 y n. Si α, β P Q r,n, diremos que α precede a β en el orden lexicográco, y escribiremos α ď β, si la primera diferencia β i α i que no sea cero es positiva. Por ejemplo, si α p1, 3, 4, 7q y β p1, 3, 5, 6q entonces α β p0, 0, 1, 1q y β α p0, 0, 1, 1q. por lo tanto α precede a β en el orden lexicográco: β ě α. Dada una matriz A ra ij s P R mˆn, si α P Q r,m y β P Q s,n, la matriz B rb ij s P R rˆs denida por b ij a αi β j, 1 ď i ď r, 1 ď j ď s es una submatriz de A y se denotar por B Arα βs. Esta notación es muy parecida a la que usa MATLAB para denir submatrices (veáse la Gua de MATLAB para este curso). MATLAB utiliza paréntesis en vez de

10 10 Vectores y Matrices corchetes. Aquí los paréntesis se usarán para designar la submatriz complementaria. Es decir, si α P Q r,n entonces la secuencia complementaria de α es α 1 P Q n r,n que cumple la siguiente condición: Si α pα 1,..., α r q y α 1 pα 1 1,..., α 1 n rq entonces tα 1,..., α r, α 1 1,..., α 1 n ru t1, 2,..., nu. Si α P Q r,m y β P Q s,n y α 1, β 1 son las secuencias complementarias en t1,..., mu y t1,..., nu, entonces pondremos Apα βq A rα 1 β 1 s. Ejemplo El siguiente ejemplo puede ayudar a claricar la notación. Sea» A fl j a11 a Ar1, 2 1, 3s 13 a 21 a j a11 a Ap2, 3 3q Ar1, 4 1, 2, 4s 12 a 14 a 41 a 42 a 44 j j Aplicaciones lineales Si R F es un cuerpo (sobreentendemos que es conmutativo) hay una relación muy estrecha entre las matrices con elementos en F y las aplicaciones lineales denidas entre espacios vectoriales sobre F. En efecto, sean V 1 y V 2 espacios vectoriales de dimensiones n y m, respectivamente, sobre F, y jemos bases B 1 y B 2 de V 1 y V 2. Así a cada aplicación lineal f : V 1 Ñ V 2 le corresponde una matriz A ra ij s P F mˆn de la siguiente forma: los elementos de la j-ésima columna de A son las componentes de la imagen del j-ésimo vector de B 1 respecto de la base B 2. Es decir, si B 1 tv 1,..., v n u, B 2 tu 1,..., u m u, y mÿ fpv j q a ij u i, j 1,..., n (1.1) i 1

11 1.1 Matrices y Aplicaciones Lineales 11 entonces la matriz A ra ij s P F mˆn se llama la matriz de f respecto de las bases B 1 y B 2. Recíprocamente, dada la matriz A ra ij s P F mˆn y jadas las bases B 1 y B 2 de V 1 y V 2, respectivamente, la relación (1.1) dene una única aplicación lineal entre estos espacios vectoriales. Dicho formalmente, si HompV 1, V 2 q es el espacio vectorial de las aplicaciones lineales de V 1 en V 2, y jadas bases en estos dos espacios vectoriales, los espacios vectoriales F mˆn y HompV 1, V 2 q son isomorfos y el isomorsmo está denido a partir de la relación (1.1). Conviene tener siempre presente este isomorsmo porque nos permite traducir propiedades de las matrices en propiedades de las aplicaciones lineales entre espacios vectoriales y al revés. En particular, toda matriz A P F mˆn puede verse como una aplicación lineal entre los espacios vectoriales F m y F n. Para ello identicamos F n con F nˆ1 ; es decir, escribimos y hablamos indistintamente del vector x px 1, x 2,..., x n q P F n y de la matriz columna (a la que llamaremos con mucha frecuencia vector columna):» x x 1 x 2. x n fl T x 1 x 2... x x P F nˆ1. De esta forma, dada A P F mˆn, queda denida la aplicación lineal (que seguimos denotando con la letra A): A : F n Ñ F m x Ax donde debemos entender que Ax es el vector columna que resulta de multiplicar A y el vector columna x Imagen y Núcleo de una matriz Aunque en la sección anterior hemos procurado actuar con la máxima generalidad acerca del anillo en el que están denidas las matrices, a partir de ahora, nuestras matrices supondremos que tienen sus elementos en un cuerpo (siempre conmutativo), F, y casi siempre podremos pensar que este cuerpo es el de los números reales o complejos. Comenzamos con dos conceptos básicos bien conocidos: la imagen y el núcleo de una matriz se denen como la imagen y núcleo de la correspondiente aplicación lineal asociada.

12 12 Vectores y Matrices Denición Sea A P F mˆn. Se dene ImpAq ty P F m y Ax para algún x P F n u. y KerpAq tx P F n Ax 0u Rango y nulidad El rango por columnas de una matriz es la dimensión del espacio que generan sus columnas. Y el rango por las de una matriz es la dimensión del espacio que generan sus las. Ambos números coinciden para cada matriz (hay varias pruebas posibles de este hecho, una de ellas se puede obtener como corolario del Teorema SVD que discutiremos en Lecciones posteriores). Nos referiremos a este número común como el rango de la matriz y, para una matriz A, lo representaremos por rangpaq. Por otra parte, la nulidad de A P F mˆn se dene como la dimensión de Ker A y la denotaremos con el símbolo νpaq. Los teoremas de isomorfa nos dan una relación estrecha entre nulidad y rango. En efecto, de acuerdo con la Proposición 1.4, rangpaq dim Im A y de acuerdo con los teoremas de isomorfa de aplicaciones lineales dim Im A n dim Ker A. As pues rangpaq n νpaq. Diremos que una matriz m ˆ n tiene rango completo si su rango es el máximo posible; es decir, el más pequeño de los números m y n. As pues, si m ě n y A P F mˆn tiene rango completo, se tiene que las n columnas de A son linealmente independientes. Esto a su vez signica que el único vector x px 1,..., x n q para el que x 1 a 1 ` ` x n a n 0 es x 0; es decir, Ker A t0u. Y esto equivale a que la aplicación lineal que dene A es inyectiva. De la misma forma, si m ď n y A tiene rango completo entonces dim Im A m y como Im A Ď F m debe ser Im A F m ; i.e., A es suprayectiva. Finalmente, si m n y A tiene rango completo entonces la aplicación lineal que dene es biyectiva. Es decir, A es invertible: hay una nica matriz B P F nˆn tal que AB BA I n. A esta nica matriz se le llama inversa de A y se representa por A 1. El siguiente Teorema recoge unas cuantas propiedades bien conocidas equivalentes a que una matriz sea invertible. Algunas de ellas ya han sido demostradas más arriba.

13 1.1 Matrices y Aplicaciones Lineales 13 Teorema 1.3 Para A P F nˆn las siguientes condiciones son equivalentes: 1. A tiene inversa A rangpaq n. 3. Im A F n. 4. νpaq Ker A t0u no es un valor propio (autovalor) de A. 7. detpaq 0. Recordemos que λ, escalar en, quizá, un cuerpo extensión de F, es un valor propio si hay un vector no nulo x tal que Ax λx. Si 0 fuera valor propio de A entonces Ax 0 para algún x 0. As Ker A t0u. Y recíprocamente. En cuanto a la propiedad detpaq 0, se trata de una consecuencia inmediata de las propiedades básicas de los determinantes para matrices sobre cuerpos. Y en cuanto a terminología, las matrices que cumplen la propiedad detpaq 0 se llaman no singulares o regulares. Por lo tanto, no singularidad e invertibilidad son conceptos equivalentes para matrices sobre cuerpos. Asociada al determinante recordemos que hay una caracterización del rango de una matriz que la mencionamos por completitud porque tanto ella como el propio concepto de determinante no son de utilidad desde un punto de vista numérico: el rango de A es el tamaño de la mayor submatriz con determinante no nulo de A. A los determinantes de las submatrices de una matriz también se les llama menores de la matriz. Una observación nal en la línea de lo expuesto en la Sección 1.2. Cuando escribimos x A 1 b no debemos pensar en el vector x como el resultado de multiplicar la inversa de la matriz A por el vector b, sino que A 1 b es el vector cuyas componentes son los

14 14 Vectores y Matrices coecientes de b escrito como combinación lineal de las columnas de A. En efecto, esto es consecuencia de la siguiente obvia equivalencia para las matrices invertibles: Ax b ô x A 1 b O también, si A es invertible entonces Im A F n y las columnas de A forman una base de F n. Las componentes del vector A 1 b son las coordenadas de b en esta base Interpretaciones del producto de matrices Todo lo dicho hasta aquí concuerda con la interpretación habitual del Aĺgebra lineal. Desde este punto de vista la ecuación Ax b, que es un sistema no homogéneo de ecuaciones lineales, se debe interpretar de la siguiente forma: b es la imagen por A del vector x. Por supuesto, esto es correcto, pero hay otra forma de mirar esta ecuación que es mucho más útil para este curso y que pasamos a analizar ahora. En primer lugar, b Ax signica que el vector b es el resultado de multiplicar la matriz A y el vector x: b i nÿ a ij x j, i 1,..., m. j 1 Poniendo todas las componentes de b juntas:»»» b 1 b 2. fl b m a 11 a 21. a m1 fl x 1 ` a 12 a 22. a m2 y escribiendo A en función de sus columnas: tenemos que» fl x 2 ` ` A a 1 a 2 a n, b x 1 a 1 ` x 2 a 2 ` ` x n a n. a 1n a 2n. a mn fl x n. Es decir b es una combinación lineal de las columnas de A cuyos coecientes son las componentes del vector x. Así pues, no es A quien actúa sobre x para producir b,

15 1.2 Interpretaciones del producto de matrices 15 sino que es x quien actúa sobre A para producir b. Este es el punto de vista habitual que adoptaremos en este curso. Podemos utilizar esta interpretación del signicado de multiplicar matrices para conseguir una nueva caracterización de Im A. Recordemos que si a 1,..., a n son vectores de F n, el subespacio de F n generado por estos vectores, y que denotaremos indistintamente por ă a 1,..., a n ą o por Span pa 1,..., a n q, es el conjunto de todas las combinaciones lineales de a 1,..., a n : # + ÿ n ă a 1,..., a n ą Span pa 1,..., a n q x i a i x i P F. i 1 Proposición ImpAq es es subespacio de F m generado por las columnas de A. Demostración.- Tenemos que demostrar que si A a 1 a 2 a n entonces Im A ă a 1, a 2,..., a n ą. Ahora bien y P Im A ô y Ax, para algn x P F m ô y nÿ x i a i, donde x 1,..., x n son las componentes de x. La última equivalencia es, como ya hemos mencionado, debida a que y Ax si y sólo si y es una combinación lineal de las columnas de A cuyos coecientes son las componentes de x. De forma similar, los vectores x P Ker A son aquellos cuyas componentes son los coecientes del vector 0 como combinación lineal de las columnas de A: 0 x 1 a 1 ` x 2 a 2 ` ` x n a n. i Producto de matrices De la misma forma, si A P R mˆn y B P R nˆp tenemos una doble interpretación para la matriz C AB P R mˆp. La tradicional será que C es la matriz de la composición de las aplicaciones R p ÝÑ B R n ÝÑ A R m

16 16 Vectores y Matrices en las bases canónicas. La que más nos interesa en este curso es la siguiente: Si c ij es el elemento en la posición pi, jq de C entonces Por consiguiente c ij nÿ a ik b kj, 1 ď i ď m, 1 ď j ď p. k 1 c ij a i1 b 1j ` a i2 b 2j ` ` a in b nj, (1.2) y si c j y b j son las j-ésimas columnas de C y B:»»» c 1j a 11 a 12 a 1n b 1j c 2j c j. fl a 21 a 22 a 2n b 2j fl. fl Ab j, j 1,..., p. c mj a m1 a m2 a mn b nj Así c1 c 2 c p Ab1 Ab 2 Ab p, de modo que la j-ésima columna de C es una combinación lineal de las columnas de A cuyos coecientes son las componentes de la j-ésima columna de B. De forma similar, de (1.2) sacamos que si c i y a i son las i-ésimas las de C y A, entonces c i a i B. Y esto signica que la i-ésima la de C es una combinación lineal de las las de B cuyos coecientes son las componentes de la i-ésima la de A. En resumen, en el producto de matrices AB: A acta sobre B provocando combinaciones lineales en las las de B, y B acta sobre A provocando combinaciones lineales en las columnas de A. Ejemplo 1.5 : Producto interno y producto externo de vectores. Sean u, v P R n. Se dene le producto interno de estos dos vectores como u T v, mientras que el producto externo es uv T.

17 1.2 Interpretaciones del producto de matrices 17 Hay una gran diferencia entre estos dos productos. Para empezar u T v P R 1ˆ1 ; es decir, es un escalar mientras que uv T P R nˆn es una matriz. Además, u T v es una combinación lineal de las columnas de u T con los coecientes de v o una combinación lineal de las las de v con los coecientes de u. Tanto las columnas de u T como las las de v son de tamaño 1 ˆ 1, de modo que el resultado es un escalar:» u T v v 2 n u 1 u 2 u n. fl ÿ u i v i P R. v 1 v n i 1 Por su parte uv T se puede ver como una combinación de las las de v T (sólo hay una) cuyos coecientes son las componentes de u; o, como una combinación lineal de las columnas de u (sólo hay una) cuyos coecientes son las componentes de v T. Es decir,»» u 1 v T u 1 v 1 u 1 v 2 u 1 v n uv T v 1 u v 2 u v n u u 2 v T. fl u 2 v 1 u 2 v 2 u 1 v n fl u n v T u n v 1 u n v 2 u n v n En conclusión, el producto exterior de u y v es una matriz n ˆ n cuyas columnas son múltiplos del vector u, y cuyas las son múltiplos del vector v T. Otras dos interpretaciones del producto de matrices Se pueden dar dos nuevas interpretaciones del producto de matrices a partir de los productos interno y externo de vectores. Sean A P R mˆn y B P R nˆp. Entonces Por una parte, el elemento pi, jq de AB es pabq ij n ř k 1 a ik b kj. Es decir, es el producto interno de la i-ésima la de A y la j-ésima columna de B. Siendo completamente formales: pabq ij pa 1 iq T b j, donde a 1 i es la i-ésima columna de A T y b j la j-ésima columna de B.

18 18 Vectores y Matrices Por otra, si a i representa la columna i-ésima de A y b j la j-ésima la de B, entonces el elemento pi, jq del producto externo a k b k es precisamente a ik b kj. Por lo tanto, si b 1 k es la k-ésima columna de BT tenemos que pa k pb 1 k qt q ij a ik b kj. Es decir, AB a 1 pb 1 1q T ` a 2 pb 1 2q T ` ` a n pb 1 nq T, es la suma de n productos externos. Cada sumando es el producto externo de la i-ésima columna de A y la i-ésima la de B (formalmente la i-ésima columna de B T ). Ejemplo 1.6 :Matrices elementales Dada una matriz A P R mˆn, hay tres tipos de transformaciones elementales que se pueden realizar sobre A: (t 1 ) Sumar a una la (o columna) de A otra la (o columna) multiplicada por un escalar. (t 2 ) Multiplicar una la (o columna) de A por un escalar distinto de cero. (t 3 ) Permutar dos las (o columnas) de A. Si las transformaciones se hacen en las las se habla de transformaciones elementales por las y si se hacen en las columnas de transformaciones elementales por columnas. Puesto que las transformaciones elementales por las en A producen combinaciones lineales de sus las, se tienen que poder realizar multiplicando una matriz apropiada por A. Y lo mismo por columnas: las transformaciones elementales por columnas se pueden realizar multiplicando A por una matriz apropiada. Supongamos, por ejemplo, que se quiere sumar a la i-ésima la la j-ésima multiplicada por α P R. Y supongamos, por jar ideas, que i ă j. Si escribimos A en función de sus las» a 1 a 2 A. fl a m

19 1.2 Interpretaciones del producto de matrices 19 queremos obtener la matriz» a 1. a i ` αa j B. a j. fl a m Puesto que cada la de B es una combinación lineal de las las de A, debe existir una matriz E 1 pαq tal que B E 1 pαqa. Ahora bien, todas las las de A y B coinciden, excepto la i-ésima que es a i ` αa j. Por lo tanto E 1 pαq i j» 1... i 1... α.... j 1... fl 1 Es importante observar que E 1 pαq I n`ae T j donde e j es el j-ésimo vector (columna) canónico (todos los elementos cero excepto el de la posición j que es 1) y a es el vector (columna) cuyos elementos son todos cero excepto el de la posición i que es α. Así pues E 1 pαq es una modicación de rango 1 de la matriz identidad. Es claro que B E 1 pαqa. De la misma forma AE 1 pαq a 1 a i a j ` αa i a n. Nótese que en este caso, la columna que cambia es la j-ésima. Si lo que se quiere es multiplicar la i-ésima la de A por α 0 entonces la

20 20 Vectores y Matrices matriz E 2 pαq que lo produce es E 2 pαq» i i α fl En efecto E 2 pαqa» a 1. αa i. a m fl y AE 2 pαq a 1 αa i a n. Finalmente, si lo que se quiere es permutar las las o columnas i y j debemos utilizar una matriz de permutación, en realidad una transposición: P» i j i j fl

21 1.3 Factorización LU 21 Así» a 1. a j P A. a i. fl a m y AP a 1 a j a i a n. Las matrices de la forma E 1 pαq, E 2 pαq y P se llaman matrices elementales. Debe notarse que estas matrices y las matrices de transposición se obtienen de la matriz identidad realizando sobre ésta la misma transformación elemental que se quiere conseguir sobre la matriz que van a actuar. Así, la matriz E 1 pαq de más arriba se obtiene de la matriz I n sumando a la la i la j-ésima multiplicada por α. Y también se obtiene sumando a la columna j la i-ésima multiplicada por α Factorización LU La factorización LU se estudia en el curso de Métodos Numéricos bajo la denominación de Algoritmos de Doolittle y Crout. En esta sección daremos un algoritmo diferente aunque todos ellos están relacionados con la eliminación gaussiana. En efecto, el objetivo de la factorización LU es la resolución de sistemas de ecuaciones lineales; y es la forma actual de representar la eliminación Gaussiana. La eliminación Gaussiana era conocida ya en la China antigua [15] y los estudiantes la emplean de manera intuitiva en la escolarización obligatoria o bachillerato como un método de eliminación de variables al resolver sistemas lineales. Gauss la usó en el contexto de problemas de mínimos cuadrados lineales [7],[10], [20]. En los cursos de álgebra lineal se suele enseñar en conjunción con la reducción de una matriz a forma escalera y, en este contexto, se trata como una herramienta para obtener todas la soluciones de un sistema lineal, para calcular el determinante y el rango de la matriz de los coecientes. En esta sección estudiaremos su conexión con la factorización LU y justicaremos por qué ésta es la forma eciente de implementar la eliminación Gaussiana. La estrategia de la eliminación gaussiana (EG) es reducir un sistema completo

22 22 Vectores y Matrices de n ecuaciones con n incógnitas a otro sistema con el mismo número de ecuaciones e incógnitas pero que es triangular superior. El método consiste en realizar transformaciones elementales por las. Consiste de n 1 etapas; se comienza con una matriz A p1q A P F nˆn y un vector b p1q b P F nˆ1 y se termina con un sistema A pnq x b pnq donde A pnq es una matriz triangular superior. El proceso es recursivo y para k 1,..., n 1 se dispone de una matriz «ff A pkq A pkq 11 A pkq 12 0 A pkq 22 donde A pkq 11 P F pk 1qˆpk 1q es una matriz triangular (para k 1 la matriz A p1q 11 simplemente no existe; es decir, A p1q A p1q 22 ). El objetivo en esta etapa k es sustituir por ceros los elementos de A pkq que están en la columna k por debajo del elemento diagonal a pkq kk (llamado comúnmente pivote). La forma de hacerlo es restar a la la i k ` 1,..., n la la k multiplicada por un número apropiado. Este número debe ser m ik apkq ik y se conoce con el nombre de multiplicador. Así, en la etapa k de la EG se realizan las siguientes transformaciones elementales: a pk`1q ij b pk`1q i a pkq ij b pkq i a pkq kk, m ik a pkq kk, i, j k ` 1,..., n. (1.3) m ik b pkq k, i, j k ` 1,..., n. (1.4) Si para todos los valores de k 1,..., n 1 ha resultado ser a pkq kk 0 entonces el proceso termina con un sistema triangular superior Ux A pnq x b pnq que se resuelve mediante substitución hacia atrás. Este procedimiento para el sistema triangular superior Ux b es la recurrencia: x n b n u nn b k x k nř j k`1 u kj x j u kk, k n 1, n 2,..., 1, (1.5) que proporciona las componentes de la solución del sistema empezando por la última y, yendo hacia atrás, acabando por la primera.

23 1.3 Factorización LU 23 Dado que cada una de las operaciones en (1.3) es una transformación elemental en las las de la matriz A pkq, ésta se puede conseguir multiplicando por la izquierda (pre-multiplicando) la matriz A pkq por una matriz elemental. Es fácil ver que se pueden agrupar las k n operaciones de (1.3) en una sola matriz, concretamente:» M k. 0 m k`1k fl 0 m nk 0 1 Un cálculo sencillo nos permite comprobar que M k A pkq A pk`1q. También M k b pkq b pk`1q. Observemos ahora que si m k 0 0 m k`1k m nk T y ek es la k-ésima columna de I n entonces» m k e T k. 0 m k`1k fl 0 m nk 0 0 Por lo tanto, M k I n ` m k e T k. dado que m ke T k es una matriz de rango 1, se dice que M k es una actualización de rango 1 de la matriz identidad. Ahora, como M k A pkq A pk`1q para k 1,..., n 1, el proceso EG se reduce simplemente a la fórmula: Pero M 1 k I n ` m k e T k. En efecto, M n 1 M n 2... M 1 A A pnq U. (1.6) pi n m k e T k qpi n ` m k e T k q I n m k e T k ` m k e T k m k e T k m k e T k I n e T k m k pm k e k q, donde hemos usado la propiedad asociativa: pm k e T k qpm ke T k q m kpe T k m kqe T k y que e T k m k es un número. Pero, teniendo en cuenta que el único número no nulo de e k está en la posición k y que los elementos de m k son todos cero hasta el de la posición k ` 1, concluímos que e T k m k 0. Por lo tanto, pi n m k e T k qpi n ` m k e T k q I n y M 1 k I n ` m k e T k tal y como se había dicho.

24 24 Vectores y Matrices Despejando A en (1.6) obtenemos A M 1 1 M M 1 n 1U pi n ` m 1 e T 1 qpi n ` m 2 e T 2 q... pi n ` m n 1 e T n 1qU. Pero para i ă j se tiene que m i e T i m j e T j que i ă j. Por lo tanto, e T i m j pm i e T j q 0 porque e T i m j 0 siempre» 1 m 21 1 A pi n ` m 1 e T 1 `... ` m n 1 e T n 1qU. m U : LU..... fl m n1 m n2 m nn 1 1 En conclusión EG calcula una factorización de A como producto de una matriz triangular inferior con todos los elementos en la diagonal iguales a 1 y una matriz triangular superior: A LU. A esta factorización se le llama Factorización LU de A (también descomposición LU). Calcular los factores L y U de una factorización LU de A (cuando exista) es muy fácil de programar en un algoritmo. En esta primera versión suponemos que la factorización existe; es decir, que para la matriz A dada todas las operaciones que aparecen son válidas; es particular, que no hay división por cero. Debe observarse que la construcción de L es inmediata: sus columnas son los multiplicadores. En otras palabras, en vez de calcular m ik apkq ik a pkq kk directamente l ik apkq ik a pkq kk y luego poner l ik m ik, pondremos. Por supuesto, los superíndices desaparecerán porque son innecesarios en un proceso algorítmico en el que, recordemos, el símbolo signica asignación y no igualdad. En el pseudocódigo se usará con frecuencia la notación de MATLAB. Así, 1 : n representa el vector 1 2 n ; y for k 1 : n signica para k desde 1 hasta n.

25 1.3 Factorización LU 25 Factorización LU Dato: A P F nˆn Objetivo: calcular matrices L, triangular inferior con unos en la diagonal principal, y U, triangular superior, tales que A LU. L eyepnq for k 1 : n 1 for i k ` 1 : n % Ponemos los multiplicadores en la columna k de L l ik a ik {a kk % Por debajo de pk, kq los elementos de A en la columna k % serán 0 para qué hacer la operación? a ik 0 % Realizamos sobre las las k ` 1,..., n la transformación % elemental correspondiente for j k ` 1 : n a ij a ij l ik a kj end for end for end for % A se ha convertido en triangular superior: es la U U A El algoritmo para la factorización LU es el primer algoritmo que vemos en este curso. Se trata de un algoritmo sencillo pero eso no signica que sea bueno. Diseñar buenos algoritmos puede ser una tarea complicada y decidir si un algoritmo es bueno también. Hay dos propiedades fundamentales que se deben exigir a un buen algoritmo: que sea estable y sea poco costoso. Estudiaremos en el Capítulo 5 lo que signica que un algoritmo es estable y analizaremos si la eliminación Gaussiana lo es. Para un algoritmo como el que acabamos de ver, su coste se mide en función del número de operaciones que hay que realizar. A estas operaciones se les suele llamar flops (por floating point operations). Cada suma, resta, multipliación y división es una flop. No distinguiremos entre operaciones con números reales o complejos y tampoco prestaremos atención a otras operaciones que realizan internamente los

26 26 Vectores y Matrices ordenadores (como asignación de memoria o realojamiento de variables, dedicación de los procesadores a las distintas tareas que se estén realizando en el momento de correr el algoritmo, etc). No obstante se debe saber que estos factores pueden afectar en gran medida al tiempo necesario para la ejecución del algoritmo. Normalmente el número de flops es un polinomio en el tamaño de la matriz. De este polinomio sólo se suele destacar el término de grado mayor. Así, se suele decir que el coste del algoritmo LU es de orden 2 3 n3 y se escribe habitualmente 2 3 n3 o simplemente Opn 3 q. Cómo se calcula este número? Contando las operaciones aritméticas que se realizan en las dos líneas del algoritmo: l ik a ik {a kk a ij a ij l ik a kj La primera consiste de una división mientras que la segunda de una resta y una multiplicación. Ésta domina a aquella y teniendo en cuenta que la longitud del vector j es p n k ` 1 resulta que 2p es el número de operaciones necesario para conseguir los elementos de la la i de A pkq 22. Y esto hay que repetirlo para j k : n y para k 1 : n 1. Así pues, el número de operaciones está dominado por la expresión: n 1 ÿ nÿ nÿ k 1 i k`1 j k`1 2 n 1 ÿ k 1 2pn kq 2 n 1 ÿ k 1 2k 2 npn 1qp2n 1q n3 tal y como se ha dicho más arriba. Se dice entonces que el coste del algoritmo LU es de orden 2 3 n3. Cuando se habla sin mucha precisión también se dice que es de orden cúbico o n 3. Sin embargo, el coeciente 2{3 no carece de importancia cuando n es muy grande. Nótese nalmente que para obtener el vector b pnq en (1.4) se necesita un número de operaciones de orden n 2. Interpretar la EG como una factorización LU es muy importante. De hecho, es muy importante el punto de vista de la factorización de matrices como método de pensamiento y también para el cálculo numérico. Damos algunos ejemplos en relación a la factorización LU. Supongamos que A LU es una factorización LU de A. Para resolver el sistema Ax b podemos escribir LUx b. Resolvemos entonces el sistema Ly b y encontramos la solución del sistema original resolviendo el sistema Ux y. Así, x se obtiene resolviendo dos sistemas triangulares, el primero

27 1.3 Factorización LU 27 por sustitución hacia adelante: y 1 b 1 y k b k k 1 ř l kj y j, k 2,..., n, j 1 y el otro mediante sustitución hacia atrás (1.5). El coste operacional de resolver sistemas triangulares por sustitución hacia adelante o hacia atrás es de orden n 2 : un orden menor que la eliminación gaussiana. Se puede objetar que aunque esto sea verdad, para resolver el sistema primero se ha tenido que realizar la factorización LU que es de orden cúbico y, por lo tanto, el coste total para la resolución del sistema es de ese ordenes se haga directamente mediante eliminación gaussiana o mediante la factorización LU y sustitución hacia adelante y hacia atrás. Y e cierto, pero ahora vienen las ventajas de hacer la factorización LU: (i) Si tenemos que resolver el mismo sistema para varios vectores b, sólo tendríamos que resolver, para cada uno de ellos, dos sistemas triangulares y no hacer eliminación gaussiana desde el principio para cada uno. Este es el caso para calcular la inversa de A: debemos calcular X tal que AX I n. Así pues, debemos resolver n sistemas Ax i e i, i 1,..., n. (ii) De forma parecida, resolver el sistema A T y c se reduce a resolver dos sistemas triangulares: U T z c y L T y z. (ii) Otro ejemplo es el cálculo del número α y T A 1 x que se puede escribir como α py T U 1 qpl 1 xq. En realidad L 1 x signica calcular un vector, digamos z, tal que L 1 x z. Pero esto no es más que resolver el sistema Lz x. De la misma forma y T U 1 v T equivale a y T v T U que es equivalente a resolver el sistema U T v y. Una vez resueltos estos dos sistemas triangulares, α v T z. El número de operaciones necesarias para todo el proceso es de orden n 2. Calcular la inversa de A usando el procedimiento de (i) es de orden n 3 una vez que tenemos la factorización LU de A que también es de orden cúbico. En total orden n Pivoteo El proceso de eliminación gaussiana falla cuando a pkq kk 0 para algún k. Por esta razón y por consideraciones de estabilidad que estudiaremos en el Capítulo 5, se

28 28 Vectores y Matrices introduce la estrategia del pivoteo. Hay tres tipos de pivoteo: parcial, total y, menos conocido pero a veces útil, de torre de ajedrez. Sólo trataremos el pivoteo parcial, que consiste en lo siguiente: al comienzo de la etapa k, se intercambian las las k y r estando r determinada por la condición: a pkq rk máx kďiďn apkq ik En palabras, se busca en la columna k por debajo de la diagonal un elemento (puede haber más de uno) que en módulo (valor absoluto) sea mayor que el módulo de los demás elementos en la columna k desde el elemento diagonal para abajo. Entonces se intercambian las las k y la del elemento encontrado de manera que, tras el intercambio, el elemento en la diagonal (el nuevo pivote) tiene módulo mayor o igual que los demás elementos en esa columna de la diagonal para abajo. La elección de un elemento de módulo máximo (y no cualquier elemento no nulo) tiene importantes consecuencias en la estabilidad que veremos en el Capítulo 5. Recuérdese que el intercambio de dos las de una matriz se consigue pre-multiplicando la matriz por una matriz de transposición. Por lo tanto la eliminación gaussiana con pivote parcial (EGPP) se puede describir como un producto de matrices: M n 1 P n 1 M n 2 P n 2... M 2 P 2 M 1 P 1 A U, siendo P k la matriz que cambia la la k con alguna posterior r (r ą k). En realidad este procedimiento esconde otra factorización. Se entenderá perfectamente con un caso particular. Supongamos n 5, y recordemos que las matrices de transposición son su propia inversa: P 1 k P k o, P k P k I n. Entonces U M 4 P 4 M 3 P 3 M 2 P 2 M 1 P 1 A M 4 Plooomooon 4 M 3 P 4 Ploooooomoooooon 4 P 3 M 2 P 3 P 4 Ploooooooooomoooooooooon 4 P 3 P 2 M 1 P 2 P 3 P 4 Ploooomoooon 4 P 3 P 2 P 1 A M 1 3 M 4 M 1 3M 1 2M 1 1P A M 1 2 Qué relación hay entre M k y M 1 k? Analicémoslo. Recordemos que P k es la matriz identidad excepto que las las k y r (r ą k) están intercambiadas. Entonces, para j ą k la submatriz P j p1 : k, 1 : kq formada por las primeras k las y columnas de M 1 1 P

29 1.3 Factorización LU 29 P j es la matriz identidad. Por lo tanto P j e k e k y así P n 1 P n 2... P k`1 e k e k y Mk 1 P n 1 P n 2... P k`1 pi n m k e T k qp k`1... P n 2 P n 1 pi n P n 1 P n 2... P k`1 m k e T k I n m 1 k et k, donde m 1 k es el mismo vector que m k pero con los elementos en las posiciones k ` 1 hasta n permutados de acuerdo con la elección del pivote. Es decir, si en P k`1 están intercambiadas las las k ` 1 y r k`1 entonces P k`1 m k es el vector m k con los elementos k ` 1 y r k`1 intercambiados; si P k`2 intercambia las las k ` 2 y r k`2 entonces P k`2 P k`1 m k es el mismo vector que m k en el que primero se intercambian las las k ` 1 y r k`1 y, en el vector obtenido, se intercambian las las k ` 2 y r k`2 ; y así sucesivamente. En denitiva, P A LU donde P P n 1 P n 2... P 2 P 1» 1 m L M1 1 1 M Mn 2M 1 1 n 1 1. m fl m 1 n1 m 1 n2 m nn 1 1 En conclusión el proceso EGPP aplicado a una matriz A produce una factorización LU de P A. Hay un par de observaciones que es importante tener en cuenta: (i) En general, la matriz de permutación P no se puede determinar a priori de forma simple. (ii) Los pivotes que van apareciendo son todos distintos de cero si y sólo si det A 0. Esto es consecuencia de que si todos los elementos de la columna k por debajo e incluyendo la diagonal son cero entonces det A pkq 22 0 y, en consecuencia, det A 0. En otras palabras, si det A 0 la EGPP siempre produce una factorización LU de P A para alguna matriz de permutación P. La primera versión de un algoritmo para calcular las matrices P, L y U tales que P A LU para una matriz A P F nˆn dada con det A 0 sería la siguiente

30 30 Vectores y Matrices Factorización LU con pivoteo parcial. Versión 1 Dato: A P F nˆn, det A 0 Objetivo: calcular matrices P, de permutación, L, triangular inferior con unos en la diagonal principal, y U, triangular superior, tales que P A LU. L eyepnq for k 1 : n 1 Calcúlese el elemento de mayor valor absoluto de los elementos en las posiciones pk, kq, pk, k ` 1q,..., pk, nq y la posición que ocupa, digamos r Permútense las las k y r de A, L y P for i k ` 1 : n % Ponemos los multiplicadores en la columna k de L l ik a ik {a kk % Por debajo de pk, kq los elementos de A en la columna k % serán 0 a ik 0 % Realizamos sobre las las k ` 1,..., n la transformación % elemental correspondiente for j k ` 1 : n a ij a ij l ik a kj end for end for end for % P A se ha convertido en triangular superior: es la U U A Nótese que para cada k 1 : n 1 debemos permutar las las k y r de A (para calcular el nuevo pivote en la posición pk, kq), L (para obtener los elementos m 1 ik que son los permutados de m ik ) y P (porque P P n 1... P 2 P 1 y cada P k permuta las las k y r del producto P k 1... P 2 P 1 ). En lenguaje de MATLAB el algoritmo anterior quedaría de la siguiente forma: function [L,U,P] = lutxforv1(a) %LUTXFORV1 devuelve matrices L, triangular inferior con 1 en la diagonal,

31 1.3 Factorización LU 31 %U, triangular superior y P de permutación tal que PA=LU. En vez %trabajar con la matriz P se trabaja con un vector p que almacena las %transposiciones y a partir del cual se construye P. La matriz L se dene %y actualiza de forma explícita y se utilizan bucles FOR para %todos los contadores. % Calculamos el tama~no de A [n,n] = size(a); %Iniciamos p=[ n]^t p = (1:n) ; % y L L=eye(n); %Transformaciones elementales en las columnas 1, 2,..., n-1. for k = 1:n-1 %Calculamos el máximo, r, (en valor absoluto) de los elementos % A(k,k), A(k,k+1),...,A(k,n), y la posición, m, donde se encuentra [m,r] = max(abs(a(k:n,k))); % Calculamos la posición del máximo en toda la columna k-ésima de A r = r+k-1; %Si el máximo fuera cero es porque toda la columna es cero y A no sería %invertible if (A(r,k) ~= 0) %Si el máximo no está en la diagonal permutamos if (r ~= k) %permutamos las las k y r en A A([k r],k:n) = A([r k],k:n); %en L L([k r],1:k-1) = L([r k],1:k-1); % y las posiciones k y r de p p([k r]) = p([r k]); end %L está fromada por los multiplicadores for i = k+1:n; L(i,k) = A(i,k)/A(k,k); % Por debajo de (k,k) los elementos de A en la columna k serán 0 A(i,k)=0; % Realizamos sobre las las i=k+1,...,n la transformación elemental

32 32 Vectores y Matrices end end for j = k+1:n; A(i,j) = A(i,j) - L(i,k)*A(k,j); end %A se ha convertido en triangular superior: es la U U=A; % Construímos P a partir de p: las las 1:n de P son las de la permutación P=eye(n); P=P(p,:); Se puede mejorar un poco este algoritmo sin denir explícitamente la matriz L aprovechando que para cada k los elementos a k`1k,..., a nk se van a hacer cero. La idea es almacenar los multiplicadores en dichas posisiciones; es decir hacer Api, kq Lpi, kq. Pero entonces no es necesario hacer L(i,k) = A(i,k)/A(k,k); A(i,k)=L(i,k); Basta poner A(i,k) = A(i,k)/A(k,k); Claro que también hay que sustituir la línea L([k r],1:k-1) = L([r k],1:k-1); por A([k r],1:k-1) = A([r k],1:k-1); Pero como en la línea anterior tenemos A([k r],k:n) = A([r k],k:n); podemos poner las dos líneas juntas (recordemos que : signica 1 : n): A([k r],:) = A([r k],:); Al nalizar el algoritmo tanto L como U están almacenadas en la matriz A. Para extraerlas se usan los comandos tril y triu de MATLAB. En lenguaje MATLAB tendríamos: function [L,U,P] = lutxfor(a) %LUTXFOR devuelve matrices L, triangular inferior con 1 en la diagonal,

33 1.3 Factorización LU 33 %U, triangular superior y P de permutación tal que PA=LU. En vez %trabajar con la matriz P se trabaja con un vector p que almacena las %transposiciones y a partir del cual se construye P. Las matrices L y U %no se denen de forma expl\ icita y se almacenan en las partes triangular %inferior y superior de A a medida que se van construyendo. Se utilizan %bucles FOR para todos los contadores. % Calculamos el tama~no de A [n,n] = size(a); %Iniciamos p=[ n]^t p = (1:n) ; %Transformaciones elementales en las columnas 1, 2,..., n-1. for k = 1:n-1 %Calculamos el máximo, r, (en valor absoluto) de los elementos % A(k,k), A(k,k+1),...,A(k,n), y la posición, m, donde se encuentra [m,r] = max(abs(a(k:n,k))); % Calculamos la posición del máximo en toda la columna k-ésima de A r = r+k-1; %Si el máximo fuera cero es porque toda la columna es cero y A no sería %invertible if (A(r,k) ~= 0) %Si el máximo no está en la diagonal permutamos if (r ~= k) %permutamos las las k y r en A (que incluyen las de L) A([k r],:) = A([r k],:); % y las posiciones k y r de p p([k r]) = p([r k]); end for i = k+1:n; A(i,k)=A(i,k)/A(k,k); % Realizamos sobre las las i=k+1,...,n la transformación elemental for j = k+1:n; end end end end A(i,j) = A(i,j) - A(i,k)*A(k,j);

34 34 Vectores y Matrices %En la parte triangular inferior de A (sin la diagonal) está L L = tril(a,-1) + eye(n,n); %Y en la parte triangular superior (incluyendo la diagonal) está U U = triu(a); % Construímos P a partir de p: las las 1:n de P son las de la permutación P=eye(n); P=P(p,:); La última mejora (enseguida veremos por qué se trata de una mejora) consiste en suprimir los bucles for de i y j sustituyéndolos por una actualización de rango 1 como sigue: function [L,U,p] = lutx(a) %LUTX devuelve matrices L, triangular inferior con 1 en la diagonal, %U, triangular superior y P de permutación tal que PA=LU. En vez %trabajar con la matriz P se trabaja con un vector p que almacena las %transposiciones y a partir del cual se construye P. Las matrice L y U %no se denen de forma expl\ icita y se almacenan en las partes triangular %inferior y superior de A a medida que se van construyendo. Se utilizan %actualizaciones de rango 1. % Calculamos el tama~no de A [n,n] = size(a); %Iniciamos p=[ n]^t p = (1:n) ; % y L L=eye(n); %Transformaciones elementales en las columnas 1, 2,..., n-1. for k = 1:n-1 %Calculamos el máximo, r, (en valor absoluto) de los elementos % A(k,k), A(k,k+1),...,A(k,n), y la posición, m, donde se encuentra [m,r] = max(abs(a(k:n,k))); % Calculamos la posición del máximo en toda la columna k-ésima de A r = r+k-1; %Si el máximo fuera cero es porque toda la columna es cero y A no sería %invertible if (A(r,k) ~= 0) %Si el máximo no está en la diagonal permutamos if (r ~= k)

35 1.3 Factorización LU 35 %permutamos las las k y r en A (que incluyen las de L) A([k r],:) = A([r k],:); % y las posiciones k y r de p p([k r]) = p([r k]); end i = k+1:n; A(i,k)=A(i,k)/A(k,k); % Realizamos sobre las las i=k+1,...,n la transformación elemental j = k+1:n; A(i,j) = A(i,j) - A(i,k)*A(k,j); end end %En la parte triangular inferior de A (sin la diagonal) está L L = tril(a,-1) + eye(n,n); %Y en la parte triangular superior (incluyendo la diagonal) está U U = triu(a); %A se ha convertido en triangular superior: es la U U=A; % Construímos P a partir de p: las las 1:n de P son las de la permutación P=eye(n); P=P(p,:); Se ha sustituido for i=k+1:n; A(i,k)=A(i,k)/A(k,k); end por i=k+1:n; A(i,k)=A(i,k)/A(k,k); Es decir, Apk ` 1 : n, kq Apk ` 1 : n, kq{apk, kq. Es evidente que el resultado en ambos casos es el mismo. Más importante es la sustitución for i=k+1:n; for j=k+1:n A(i,j) = A(i,j) - A(i,k)*A(k,j); end end por

36 36 Vectores y Matrices i=k+1:n; j=k+1:n A(i,j) = A(i,j) - A(i,k)*A(k,j); En ambos casos el resultado es el mismo ( por qué?) pero la naturaleza de las operaciones es completamente diferente. En el primer caso se van recorriendo los elementos de la matriz Apk ` 1 : n, k ` 1 : nq por las y para cada elemento se hace la operación Api, jq Api, jq Api, kqapk, jq. En el segundo caso se opera la matriz completa: como i y j son el vector k ` 1 : n, Api, jq es la submatriz Apk ` 1 : n, k ` 1 : nq. A este submatriz se le resta el producto Apk ` 1 : n, kqapk, k ` 1 : nq. Nótese que Apk ` 1 : n, kq es una matriz pn kq ˆ 1 y Apk, k ` 1 : nq es 1 ˆ pn kq. Por lo tanto, Apk ` 1 : n, kqapk, k ` 1 : nq es una matriz pn kq ˆ pn kq de rango 1. De ahí que se haya dicho que se usan actualizaciones de rango 1: para cada k 1 : n 1 se actualiza la matriz Apk ` 1 : n, k ` 1 : nq con la matriz Apk ` 1 : n, kqapk, k ` 1 : nq que es de rango 1. En la siguiente sección veremos por qué, en general, es más eciente esta forma de proceder que la utilización de bucles for. En relación al coste de los algoritmos LUTX y LUTXFOR, ambos tienen el mismo coste operacional que el algoritmo LU sin pivoteo ( 2 3 n3 ). La razón es que el mayor número de operaciones se realiza en la sentencia Api, jq Api, jq Api, kqapk, jq, que es la misma en los tres algoritmos. Los algoritmos LUTX y LUTXFOR, sin embargo, realizan realojamientos de memoria (para los pivoteos) que no están presentes en el algoritmo LU sin pivoteo. Para sistemas de grandes dimensiones esto puede suponer un mayor tiempo de ejecución que queda compensado, por lo general, por una mayor estabilidad de los primeros Subrutinas Básicas de Álgebra Lineal (BLAS) Para entender por qué el algoritmo LUTX es más eciente que LUTXFOR, debemos comprender cómo opera la memoria de los ordenadores. Resulta que la memoria de todos los ordenadores está jerarquizada dependiendo del material del que está hecha y, en consecuencia, de lo cara que es. Así, los registros están en la parte alta de la jerarquía siendo la memoria más rápida hecha de una material muy caro. Por lo tanto hay poca memoria de este tipo. Después está la memoria caché, la memoria principal (RAM), los discos, etc. La siguiente gura es una idealización de la jerarquía de la memoria de los ordenadores.

TEMA 1. MATRICES, DETERMINANTES Y APLICACIÓN DE LOS DETERMINANTES. CONCEPTO DE MATRIZ. LA MATRIZ COMO EXPRESIÓN DE TABLAS Y GRAFOS.

TEMA 1. MATRICES, DETERMINANTES Y APLICACIÓN DE LOS DETERMINANTES. CONCEPTO DE MATRIZ. LA MATRIZ COMO EXPRESIÓN DE TABLAS Y GRAFOS. TEMA 1. MATRICES, DETERMINANTES Y APLICACIÓN DE LOS DETERMINANTES. 1. MATRICES. CONCEPTO DE MATRIZ. LA MATRIZ COMO EXPRESIÓN DE TABLAS Y GRAFOS. DEFINICIÓN: Las matrices son tablas numéricas rectangulares

Más detalles

Algebra lineal y conjuntos convexos

Algebra lineal y conjuntos convexos Apéndice A Algebra lineal y conjuntos convexos El método simplex que se describirá en el Tema 2 es de naturaleza algebraica y consiste en calcular soluciones de sistemas de ecuaciones lineales y determinar

Más detalles

Sistemas de Ecuaciones Lineales y Matrices

Sistemas de Ecuaciones Lineales y Matrices Capítulo 4 Sistemas de Ecuaciones Lineales y Matrices El problema central del Álgebra Lineal es la resolución de ecuaciones lineales simultáneas Una ecuación lineal con n-incógnitas x 1, x 2,, x n es una

Más detalles

Métodos directos para resolver sistemas de ecuaciones lineales

Métodos directos para resolver sistemas de ecuaciones lineales Métodos directos para resolver sistemas de ecuaciones lineales Problemas para examen Si en algún problema se pide calcular el número de flops (operaciones aritméticas con punto flotante), entonces en el

Más detalles

TEMA 4: Sistemas de ecuaciones lineales II

TEMA 4: Sistemas de ecuaciones lineales II TEM 4: Sistemas de ecuaciones lineales II ) Teorema de Rouché-Frobenius. ) Sistemas de Cramer: regla de Cramer. 3) Sistemas homogeneos. 4) Eliminación de parámetros. 5) Métodos de factorización. 5) Métodos

Más detalles

Tema 1: MATRICES. OPERACIONES CON MATRICES

Tema 1: MATRICES. OPERACIONES CON MATRICES Tema 1: MATRICES. OPERACIONES CON MATRICES 1. DEFINICIÓN Y TIPO DE MATRICES DEFINICIÓN. Una matriz es un conjunto de números reales dispuestos en filas y columnas. Si en ese conjunto hay m n números escritos

Más detalles

Definición Dados dos números naturales m y n, una matriz de orden o dimensión m n es una tabla numérica rectangular con m filas y n columnas.

Definición Dados dos números naturales m y n, una matriz de orden o dimensión m n es una tabla numérica rectangular con m filas y n columnas. Tema 1 Matrices 1.1. Conceptos básicos y ejemplos Definición 1.1.1. Dados dos números naturales m y n, una matriz de orden o dimensión m n es una tabla numérica rectangular con m filas y n columnas. NOTA:

Más detalles

de la forma ), i =1,..., m, j =1,..., n, o simplemente por (a i j ).

de la forma ), i =1,..., m, j =1,..., n, o simplemente por (a i j ). INTRODUCCIÓN. MATRICES Y DETERMINANTES Las matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones lineales, de las ecuaciones diferenciales y de las derivadas parciales.

Más detalles

Tema 5: Sistemas de ecuaciones lineales.

Tema 5: Sistemas de ecuaciones lineales. TEORÍA DE ÁLGEBRA: Tema 5 DIPLOMATURA DE ESTADÍSTICA 1 Tema 5: Sistemas de ecuaciones lineales 1 Definiciones generales Definición 11 Una ecuación lineal con n incognitas es una expresión del tipo a 1

Más detalles

Matrices y determinantes

Matrices y determinantes Matrices y determinantes 1 Ejemplo Cuál es el tamaño de las siguientes matrices? Cuál es el elemento a 21, b 23, c 42? 2 Tipos de matrices Matriz renglón o vector renglón Matriz columna o vector columna

Más detalles

Tema 1: Matrices y Determinantes

Tema 1: Matrices y Determinantes Tema 1: Matrices y Determinantes September 14, 2009 1 Matrices Definición 11 Una matriz es un arreglo rectangular de números reales a 11 a 12 a 1m a 21 a 22 a 2m A = a n1 a n2 a nm Se dice que una matriz

Más detalles

SISTEMAS DE ECUACIONES LINEALES. Método de reducción o de Gauss. 1º DE BACHILLERATO DPTO DE MATEMÁTICAS COLEGIO MARAVILLAS AUTORA: Teresa González.

SISTEMAS DE ECUACIONES LINEALES. Método de reducción o de Gauss. 1º DE BACHILLERATO DPTO DE MATEMÁTICAS COLEGIO MARAVILLAS AUTORA: Teresa González. SISTEMAS DE ECUACIONES LINEALES Método de reducción o de Gauss 1º DE BACHILLERATO DPTO DE MATEMÁTICAS COLEGIO MARAVILLAS AUTORA: Teresa González. SISTEMAS DE DOS ECUACIONES LINEALES CON DOS INCÓGNITAS.

Más detalles

Dos matrices son iguales cuando tienen la misma dimensión y los elementos que ocupan el mismo lugar en ambas son iguales

Dos matrices son iguales cuando tienen la misma dimensión y los elementos que ocupan el mismo lugar en ambas son iguales Introducción Las matrices aparecen por primera vez hacia el año 1850, introducidas por J.J. Sylvester. El desarrollo inicial de la teoría se debe al matemático W.R. Hamilton en 1853. En 1858, A. Cayley

Más detalles

Matriz sobre K = R o C de dimensión m n

Matriz sobre K = R o C de dimensión m n 2 Matrices y Determinantes 21 Matrices Matriz sobre K = R o C de dimensión m n A = a 11 a 12 a 1n a 21 a 22 a 2n a m1 a m2 a mn Tipos de matrices: Cuadrada: n n = (a ij) i=1,,m j=1,,n Nula: (0) i,j 1 0

Más detalles

Sistemas de ecuaciones lineales

Sistemas de ecuaciones lineales Sistemas de ecuaciones lineales Sistemas de ecuaciones lineales Generalidades Definición [Sistema de ecuaciones lineales] Un sistema de m ecuaciones lineales con n incógnitas, es un conjunto de m igualdades

Más detalles

Sistemas de Ecuaciones Lineales

Sistemas de Ecuaciones Lineales Sistemas de Ecuaciones Lineales 1 Sistemas de ecuaciones y matrices Definición 1 Una ecuación lineal en las variables x 1, x 2,..., x n es una ecuación de la forma con a 1, a 2... y b números reales. a

Más detalles

Apuntes de álgebra lineal. Eduardo Liz Marzán. Enero de 2015.

Apuntes de álgebra lineal. Eduardo Liz Marzán. Enero de 2015. Apuntes de álgebra lineal Eduardo Liz Marzán Enero de 2015 Índice general 1 Introducción 7 11 Operaciones internas y estructura de cuerpo 7 12 Números complejos 8 13 Vectores 10 2 Matrices y determinantes

Más detalles

CURSO BÁSICO DE MATEMÁTICAS PARA ESTUDIANTES DE ECONÓMICAS Y EMPRESARIALES

CURSO BÁSICO DE MATEMÁTICAS PARA ESTUDIANTES DE ECONÓMICAS Y EMPRESARIALES CONCEPTO MATRICES Se llama matriz de orden (dimensión) m n a un conjunto de m n elementos dispuestos en m filas y n columnas Se representa por A = a 11 a 12 a 1n a 21 a 22 a 2n a m1 a m2 a mn j=1,2,,n

Más detalles

Matrices y Determinantes

Matrices y Determinantes Capítulo 1 Matrices y Determinantes 11 Matrices Generalidades Definición 11 Sea E un conjunto cualquiera, m, n N Definimos matriz de orden m n sobre E a una expresión de la forma: a 11 a 12 a 1n a 21 a

Más detalles

ALGEBRA y ALGEBRA LINEAL. Primer Semestre CAPITULO 6. POLINOMIOS DE UNA VARIABLE.

ALGEBRA y ALGEBRA LINEAL. Primer Semestre CAPITULO 6. POLINOMIOS DE UNA VARIABLE. ALGEBRA y ALGEBRA LINEAL 520142 Primer Semestre CAPITULO 6. POLINOMIOS DE UNA VARIABLE. DEPARTAMENTO DE INGENIERIA MATEMATICA Facultad de Ciencias Físicas y Matemáticas 1 Definición: Polinomio Sea K (Q,

Más detalles

Sistem as de ecuaciones lineales

Sistem as de ecuaciones lineales Sistem as de ecuaciones lineales. Concepto, clasificación y notación Un sistema de m ecuaciones lineales con n incógnitas se puede escribir del siguiente modo: a x + a 2 x 2 + a 3 x 3 + + a n x n = b a

Más detalles

Estructuras Algebraicas

Estructuras Algebraicas Tema 1 Estructuras Algebraicas Definición 1 Sea A un conjunto no vacío Una operación binaria (u operación interna) en A es una aplicación : A A A Es decir, tenemos una regla que a cada par de elementos

Más detalles

Matrices, determinantes, sistemas de ecuaciones lineales.

Matrices, determinantes, sistemas de ecuaciones lineales. UNIVERSIDAD DE MURCIA Departamento de Matemáticas Óptica y Optometría Resúmenes Curso 2007-2008 Matrices, determinantes, sistemas de ecuaciones lineales. Una matriz A de orden m n es una colección de m

Más detalles

Apéndice sobre ecuaciones diferenciales lineales

Apéndice sobre ecuaciones diferenciales lineales Apéndice sobre ecuaciones diferenciales lineales Juan-Miguel Gracia 10 de febrero de 2008 Índice 2 Determinante wronskiano. Wronskiano de f 1 (t), f 2 (t),..., f n (t). Derivada de un determinante de funciones.

Más detalles

Sistemas de ecuaciones lineales

Sistemas de ecuaciones lineales Sistemas de ecuaciones lineales ALBERTO VIGNERON TENORIO Dpto. de Matemáticas Universidad de Cádiz Índice general 1. Sistemas de ecuaciones lineales 1 1.1. Sistemas de ecuaciones lineales. Definiciones..........

Más detalles

Resumen 3: Matrices, determinantes y sistemas de ecuaciones

Resumen 3: Matrices, determinantes y sistemas de ecuaciones Resumen 3: Matrices, determinantes y sistemas de ecuaciones lineales 1 Matrices Una matriz con coeficientes sobre un cuerpo K (normalmente K R) consiste en una colección de números (o escalares) del cuerpo

Más detalles

TEMA 2. ESPACIOS VECTORIALES

TEMA 2. ESPACIOS VECTORIALES TEMA 2. ESPACIOS VECTORIALES CÉSAR ROSALES GEOMETRÍA I En este tema comenzaremos el estudio de los objetos que nos interesarán en esta asignatura: los espacios vectoriales. Estos son estructuras básicas

Más detalles

Conjuntos, relaciones y funciones Susana Puddu

Conjuntos, relaciones y funciones Susana Puddu Susana Puddu 1. Repaso sobre la teoría de conjuntos. Denotaremos por IN al conjunto de los números naturales y por ZZ al de los enteros. Dados dos conjuntos A y B decimos que A está contenido en B o también

Más detalles

MATRICES DETERMINANTES

MATRICES DETERMINANTES MATRICES Y DETERMINANTES INTRODUCCIÓN, MATRICES Y DETERMINANTES Las matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones lineales, de las ecuaciones diferenciales y de

Más detalles

3- Sistemas de Ecuaciones Lineales

3- Sistemas de Ecuaciones Lineales Nivelación de Matemática MTHA UNLP 1 3- Sistemas de Ecuaciones Lineales 1. Introducción Consideremos el siguiente sistema, en él tenemos k ecuaciones y n incógnitas. Los coeficientes a ij son números reales

Más detalles

Espacios Vectoriales www.math.com.mx

Espacios Vectoriales www.math.com.mx Espacios Vectoriales Definiciones básicas de Espacios Vectoriales www.math.com.mx José de Jesús Angel Angel jjaa@math.com.mx MathCon c 007-009 Contenido. Espacios Vectoriales.. Idea Básica de Espacio Vectorial.................................

Más detalles

Estos apuntes se han sacado de la página de internet de vitutor con pequeñas modificaciones.

Estos apuntes se han sacado de la página de internet de vitutor con pequeñas modificaciones. TEMA 1: MATRICES Concepto de matriz Se denomina matriz a todo conjunto de números o expresiones ordenados en filas y columnas. Cada uno de los números de que consta la matriz se denomina elemento. Un elemento

Más detalles

Álgebra y Trigonometría Clase 7 Sistemas de ecuaciones, Matrices y Determinantes

Álgebra y Trigonometría Clase 7 Sistemas de ecuaciones, Matrices y Determinantes Álgebra y Trigonometría Clase 7 Sistemas de ecuaciones, Matrices y Determinantes CNM-108 Departamento de Matemáticas Facultad de Ciencias Exactas y Naturales Universidad de Antioquia Copyleft c 2008. Reproducción

Más detalles

RESOLUCIÓN DE SISTEMAS MEDIANTE DETERMINANTES

RESOLUCIÓN DE SISTEMAS MEDIANTE DETERMINANTES UNIDD 4 RESOLUCIÓN DE SISTEMS MEDINTE DETERMINNTES Página 00 Resolución de sistemas mediante determinantes x y Resuelve, aplicando x = e y =, los siguientes sistemas de ecuaciones: x 5y = 7 5x + 4y = 6x

Más detalles

TEMA 8.- NORMAS DE MATRICES Y

TEMA 8.- NORMAS DE MATRICES Y Álgebra II: Tema 8. TEMA 8.- NORMAS DE MATRICES Y NúMERO DE CONDICIóN Índice. Introducción 2. Norma vectorial y norma matricial. 2 2.. Norma matricial inducida por normas vectoriales......... 4 2.2. Algunos

Más detalles

1. Sistemas de ecuaciones lineales

1. Sistemas de ecuaciones lineales Departamento de Matemática Aplicada CÁLCULO COMPUTACIONAL. Licenciatura en Química (Curso 25-6) Sistemas de ecuaciones lineales Práctica 2 En esta práctica vamos a ver cómo se pueden resolver sistemas

Más detalles

TEMA 1.- POLINOMIOS Y FRACCIONES ALGEBRAICAS

TEMA 1.- POLINOMIOS Y FRACCIONES ALGEBRAICAS TEMA 1.- POLINOMIOS Y FRACCIONES ALGEBRAICAS 1.- POLINOMIOS Recordemos que un monomio es una expresión algebraica (combinación de letras y números) en la que las únicas operaciones que aparecen entre las

Más detalles

Es trivial generalizar la definición al caso de varios conjuntos: A B C, etc.

Es trivial generalizar la definición al caso de varios conjuntos: A B C, etc. Tema 1 Espacios Vectoriales 1.1 Introducción Estas notas están elaboradas pensando simplemente en facilitar al estudiante una guía para el estudio de la asignatura, y en consecuencia se caracterizan por

Más detalles

Sistemas de Ecuaciones. Lineales I

Sistemas de Ecuaciones. Lineales I Sistemas de Ecuaciones Lineales I Preliminares: Expresión matricial. Dificultades numéricas. 521230-1 - DIM Universidad de Concepción Expresión matricial Todo sistema de ecuaciones lineales puede escribirse

Más detalles

Esta expresión polinómica puede expresarse como una expresión matricial de la forma; a 11 a 12 a 1n x 1 x 2 q(x 1, x 2,, x n ) = (x 1, x 2,, x n )

Esta expresión polinómica puede expresarse como una expresión matricial de la forma; a 11 a 12 a 1n x 1 x 2 q(x 1, x 2,, x n ) = (x 1, x 2,, x n ) Tema 3 Formas cuadráticas. 3.1. Definición y expresión matricial Definición 3.1.1. Una forma cuadrática sobre R es una aplicación q : R n R que a cada vector x = (x 1, x 2,, x n ) R n le hace corresponder

Más detalles

ALN. Repaso matrices. In. Co. Facultad de Ingeniería Universidad de la República

ALN. Repaso matrices. In. Co. Facultad de Ingeniería Universidad de la República ALN Repaso matrices In. Co. Facultad de Ingeniería Universidad de la República Definiciones básicas - Vectores Definiciones básicas - Vectores Construcciones Producto interno: ( x, y n i x y i i ' α Producto

Más detalles

Problemas de Espacios Vectoriales

Problemas de Espacios Vectoriales Problemas de Espacios Vectoriales 1. Qué condiciones tiene que cumplir un súbconjunto no vacío de un espacio vectorial para que sea un subespacio vectorial de este? Pon un ejemplo. Sean E un espacio vectorial

Más detalles

Matemáticas Aplicadas a los Negocios

Matemáticas Aplicadas a los Negocios LICENCIATURA EN NEGOCIOS INTERNACIONALES Matemáticas Aplicadas a los Negocios Unidad 4. Aplicación de Matrices OBJETIVOS PARTICULARES DE LA UNIDAD Al finalizar esta unidad, el estudiante será capaz de:

Más detalles

Una matriz es un arreglo rectangular de elementos. Por ejemplo:

Una matriz es un arreglo rectangular de elementos. Por ejemplo: 1 MATRICES CONCEPTOS BÁSICOS Definición: Matriz Una matriz es un arreglo rectangular de elementos. Por ejemplo: es una matriz de 3 x 2 (que se lee 3 por 2 ) pues es un arreglo rectangular de números con

Más detalles

Espacios vectoriales reales.

Espacios vectoriales reales. Tema 3 Espacios vectoriales reales. 3.1 Espacios vectoriales. Definición 3.1 Un espacio vectorial real V es un conjunto de elementos denominados vectores, junto con dos operaciones, una que recibe el nombre

Más detalles

Fundamentos Matemáticos de la Ingeniería. Tema 4: Diagonalización de matrices. Curso

Fundamentos Matemáticos de la Ingeniería. Tema 4: Diagonalización de matrices. Curso Fundamentos Matemáticos de la Ingeniería Tema 4 Hoja Escuela Técnica Superior de Ingeniería Civil e Industrial Esp en Hidrología Fundamentos Matemáticos de la Ingeniería Tema 4: Diagonaliación de matrices

Más detalles

El Teorema Fundamental del Álgebra

El Teorema Fundamental del Álgebra El Teorema Fundamental del Álgebra 1. Repaso de polinomios Definiciones básicas Un monomio en una indeterminada x es una expresión de la forma ax n que representa el producto de un número, a, por una potencia

Más detalles

Determinantes. Determinante de orden uno. a 11 = a 11 5 = 5

Determinantes. Determinante de orden uno. a 11 = a 11 5 = 5 DETERMINANTES Determinantes Concepto de determinante A cada matriz cuadrada A se le asigna un escalar particular denominado determinante de A, denotado por A o por det (A). A = Determinante de orden uno

Más detalles

Inversas de las matrices triangulares superiores

Inversas de las matrices triangulares superiores Inversas de las matrices triangulares superiores Ejercicios Objetivos. Demostrar que la inversa a una matriz triangular superior también es triangular superior. Requisitos. Algoritmo de inversión de una

Más detalles

Recordemos que utilizaremos, como es habitual, la siguiente notación para algunos conjuntos de números que son básicos.

Recordemos que utilizaremos, como es habitual, la siguiente notación para algunos conjuntos de números que son básicos. Capítulo 1 Preliminares Vamos a ver en este primer capítulo de preliminares algunos conceptos, ideas y propiedades que serán muy útiles para el desarrollo de la asignatura. Se trata de resultados sobre

Más detalles

Matemá'cas generales

Matemá'cas generales Matemá'cas generales Matrices y Sistemas Patricia Gómez García José Antonio Álvarez García DPTO. DE MATEMÁTICA APLICADA Y CIENCIAS DE LA COMPUTACIÓN Este tema se publica bajo Licencia: Crea've Commons

Más detalles

ALGEBRA I, ALGEBRA Y TRIGONOMETRIA , Segundo Semestre CAPITULO 6: POLINOMIOS.

ALGEBRA I, ALGEBRA Y TRIGONOMETRIA , Segundo Semestre CAPITULO 6: POLINOMIOS. ALGEBRA I, ALGEBRA Y TRIGONOMETRIA 520135, 522115 Segundo Semestre CAPITULO 6: POLINOMIOS. DEPARTAMENTO DE INGENIERIA MATEMATICA Facultad de Ciencias Físicas y Matemáticas 1 Definición: Polinomio Sea K

Más detalles

MAT web:

MAT web: Clase No. 7: MAT 251 Matrices definidas positivas Matrices simétricas Dr. Alonso Ramírez Manzanares Depto. de Matemáticas Univ. de Guanajuato e-mail: alram@ cimat.mx web: http://www.cimat.mx/ alram/met_num/

Más detalles

Tema 3 Resolución de Sistemas de Ecuaciones Lineales

Tema 3 Resolución de Sistemas de Ecuaciones Lineales Tema Resolución de Sistemas de Ecuaciones Lineales Índice Introducción 2 Método de Gauss 2 Resolución de sistemas triangulares 22 Triangulación por el método de Gauss 2 Variante Gauss-Jordan 24 Comentarios

Más detalles

Capítulo 8: Vectores

Capítulo 8: Vectores Capítulo 8: Vectores 1. Lección 30. Operaciones con vectores 1.1. Vectores El concepto de vector aparece en Física para describir magnitudes, tales como la fuerza que actúa sobre un punto, en las que no

Más detalles

MATRICES. Capítulo 3. Martínez Héctor Jairo Sanabria Ana María Semestre 02, Introducción Definición y Tipo de Matrices

MATRICES. Capítulo 3. Martínez Héctor Jairo Sanabria Ana María Semestre 02, Introducción Definición y Tipo de Matrices 55 Capítulo 3 MATRICES Martínez Héctor Jairo Sanabria Ana María Semestre 02, 2007 3 Introducción En los capítulos anteriores, utilizando la noción de matriz, simplificamos la representación de problemas

Más detalles

Conjuntos Los conjuntos se emplean en muchas áreas de las matemáticas, de modo que es importante una comprensión de los conjuntos y de su notación.

Conjuntos Los conjuntos se emplean en muchas áreas de las matemáticas, de modo que es importante una comprensión de los conjuntos y de su notación. NÚMEROS REALES Conjuntos Los conjuntos se emplean en muchas áreas de las matemáticas, de modo que es importante una comprensión de los conjuntos y de su notación. Un conjunto es una colección bien definida

Más detalles

Matriz A = Se denomina MATRIZ a todo conjunto de números o expresiones dispuestos en forma rectangular, formando filas y columnas.

Matriz A = Se denomina MATRIZ a todo conjunto de números o expresiones dispuestos en forma rectangular, formando filas y columnas. MATRICES Matriz Se denomina MATRIZ a todo conjunto de números o expresiones dispuestos en forma rectangular, formando filas y columnas. a 11 a 12 a 1j a 1n a 21 a 22 a 2j a 2n A = a i1 a ij a in a m1 a

Más detalles

Curso º ESO. UNIDADES 6 Y 7: EXPRESIONES ALGEBRAICAS Y ECUACIONES Departamento de Matemáticas IES Fray Bartolomé de las Casas de Morón

Curso º ESO. UNIDADES 6 Y 7: EXPRESIONES ALGEBRAICAS Y ECUACIONES Departamento de Matemáticas IES Fray Bartolomé de las Casas de Morón 2º ESO UNIDADES 6 Y 7: EXPRESIONES ALGEBRAICAS Y ECUACIONES Departamento de Matemáticas IES Fray Bartolomé de las Casas de Morón OBJETIVOS CONTENIDOS PROCEDIMIENTOS Lenguaje algebraico. Normas y Traducción

Más detalles

MATRICES. M(n) ó M nxn A =

MATRICES. M(n) ó M nxn A = MTRICES Definición de matriz. Una matriz de orden m n es un conjunto de m n elementos pertenecientes a un conjunto, que para nosotros tendrá estructura de cuerpo conmutativo y lo denotaremos por K, dispuestos

Más detalles

Tema 2.- Formas Cuadráticas.

Tema 2.- Formas Cuadráticas. Álgebra. 004 005. Ingenieros Industriales. Departamento de Matemática Aplicada II. Universidad de Sevilla. Tema.- Formas Cuadráticas. Definición y representación matricial. Clasificación de las formas

Más detalles

ALGEBRA 1- GRUPO CIENCIAS- TURNO TARDE- Enteros

ALGEBRA 1- GRUPO CIENCIAS- TURNO TARDE- Enteros Resumen teoría Prof. Alcón ALGEBRA 1- GRUPO CIENCIAS- TURNO TARDE- Z = N {0} N Enteros Las operaciones + y. son cerradas en Z, es decir la suma de dos números enteros es un número entero y el producto

Más detalles

Matemáticas Discretas TC1003

Matemáticas Discretas TC1003 Matemáticas Discretas TC13 Matrices: Conceptos y Operaciones Básicas Departamento de Matemáticas ITESM Matrices: Conceptos y Operaciones Básicas Matemáticas Discretas - p. 1/25 Una matriz A m n es un arreglo

Más detalles

Grupos libres. Presentaciones.

Grupos libres. Presentaciones. S _ Tema 12.- Grupos libres. Presentaciones. 12.1 Grupos libres. En el grupo Z de los enteros vimos una propiedad (cf. ejemplos.5), que lo caracteriza como grupo libre. Lo enunciamos al modo de una Propiedad

Más detalles

Vectores y Matrices. Tema 3: Repaso de Álgebra Lineal Parte I. Contenidos

Vectores y Matrices. Tema 3: Repaso de Álgebra Lineal Parte I. Contenidos Tema 3: Repaso de Álgebra Lineal Parte I Virginia Mazzone Contenidos Vectores y Matrices Bases y Ortonormailizaciòn Norma de Vectores Ecuaciones Lineales Algenraicas Ejercicios Vectores y Matrices Los

Más detalles

Algebra Lineal. Gustavo Rodríguez Gómez. Verano 2011 INAOE. Gustavo Rodríguez Gómez (INAOE) Algebra Lineal Verano / 21

Algebra Lineal. Gustavo Rodríguez Gómez. Verano 2011 INAOE. Gustavo Rodríguez Gómez (INAOE) Algebra Lineal Verano / 21 Algebra Lineal Gustavo Rodríguez Gómez INAOE Verano 2011 Gustavo Rodríguez Gómez (INAOE) Algebra Lineal Verano 2011 1 / 21 Espacios Vectoriales Espacios Vectoriales INAOE Gustavo Rodríguez Gómez (INAOE)

Más detalles

Matrices y Determinantes.

Matrices y Determinantes. Matrices y Determinantes. Definición [Matriz] Sea E un conjunto cualquiera, m, n N. Matrices. Generalidades Matriz de orden m n sobre E: a 11 a 12... a 1n a 21 a 22... a 2n...... a m1 a m2... a mn a ij

Más detalles

Tema 3: Sistemas de ecuaciones lineales

Tema 3: Sistemas de ecuaciones lineales Tema 3: Sistemas de ecuaciones lineales 1. Introducción Los sistemas de ecuaciones resuelven problemas relacionados con situaciones de la vida cotidiana que tiene que ver con las Ciencias Sociales. Nos

Más detalles

ECUACIONES.

ECUACIONES. . ECUACIONES... Introducción. Recordemos que el valor numérico de un polinomio (y, en general, de cualquier epresión algebraica) se calcula sustituyendo la/s variable/s por números (que, en principio,

Más detalles

Determinantes. Concepto de determinante A cada matriz cuadrada A se le asigna un número denominado determinante de A, denotado por A o por det (A).

Determinantes. Concepto de determinante A cada matriz cuadrada A se le asigna un número denominado determinante de A, denotado por A o por det (A). Determinantes Concepto de determinante A cada matriz cuadrada A se le asigna un número denominado determinante de A, denotado por A o por det (A). A = Determinante de orden uno a 11 = a 11 5 = 5 Determinante

Más detalles

BLOQUE DE ÁLGEBRA: TEMA 1: MATRICES.

BLOQUE DE ÁLGEBRA: TEMA 1: MATRICES. BLOQUE DE ÁLGEBRA: TEMA 1: MATRICES. Matrices: Se llama matriz de dimensión m n a un conjunto de números reales dispuestos en m filas y n columnas de la siguiente forma: 11 a 12 a 13... a 1n A= a a 21

Más detalles

MATEMÁTICAS APLICADAS A LAS C.C. SOCIALES

MATEMÁTICAS APLICADAS A LAS C.C. SOCIALES MATEMÁTICAS APLICADAS A LAS CC SOCIALES CAPÍTULO 2 Curso preparatorio de la prueba de acceso a la universidad para mayores de 25 años curso 2010/11 Nuria Torrado Robles Departamento de Estadística Universidad

Más detalles

MENORES, COFACTORES Y DETERMINANTES

MENORES, COFACTORES Y DETERMINANTES MENORES, COFACTORES Y DETERMINANTES 1. Introducción. 2. Determinante de una matriz de 3 x 3. 3. Menores y cofactores. 4. Determinante de una matriz de n x n. 5. Matriz triangular. 6. Determinante de una

Más detalles

Factorización de polinomios FACTORIZACIÓN DE POLINOMIOS

Factorización de polinomios FACTORIZACIÓN DE POLINOMIOS FACTORIZACIÓN DE POLINOMIOS 1. Polinomios Un monomio es el producto de un número real por una o más letras que pueden estar elevadas a exponentes que sean números naturales. La suma de los exponentes de

Más detalles

Transformaciones lineales y matrices

Transformaciones lineales y matrices CAPíTULO 5 Transformaciones lineales y matrices 1 Matriz asociada a una transformación lineal Supongamos que V y W son espacios vectoriales de dimensión finita y que T : V W es una transformación lineal

Más detalles

1. dejar a una lado de la igualdad la expresión que contenga una raíz.

1. dejar a una lado de la igualdad la expresión que contenga una raíz. 1. Resuelve las siguientes ecuaciones reales: Solución x 1 + x = 0 ; 3 x = 3 ; ln(x 1) + 4 = ln 3 Ecuaciones con raíces: No todas las ecuaciones de este tipo son sencillas de resolver, pero podemos intentar

Más detalles

Tema 3 Resolución de Sistemas deecuaciones Lineales

Tema 3 Resolución de Sistemas deecuaciones Lineales Tema 3 Resolución de Sistemas de Ecuaciones Lineales E.T.S.I. Informática Indice 1 Introducción 2 Resolución de Sistemas Triangulares Triangulación por el Método de Gauss Variante de Gauss-Jordan Comentarios

Más detalles

Definición de la matriz inversa

Definición de la matriz inversa Definición de la matriz inversa Objetivos Aprender la definición de la matriz inversa Requisitos Multiplicación de matrices, habilidades básicas de resolver sistemas de ecuaciones Ejemplo El número real

Más detalles

b) Sea una relación de equivalencia en A y una operación en A. Decimos que y son compatibles si a b a c b c y c a c b para todo a, b, c A

b) Sea una relación de equivalencia en A y una operación en A. Decimos que y son compatibles si a b a c b c y c a c b para todo a, b, c A APENDICE Relaciones y Operaciones Compatibles 1 Definición: a) Sea A un conjunto y una relación entre elementos de A. Decimos que es una relación de equivalencia si es: i Reflexiva: a A, a a. ii Simétrica:

Más detalles

Una matriz es una tabla ordenada (por filas y columnas) de escalares a i j de la forma: ... ... a... ...

Una matriz es una tabla ordenada (por filas y columnas) de escalares a i j de la forma: ... ... a... ... MATRICES Las matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones lineales, de las ecuaciones diferenciales y de las derivadas parciales. Tienen también muchas aplicaciones

Más detalles

Matrices y Determinantes

Matrices y Determinantes Matrices y Determinantes Definición de matriz Matriz Una matriz es un ente matemático equivalente a una tabla; es decir, es un arreglo de elementos de cualquier naturaleza (aunque, en general, suelen ser

Más detalles

Polaridad. Tangentes. Estudio geométrico de cónicas y cuádricas

Polaridad. Tangentes. Estudio geométrico de cónicas y cuádricas Tema 6- Polaridad Tangentes Estudio geométrico de cónicas y cuádricas En este tema pretendemos estudiar propiedades de V(Q), especialmente en los casos real y complejo, con n =2,3 Para ello, necesitamos

Más detalles

Cálculo de valores propios de matrices

Cálculo de valores propios de matrices Cálculo de valores propios de matrices Curso 2016-17 1 Cálculo de valores propios: principio básico» λ 1 0 λ 2 Teorema de Schur: U AU T...... fl 0 0 λ n Si ppλq λ 5 p 1 λ 4 p 2 λ 3 p 3 λ 2 p 4 λ p 5» 0

Más detalles

Semana05[1/14] Relaciones. 28 de marzo de Relaciones

Semana05[1/14] Relaciones. 28 de marzo de Relaciones Semana05[1/14] 28 de marzo de 2007 Introducción Semana05[2/14] Ya en los capítulos anteriores nos acercamos al concepto de relación. Relación Dados un par de conjuntos no vacíos A y B, llamaremos relación

Más detalles

Estructuras algebraicas

Estructuras algebraicas Estructuras algebraicas Natalia Boal María Luisa Sein-Echaluce Universidad de Zaragoza 1 Relaciones binarias 11 Recordatorio Definición Dados dos conjuntos A y B se llama producto cartesiano de A por B

Más detalles

Sistemas de dos ecuaciones lineales de primer grado con dos incógnitas

Sistemas de dos ecuaciones lineales de primer grado con dos incógnitas Un sistema de dos ecuaciones lineales de primer grado con dos incógnitas tiene la siguiente forma Ax + By + C = 0 A x + B y + C (1) = 0 Ya sabemos que una ecuación lineal de primer grado con dos incógnitas

Más detalles

Matrices y sistemas de ecuaciones lineales

Matrices y sistemas de ecuaciones lineales Matrices y sistemas de ecuaciones lineales Problemas para examen Antes de resolver un problema en el caso general, se recomienda considerar casos particulares (por ejemplo, n = 4 y n = 50). En el caso

Más detalles

Álgebra Lineal Ma1010

Álgebra Lineal Ma1010 Álgebra Ma1010 Departamento de Matemáticas ITESM Álgebra - p. 1/31 En este apartado se introduce uno de los conceptos más importantes del curso: el de combinación lineal entre vectores. Se establece la

Más detalles

Unidad 2: Ecuaciones, inecuaciones y sistemas.

Unidad 2: Ecuaciones, inecuaciones y sistemas. Unidad 2: Ecuaciones, inecuaciones y sistemas 1 Unidad 2: Ecuaciones, inecuaciones y sistemas. 1.- Factorización de polinomios. M. C. D y m.c.m de polinomios. Un número a es raíz de un polinomio es 0.

Más detalles

Lección 5.1: Matrices y determinantes. Primeros conceptos. Objetivos de esta lección

Lección 5.1: Matrices y determinantes. Primeros conceptos. Objetivos de esta lección Matemáticas Tema 5: Conceptos básicos sobre matrices y vectores Objetivos Lección 5.: y determinantes Philippe Bechouche Departamento de Matemática Aplicada Universidad de Granada 3 4 phbe@ugr.es 5 Qué

Más detalles

UNIDAD 10: ECUACIONES DE SEGUNDO GRADO.

UNIDAD 10: ECUACIONES DE SEGUNDO GRADO. UNIDAD 10: ECUACIONES DE SEGUNDO GRADO. 10.1 Estudio elemental de la ecuación de segundo grado. Expresión general. 10.2 Resolución de ecuaciones de segundo grado completas e incompletas. 10.3 Planteamiento

Más detalles

Determinante de una matriz

Determinante de una matriz 25 Matemáticas I : Preliminares Tema 3 Determinante de una matriz 31 Determinante de una matriz cuadrada Definición 67- Sea A una matriz cuadrada de orden n Llamaremos producto elemental en A al producto

Más detalles

Anillo de polinomios con coeficientes en un cuerpo

Anillo de polinomios con coeficientes en un cuerpo Capítulo 2 Anillo de polinomios con coeficientes en un cuerpo En el conjunto Z se ha visto cómo la relación ser congruente módulo m para un entero m > 1, es compatible con las operaciones suma y producto.

Más detalles

UNIDAD DE APRENDIZAJE I

UNIDAD DE APRENDIZAJE I UNIDAD DE APRENDIZAJE I Saberes procedimentales Interpreta y utiliza correctamente el lenguaje simbólico para el manejo de expresiones algebraicas. 2. Identifica operaciones básicas con expresiones algebraicas.

Más detalles

MATEMÁTICAS APLICADAS A LAS C.C. SOCIALES

MATEMÁTICAS APLICADAS A LAS C.C. SOCIALES MATEMÁTICAS APLICADAS A LAS C.C. SOCIALES CAPÍTULO 1 Curso preparatorio de la prueba de acceso a la universidad para mayores de 25 años curso 2010/11 Nuria Torrado Robles Departamento de Estadística Universidad

Más detalles

Ámbito Científico-Tecnológico Módulo III Bloque 3 Unidad 3 Las letras y los números: un cóctel perfecto

Ámbito Científico-Tecnológico Módulo III Bloque 3 Unidad 3 Las letras y los números: un cóctel perfecto Ámbito Científico-Tecnológico Módulo III Bloque 3 Unidad 3 Las letras y los números: un cóctel perfecto En esta unidad vas a comenzar el estudio del álgebra, el lenguaje de las matemáticas. Vas a aprender

Más detalles

SISTEMAS DE ECUACIONES LINEALES Y MATRICES Dos ecuaciones lineales con dos

SISTEMAS DE ECUACIONES LINEALES Y MATRICES Dos ecuaciones lineales con dos de SISTEMAS DE ECUACIONES ES Y MATRICES Dos m con n Sergio Stive Solano 1 Febrero de 2015 1 Visita http://sergiosolanosabie.wikispaces.com de SISTEMAS DE ECUACIONES ES Y MATRICES Dos m con n Sergio Stive

Más detalles

Teoría Tema 9 Ecuaciones del plano

Teoría Tema 9 Ecuaciones del plano página 1/11 Teoría Tema 9 Ecuaciones del plano Índice de contenido Determinación lineal de un plano. Ecuación vectorial y paramétrica...2 Ecuación general o implícita del plano...6 Ecuación segmentaria

Más detalles

Operaciones con matrices

Operaciones con matrices Operaciones con matrices Problemas teóricos En todos los problemas de esta lista se supone que F es un campo (cuerpo). Si no conoce bien el concepto de campo, entonces puede pensar que F = R. Operaciones

Más detalles

Conjunto R 3 y operaciones lineales en R 3

Conjunto R 3 y operaciones lineales en R 3 Conjunto R 3 y operaciones lineales en R 3 Objetivos. Definir el conjunto R 3 y operaciones lineales en R 3. Requisitos. Conjunto de los números reales R, propiedades de las operaciones aritméticas en

Más detalles