1. Matrices Definiciones básicas

Documentos relacionados
Sistemas de Ecuaciones Lineales y Matrices

1 SISTEMAS DE ECUACIONES LINEALES. MÉTODO DE GAUSS

Conjuntos y matrices. Sistemas de ecuaciones lineales

Tema 2: Teorema de estructura de los grupos abelianos finitamente generados.

Clase 8 Matrices Álgebra Lineal

1 ÁLGEBRA DE MATRICES

de la forma ), i =1,..., m, j =1,..., n, o simplemente por (a i j ).

TEMA 1. MATRICES, DETERMINANTES Y APLICACIÓN DE LOS DETERMINANTES. CONCEPTO DE MATRIZ. LA MATRIZ COMO EXPRESIÓN DE TABLAS Y GRAFOS.

MATRICES. Se simboliza tal matriz por y se le llamará una matriz x o matriz de orden x (que se lee por ).

Sistemas de Ecuaciones Lineales

Matrices, Determinantes y Sistemas Lineales.

ÁLGEBRA LINEAL I Algunas soluciones a la Práctica 3

Definición Dados dos números naturales m y n, una matriz de orden o dimensión m n es una tabla numérica rectangular con m filas y n columnas.

Tema 1: Matrices y Determinantes

Álgebra y Trigonometría Clase 7 Sistemas de ecuaciones, Matrices y Determinantes

Sistemas de ecuaciones lineales

Matriz sobre K = R o C de dimensión m n

Resumen 3: Matrices, determinantes y sistemas de ecuaciones

Matrices y sistemas lineales

Matrices y determinantes

Tema 1: Matrices. El concepto de matriz alcanza múltiples aplicaciones tanto en la representación y manipulación de datos como en el cálculo numérico.

Tema 1: MATRICES. OPERACIONES CON MATRICES

Tema 5: Sistemas de ecuaciones lineales.

RESOLUCIÓN DE SISTEMAS MEDIANTE DETERMINANTES

Matrices y determinantes. Sistemas de ecuaciones lineales

Sistemas de ecuaciones lineales

MATRICES. Capítulo 3. Martínez Héctor Jairo Sanabria Ana María Semestre 02, Introducción Definición y Tipo de Matrices

Espacios Vectoriales. AMD Grado en Ingeniería Informática. AMD Grado en Ingeniería Informática (UM) Espacios Vectoriales 1 / 21

Algebra lineal y conjuntos convexos

DEFINICIONES TIPOS DE MATRICES DETERMINANTES Y PROPIEDADES OPERACIONES MATRICIALES INVERSA DE UNA MATRIZ SISTEMAS DE ECUACIONES

TEMA 4: Sistemas de ecuaciones lineales II

Sistemas de ecuaciones lineales

Matrices Invertibles y Elementos de Álgebra Matricial

MATRICES DETERMINANTES

3- Sistemas de Ecuaciones Lineales

Tema 3: Espacios vectoriales

Matrices y Determinantes

520142: ALGEBRA y ALGEBRA LINEAL

RESOLUCIÓN DE SISTEMAS MEDIANTE DETERMINANTES

Definición de la matriz inversa

RESOLUCIÓN DE SISTEMAS MEDIANTE DETERMINANTES

Métodos directos para resolver sistemas de ecuaciones lineales

CURSO BÁSICO DE MATEMÁTICAS PARA ESTUDIANTES DE ECONÓMICAS Y EMPRESARIALES

SISTEMAS DE ECUACIONES LINEALES

ÁLGEBRA DE MATRICES. Al consejero A no le gusta ninguno de sus colegas como presidente.

Ejemplo 1. Ejemplo introductorio

SISTEMAS DE ECUACIONES LINEALES. Método de reducción o de Gauss. 1º DE BACHILLERATO DPTO DE MATEMÁTICAS COLEGIO MARAVILLAS AUTORA: Teresa González.

Sistem as de ecuaciones lineales

DOCENTE: JESÚS E. BARRIOS P.

Matemáticas Discretas TC1003

Matrices, determinantes, sistemas de ecuaciones lineales.

ALGEBRA 1- GRUPO CIENCIAS- TURNO TARDE- Enteros

BLOQUE DE ÁLGEBRA: TEMA 1: MATRICES.

Anillos. a + (b + c) = (a + b) + c. 3) Existe un elemento 0 en R, el cual llamaremos cero, tal que. a + 0 = 0 + a = a para todo a en R.

Descomposición en forma canónica de Jordan (Segunda versión)

SISTEMAS DE ECUACIONES LINEALES Y MATRICES Dos ecuaciones lineales con dos

Introducción a los espacios vectoriales

Apéndice sobre ecuaciones diferenciales lineales

MATRICES. M(n) ó M nxn A =

Matrices 1. Se denomina matriz a todo conjunto de números o expresiones dispuestos en forma rectangular, formando filas y columnas.

Matriz A = Se denomina MATRIZ a todo conjunto de números o expresiones dispuestos en forma rectangular, formando filas y columnas.

TEMA 1: MATRICES. Una matriz de orden mxn es un conjunto de m n números reales dispuestos en m filas y n columnas ...

Sistemas de ecuaciones lineales y álgebra matricial

2 - Matrices y Determinantes

UNIVERSIDAD SIMON BOLIVAR MA1116 abril-julio de 2009 Departamento de Matemáticas Puras y Aplicadas. Ejercicios sugeridos para :

Estructuras Algebraicas

Conjuntos, relaciones y funciones Susana Puddu

Lección 5.1: Matrices y determinantes. Primeros conceptos. Objetivos de esta lección

Sistemas de ecuaciones lineales dependientes de un parámetro

Notas del curso de Algebra Lineal I. Luis Valero Elizondo

Matrices. p ij = a ik b kj = a i1 b 1j + a i2 b 2j + + a in b nj.

Algebra Lineal XIX: Rango de una Matriz y Matriz Inversa.

Una matriz es un arreglo rectangular de elementos. Por ejemplo:

Departamento de Matemáticas, CCIR/ITESM. 9 de febrero de 2011

Matrices y Determinantes

Tema 1. Espacios Vectoriales Definición de Espacio Vectorial

Tema 4: Matrices y Determinantes. Algunas Notas sobre Matrices y Determinantes. Álgebra Lineal. Curso

Semana03[1/17] Funciones. 16 de marzo de Funciones

un conjunto cuyos elementos denominaremos vectores y denotaremos por es un espacio vectorial si verifica las siguientes propiedades:

Estos apuntes se han sacado de la página de internet de vitutor con pequeñas modificaciones.

Si A es una matriz cuadrada n x n, tal que A 2 = A, e I es la matriz unidad ( n x n ), qué matriz es B 2, si B = 2ª - I?

Lo rojo sería la diagonal principal.

1. Sistemas de ecuaciones lineales

TEMA 8.- NORMAS DE MATRICES Y

Tema 2.- Formas Cuadráticas.

Matemá'cas generales

Tema 1. Álgebra lineal. Matrices

Factorización de matrices

Dos matrices son iguales cuando tienen la misma dimensión y los elementos que ocupan el mismo lugar en ambas son iguales

Espacios vectoriales. Capítulo Espacios vectoriales y subespacios Preliminares

Matrices y Determinantes.

Matrices y Determinantes

Una matriz es una tabla ordenada (por filas y columnas) de escalares a i j de la forma: a

Tema 3: Sistemas de ecuaciones lineales

Sistemas lineales con parámetros

EJERCICIOS RESUELTOS DE MATRICES

PROBLEMAS RESUELTOS DE PREPARACIÓN PARA OPOSICIONES. Problemas 02

Transformaciones lineales y matrices

Determinante de una matriz

Determinantes. Determinante de orden uno. a 11 = a 11 5 = 5

Transcripción:

Ingeniería Matemática FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE Álgebra Lineal 07-2 Importante: Visita regularmente http://wwwdimuchilecl/ algebra Ahí encontrarás las guías de ejercicios y problemas, además de información acerca de cuál será la dinámica del curso Matrices Definiciones básicas SEMANA : MATRICES Definición (Matriz) Una matriz A, de m filas y n columnas con coeficientes en el cuerpo à (en este apunte à será Ê ó ) es una tabla de doble entrada: a a n A, a ij Ã, i,,m, j,, n a m a mn Notamos también la matriz como A (a ij ) y denominamos M mn (Ã) al conjunto de todas las matrices de m filas y n columnas con coeficientes en el cuerpo à Definición 2 (Igualdad de matrices) Dadas dos matrices A M mn (Ã), B M m n (Ã), diremos que son iguales si y sólo si: Usa estas notas al margen para consultar de manera más rápida el material Haz también tus propias anotaciones matriz M mn(ã) A B (m m ) (n n ) ( i {,, m}, j {,, n}, a ij b ij ) Un caso especial de matrices son aquellas de n Estas matrices se llamarán posteriormente vectores de à n Así nuestros vectores serán matrices de una sola columna Construimos una estructura algebraica sobre M mn (Ã) a partir de las operaciones definidas en el cuerpo à Se define la suma de dos matrices como sigue: vector de à n A + B A, B M mn (Ã), A + B (a ij + b ij ) Por ejemplo, en (Ê, +, ): ( 2 ) 3 0 2 Es fácil verificar que + ( ) 0 2 3 2 ( ) 5 3 0 0 Proposición (M mn (Ã), +) tiene estructura de grupo Abeliano Demostración La suma es asociativa y conmutativa, como herencia de las mismas propiedades en el cuerpo à El neutro aditivo es 0 0 0 M mn (Ã) 0 0 El inverso aditivo de A (a ij ) es A ( a ij ) Por ejemplo, en M 23 ( ): 0 M mn(ã) A

Luego ( ) i 0 0 + i 0 ( i i 0 + 0 0 + 0 i + i 0 + 0 ( ) i 0 0 i 0 ( ) i 0 0 i 0 ) ( ) 0 0 0 0 0 0 0 ( ) i 0 0 i 0 Definición 3 (Producto de matrices) Dadas A (a ij ) M mr (Ã), B (b ij ) M rn (Ã) se define el producto C AB como aquella matriz C M mn (Ã) tal que A B c ij Claramente C M mn (Ã) r a ik b kj, k i,, m, j,,n Ejemplos: En (Ê, +, ), A C A B 2 En (, +, ), ( ) 0 M 2 23 (Ê), B 2 0 0 2 0 M 34 (Ê) 0 0 ( 0 2 ) 2 0 ( ) 0 2 0 0 0 0 M 2 6 4 24 (Ê) 0 A ( i, i, 0) M 3 ( ) B i M 3 ( ) 0 C AB i i + i + 0 0 + i M ( ) Observación: La multiplicación de matrices no es conmutativa Por ejemplo en M 22 (Ê) : ( ) ( ) ( ) ( ) ( ) ( ) 0 0 0 0 0 0 0 0 0 0, 0 0 2 0 0 0 2 0 0 0 2 0 Dos propiedades importantes de la multiplicación son las siguientes: 2

Proposición 2 Asociatividad: Si A M mn (Ã), B M nq (Ã), C M qs (Ã), entonces: A(BC) (AB)C M ms (Ã) 2 Distributividad con respecto a la suma: Dadas A M mn (Ã), B, C M ns (Ã), entonces A(B + C) AB + AC M ms (Ã) De igual manera se tiene la distributividad por el otro lado Demostración Demostremos la distributibidad, quedando la asociatividad de ejercicio Denominando E A(B + C), se tiene: Ejercicio n e ij a ik (b kj + c kj ) k i {,, m}, j {,, s} Como la multiplicación distribuye con respecto a la suma en Ã: e ij n (a ik b kj + a ik c kj ) k n a ik b kj + k k n a ik c kj De la definición de multiplicación matricial, se obtiene E AB + AC Un caso particular muy importante es el de las matrices cuadradas, es decir con igual número de filas y columnas (M nn (Ã), ) admite un neutro multiplicativo, denominado matriz identidad: 0 0 { 0 0 I 0 si i j (δ ij), con δ ij si i j 0 0 matriz cuadrada I En efecto, dada A M nn (Ã) : 0 0 a a n 0 0 AI a n a nn 0 0 Concluímos entonces que n ( a ik δ kj ) (a ij δ jj ) (a ij ) A k Corolario (M nn (Ã), +, ) es un anillo con unidad (existe neutro para ) (M nn(ã),+, ) es anillo con unidad 3

Dado que (M nn (Ã, ) tiene un elemento neutro I, Tienen sus elementos inverso? Definición 4 (Matriz invertible) A M nn (Ã) es invertible si y sólo si existe B M nn (Ã) tal que: AB BA I () invertible Proposición 3 De existir una matriz B que satisfaga (), esta es única Por ende la notaremos B A A Demostración Sean B, B 2 M nn (Ã) que satisfacen () Luego B B I B (AB 2 ) Usando la asociatividad de tenemos, B (B A)B 2, pero como B A I, se concluye que B B 2 Cabe señalar que para que A sea invertible se requiere que exista una matriz B que sea a la vez inversa por izquierda y por derecha Probaremos más adelante que es suficiente que A tenga inversa por un solo lado Ejemplos: ( No todas ) las matrices cuadradas tienen inverso multiplicativo En M 22 (Ê), la matriz 2 no tiene inverso En efecto, si existiese el inverso, 2 4 ( ) x x digamos 2, debería verificarse: x 3 x 4 ( ) ( ) 2 x x 2 2 4 x 3 x 4 ( ) x + 2x 3 x 2 + 2x 4 2x + 4x 3 2x 2 + 4x 4 x + 2x 3 x 2 + 2x 4 0 2x + 4x 3 0 2x 2 + 4x 4 ( ) 0 0 ( ) 0 0 De la primera ecuación multiplicada por 2, obtenemos: 2(x + 2x 3 ) 2 Pero de la 4

tercera ecuación, 2x +4x 3 0 De esta contradicción concluímos que el sistema no tiene solución En otros casos sí existe inverso, por ejemplo, en M 22 (Ê), En efecto: ( 0 0 O bien, en M 22 ( ), lo que se verifica rápidamente ( ) 0 0 ) ( ) 0 0 ( ) i 0 0 i ( ) 0 0 ( ) 0 0 ( ) i 0, 0 i 2 Matrices Particulares Definición 5 Diremos que A M nn (Ã) es: Diagonal si y sólo si a ij 0 i j: diagonal A a 0 a 22 0 a nn En este caso la matriz es notada A diag(a, a 22,, a nn ) diag(a, a 22,, a nn) 2 Triangular superior si y sólo si a ij 0 si i > j: triangular superior a a 2 a n 0 a A 22 a 2n 0 0 a nn 3 Triangular inferior si y sólo si a ij 0 si i < j: triangular inferior a 0 0 a A 2 a 22 0 0 0 a n a n2 a nn 5

Ejemplos: A 0 0 0 0 2 0, I 0 0 0 0 son matrices diagonales 0 0 3 0 0 A 2 3 0 0, B 0 0 0 2 0 0 0 2 2 3 son matrices triangulares, superior e inferior respectivamente Ejercicio Ejercicio : Una propiedad que queda propuesta es que si A es diagonal con a ii 0, para i,,n entonces es invertible, y su inversa también es diagonal con (A ) ii a ii Notación: Dada una matriz A M mn (Ã) notaremos su i-ésima fila como: A i (a i a i2 a in ) y su j-ésima columna: a j a 2j A j a mj Podemos escribir entonces la matriz: A (A, A 2,, A n ), denominada notación por columnas O bien: A A A 2 A m, correspondiente a la notación por filas A i A j Ejercicio Ejercicio 2: Con respecto a esta notación, es un buen ejercicio estudiar cómo el producto de matrices afecta las columnas y filas de las matrices a multiplicar Más precisamente: Sean A M mn (Ã), B M np (Ã) y describamos B por sus columnas B (B, B 2,, B p ), demostrar que entonces AB (A(B ),, A(B p )), es decir la primera columna de AB es la matriz A por la primera columna de B, etc 6

Qué hay de las filas de AB? Definición 6 (Matriz ponderada) Dada una constante λ Ã, definimos la matriz A ponderada por λ: λa (λa ij ) λa Ejemplo: En M 23 (Ê): 3 ( ) 0 2 2 ( ) 3 3 0 6 6 3 Veamos ahora que sucede al multiplicar por la derecha o izquierda una matriz por otra diagonal: ( ) ( ) ( ) 2 0 2 2 2 4 DA 0 3 2 0 6 0 3 constatamos que la primera fila aparece multiplicada por d 2 y la segunda por d 22 3 ( ) A D 2 2 0 0 ( ) 0 0 2 6 2 0 4 0 3 0 0 3 Aquí, la primera columna de A aparece multiplicada por 2, la segunda por, la tercera por 3 En general: λ 0 a a p 0 λ n a n a np λ a λ a p λ 2 a 2 λ 2 a 2p λ n a n λ n a np b b n λ 0 λ b λ 2 b 2 λ n b n b p b pn 0 λ n λ b p λ 2 b p2 λ n b pn De forma más compacta, Proposición 4 Si D diag(λ,, λ n ) M nn (Ã), A M np (Ã), B M mn (Ã), se tiene que λ A DA, (2) λ n A n BD (λ B,, λ n B n ) (3) 7

Demostración Probaremos (2), mientras que (3) queda propuesta como ejercicio λ 0 { Sea D λi si i j (d ij ); con d ij 0 si i j 0 λ n luego, y por lo tanto (DA) ij AD n d ik a kj d ii a ij λ i a ij, k λ a λ a p λ n a n λ n a np Otra propiedad, que utilizaremos más adelante, es la siguiente: Ejercicio Proposición 5 El producto de matrices triangulares inferiores (superiores) es triangular inferior (superior) Demostración Verifiquemos el caso triangular superior Sean a a n b b n 0 a T 22 a 2n, T 0 b 2 22 b 2n 0 0 a nn 0 0 b nn Luego C T T 2 (c ij ), donde: c ij n a ik b kj Como T y T 2 son triangulares superiores: j (a il 0) (b il 0) l < i Supongamos j < i, luego i c ij a ik b kj + k n a ik b kj En el primer término k < i a ik 0 En el segundo término j < i k b kj 0, luego j < i c ij 0 Es decir, la matriz C es también triangular superior Notemos además que (T T 2 ) ii a ii b ii es decir los elementos diagonales del producto de dos triangulares superiores es el producto de los elementos diagonales correspondientes ki 3 Potencias, traspuestas e inversas Definimos por recurrencia las potencias de una matriz cuadrada, como sigue: Definición 7 (Potencias de una matriz) Dada A M nn (Ã) A n A 0 I, A n AA n, n 8

Ejemplo: Por ejemplo; dada A M 33 (Ê): A 0 2 2 0 0, 2 se tendrá A 2 AA 0 2 2 0 0 0 2 2 0 0 4 2 4 0 2 4 2 2 4 3 6 A 3 AA 2 0 2 2 0 0 4 2 4 0 2 4 8 8 6 8 4 8 2 4 3 6 2 0 20 Definición 8 (Traspuesta) Dada una matriz A (a ij ) M mn (Ã), se define la traspuesta de A como aquella matriz de n m que denotaremos por A t tal que (A t ) ij a ji Esto corresponde a intercambiar el rol de las filas y columnas Más claramente, la primera fila de A t es la primera columna de A y así sucesivamente A t, traspuesta Ejemplo: A 2 0 0 0 0 0, A t 2 0 0 0 0 0 A (,, 0, 0, ), A t 0 0 A 2 2 0, A t 2 2 0 4 4 En el último caso vemos que A A t Definición 9 (Matriz simétrica) Diremos que una matriz A M nn (Ã) es simétrica si y sólo si A A t Es fácil verificar que A es simétrica si y sólo si: simétrica a ij a ji i, j,, n Algunas propiedades de la trasposición de matrices son las siguientes: 9

Proposición 6 (A t ) t A, A M mn (Ã) 2 (AB) t B t A t (AB) t B t A t 3 Si D M nn (Ã) es diagonal, entonces D t D Demostración Probaremos 2: Sea C AB, C t (AB) t En la posición (i, j) de la matriz C t aparece el término c ji de la matriz C: c ji n a jk b ki Consideremos Z B t A t El término (i, j) de la matriz Z esta dado por: n n z ij (B t ) ik (A t ) kj b ki a jk k k k k n a jk b ki (AB) ji (C t ) ij, luego Z C t, y por lo tanto (AB) t B t A t Algunas propiedades elementales de matrices invertibles son las siguientes Proposición 7 Sean A, B M nn (Ã) invertibles entonces: La inversa de A es invertible y (A ) A (A ) A 2 El producto AB es invertible y (AB) B A (AB) B A 3 n 0, (A n ) (A ) n (A n ) (A ) n 4 A t es invertible y (A t ) (A ) t (A t ) (A ) t Demostración Veamos: La propiedad se prueba directamente de la definición y de la unicidad de la inversa (Proposición 3) Para 2 se tiene que, AB(B A ) A(BB )A AIA AA I De manera análoga se prueba (B A )AB I Como la inversa es única (AB) B A Para 3, procederemos por inducción Se verifica para n {0, } Supongamos cierto el resultado para n y veamos: por hipótesis de inducción (A n+ ) (A n A) A (A n ), (A n+ ) A (A ) n (A ) n+ Para probar 4, notemos que AA I, así trasponiendo nos dá (AA ) t I t, lo que implica a su vez (A ) t A t I Igualmente se obtiene que A t (A ) t I Finalmente, por unicidad de la inversa: (A t ) (A ) t 0

Ejercicio Ejercicio 3: En general el problema de saber si una matriz es invertible o no es un problema difícil Tendremos que esperar a saber resolver ecuaciones lineales para obtener un algoritmo eficiente que nos permitirá decidir si una matriz en particular es invertible y obtener su inversa Por el momento nos contentaremos con el siguiente resultado, propuesto como ejercicio Sea A (a ij ) una matriz de permutación, es decir una matriz de n n con solo 0 y tal que tiene un y sólo un, por cada fila y columna Se tiene que A es invertible y su inversa es A A t permutación

Ingeniería Matemática FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE Álgebra Lineal 07-2 SEMANA 2: MATRICES 4 Matrices elementales Como veremos la resolución de sistemas de ecuaciones via eliminación de variables corresponde a premultiplicar (multiplicar por la izquierda) una cierta matriz por matrices elementales que estudiaremos a continuación Hay dos tipos de matrices elementales: elemental de permutación y de suma Definición 0 (Matriz elemental de permutación) Una matriz elemental de permutación tiene la siguiente estructura: 0 0 0 fila p I pq 0 fila q 0 0 matrices elementales I pq La matriz I pq se construye a partir de la identidad, permutando el orden de las filas p y q Ejemplo: En M 44 (Ê): 0 0 0 0 0 0 0 0 0 0 0 0 I 24, I 0 0 0 3 0 0 0 0 0 0 0 0 0 Notemos que toda matriz elemental de permutación es una matriz de permutación, pero no al revés Puedes dar un ejemplo? Veamos ahora lo que sucede al multiplicar una matriz A, por la derecha o izquierda, por una matriz elemental de permutación I pq : En el ejemplo anterior, sea A (a ij ) M 43 (Ê) Ejercicio I 24 a a 2 a 3 0 0 0 a a 2 a 3 a a 2 a 3 a 2 a 22 a 23 0 0 0 a 2 a 22 a 23 a 4 a 42 a 43 a 3 a 32 a 33 0 0 0 a 3 a 32 a 33 a 3 a 32 a 33 a 4 a 42 a 43 0 0 0 a 4 a 42 a 43 a 2 a 22 a 23 El resultado consiste en permutar las filas 2 y 4 de A Análogamente, sea B M 34 (Ê): 2

b 0 0 0 b 2 b 3 b 4 b 2 b 22 b 23 b 24 0 0 0 b b 4 b 3 b 2 b 0 0 0 2 b 24 b 23 b 22 b 3 b 32 b 33 b 34 b 0 0 0 3 b 34 b 33 b 32 la matriz resultante es B con las columnas 2 y 4 permutadas En general, Propiedad Dadas I pq M nn (Ã), A M ns (Ã) y B M qn (Ã): I pq A corresponde a la matriz A con las filas p y q permutadas I pqa 2 BI pq corresponde a las matriz B con las columnas p y q permutadas BI pq Demostración Recordemos que, por ser una matriz de permutación (Ejercicio 3), I pq es invertible y además Ipq I pq En efecto, el multiplicar por la izquierda I pq por si misma, corresponde a intercambiar sus filas p y q, con lo cual se obtiene la identidad Tomemos ahora la matriz A M 44 (Ê) y sea: 0 0 0 0 0 0 E 24 (λ, β) β 0 0 0 0 0 λ 0 β Esta matriz se construye a partir de la identidad colocando el valor λ en la posición (4,2) y β en la posición (4,4) (notar que sólo la fila 4 es diferente de la identidad) Al multiplicar por la izquierda A por E 24 (λ, β): a a 2 a 3 0 0 0 a a 2 a 3 a E 24 (λ, β) 2 a 22 a 23 0 0 0 a 2 a 22 a 23 a 3 a 32 a 33 0 0 0 a 3 a 32 a 33 a 4 a 42 a 43 0 λ 0 β a 4 a 42 a 43 a a 2 a 3 a 2 a 22 a 23 a 3 a 32 a 33 λa 2 + βa 4 λa 22 + βa 42 λa 23 + βa 43 La matriz, E 24 (λ, β)a es exactamente la matriz A, excepto por la fila 4, la cual se obtiene de sumar la fila 4 de A ponderada por β más la fila 2 de A ponderada por λ En general, 3

Definición (Matriz elemental) Definimos la matriz elemental E pq (λ, β) M nn (Ã) como: E pq(λ, β) E pq (λ, β) col p col q 0 0 λ β 0 0 0 λ, β Ã β 0 p < q Propiedad 2 Dada una matriz A M ns (Ã); se tiene: 0 0 a a s a p a ps C E pq (λ, β) A 0 λ β a q a qs a n a ns a a s a q a q s λa p + βa q λa ps + βa qs q a n a ns o, en notación por filas: C i A i i q E pq(λ, β) A C q λa p + βa q Se tiene entonces que el efecto, sobre A, de la premultiplicación por E pq (λ, β) es una matriz que sólo difiere de A en la fila q: Esta es la suma de la fila p ponderada por λ y la fila q ponderada por β Es importante observar que la matriz E pq (λ, β) es triangular inferior, que tiene unos en la diagonal y además: 4

Proposición 8 E pq (λ, β) es invertible Su inversa es la siguiente: (E pq(λ, β)) E pq( λ β, β ) 0 (E pq (λ, β)) λ 0 β β 0 0 0 p q Demostración En efecto, sea C E pq ( λ β, β )E pq(λ, β) Se tendrá que C es la matriz cuya fila q es la suma de la fila p de E pq (λ, β), ponderada por λ β y la fila q de E pq(λ, β), ponderada por β Es decir: C q λ β (0 0 0 0) + (0 λ 0 0 β 0 0) β p p q (0 0 λ β 0 0) + (0 λ β 0 0 0 0) p p q Luego: C q (0,0,,0,0) además i q C i es la i-ésima fila de la identidad Es decir C I, la matriz identidad 5 Sistemas lineales y escalonamiento de matrices Las matrices elementales son de gran utilidad en la resolución de sistemas de ecuaciones lineales Ejemplo: Consideremos, a modo de ejemplo, el sistema de ecuaciones x + 2x 2 + x 3 + x 4 2 () 2x + 3x 2 x 3 (2) x + x 3 + x 4 (3) Para resolverlo, utilizamos la eliminación de variables, pero en forma ordenada, desde la primera variable de la izquierda y desde arriba hacia abajo: 5

Eliminamos la variable x en las ecuaciones (2) y (3): para ello multiplicamos la primera por dos y la sumamos a la segunda obteniendo: x + 2x 2 + x 3 + x 4 2 7x 2 + x 3 + 2x 4 3 x + x 3 + x 4 Luego, multiplicamos la primera por y la sumamos a la tercera: x + 2x 2 + x 3 + x 4 2 7x 2 + x 3 + 2x 4 3 2x 2 2 Continuamos ahora con x 2, pero a partir de la segunda ecuación Multiplicando la segunda por 2 7 y sumándola a la tercera se obtiene: x + 2x 2 + x 3 + x 4 2 7x 2 + x 3 + 2x 4 3 2 7 x 3 + 4 7 x 4 7 Ya no es posible eliminar más variables Ahora, desde la última hasta la primera ecuación despejamos en función de x 4 : x 3 4 2 x 4 2 2x 4 2 x 2 7 ( x 3 2x 4 + 3) 7 (2x 4 + 2 2x 4 + 3) 2 x 2x 2 x 3 x 4 + 2 2 2 + 2x 4 + 2 x 4 + 2 x 4 + 3 2 Obteniéndose la solución: x 3 2 + x 4 x 2 2 x 3 2 2x 4 x 4 x 4 Así, para cualquier valor real de x 4, obtenemos una solución del sistema Existen entonces, infinitas soluciones, dependiendo de la variable x 4 La variable x 4 se denomina independiente o libres Veamos ahora, en general, qué es un sistema de ecuaciones, Definición 2 (Sistema de ecuaciones) Un sistema de m ecuaciones y n incógnitas sistema de ecuaciones 6

consiste en el siguiente conjunto de ecuaciones en las variables x,, x n Ã: a x + + a n x n b a m x + + a mn x n b m en donde los coeficientes, a ij, y el lado derecho, b j, son elementos del cuerpo à Definiendo la matriz: a a n A M mn (Ã) a m a mn la m-tupla (lado derecho) y la n tupla de incógnitas b x b à m, x à n b m x n Podemos escribir el sistema matricialmente: Ax b, Realizar el procedimiento de eliminación de variables descrito en el ejemplo precedente, con el fin de resolver el sistema, es equivalente a producir ceros en la matriz aumentada con la columna lado derecho, (A b) M m(n+) (Ã) En el ejemplo anterior: (A b) 2 2 2 3 0 0 Eliminar x de la segunda ecuación es equivalente a producir un cero en la posición (2,) de (A b) Para ello se multiplica la primera fila por 2 y se suma a la segunda fila Para eliminar x de la tercera ecuación se multiplica la primera fila por y se suma a la tercera (A b) 2 2 0 7 2 3 2 2 0 7 2 3 0 0 2 0 0 Eliminar x 2 en la tercera ecuación a partir de la segunda es equivalente a multiplicar la segunda fila por 2 7 y sumarla a la tercera: 2 2 0 7 2 3 (à b) 2 4 0 0 7 7 7 Así, el sistema inicial es equivalente al sistema Ãx b Conviene señalar que en el procedimiento anterior la operación de base ha sido: Ax b matriz aumentada, (A b) Sumar a una fila q, la fila p ponderada por un número λ à De la definición de matrices elementales sabemos que esto es equivalente a premultiplicar por la izquierda por la matriz E pq (λ, ) Veamos esto en el mismo ejemplo 7

Ejemplo: Producir un cero en la posición (2,) de (A b): E 2 (2, )(A b) 0 0 2 0 2 2 2 3 0 0 0 0 2 2 0 7 2 3 0 2 Producir un cero en la posición (3,): E 3 (, )E 2 (2, )(A b) 0 0 0 0 2 2 0 7 2 3 0 0 2 0 7 2 3 0 2 0 0 3 Producir un cero en la posición (3,2) desde la posición (2,2): E 23 ( 2 7, )E 3(, )E 2 (2, )(A b) 0 0 0 0 2 2 0 7 2 3 2 0 7 0 2 0 0 2 2 0 7 2 3 2 4 0 0 7 7 7 Se concluye entonces que la operación de eliminación de variable puede realizarse mediante la pre-multiplicación de (A b) por matrices elementales Hay casos en que también es necesario utilizar matrices de permutación de filas Por ejemplo, si se tiene: 0 0 (A b) 0 0 0 2 0 Vemos que, como a 22 0, no es posible producir ceros en la segunda columna, a partir de a 22 Luego intercambiamos el orden de las filas (claramente esto no cambia el sistema de ecuaciones asociado) Por ejemplo, colocamos la cuarta fila en la segunda posición y la 8

segunda en la cuarta Esto es equivalente a premultiplicar por I 24 : 0 0 0 0 0 0 0 0 0 2 0 I 24 (A b), 0 0 0 0 0 0 0 0 0 0 0 2 0 0 0 lo cual nos permite seguir produciendo ceros Consideremos ahora A M mn (Ã), definimos la matriz escalonada asociada a la matriz A, como à M mn(ã), tal que: ã ã 2 ã i2 ã n ã 2i2 ã 2n à ã sis ã sn 0 0 matriz escalonada, à donde los elementos ã 0, ã 2i2 0,, ã sis 0, se denominan pivotes Notar que hemos supuesto que la primera columna no tiene ceros De no ser así, quiere decir que la primera variable no juega ningun rol, y por lo tanto si el sistema tiene solución esta variable queda de inmediato libre Supondremos en lo que sigue que la primera columna no es cero pivotes Observación: No hay una única manera de escalonar una matriz En efecto en el último ejemplo podríamos haber permutado las filas 2 y 3 en vez de las 2 y 4, o cuando tratamos de eliminar un elemento hay muchas maneras de hacerlo Por ejemplo en la matriz: 2 2 2 3 0, 0 podemos multiplicar la fila por 2 y sumársela a la fila 2: E 2 (2, ), o podemos multiplicar la fila por y sumársela a la fila 2 multiplicada por 2 : E 2(, /2) Por lo tanto no hay una sola matriz escalonada Hay dos cosas que son importantes de resaltar a este respecto: Desde el punto de vista de sistemas de ecuaciones no hay diferencia entre un escalonamiento u otro: todos dan el mismo conjunto solución (probablemente descrito de distinta manera) 2 Es preferible por otras razones (teóricas, como son el cálculo del determinante y la determinación de matrices definidas positivas) tratar de no utilizar permutaciones y siempre usar matrices elementales del tipo E pq (λ, ), es decir si queremos modificar la fila q lo que hacemos es multiplicar la fila p, p < q por λ y sumársela a la q La matriz à se obtiene mediante la premultiplicación de A por matrices elementales: à ( j E j )A, 9

donde E j es una matriz elemental de suma o de permutación de filas Además, recordemos que las matrices elementales son invertibles Esta propiedad es crucial para probar que el sistema original, Ax b, y el obtenido después del escalonamiento, Ãx b, son equivalentes (tienen idéntico conjunto de soluciones) En efecto: Proposición 9 Dada una matriz C, invertible entonces: a K n es solución de Ax b a es solución de (CA)x Cb Demostración La demostración es simple: ) Si Aa b, entonces C(Aa) Cb y por ende (CA)a Cb ) Supongamos (CA)a Cb Como C es invertible se tiene C (CA)a C (Cb), lo cual implica que Aa b Como las matrices elementales son invertibles y el producto de matrices invertibles también lo es, y por lo tanto podemos usar la Proposición 9 con C j E j, para concluir que los sistemas Ax b y Ãx b son equivalentes 20

Ingeniería Matemática FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE Álgebra Lineal 07-2 SEMANA 3: MATRICES 6 Solución general de sistemas lineales Dado el sistema Ax b, A M mn (Ã), b à m, x à n, al escalonarlo (escalonando (A b)) obtenemos: ã ã i2 ã n b 0 0 ã 2i2 (à b) 0 0 0 ã sis ã sn bs 0 0 0 0 0 bs+ 0 0 0 0 bm donde los elementos ã, ã 2i2,,ã sis son no nulos Claramente, si existe un índice j s+ tal que b j 0, el sistema no tiene solución, ya que se tendría una ecuación incompatible: 0 b j 0 Luego, el sistema tiene solución si y solo si b k 0 k s + En efecto, si b k 0, k s +, se obtiene la(s) solución(es) despejando desde la s-ésima ecuación hasta la primera en función de las variables independientes En este caso diremos que el sistema es compatible Cada una de las diferencias en el número de columnas que son cero bajo las filas sucesivas, las llamaremos peldaños o escalones Así el peldaño que se produce entre la fila k y k + es i k+ i k Notar que el último peldaño es: n+ i s, es decir los peldaños se miden en la matriz aumentada La importancia de estos peldaños es la siguiente: sistema compatible peldaños escalones Proposición 0 Si existe solución para el sistema Ax b y en la matriz à hay algún peldaño de largo mayor o igual a dos, entonces existe más de una solución Demostración En efecto Como por cada fila no nula de la matriz escalonada podemos despejar a lo más una variable, tendremos entonces que dejar libres tantas variables como número de peldaños, menos uno Un corolario directo del resultado anterior es Corolario 2 Si el sistema Ax b es tal que n > m (número de incógnitas mayor que el número de ecuaciones), entonces tiene infinitas soluciones, si es compatible Demostración En efecto, como n > m siempre existe en la matriz escalonada, Ã, un peldaño de largo superior o igual a dos De no ser así se tendría ã ã 2 ã n 0 ã 22 ã 2n à 0 0 0 0 ã mn de donde m n 2

Un caso particular importante es cuando el lado derecho del sistema es nulo, b 0 Hablamos entonces de un sistema homogéneo, Ax 0 Vemos que, en este caso, siempre existe al menos una solución, la trivial x 0 Ã n En otras palabras sabemos de antemano que todo sistema homogéneo es compatible Podemos resumir nuestro estudio de sistemas en el cuadro siguiente: sistema homogéneo Sistema Homogéneo (b 0) Sistema no-homogéneo (b 0) Dimensiones n m n > m n m n > m Número Soluciones, 0,, 0, Ejemplo: Resolvamos el sistema x x 2 0 0 2 x 0 0 3 0 0 x 0 4 x 5 Escalonando: 0 3 0 0 3 0 (A b) 2 2 0 0 0 0 0 3 0 3 3 2 0 2 0 0 0 0 0 3 0 2 3 3 0 3 0 2 2 0 0 3 0 3 3 0 0 0 0 Obtenemos que los peldaños medidos desda la fila son sucesivamente:,,2, De la última ecuación despejamos x 5 Con esta información en la tercera ecuación dejamos libre x 4 y despejamos x 3 En la segunda ecuación despejamos x 2 y finalmente de la primera despejamos x, para obtener x 5 x 4 : libre x 3 3 2 ( 3 2 3 x 5) 2 x 5 2 + 2 x 2 3 ( x 3 x 5 ) 3 ( 2 + ) 2 x x 2 x 3 x 4 x 5 2 2 x 4 + x 4 La solución general es: x x 4, x 2 2, x 3 2, x 4 x 4, x 5 Existen entonces infinitas soluciones, una por cada valor de la variable independiente x 4 Ê 22

7 Sistemas cuadrados y Algoritmo de Gauss Supongamos que el número de ecuaciones es igual al número de incógnitas (n m), en este caso el sistema se escribe: Ax b, A M nn (Ã), x, b à n Escalonemos el sistema y sea à la matriz escalonada, sin considerar el nuevo lado derecho b: ã ã n à 0 ã nn donde entre los elementos de la diagonal, ã ii, podría haber algunos nulos Señalemos que en el caso de matrices cuadradas el proceso de escalonamiento se denomina Algoritmo de Gauss Un resultado importante, que relaciona matrices invertibles, solución de sistemas y el algoritmo de Gauss, es el siguiente: Algoritmo de Gauss Teorema Sea A M nn (Ã), entonces las proposiciones siguientes son equivalentes: A es invertible 2 b à n, Ax b tiene solución única 3 n ã ii 0 i Demostración Utilizamos un argumento de transitividad para probar solamente que: ( 2) Si A es invertible consideremos entonces A Así (A A)x A b y luego x A b, por ende el sistema tiene solución y claramente esta es la única En efecto si x, x 2 à n son soluciones, entonces Ax Ax 2 b y se tendrá multiplicando por A que (A A)x (A A)x 2, pero entonces x x 2 (2 3) Sea à la matriz escalonada asociada a A y supongamos que para algún i: ã ii 0 Esto quiere decir que alguno de los escalones tiene largo mayor o igual que 2 y por lo tanto el sistema homogéneo Ax 0 tiene infinitas soluciones (por Proposición 0) lo que es una contradicción Por lo tanto para todo i,,n ã ii 0 o equivalentemente n i ãii 0 (3 ) Supongamos n ã ii 0, esto quiere decir que los elementos diagonales de à son i todos no nulos Notemos que à ( j E j)a, donde las matrices E j son elementales y por lo tanto invertibles Podríamos ahora escalonar hacia arriba la matriz à para obtener de manera similar una matriz diagonal D Esto lo podemos hacer de manera que D tenga por diagonal la misma que à Es decir ã 0 D 0 ã j nn E j ( ) A F k, k 23

donde las matrices F k son del mismo estilo que las matrices elementales que hemos usado Sabemos entonces que las matrices D, E j E j y F k F k son invertibles y como A E DF concluimos que A también es invertible Como corolario importante de lo demostrado en esta parte es que: Corolario 3 Una matriz triangular superior es invertible si y sólo si todos sus elementos diagonales son distintos de cero Observación: Notemos que pasando por la traspuesta se deduce que si A es triangular inferior entonces es invertible si y solo si todos sus elementos diagonales son distintos de cero Más aún la inversa de una triangular inferior es triangular inferior En efecto, si aplicamos el algoritmo de escalonamiento sin permutar obtendremos: a 0 r à ( E j )A, 0 a j nn donde r es el número de pasos tomados por el algoritmo y las matrices elementales E j son del tipo E pq (λ, ) Notar que los pivotes son los elementos de la diagonal de A Como la inversa de cada E j es del mismo tipo se deduce que A ( jr (E j ) )à A (Ã) ( r E j ), y por lo tanto la inversa de A es triangular inferior y además sus elementos diagonales son /a ii i,, n Notar que el producto de las inversas en la expresión anterior está tomado en sentido opuesto: ( r E j ) j j (E j ) Pasando por la traspuesta podemos deducir que la inversa de una triangular superior también es triangular superior jr 8 Cálculo de la inversa Supongamos que dada una matriz cuadrada A de tamaño n, buscamos una matriz Z de n n tal que AZ I Si describimos Z por sus columnas, esto es Z (Z Z n ) entonces la ecuación AZ I es equivalente a los n sistemas Probemos ahora que, AZ i e i, con i {,,n}, y e i la i-ésima columna de I 24

Proposición Si los n sistemas anteriores tienen solución, entonces A es invertible y además A Z Demostración Para ello probemos primero que b à n el sistema Ax b tiene solución En efecto sea b (b b n ) t un elemento de à n, y consideremos a b Z + b n Z n à n Utilizando las propiedades de la suma, multiplicación y ponderación de matrices se obtiene que Aa A(b Z + b 2 AZ 2 + b n Z n ) b AZ + b 2 AZ 2 + b n AZ n 0 0 b 0 0 + b 2 0 + b n 0 0 0 0 y por lo tanto a es una solución del sistema Ax b à b b 2 b n b n b, Si A no fuese invertible esto quiere decir que al escalonar A, se tendrá que algún ã ii 0 Consideremos las filas i e i + de Ã: à i à i+ 0 0 ã ii 0 ã ii+ ã in 0 0 0 ã i+i+ ã i+n Si ã ii+ 0, ã i+i+ 0 habríamos permutados las filas y por lo tanto la matriz escalonada tendría un 0 en la posición (i +, i + ), lo que es una contradicción Si ã ii+ 0 entonces podemos utilizar este elemento para escalonar hacia abajo y por lo tanto ã i+i+ 0 En cualquier caso se deduce que ã i+i+ 0, y por un argumento de inducción que ã nn 0, esto es toda la última fila de à debe ser 0 Consideremos ahora la matriz invertible C E j, j donde à CA, es decir la matriz que permite pasar de A a à Definamos 0 b C 0 0 Si consideramos el sistema Ax b tendremos que al escalonar la matriz aumentada (A b) se obtendrá una matriz escalonada (usando las mismas operciones elemementales) ( ) (à b) C(A b), 0 0 lo que representa un sistema incompatible y por lo tanto Ax b no puede tener solución Hemos obtenido una contradicción y por lo tanto la única posibilidad es que i,, n ã ii 0, y por lo tanto A es invertible Ahora de AZ I se obtiene premultiplicando por A que Z A 25

Notemos que de paso se ha probado el siguiente resultado interesante Corolario 4 Una matriz A M nn (Ã) es invertible si y sólo si todo sistema Ax b tiene solución Lo que a su vez es equivalente a todo sistema Ax b tiene solución única, por lo probado anteriormente Ejercicio Ejercicio 4: Qué puede decir de una matriz cuadrada A para la cual todo sistema Ax b tiene a lo más una solución? Debe ser A invertible? Pruébelo Para saber si una matriz es invertible hemos entonces probado que basta estudiar n sistemas lineales Para el cálculo de la inversa podemos ir un poco más lejos Consideremos el siguiente ejemplo: Ejemplo: luego: Escalonando: A 0 2 0 (A I) 0 0 0 2 0 0 0 0 0 (A I) 0 0 0 2 0 0 0 0 0 0 2 2 0 0 0 0 0 0 0 0 0 0 0 2 2 0 0 0 2 2 2 En este paso ya estamos en condiciones de resolver los tres sistemas Pero podemos aún pivotear, ahora sobre la diagonal; sin alterar la solución (ya que multiplicamos por matrices invertibles): 0 0 0 0 2 2 0 0 0 2 2 0 2 2 0 0 0 2 2 2 0 0 2 2 2 0 0 2 2 0 2 0 2 2 0 0 3 2 4 4 0 2 0 2 2 0 0 2 2 2 0 0 2 2 2 26

Finalmente, premultiplicando por la matriz invertible: D 0 0 0 2 0 0 0 2 Se tiene: (I Ĩ) 0 0 2 0 0 0 0 2 Obteniendo los sistemas de solución trivial: I x x 2, I x 2 x 3 de donde: En efecto: 2 2 2 x 22 x 32 X A AA 0 2 0 4 2 4 4 4 4 2 4 2 4 2 2 4 2 4 2 3 4 4 4 4, I x 3 x 23 x 33 3 4 4 4 4 3 4 4 4 4 3 4 4 4 0 0 0 0 0 0 Luego para calcular la inversa de A M nn (Ã) basta aplicar el Algoritmo de Gauss sobre la matriz (A I) Una vez que se ha obtenido la matriz triangular superior Ã, realizar el mismo procedimiento para los elementos sobre la diagonal Finalmente, se premultiplica por una matriz diagonal para obtener la identidad en el lugar de à Qué sucede si una matriz A no es invertible? Sabemos que necesariamente aparecerá, al escalonar, un pivote nulo irreparable Ejemplo: (A I) 0 2 0 0 2 0 0 y 0 2 0 0 0 0 0 0 2 0 0 0 0 0 0 y los sistemas Ãx, Ãx 0 0 son incompatibles Pero, en ocasiones, hay pivotes nulos reparables Ejemplo: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0, 27

Acá el elemento ã 22 0, pero podemos, premultiplicando por la matriz de permutación I 23, intercambiar las filas 2 y 3 obteniendo: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 A 0 0 0 0 0 0 0 Ejemplo y ejercicio importante: Descomposición LDU Supongamos que al escalonar A M nn (Ã) no encontramos pivotes nulos ( no permutamos filas!) Se obtiene entonces ã ã p ( j E j )A Ejercicio LU, LDU 0 ã nn donde cada una de las matrices E j es de la forma: 0 λ, λ Ã 0 Pruebe que la matriz E j es invertible y su inversa es triangular inferior con s j en la diagonal Digamos: 0 ( E j ) l 2 L j l n l nn Despejamos entonces A: A ( j ã n ã n E j ) 0 ã nn 2 Concluya que si al escalonar A no se realizan permutaciones, A puede factorizarse como el producto de una matriz L, triangular inferior con unos en la diagonal, y una matriz U, triangular superior, donde los pivotes figuran en la diagonal Esta factorización se llama descomposición LU 28

3 Recordando que n i ãii 0, demuestre que: ã 2 ã l 2 0 ã 0 A 0 ã nn l n l nn 0 ã n ã ã n n ã n n (4) Es decir, A admite una factorización A LDU, en donde L es triangular inferior con unos en la diagonal, D es diagonal (formada por los pivotes del escalonamiento) y U es triangular superior con diagonal de unos Esta factorización se llama descomposición LDU 4 Demuestre que si A admite la descomposición LDU de (4), entonces la descomposición es única 5 Demuestre además que si A es simétrica, entonces L U t 6 Encuentre la descomposición LDU de A 0 2 0 29