Tópicos. en Álgebra Lineal

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Tópicos. en Álgebra Lineal"

Transcripción

1 Tópicos en Álgebra Lineal Miguel A Marmolejo L Manuel M Villegas L Departamento de Matemáticas Universidad del Valle

2 Índice general Introducción 1 Índice de guras iii Capítulo 1 Prerrequisitos 1 11 Matrices 1 12 Espacios vectoriales 7 13 Transformaciones lineales Espacios fundamentales de una Matriz Rango de una matriz Sistemas de ecuaciones lineales 20 Capítulo 2 Matrices particionadas Traza de una matriz Submatrices Operaciones con matrices particionadas Determinantes e inversas de algunas matrices especiales Traza de una matriz Ejercicios 39 Capítulo 3 Valores propios y vectores propios Diagonalización Valores propios y vectores propios Diagonalización Diagonalización de matrices simétricas Diagonalización simultánea de matrices simétricas Ejercicios 90 Capítulo 4 Formas cuadráticas Clasicación de las formas cuadráticas Cambio de variables Diagonalización simultánea de formas cuadráticas Formas cuadráticas positivas, negativas e indenidas Ejercicios 118

3 Índice general Capítulo 5 Anexo 1: Matrices no negativas Matrices idempotentes Matrices no negativas Matrices idempotentes 129 Capítulo 6 Inversa generalizada e inversa condicional de matrices Inversa generalizada de una matriz Cálculo de la g-inversa de una matriz Inversa condicional de una matriz Sistemas de ecuaciones lineales: g-inversa y c-inversa de una matriz mínimos cuadrados Ejercicios 174 Capítulo 7 Factorización de matrices Descomposición LU Descomposición QR Descomposición de Cholesky Descomposición en valores singulares (SVD) Ejercicios 212 Capítulo 8 Rectas e hiperplanos Conjuntos convexos Rectas Segmentos de recta Hiperplanos Conjuntos convexos Ejercicios 226 Índice alfabético 229 Bibliografía 233 ii

4 Índice de guras 11 Transformación lineal Interpretación geométrica de vector propio Vectores propios de T (x, y) = (2x, x + 3y) Problema de los mínimos cuadrados Ajuste por mínimos cuadrados Ajuste lineal por mínimos cuadrados Ajuste lineal ejemplo Ajuste lineal ejemplo Ajuste cuadrático ejemplo Esquema de la factorización LU Puntos y vectores en R Una recta en R Gráca de una recta que pasa por los puntos P y Q Segmento de recta que une los puntos P y Q Gráca de un plano en R Grácas de un plano y una recta en R Ilustración de semiespacios abiertos Conjuntos convexos y no convexos 224 iii

5 CAPÍTULO 1 Prerrequisitos El propósito de este capítulo es hacer una recopilación de algunas deniciones y de algunos resultados básicos del álgebra lineal, los cuales nos serán de gran utilidad en el desarrollo de los capítulos siguientes Trataremos aquí los aspectos relacionados con: matrices, espacios vectoriales y transformaciones lineales, aunque aclaramos, que el orden en que se presentan los temas, no corresponde necesariamente al orden usual encontrado en la mayoría de textos utilizados en el primer curso de álgebra lineal Al lector que desee estudiar más sobre el contenido de este capítulo se le recomienda consultar [1, 2, Matrices Las matrices juegan un papel importante en las matemáticas y sus aplicaciones Una matriz A de tamaño m n (o simplemente A m n ) es un arreglo rectangular de números dispuestos en m las (líneas horizontales) y n columnas (líneas verticales); el número que está en la i-ésima la y en la j-ésima columna se denota por a ij o A ij y se llama elemento ij de la matriz A Para indicar dicho arreglo usualmente se escribe A = [a ij m n, o en forma expandida a 11 a 12 a 1n a 21 a 22 a 2n (11) A = a m1 a m2 a mn 1

6 11 Matrices Prerrequisitos a mj Si A i = [ a i1 a i2 a in denota la i-ésima la de la matriz A y a 1j A j a 2j = la j-ésima columna de A, el arreglo (11) puede represen- tarse por las o columnas como aparece a continuación A 1 A 2 A = = [ A 1 A 2 A n A m Las matrices se denotan, como lo hemos sugerido, con letras mayúsculas A, B, C, etc El conjunto de todas las matrices m n con elementos reales se denotará por M m n (R) o simplemente M m n Los elementos de M n n se llaman matrices cuadradas de orden n; a la diagonal formada por los elementos a 11, a 22,, a nn de una tal matriz A, se llama diagonal principal de A Toda matriz cuadrada A de orden n, cuyos elementos fuera de la diagonal principal son nulos (a ij = 0 para i j, i, j = 1, 2,, n), se denomina matriz diagonal y se denota por A = diag(a 11, a 22,, a nn ) La matriz diagonal de orden n, cuyos elementos en su diagonal principal son todos iguales a 1, se llama matriz idéntica y se denota por I n o simplemente I, cuando no sea necesario especicar el orden Una matriz nula es una matriz cuyos elementos son todos nulos Una matriz nula será denotada por 0 (0 m n denotará la matriz nula m n) Dos matrices A y B de igual tamaño m n son iguales si y sólo si sus componentes correspondientes son iguales Esto es, A ij = B ij ; i = 1, 2,, m, j = 1, 2,, n La suma A + B de dos matrices A y B de tamaño m n, es la matriz m n tal que: A + B ij = A ij + B ij ; i = 1, 2,, m, j = 1, 2,, n La multiplicación αa del número α por la matriz A de tamaño m n, es la matriz de tamaño m n, tal que: αa ij = α A ij ; i = 1, 2,, m, j = 1, 2,, n 2

7 Prerrequisitos 11 Matrices El producto AB de la matriz A M m s por la matriz B M s n, es la matriz de tamaño m n, tal que: s AB ij = A ik B kj A i B j ; i = 1, 2,, m, j = 1, 2,, n k=1 111 Inversa de una matriz Sea A M n n Si existe una matriz B M n n tal que AB = I se puede demostrar que BA = I y que B es única Cuando existe una matriz B tal que AB = I, a B se le llama la matriz inversa de A y se le denota por A 1 Es este caso se dice que A es no singular o invertible; en caso contrario, se dice que A es no invertible o singular En el siguiente teorema se establecen algunas propiedades de la inversa de una matriz 111 Teorema Si A, B M n n son matrices invertibles y si α es un número no nulo, entonces: 1 La matriz A 1 es invertible y ( A 1) 1 = A 2 La matriz AB es invertible y (AB) 1 = B 1 A 1 3 La matriz αa es invertible y (αa) 1 = α 1 A Transpuesta de una matriz Sea A una matriz m n La matriz transpuesta de A es la matriz n m, denotada por A T, cuya i-ésima la corresponde a la i-ésima columna de la matriz A Esto es, la transpuesta de A es la matriz A T tal que A T ij = A ji, para i = 1, 2, m, y j = 1, 2, n Sea A una matriz cuadrada Si A T = A, se dice que A es una matriz simétrica, y si A T = A, se dice que A es una matriz antisimétrica En particular, las matrices diagonales son simétricas Las propiedades más relevantes de la transpocisión se dan en el siguiente teorema 112 Teorema Sean A y B matrices de tamaño apropiado, tales que las operaciones siguientes están bien denidas Entonces: 1 Para cualquier matriz A se verica (A T ) T = A 2 A T = B T sí y sólo si A = B 3

8 11 Matrices Prerrequisitos 3 Si A es una matriz diagonal, entonces A T = A 4 Si α, β son números, entonces (αa + βb) T = αa T + βb T 5 Si AB está denido, entonces (AB) T = B T A T 6 Para cualquier matriz A, las matrices A T A y AA T son simétricas 7 Si A es invertible, entonces A T es invertible y (A T ) 1 = (A 1 ) T 113 Determinantes Recordamos en este apartado las nociones de menor, cofactor, matriz de cofactores, matriz adjunta y determinante de matrices cuadradas y resumimos algunos de los resultados más importantes relacionados con el cálculo propiedades del determinante El lector recordará, que el concepto de determinante es de gran importancia no sólo en el contexto del álgebra lineal, sino en otras áreas como el cálculo integral En lo sucesivo, el determinante de una matriz A será denotado por A o por det(a) [ a b 113 Denición (Determinane de matrices 2 2) Sea A = c d una matriz cuadrada de tamaño 2 2 El determinante de la matriz A es el número real dado por det(a) = ad bc 114 Denición Sea A una matriz cuadrada de tamaño n n; el determinante de la matriz que resulta al suprimir la i-ésima la de A y la j-ésima columna de A es denominado menor del elemento A ij y se denota por m ij El cofactor del elemento A ij se denota por C ij y se dene como C ij = ( 1) i+j m ij La matriz C, cuyos elementos son los cofactores C ij de A se denomina matriz de los cofactores de A, cof(a) La matriz transpuesta de la matriz de cofactores C, se denomina adjunta de A y se denota por adj(a), es decir, adj(a) = C T El siguiente teorema nos muestra, cómo calcular el determinante de una matriz (cuadrada) en términos de sus cofactores Además muestra, que el valor del determinante no depende de la la o columna a lo largo de la cual se haga la expansión Dicho teorema presenta también, una forma alternativa para calcular inversas de matriz en términos del determinante de dicha matriz y su adjunta 4

9 Prerrequisitos 11 Matrices 115 Teorema Sea A una matriz cuadrada de orden n 1 Si C ij denota el cofactor del elemento A ij, entonces: n a) det(a) = A ij C ij, para cada i = 1, 2,, n b) det(a) = j=1 n A ij C ij, para cada j = 1, 2,, n i=1 2 Para cualquier matriz cuadrada A, se tiene que A adj(a) = adj(a) A = det(a)i 3 La matriz A es invertible sii A 0, en este caso se tiene que A 1 = (det(a)) 1 adj(a) 116 Teorema Sean A, B y C matrices cuadradas de orden n, entonces: 1 A = A T 2 Si A tiene una la nula, entonces A = 0 3 Si las matrices A y B dieren únicamente en sus k-ésimas las y si dichas las satisfacen la igualdad A k = α B k, entonces A = α B 4 Si α es un escalar, entonces αa = α n A 5 Si A, B y C dieren únicamente en la k-ésima la y si C k = A k + B k, entonces C = A + B 6 Si A tiene dos las iguales, entonces A = 0 7 Si B se obtiene al intercambiar dos las de A, entonces B = A 8 El determinante de una matriz no cambia si los elementos de la i-ésima la son multiplicados por un escalar α y los resultados son sumados a los correspondientes elementos de la k-ésima la, para k i 9 AB = A B Nota Por (1), cualquier proposición sobre A que sea verdadera en las las de A es también verdadera para las columnas de A 114 Operaciones elementales Matrices elementales En este apartado recopilamos algunas deniciones y resultados relacionados con las operaciones que se pueden hacer en las las (respectivamente columnas) de una matriz, las cuales realizadas de manera apropiada nos 5

10 11 Matrices Prerrequisitos permiten obtener nuevas matrices con estructuras más adecuadas, por ejemplo cuando se quiere resolver sistemas de ecuaciones Dichas operaciones son las operaciones elementales y están resumidas en la siguiente denición 117 Denición (Operaciones y matrices elementales) Dada una matriz A, cada una de las siguientes operaciones es llamada una operación elemental en las las (columnas) de A (i) El intercambio de dos las (columnas) de A (ii) La multiplicación de los elementos de una la (columna) de A por un escalar no nulo (iii) Reemplazar una la (columna) de A, por la suma de ella y un múltiplo escalar no nulo de otra la (columna) de dicha matriz Una matriz elemental por las (columnas) es aquella que resulta de efectuar una operación elemental sobre las las (columnas) de una matriz identidad 118 Teorema 1 Cada matriz elemental es invertible Además, la inversa de cada matriz elemental es una matriz elemental 2 Sea A una matriz m n Si B es una matriz que resulta al efectuar una operación elemental sobre las las de A y si E es la matriz elemental que resulta de efectuar la misma operación elemental sobre las las de la matriz idéntica I m, entonces E A = B 3 Sea A una matriz m n Si B es una matriz que resulta al efectuar una operación elemental sobre las columnas de A y si E es la matriz elemental que resulta de efectuar la misma operación elemental sobre las columnas de la matriz idéntica I n, entonces A E = B 119 Denición (Forma escalonada reducida) Se dice que una matriz R tiene la forma escalonada reducida, si satisface las siguientes condiciones: (i) Si una la de R es no nula, el primer elemento no nulo de dicha la, de izquierda a derecha, es 1 (ii) Si las las i e i + 1 de R son no nulas, el primer elemento no nulo de la la i + 1 está a la derecha del primer elemento no nulo de la la i 6

11 Prerrequisitos 12 Espacios vectoriales (iii) Si una columna de R contiene el primer elemento no nulo de una la de R, los demás elementos de dicha columna son nulos (iv) Si R tiene las nulas, éstas aparecen en la parte inferior de R El siguiente teorema nos relaciona los conceptos de matrices elementales y forma escalonada reducida para una matriz arbitraria 1110 Teorema Para toda matriz A existen: una única matriz R que tiene la forma escalonada reducida y un número nito de matrices elementales por las E 1, E 2,, E k tales que: E k E 2 E 1 A = R La matriz R mencionada en el teorema anterior se denomina la forma escalonada reducida de A 1111 Teorema Sea A una matriz cuadrada de orden n 1 A es invertible sii la forma escalonada reducida de A es I n 2 A es invertible sii A se puede expresar como el producto de un número nito de matrices elementales Los dos últimos teoremas dan lugar a un método para decidir cuándo una matriz cuadrada A es invertible, y simultáneamente proveen un algoritmo para calcular su inversa El método consiste en lo siguiente: Forme la matriz [A I n Seguidamente efectúe operaciones elementales sobre la las de esta matriz hasta obtener su forma escalonada reducida; al nal se obtiene una matriz que describiremos así [R P ; donde R es la forma escalonada reducida de A Ahora: A es invertible sii R = I n Si A es invertible entonces A 1 = P 12 Espacios vectoriales El conjunto de matrices m n, junto con las dos operaciones suma de matrices y multiplicación de un escalar por una matriz, denidas al principio de la sección 11, tiene una estructura algebraica denominada espacio vectorial Esta estructura es importante porque incluye otros conjuntos que se presentan frecuentemente en las matemáticas y sus aplicaciones 7

12 12 Espacios vectoriales Prerrequisitos 121 Denición Un espacio vectorial (real) es un conjunto V, cuyos elementos son llamados vectores, junto con dos operaciones: suma de vectores (+) y multiplicación de un escalar por un vector ( ), que satisfacen las propiedades siguientes: (i) Si u V y v V, entonces u + v V (ii) Si u V y v V, entonces u + v = v + u (iii) Si u V, v V y w V, entonces (u + v) + w = u + (v + w) = u + v + w (iv) Existe un vector 0 V tal que para todo u V, u+0 = 0+u = u (v) Si u V, entonces existe un vector u V tal que u + ( u) = ( u) + u = 0 (vi) Si u V y α es un escalar, αu V (vii) Si u V y α, β son escalares, entonces (αβ)u = α(βu) = β(αu) (viii) Si u V y α, β son escalares, entonces (α + β)u = αu + βu (ix) Si u V y v V y α es un escalar, entonces α(u+v) = αu+αv (x) Si u V, entonces 1u = u 122 Ejemplo Los siguientes conjuntos son ejemplos de espacios vectoriales: 1 V = R n = {(x 1, x 2,, x n ) : x i R, i = 1, 2,, n} con las operaciones denidas así: (x 1, x 2,, x n ) + (y 1, y 2,, y n ) = (x 1 + y 1, x 2 + y 2,, x n + y n ) α (x 1, x 2,, x n ) = (αx 1, αx 2,, αx n ) 2 V = M m n, el conjunto de matrices m n con las operaciones denidas usualmente (ver sección 11) 3 V = F, el conjunto de funciones de R en R con las operaciones denidas así: (f + g)(t) = f(t) + g(t), t R (αf)(t) = αf(t), t R 4 V = P n, el conjunto de las funciones polinómicas de grado menor o igual que n, con coecientes reales con las operaciones denidas en (3) 8

13 Prerrequisitos 12 Espacios vectoriales Como se establece en la denición, un espacio vectorial (real) es un tripla que consta de un conjunto V y de dos operaciones con ciertas propiedades Cuando no haya lugar a confusión o cuando no sea necesario explicar las operaciones mencionadas, se hará referencia simplemente al espacio vectorial V Con frecuencia es necesario considerar subconjuntos de un espacio vectorial V, tales que; junto con las operaciones denidas en V, son por sí mismo espacios vectoriales Estos son denominados subespacios de V En forma más precisa tenemos la siguiente 123 Denición Sea V un espacio vectorial y W un subconjunto no vacío de V Diremos que un W es subespacio de V, si W, junto con las operaciones de suma de vectores y la multiplicación de un escalar por un vector denidas en V, es en sí mismo un espacio vectorial 124 Denición Sean V un espacio vectorial, v 0 un elemento de V y W es un subespacio de V El subconjunto determinado así: L = {v V : v = v 0 + w, para w W }, es denominado una variedad lineal de V El siguiente concepto es básico en el estudio de los espacios vectoriales En particular, servirá para caracterizar ciertos espacios de un espacio vectorial 125 Denición Sean v 1, v 2,, v n vectores de un espacio vectorial V Se dice que un vector v V es combinación lineal de los vectores v 1, v 2,, v n si existen escalares α 1, α 2,, α n tales que: n v = α 1 v 1 + α 2 v α n v n = α i v i 126 Teorema Sea W un subconjunto no vacío de un espacio vectorial V W es un subespacio de V sii W es cerrado bajo la operación suma de vectores y la multiplicación por un escalar, esto es, sii 1 Si u W y v W, entonces u + v W 2 Si u W y α R, entonces αu W 9 i=1

14 12 Espacios vectoriales Prerrequisitos 127 Teorema Si U y W son subespacios de un espacio vectorial V, entonces: 1 La intersección de U con W ; U W es un subespacio vectorial de V 2 La suma de U con W ; denida por U + W = {v V : v = u + w, con u U y w W }, es un subespacio vectorial de V 128 Teorema Sea C un conjunto no vacío de vectores de un espacio vectorial V El conjunto de todas las combinaciones lineales de los vectores de C; { } k W = v V : v = α i v i ; k N, v i C y α i R, i = 1, 2,, k es un subespacio de V i=1 Sea C un conjunto no vacío de vectores de un espacio vectorial V El subespacio de V, de todas las combinaciones lineales de los vectores de C mencionado en el teorema anterior, es denominado el espacio generado por los vectores de C o simplemente, espacio generado por C Cuando C = {v 1, v 2,, v n } (es nito), este espacio será denotado por v 1, v 2,, v n o por gen {v 1, v 2,, v n } Cuando consideramos un conjunto C de vectores de un espacio vectorial, es a veces importante determinar cuándo algún vector o algunos de los vectores de C se pueden expresar como combinaciones lineales de los restantes vectores en C Para ello, necesitamos de la denición de dependencia lineal de un conjunto de vectores y algunos resultados sobre ella 129 Denición (Independencia lineal) Sea C = {v 1, v 2,, v n } un conjunto C de vectores (distintos) de un espacio vectorial V Se dice que C es linealmente dependiente o que los vectores v 1, v 2,, v n son linealmente dependientes, si existen escalares α 1, α 2,, α n no todos nulos tales que: n 0 = α 1 v 1 + α 2 v α n v n = α i v i, en caso contrario, se dice que C es linealmente independiente o que los vectores v 1, v 2,, v n son linealmente independientes Es decir, C es 10 i=1

15 Prerrequisitos 12 Espacios vectoriales linealmente independiente si para los escalares α 1, α 2,, α n ; si 0 = n i=1 α iv i, entonces α 1 = α 2 =, = α n = Teorema En un espacio vectorial V se tiene: 1 Todo conjunto que contenga el vector nulo, 0, es linealmente dependiente 2 Todo conjunto que contenga un subconjunto linealmente dependiente es linealmente dependiente 3 Todo subconjunto de un conjunto linealmente independiente, es linealmente independiente 4 Un conjunto de vectores C = {v 1, v 2,, v n }, n 2, es linealmente dependiente sii uno de los vectores de C es combinación lineal de los restantes vectores de C 121 Bases y dimensión Dado un espacio vectorial V, en ocasiones es útil determinar un subconjunto B de V de vectores linealmente independientes que genere al espacio V Esto es, un conjunto de vectores linealmente independientes mediante los cuales, cada vector de V se pueda expresar como combinación lineal de los vectores de B Como veremos en esta sección, tal conjunto B se llamará una base de V y de acuerdo con el número de elementos que contenga, tal base hablaremos de dimensión nita o innita del espacio vectorial Se dice que un espacio vectorial V es de dimensión nita, si existe un conjunto nito C de vectores de V, tal que el espacio generado por C en V Por el contrario, si no es posible generar un espacio vectorial V con un ningún subconjunto nito de vectores, diremos que dicho espacio tiene dimensión innita Ejemplos de éstos últimos espacios son: el conjunto de funciones continuas denidas sobre R, o el conjunto de todos los polinomios con variable real Nosotros sin embargo sólo trataremos aquí con espacios de dimensión nita 1211 Denición (Base) Sea B un conjunto de vectores de un espacio vectorial V Se dice que B es una base de V si se tienen las dos condiciones: (i) El espacio generado por B es V (ii) El conjunto B es linealmente independiente 11

16 12 Espacios vectoriales Prerrequisitos Si un espacio vectorial V tiene una base B = {v 1, v 2,, v n } compuesta por n vectores, entonces se puede demostrar que el número de vectores de cualquier otra base de V es también n Es decir, si un espacio vectorial V tiene una base Bcon un número nito, n, de elementos, cualquier otra base de dicho espacio vectorial, tiene exactamente n elementos A dicho número común se le llama dimensión del espacio V y se dice que V es de dimensión nita n y se escribe dim V = n 1212 Denición Sea W un subespacio de un espacio vectorial V, v 0 un vector en V y L la variedad L = {v V : v = v 0 + w, w W }, si dim W = k, se dice que la variedad lineal L tiene dimensión k El siguiente teorema resume algunos aspectos importante sobre bases de espacios vectoriales, independencia lineal y conjuntos generadores 1213 Teorema Sea V un espacio vectorial de dimensión n 1 Si B = {v 1, v 2,, v n } es un conjunto de n vectores de V, entonces: a) B es una base de V sii B es linealmente independiente b) B es una base de V sii B genera a V 2 Si C = {u 1, u 2,, u r } es un conjunto linealmente independiente, entonces r n 3 Si C = {u 1, u 2,, u r } es un conjunto linealmente independiente, con r < n, entonces existen n r vectores de V ; w 1, w 2,, w n r, tales que B = {u 1, u 2,, u r, w 1,, w n r } es una base de V 4 Si C = {u 1, u 2,, u r } genera a V entonces r n 5 Si el conjunto C = {u 1, u 2,, u r } genera a V y r > n, entonces existen n r vectores de C; w 1, w 2,, w n r, tales que B = C \ {w 1, w 2,, w n r } es una base de V 6 Si W es un subespacio de V entonces dim W n Si dim W = n, entonces W = V 1214 Teorema Si U y W son subespacios de un espacio vectorial V entonces dim(u + W ) = dim U + dim V dim(u W ) 12

17 Prerrequisitos 12 Espacios vectoriales 1215 Nota En el teorema anterior: U W = {0} sii dim(u + W ) = dim U +dim V Cuando U W = {0} al espacio U +W de V se le denomina suma directa de U con W y se escribe U W en lugar de U +W Además, en este caso para cada vector v U W, existen vectores únicos u U y w W tales que v = u + w 1216 Teorema Si U es un subespacio de un espacio vectorial V, entonces existe un subespacio W de V tal que U W = V El subespacio W del teorema anterior no es necesariamente único y es llamado complemento de U También se dice que U y W son subespacios complementarios 122 Coordenadas El conjunto de coordenadas de un espacio respecto de una base es útil en el estudio de las transformaciones lineales Para introducir este concepto es necesario denir primero lo que es una base ordenada de un espacio vectorial V En la denición 1211 era irrelevante en qué orden apareciera los elementos de una base Sin embargo, a partir de ahora el orden será importante En tal sentido, nosotros consideramos la siguiente denición 1217 Denición (Base ordenada) Si v 1, v 2,, v n es una sucesión nita de vectores linealmente independientes de un espacio vectorial V, que generan a V, entonces diremos que B = {v 1, v 2,, v n } es una base ordenada de V 1218 Teorema Si B = {v 1, v 2,, v n } es una base ordenada de V, entonces para cada vector v V existen escalares α 1, α 2,, α n únicos tales que n v = α 1 v 1 + α 2 v α n v n = α i v i, 1219 Denición Sea B = {v 1, v 2,, v n } una base ordenada de un espacio vectorial V Sea v un vector de V y sean α 1, α 2,, α n los escalares únicos tales que v = n i=1 α iv i, el vector (vector columna) de coordenadas de v respecto de la base ordenada B se denota por [v B y se dene así: α 1 α 2 [v B = α n 13 i=1

18 12 Espacios vectoriales Prerrequisitos Si u y v son dos vectores de V y si α es un escalar, entonces [u + v B = [u B + [v B y [αu B = α [u B De otro lado, a cada vector n 1 (matriz n 1) c = [ α 1 α 2 α n T le corresponde un único vector v de V tal que [v B = c, a saber v = n i=1 α iv i Así, cada base ordenada B de V determina una correspondencia biunívoca, v [v B, entre los espacios V y M n 1, que preserva las suma de vectores y la multiplicación de un escalar por un vector Más aún, preserva la independencia lineal; ésto es, el conjunto C = {u 1, u 2,, u k } es un conjunto de vectores linealmente independientes de V sii el conjunto C = {[u 1 B, [u 2 B,, [ u k B } es un conjunto de vectores linealmente independientes de M n 1 En el caso en que V = R n y B = {e 1, e 2,, e n } sea la base canónica, con e 1 = (1, 0, 0,, 0), e 2 = (0, 1, 0,, 0),, e n = (0, 0, 0,, 1), la mencionada correspondencia está dada por x = (x 1, x 2,, x n ) [x B = x 1 x 2 x n En algunas situaciones resulta conveniente tener presente esta correspondencia, que utilizaremos identicando a x con [x B 123 Producto interno Bases ortonormales En este apartado consideraremos los conceptos de producto interno y de bases ortonormales que nos será particularmente útiles en el capítulo 3 al tratar la diagonalización de matrices simétricas 1220 Denición (Producto interno) Sea V un espacio vectorial Sean además u, v y w vectores arbitrarios de V y α un escalar real Un producto interno en V es una función ; : V V R que satisface las propiedades: (i) u; v = v; u (ii) u; u 0 y u; u = 0 si y sólo si u = 0 (iii) αu; v = α u; v (iv) u + v; w = u; w + v; w 14

19 Prerrequisitos 12 Espacios vectoriales Observación Si B es una base ordenada de un espacio vectorial V, entonces la función ; : V V R denida por u; v = [u T B [v B es un producto interno En particular, si V = R n y B es la base canónica de R n, se tiene que x; y = [x T B [y B = x 1y 1 + x 2 y x n y n, donde x = (x 1, x 2,, x n ) y y = (y 1, y 2,, y n ) En lo que sigue consideraremos a R n con este producto interno (producto escalar) y a veces escribiremos x y o x T y para indicar a x; y Si ; es un producto interno sobre un espacio vectorial V, la norma o longitud de un vector v de V se denota por v y se dene así: v = v; v Cuando v = 1, se dice que v es un vector unitario 1221 Teorema (Desigualdad de Schwarz) Sea V un espacio vectorial con producto interno ; Para cada par de vectores u y v de V se satisface la desigualdad u; v u v Sean u y v vectores de un espacio vectorial V con producto interno ;, si u y v no son nulos, la medida del ángulo entre ellos se dene como u; v θ = arc cos u v 1222 Denición Sea V un espacio vectorial con producto interno ; : 1 Se dice que dos vectores u y v de V son ortogonales si u; v = 0 2 Se dice que un conjunto C = {v 1, v 2,, v n } de vectores de V es ortogonal si v i ; v j = 0 para i j, i, j = 1, 2,, n 3 Se dice que un conjunto C = {v 1, v 2,, v n } de vectores de V es ortonormal si C es ortogonal y cada vector de C es unitario, o sea si: { 1 si i = j v i ; v j = δ ij = ; i, j = 1, 2,, n 0 si i j 4 Se dice que dos conjuntos no vacíos, C 1 y C 2 de vectores son ortogonales, si para cada par de vectores u C 1 y v C 2, u; v = 0 15

20 13 Transformaciones lineales Prerrequisitos 1223 Teorema Sea V un espacio vectorial con producto interno ; Si C = {v 1, v 2,, v n } es un conjunto ortogonal que no contiene al vector 0, entonces C es linealmente independiente 1224 Teorema (Proceso de ortogonalización de Gram-Schmidt) Sea W un subespacio no nulo de un espacio vectorial V de dimensión nita k con producto interno ; y sea B = {w 1, w 2,, w k } una base de W Entonces C = {v 1, v 2,, v k } es una base ortogonal de W y C = {v1, v2,, vk } es una base ortonormal de W, donde: v 1 = w 1 v 2 = w 2 w 2; v 1 v 1 ; v 1 v 1 v 3 = w 3 w 3; v 1 v 1 ; v 1 v 1 w 3; v 2 v 2 ; v 2 v 2 v k = k 1 w k i=1 w k ; v i v i ; v i v i, y donde vi = v i para i = 1, 2,, k v i 1225 Teorema Sean v 1, v 2,, v k vectores no nulos de un espacio vectorial V de dimensión n > k, con producto interno ; Si C 1 = {v 1, v 2,, v k } es un conjunto ortogonal (respectivamente ortonormal), entonces existe un conjunto ortogonal (respectivamente ortonormal) C 2 = {w 1, w 2,, w n k } de vectores de V tal que B = C 1 C 2 es una base ortogonal (ortonormal) de V Más aún, si U = v 1, v 2,, v k y si W = w 1, w 2,, w n k entonces V = U W y además, U y W son ortogonales 13 Transformaciones lineales En esta sección consideraremos los aspectos más importantes sobre las transformaciones lineales En lo que sigue; U, V y W denotarán espacios vectoriales 131 Denición Una función T : U V es una transformación lineal, si para cualquier para de vectores u 1, u 2 en U y todo escalar α, se tiene que: 16

21 Prerrequisitos 13 Transformaciones lineales (i) T (u 1 + u 2 ) = T (u 1 ) + T (u 2 ) (ii) T (αu 1 ) = αt (u 1 ) 132 Ejemplo Algunos ejemplos de transformaciones lineales son: 1 Para cada U, la función idéntica I : U U, u I(u) = u 2 Para cada matriz A M m n, la función A : R n R m, denida por x y = Ax 133 Teorema Sean U y V espacios vectoriales, B = {u 1, u 2,, u n } una base de U y T : U V es una transformación lineal Entonces T queda determinada por los vectores T (u 1 ), T (u 2 ),, T (u n ) Asociados a toda transformación lineal hay dos subespacios importantes a saber; su núcleo y su imagen El primero de ellos corresponde a todos lo elementos del espacio U que son transformados en el elemento nulo del espacio V ; el segundo, corresponde a todos los elementos del espacio V que tienen al menos una preimagen en el espacio U En forma más precisa tenemos 134 Denición Sea T : U V es una transformación lineal 1 El núcleo de T se denota por N (T ) y se dene así: N (T ) = {u U : T (u) = 0} 2 La imagen de T se denota por Img(T ) y se dene así: Img(T ) = {T (u) : u U} 135 Denición Sea T : U V una transformación lineal 1 Diremos que T es inyectiva (biunívoca o uno a uno), si dos elementos distintos u 1, u 2 U, tienen imagen distinta Esto es si y sólo si u 1 u 2 implica T (u 1 ) T (u 2 ); para todo u 1, u 2 U 2 Diremos que T es sobreyectiva (o simplemente sobre), si cada elemento de del espacio V posee al menos una preimagen en U Esto es si y sólo si Para todo v V existe un u U tal que T (u) = v El siguiente teorema resume algunos aspectos básicos de las transformaciones lineales 17

22 13 Transformaciones lineales Prerrequisitos 136 Teorema Sea B = {u 1, u 2,, u n } un subconjunto de vectores de U y sea T : U V una transformación lineal y 1 N (T ) es un subespacio vectorial de U 2 T es inyectiva sii N (T ) = {0} 3 Img(T ) es un subespacio vectorial de V 4 Si B es una base de U, entonces {T (u 1 ), T (u 2 ),, T (u n )} genera al espacio Img(T ) 5 Si T es inyectiva y B es linealmente independiente, entonces {T (u 1 ), T (u 2 ),, T (u n )} es un subconjunto linealmente independiente de vectores de V 6 dim N (T ) + dim Img(T ) = dim U A la dimensión de N (T ) se le llama nulidad de T y a la dimensión de Img(T ) se llama rango de T 131 Matriz de una transformación lineal referida a un par de bases ordenadas A cada transformación lineal se le puede asignar una matriz A, la cual está determinada por las bases de los espacios vectoriales involucrados en dicha transformación Veremos en esta sección, que una tal asignación simplicará muchos cálculos Es decir, será más conveniente trabajar con la matriz asociada a una transformación lineal (referida a ciertas bases), que con la transformación lineal misma 137 Denición Sean U y V espacios vectoriales, T : U V una transformación lineal y sean B 1 = {u 1, u 2,, u n } y B 2 = {v 1, v 2,, v m } bases ordenadas de U y de V respectivamente La matriz de T referida a las bases B 1 y B 2 se denotará por [T B1B 2 y corresponde a la matriz m n dada por: [T B1B 2 = [ [T (u 1 ) B2 [T (u 2 ) B2 [T (u n ) B2 138 Teorema Sean U y V espacios vectoriales, T : U V una transformación lineal y sean B 1 = {u 1, u 2,, u n } y B 2 = {v 1, v 2,, v m } bases ordenadas de U y de V respectivamente Para cada u U se tiene que: [T (u) B2 = [T B1B 2 [u B1 Nota Por el teorema anterior y por el teorema 133, la transformación lineal T queda completamente determinada por el conocimiento de las bases B 1 y B 2, y de la matriz [T B1B 2 18

23 Prerrequisitos 13 Transformaciones lineales 132 Álgebra de transformaciones lineales Inversa de una transformación lineal En esta sección consideraremos las operaciones de suma, multiplicación por un escalar y composición entre transformaciones lineales Así mismo veremos la relación existente entre las matrices asociadas correspondientes En este apartado U, V y W denotan espacios vectoriales 139 Teorema Sean T : U V y S : U V transformaciones lineales y α un escalar Sean además B 1 y B 2 bases ordenadas de U y V, respectivamente: 1 La suma de T y S; (T + S) : U V, denida por (T + S)(u) = T (u) + S(u) es una transformación lineal Más aún [T + S B1B 2 = [T B1B 2 + [S B1B 2 2 La función múltiplo escalar de T ; (αt ) : U V, denida por (αt )(u) = αt (u) es una transformación lineal Más aún [αt B1B 2 = α [T B1B 2 Nota El conjunto de todas las transformaciones lineales de U en V, L(U, V ), junto con las operaciones mencionadas en el teorema anterior es un espacio vectorial además, si dim U = n y dim V = m entonces dim L(U, V ) = m n De otro lado, de la misma forma como una base B 1 de U determina la correspondencia biunívoca entre los espacios vectoriales V y M m 1, dada por, v [v B2 ; las bases B 1 y B 2 de U y V, determinan la correspondencia biunívoca entre los espacios L(U, V ) y M m n, la cual está dada por T [T B1B 2 Esta correspondencia preserva la suma de vectores y la multiplicación de un escalar por un vector, tal como se establece en el teorema anterior En otras palabras, esta correspondencia es una transformación lineal 1310 Teorema Sean T : U V y S : V W transformaciones lineales Entonces, la composición S T : U W es una transformación lineal Si además, B 1, B 2 y B 3 representan bases ordenadas para los espacios U, V y W respectivamente, entonces se tiene que: [S T B1B 3 = [S B2B 3 [T B1B 2 19

24 14 Espacios fundamentales de matrices Prerrequisitos 1311 Teorema Si T : U V es una transformación lineal biyectiva, entonces la función inversa de T, T 1 : V U es una transformación lineal y la matriz [T B1B 2 es invertible Además, [ T 1 B 2B 1 = [T 1 B 1B Matrices semejantes Cambio de base Los conceptos de matrices semejantes y cambio de base nos serán particularmente útiles en el capítulo 4 para el estudio de los valores propios y los vectores propios de una transformación lineal 1312 Denición (Matrices semejantes) Sean A y B matrices cuadradas de orden n, se dice que A y B son semejantes, si existe una matriz invertible P tal que B = P 1 AP 1313 Denición (Matriz cambio de base) Sean B 1 y B 2 bases ordenadas del espacio vectorial U, y sea I : U U la transformación lineal idéntica La matriz P = [I B1B 2 se denomina matriz de cambio de base de la base B 1 a la base B 2, (ésto debido a lo enunciado por el teorema 138, [u B2 = [T B1B 2 [u B1 ) 1314 Teorema Sean T : U U una transformación lineal y B 1 y B 2 bases ordenadas de U 1 La matriz de cambio de base de la base B 1 a la base B 2, P = [I B1B 2, es invertible y su inversa es la matriz de cambio de base de la base B 2 a la base B 1 2 Las matrices A = [T B2B 2 y B = [T B1B 1 son matrices semejantes, además se tiene [T B1B 1 = [I 1 B 1B 2 [T B2B 2 [I B1B 2 = P 1 [T B2B 2 P 14 Espacios fundamentales de una Matriz Rango de una matriz Sistemas de ecuaciones lineales En esta sección consideraremos los llamados espacios fundamentales de una matriz A Dos de estos espacios son precisamente el núcleo y la imagen de la transformación lineal x y = Ax, los cuales están relacionados con el conjunto solución de un sistema de ecuaciones lineales Ax = y El lector recordará de los resultados de un primer curso de álgebra lineal, que el espacio la y es espacio columna de A tienen igual dimensión A ese número común se le denomina rango de A y se denota por ρ(a) 20

25 Prerrequisitos 14 Espacios fundamentales de matrices Sea A una matriz m n El subespacio de R n generado por las las de A se denomina espacio la de A y lo denotamos por F(A); esto es, F(A) = A 1, A 2,, A m El subespacio de R m generado por las columnas de A se denomina espacio columna de A y lo denotamos por C(A); esto es, C(A) = A 1, A 2,, A n El espacio formado todas soluciones de un sistema homogéneo de ecuaciones lineales Ax = 0 se denomina espacio nulo de una matriz, esto es, el espacio nulo es el conjunto De otro lado, el subespacio de R n ; N (A) = {x R n : Ax = 0} Img(A) = {Ax : x R n } se denomina imagen de A = {y R m : y = Ax para algún x R n } 141 Teorema Para cualquier matriz A se tiene que dim F(A) = dim C(A) 142 Teorema Sea A una matriz arbitraria entonces: 1 F(A) y N (A) son ortogonales Ésto es, sus elementos son ortogonales entre si 2 C(A) y N (A t ) son ortogonales Ésto es, sus elementos son ortogonales entre si 143 Teorema Sean A y B matrices de tamaño adecuado, tales que las operaciones siguientes están denidas 1 C(AB) C(A) y F(AB) F(B) 2 Si P y Q son matrices invertibles de tamaño apropiado a) C(A) = C(AQ) b) F(A) = F(P A) 3 C(A + B) C(A) + C(B) y F(A + B) F(A) + F(B) 4 Para cualquier matriz A se tiene que: N (A) = N (A T A) Nota Según el inciso 2(b) del teorema anterior y según el teorema 1110, si R es la forma escalonada reducida de la matriz A, entonces F(A) = F(R) 144 Teorema Sea A una matriz m n La imagen de la transformación lineal A : R n R m, x y = Ax, es el espacio columna de A; esto es, Img(A) = C(A) = {Ax : x R n } 21

26 14 Espacios fundamentales de matrices Prerrequisitos Nota De acuerdo con el inciso (3) del teorema 136 y de acuerdo con los teoremas 141 y 144: si A es una matriz m n, entonces dim N (A) + dim F(A) = n Análogamente, puesto que F(A t ) = C(A), dim N (A T ) + dim C(A) = m De otra parte, con base en la nota 1215, R n = F(A) N (A) y R m = C(A) N (A T ), es decir, los subespacios F(A) y N (A) de R n son complementarios Así mismo, los subespacios C(A) y N (A t ) de R m son complementarios Esto implica entonces, que cada x R n y cada y R m se pueden expresar en forma única así: x = f + n y y = c + u, donde f, n, c y u pertenecen a F(A), N (A), C(A) y N (A T ), respectivamente (ver gura 11) IR n IR m F(A) f x=f+n n N (A) C (A) Ax=Af c y=c+u u T N (A ) Figura 11 Transformación lineal Nota Según las deniciones, el núcleo de la transformación lineal x y = Ax es el espacio nulo de A De otro lado, si denimos el rango de la matriz A, ρ(a), como el rango de la transformación lineal x y = Ax, entonces tenemos que rango de A es la dimensión del espacio columna de A 145 Teorema Sea A una matriz m n, entonces: 1 ρ(a) es igual al número máximo de las linealmente independientes de A 2 ρ(a) es el número máximo de columnas linealmente independientes de A 22

27 Prerrequisitos 14 Espacios fundamentales de matrices 3 ρ(a) es el número de las no nulas de la forma escalonada reducida de A 4 Para cualquier matriz A, ρ(a) = ρ(a T ) = ρ(aa T ) = ρ(a T A) 5 Si A es una matriz m n y B es una matriz n k, entonces ρ(ab) ρ(a) y ρ(ab) ρ(b) 6 Si P es una matriz invertible m m y Q es una matriz invertible n n, entonces ρ(a) = ρ(p A) = ρ(aq) = ρ(p AQ) 7 Si A y B son matrices m n, entonces ρ(a + B) ρ(a) + ρ(b) 146 Teorema Sea A una matriz m n y sea y un vector m 1 1 El sistema de ecuaciones Ax = y tiene solución sii y C(A) 2 El sistema de ecuaciones Ax = y tiene solución sii el rango de la matriz A es igual al rango de la matriz aumentada del sistema [A y, es decir sii ρ(a) = ρ([a y) 3 Para el sistema de ecuaciones lineales Ax = y se da una y sólo una de las opciones siguientes: a) El sistema no tiene solución, en cuyo caso y / C(A) b) El sistema tiene innitas soluciones, en cuyo caso su conjunto solución es una variedad lineal de la forma S = {x p + x h : x h N (A)}, donde x p es una solución particular del sistema; ésto es, Ax p = y, además, dim N (A) > 0 c) El sistema tiene una única solución En este caso se tiene que N (A) = {0 } El teorema siguiente recoge, teóricamente, el método de Gauss-Jordan para resolver sistemas de ecuaciones lineales 147 Teorema Sean A una matriz m n y y un vector n 1 Si P es una matriz invertible m m tal que P A = R, donde R es la forma escalonada reducida de A, entonces Ax = y sii Rx = P y; esto es, los sistemas de ecuaciones lineales Ax = y y Rx = P y tienen el mismo conjunto solución En particular, si y = 0; Ax = 0 sii Rx = Teorema (Resumen) Sea A una matriz cuadrada de orden n Las armaciones siguientes son equivalentes: 1 det(a) 0 2 A es invertible 3 La forma escalonada de A en I n 23

28 14 Espacios fundamentales de matrices Prerrequisitos 4 Los vectores la de A son linealmente independientes 5 El espacio la de A es R n, es decir, F(A) = R n 6 Los vectores columna de A son linealmente independientes 7 El espacio columna de A es R n, es decir, C(A) = R n 8 El rango de la matriz A es n 9 N (A) = {0} 10 El sistema de ecuaciones lineales Ax = 0 tiene la única solución x = 0 11 Para todo y R n, El sistema de ecuaciones lineales Ax = y tiene solución Por último, consideramos un método para calcular una base de cada uno de los espacios fundamentales de una matriz m n arbitraria A El método consiste en efectuar los pasos siguientes: Paso 1 Forme la matriz [ A T I n Paso 2 Efectúe operaciones elementales sobre las las de la matriz anterior hasta obtener la forma escalonada reducida Al nal se obtiene la matriz que podemos describir por bloques así: E r m P r n donde r = ρ(a) 0 (n r) m P (n r) n Los vectores la de la matriz E r m conforman una base para C(A) y los vectores la de la matriz P (n r) n conforman una base para N (A) Al llevar a cabo el paso 2 con la matriz [A I m se obtienen sendas bases para C(A T ) = F(A) y N (A T ) 24

29 CAPÍTULO 2 Matrices particionadas Traza de una matriz Este capítulo consta de tres secciones Las dos primeras versan sobre matrices particionadas La tercera sección trata sobre la traza de una matriz Consignaremos aquí los principales resultados sobre la traza de una matriz Existen razones para querer particionar una matriz A, algunas de ellas son: (i) La partición puede simplicar la escritura de A (ii) La partición puede exhibir detalles particulares e interesantes de A (iii) La partición puede permitir simplicar cálculos que involucran la matriz A 21 Submatrices Operaciones con matrices particionadas A veces es necesario considerar matrices que resultan de eliminar algunas las y/o columnas de alguna matriz dada, como se hizo por ejemplo, al denir el menor correspondiente al elemento a ij de una matriz A = [a ij m n (véase el apartado 113 del capítulo 1) 211 Denición Sea A una matriz Una submatriz de A es una matriz que se puede obtener al suprimir algunas las y/o columnas de la matriz A 212 Ejemplo Las matrices S 1, S 2 y S 3 dadas a continuación, sonson submatrices de la matriz A = [ S 1 = (suprimiendo en A la la 2 y la columna 3)

30 21 Submatrices Matrices particionadas S 2 = [ (suprimiendo en A la la 3) S 3 = [ (suprimiendo en A la la 3 y las columnas 1 y 4) Dada una matriz A = [a ij m n ; mediante un sistema de rectas horizontales o verticales podemos particionarla en submatrices de A, como se ilustra en el siguiente ejemplo: A = a 11 a 12 a 13 a 14 a 21 a 22 a 23 a 24 a 31 a 32 a 33 a 34 a 41 a 42 a 43 a 44 a 51 a 52 a 53 a 55 Hecho esto, podemos escribir, usando una notación obvia: donde A 11 = a 11 a 21 a 31 A =, A 12 = [ A11 A 12 A 13 A 21 A 22 A 23 a 12 a 13 a 22 a 23 a 32 a 33, A 13 = a 14 a 24 a 34, A 21 = [ a41 a 51, A 22 = [ [ a42 a 43 a44, A a 52 a 23 = 53 a 55 Debe ser claro para el lector, que una matriz puede ser particionada de diferentes maneras, por ejemplo: 26

31 Matrices particionadas 21 Submatrices A = = A = Tal vez, la principal conveniencia de particionar matrices, es que se puede operar con matrices particionadas como si las submatrices fuesen elementos ordinarios, tal como se establece en el teorema siguiente 213 Teorema 1 Si las matrices A y B están particionadas así: A 11 A 12 A 1n B 11 B 12 B 1n A 21 A 22 A 2n A = y B = B 21 B 22 B 2n A m1 A m2 A mn B m1 B m2 B mn y si las sumas A ij +B ij están denidas para i = 1, 2,, m, j = 1, 2,, n, entonces A 11 + B 11 A 12 + B 12 A 1n + B 1n A 21 + B 21 A 22 + B 22 A 2n + B 2n A + B = A m1 + B m1 A m2 + B m2 A mn + B mn 2 Si las matrices A y B están particionadas así: A 11 A 12 A 1n B 11 B 12 B 1s A 21 A 22 A 2n A = y B = B 21 B 22 B 2s A m1 A m2 A mn B n1 B n2 B ns 27

32 21 Submatrices Matrices particionadas y si el número de columnas de cada bloque A ik es igual al número de las de cada bloque B kj ; i = 1, 2,, m, k = 1, 2,, n, j = 1, 2,, s, entonces C 11 C 12 C 1s C 21 C 22 C 2s AB =, C m1 C m2 C ms n donde C ij = A ik B kj k=1 3 Si la matriz A está particionada como en (1) y si α es un escalar, entonces αa 11 αa 12 αa 1n αa 21 αa 22 αa 2n αa = αa m1 αa m2 αa mn 4 Si la matriz A está particionada como en (1), entonces A T 11 A T 21 A T n1 A T A T 12 A T 22 A T n2 = A T 1m A T 2m A T nm Los incisos (1), (3) y (4) del teorema anterior son fáciles de vericar La demostración del inciso (2) es laboriosa y no la haremos Sin embargo, el lector interesado puede consultar una indicación de dicha demostración en [10 página 19 A continuación ilustraremos el inciso (2) de dicho teorema Si A = = A 11 A 12 A 13 A 21 A 23 A 23

33 Matrices particionadas 22 Determinantes y entonces pues AB = A 11 B 11 = A 12 B 21 = A 13 B 31 = B = = B 11 B 21 B 31 A 11 B 11 + A 12 B 21 + A 13 B = 2 7 A 21 B 11 + A 22 B 21 + A 23 B [ [ 1 [ =, [ [ [ = [ [ [ = A 21 B 11 = [1 [ 1 2 = [ 1 2 A 22 B 21 = [ 2 1 [ A 23 B 31 = [ 0 0 [ , = [ 1 3, = [ 0 0, 22 Determinantes e inversas de algunas matrices especiales En algunas situaciones es conveniente utilizar matrices particionadas para describir determinantes e inversas de ciertas matrices en términos de las submatrices En particular, los teoremas 223 y 228, son usados en la deducción de las distribuciones condicionales de un vector aleatorio con distribución normal multivariante (véase el Teorema 361 de [4) 29

34 22 Determinantes Matrices particionadas El lector recordará, que el determinante de una matriz triangular (superior o inferior) es justamente el producto de los elementos de la diagonal principal El siguiente teorema, por ejemplo, lo podríamos ver como una "generalización" de dicho resultado 221 Proposición Sean A y C matrices cuadradas, [ A B 1 Si M = 0 C [ A 0 2 Si M = B C, entonces M = A C, entonces M = A C Demostración Para la demostración del literal (1) usamos inducción sobre el orden n de la matriz M Si n = 2 tenemos que M = ac = A C donde [ [ A B a b M = = 0 C 0 c Supongamos ahora que (1) es válida para n = k y demostremos que es válida para n = k + 1 Sea M una matriz cuadrada de orden n = k +1 particionada como en (1) Suponga además que B = [b ij r s y C = [c ij s s Denotemos por ˆB j a la submatriz de B que se obtiene suprimiendo en B la columna j y por Ĉj a la submatriz de C que se obtiene suprimiendo en C la columna j y la la s, j = 1, 2,, s Ahora, desarrollando el determinante de C por los cofactores de la la s (véase el Teorema 115(1)), obtenemos: det(c) = c s1 ( 1) s+1 Ĉ1 + c s2 ( 1) s+2 Ĉ2 + + c ss ( 1) s+s Ĉs Así mismo, desarrollando el determinante de M por los cofactores de la la k + 1 obtenemos: 30

35 Matrices particionadas 22 Determinantes det(m) = c s1 ( 1) 2(k+1) s+1 A ˆB 1 0 Ĉ 1 + +c s2 ( 1) 2(k+1) s+2 A ˆB 2 0 Ĉ c ss ( 1) 2(k+1) s+s A ˆB s 0 Ĉ s Utilizando la hipótesis de inducción se obtiene: det(m) = ( ( 1) 2(k+1) 2s c s1 ( 1) s+1 A Ĉ1 + c s2 ( 1) s+2 A Ĉ2 ) + + c ss ( 1) s+s A Ĉs ( = A c s1 ( 1) s+1 Ĉ1 + c s2 ( 1) s+2 Ĉ2 + + ) +c ss ( 1) s+s Ĉs = A C Lo que completa la demostración de (1) La demostración de (2) se sigue del hecho de que M = M T (teorema 116(1)) y del inciso (1) En efecto, se tiene: det(m) = det(m T ) [ A B = det 0 C = det(a T ) det(c T ) = det(a) det(c) 222 Ejemplo Use partición de matrices y los resultados de la proposición anterior para calcular el determinante de cada una de las matrices siguientes: 31

36 22 Determinantes Matrices particionadas M = y N = , las cuales se pueden particionar respectivamente como sigue: [ M = A 0 = B C y N = Entonces M = = 21 y N = = 1 El siguiente teorema nos brinda una alternativa para calcular determinantes de matrices más generales particionadas por bloques [ A B 223 Teorema Sean A y B matrices cuadradas y sea M = C D 1 Si D es invertible, entonces M = D A BD 1 C 2 Si A es invertible, entonces M = A D CA 1 B Demostración Haremos sólo la demostración del literal (1), el segundo resultado se verica de manera análoga y se deja como ejercicio al lector 32

37 Matrices particionadas 22 Determinantes [ [ I 0 A BD Sea S = D 1 Entonces M S = 1 C B C I 0 D Ahora por el teorema 116(9) y por la proposición anterior, se tiene : M = M I I = M S = MS = D A BD 1 C Los siguientes resultados son consecuencia inmediata de este teorema y sus vericaciones se dejan como ejercicio 224 Corolario Sean A, B, C y D matrices cuadradas de orden n y sea M la matriz dada por [ A B M = C D 1 Si D es invertible y si DB = BD, entonces M = DA BC 2 Si A es invertible y si AC = CA, entonces M = AD CB 3 Si D = 0 y A es invertible, entonces M = ( 1) n B C 4 Si A = 0 y D es invertible, entonces M = ( 1) n B C 225 Ejemplo Utilizando los resultados del corolario anterior encontremos los determinantes para las matrices M y N dadas por: M = y N = Particionemos entonces M y N de adecuadamente [ Para M tomamos A B =, siendo D = [1 C D Puesto que D es una matriz invertible entonces, M = D A BD 1 C 3 2 = = 2 33

38 22 Determinantes Matrices particionadas Similarmente para N, N = = [ siendo A = Dado que A es invertible tenemos que 1 3 [ A B C 0, M = ( 1) 2 B C = Proposición Sean A y C matrices cuadradas [ A B 1 La matriz M = es invertible sii las matrices A y C 0 C son invertibles Además, si M es invertible entonces [ M 1 A 1 A = 1 BC 1 0 C 1 [ A 0 2 La matriz M = es invertible sii las matrices A y C B C son invertibles Además, si M es invertible entonces [ M 1 = A 1 0 C 1 BA 1 C 1 La prueba de este resultado se propone como ejercicio El ejemplo siguiente, nos ilustra el inciso (1) de la proposición anterior 227 Ejemplo Verique que la matriz M = es invertible y calcule su matriz inversa 34

39 Matrices particionadas 22 Determinantes Observando la estructura de la matriz M podemos ver que una buena [ partición es: M = A B = Puesto que 0 C las matrices A y C son invertibles, entonces M también lo es y además, [ M 1 A 1 A = 1 BC 1 0 C 1 = El siguiente teorema presenta una fórmula para calcular inversas de matrices más generales 228 Teorema Sea B una matriz invertible particionada así: [ B11 B B = 12, con B B 21 B 11 y B 22 matrices invertibles 22 Si B 1 está particionada así: B 1 = [ A11 A 12, A 21 A 22 donde A ii (i = 1, 2), matrices cuadradas de igual orden que la matriz B ii respectivamente entonces: 1 Las matrices A 11 y A 22 son invertibles 2 Las matrices B 11 B 12 B22 1 B 21 y B 22 B 21 B11 1 B 12 son invertibles 3 La matriz B 1 está dada por ( B11 B 12 B22 1 B ) 1 21 B11 1 B ( 12 B22 B 21 B11 1 B ) 1 12 B22 1 B ( 21 B11 B 12 B22 1 B ) 1 ( 21 B22 B 21 B11 1 B )

40 22 Determinantes Matrices particionadas Demostración De la igualdad BB 1 = se obtienen las igualdades (21) [ [ B11 B 12 A11 A 12 = B 21 B 22 A 21 A 22 B 11 A 11 + B 12 A 21 = I B 21 A 11 + B 22 A 21 = 0 B 11 A 12 + B 12 A 22 = 0 B 21 A 12 + B 22 A 22 = I [ I 0 0 I = I Ahora, premultiplicando ambos miembros de (21(b)) por B22 1, se obtiene : B22 1 B 21A 11 + A 21 = 0, o sea, A 21 = B22 1 B 21A 11 Sustituyendo A 21 en (21(a)), se obtiene ( B11 B 12 B 1 22 B 21) A11 = I Esto quiere decir que las matrices B 11 B 12 B 1 22 B 21 y A 11 son invertibles y que una es la inversa de la otra Premultiplicando ambos miembros de (21(c)) por B 1 11, se obtiene : A 12 + B 1 11 B 12A 22 = 0, o sea, A 12 = B 1 11 B 12A 22 Sustituyendo A 12 en (21(d)), se obtiene: ( B22 B 21 B 1 11 B 12) A22 = I Esto quiere decir que las matrices B 22 B 21 B 1 11 B 12 y A 22 son invertibles y que una es la inversa de la otra Por lo anterior, A 11 = ( B 11 B 12 B22 1 B ) 1 21 A 12 = B11 1 B ( 12 B22 B 21 B11 1 B ) 1 12 A 21 = B22 1 B ( 21 B11 B 12 B22 1 B ) 1 21 A 22 = ( B 22 B 21 B11 1 B ) 1 12 A continuación enunciamos y demostramos un teorema que involucra matrices particionadas y el rango de una matriz 36

41 Matrices particionadas 23 Traza de una matriz [ A11 A 229 Teorema Sea A = 12, donde A A 21 A 11 es una matriz invertible r r Si ρ(a) = ρ(a 11 ), entonces A 22 = A 21 A 1 11 A Demostración Puesto que A 11 es una matriz invertible, entonces ρ(a 11 ) = r (ver teorema 148) I 0 Ahora, las matrices P = y P Q = I A 1 11 A 12 A 21 A 1 11 I 0 I son invertibles, puesto que P = Q = 1 0 En consecuencia, por el teorema 145, la matriz A y la matriz [ A11 0 P AQ = 0 A 22 A 21 A 1 11 A 12 tienen rango r Puesto que el número máximo de las linealmente independientes de las matrices P AQ y A 11 es r (véase el teorema 145(2)), entonces necesariamente A 22 A 21 A 1 11 A 12 = 0, o sea A 22 = A 21 A 1 11 A Traza de una matriz En ciertos contextos, la suma de los elementos de la diagonal de una matriz juega un papel importante Por ejemplo, la traza de una matriz aparece en la evaluación de las integrales requeridas en el estudio de la distribución normal multivariante (véase el teorema 1101 de [3) y el valor esperado de formas cuadráticas (véase el teorema 461 de [4) 231 Denición Sea A una matriz cuadrada La traza de A se denota por Tr(A) y se dene como la suma de los elementos de la diagonal principal de A Ésto es, n Tr(A) = A ss s=1 232 Nota Puesto que los elementos de la diagonal principal de A son los mismos que los elementos de la diagonal principal de A T, entonces Tr(A) = Tr(A T ) 37

42 23 Traza de una matriz Matrices particionadas 233 Teorema Sean A y B son matrices cuadradas del mismo orden Si α y β son escalares, entonces Tr(αA + βb) = α Tr(A) + β Tr(B) Demostración Usando la estructura de espacio vectorial de las matrices, así como la denición de traza se tiene: n Tr(αA + βb) = αa + βb ss = = α s=1 n (α A ss + β B ss ) s=1 n A ss + β s=1 n B ss s=1 = α Tr(A) + β Tr(B) 234 Teorema Si A es una matriz m n y B es una matriz n m, entonces Tr(AB) = Tr(BA) Demostración Usando la denición de traza y la denición de producto de matrices obtenemos, n Tr(AB) = AB ss = = = s=1 n s=1 k=1 m k=1 s=1 m A sk B ks n B ks A sk m BA kk = Tr(BA) k=1 38

43 Matrices particionadas 24 Ejercicios 235 Corolario Sea A una matriz cuadrada de orden n Si P es una matriz invertible n n, entonces Tr(A) = Tr(P 1 AP ) = Tr(P AP 1 ) Demostración Por el teorema anterior, Tr(A) = Tr(AI) = Tr(AP P 1 ) = Tr(P 1 AP ) = Tr(P P 1 A) = Tr(P 1 P A) = Tr(P AP 1 ) 236 Corolario Si A es una matriz m n, entonces n m Tr(AA T ) = Tr(A T A) = A 2 sk Además, Tr(AA T ) = 0 sii A = 0 s=1 k=1 Demostración Por denición de traza y por el teorema 234, m Tr(AA T ) = AA T ss = s=1 m s=1 k=1 n A sk A T ks = m s=1 k=1 n 2 A ; sk Esto es, Tr(AA T ) es la suma de los cuadrados de los elementos de A De esto se sigue entonces que, Tr(AA T ) = Tr(A T A) y además que Tr(AA T ) = 0 si y sólo si A = 0 24 Ejercicios 1 Utilice matrices particionadas para calcular el determinante y la matriz inversa (si existe) de cada una de las matrices siguientes : M 1 = M 2 = 2 Demuestre el inciso (2) del teorema Demuestre el corolario Demuestre la proposición

44 24 Ejercicios Matrices particionadas 5 Sean a, b, c y d escalares no nulos y sea n N Calcule el determinante y la matriz inversa, cuando exista, de la matriz [ ain bi M = n ci n di n 6 Sean A una matriz cuadrada de orden n y[ B una matriz cuadrada de orden k Demuestre que si M = o si M = 0 A B C [ C A, entonces M = ( 1) B 0 nk A B (Sug: Utilice inducción sobre el orden de la matriz B) 7 Sean A y B matrices cuadradas a) Dar condiciones necesarias y sucientes para que la matriz [ 0 A M = B C sea invertible Si M es invertible, exprese M 1 en términos de las matrices A, B y C b) Dar condiciones necesarias y sucientes para que la matriz [ C A M = B 0 sea invertible Si M es invertible, exprese M 1 en términos de las matrices A, B y C 8 Utilice los resultados que obtuvo en el problema anterior para calcular la matriz inversa de cada una de las matrices siguientes: M 1 = M 2 = Sean A = [a ij m n y B = [b ij n k Utilice matrices particionadas para demostrar que: a) Si A tiene una la nula, entonces AB tiene una la nula (Sug: Particione la matriz A por las) b) Si B tiene una columna nula, entonces AB tiene una columna nula (Sugerencia: Particione la matriz B por columnas) 40

45 Matrices particionadas 24 Ejercicios 10 Sean A 11, A 22 y A 33 matrices cuadradas Demuestre que si A 11 A 12 A 13 A M = 0 A 22 A 23 ó M = A 21 A A 33 A 31 A 32 A 33 entonces M = A 11 A 22 A Demuestre que si A 11, A 22 y A 33 son matrices invertibles, entonces la matriz M = diag (A 11, A 22, A 33 ) es invertible y A 1 M = 0 A A Sean a R y A n n una matriz invertible, entonces [ a x det = A (a xa 1 y) y A (Sugerencia: Use el teorema 223) 13 Verique que [ I A det = det(c BA) B C (Sugerencia: Use el corolario 224) 14 Muestre que [ [ In B Im A det = det A I m B I n y concluya que I m AB = I n BA 15 Suponga que las matrices que abajo aparecen son de tamaño apropiado, donde I es la matriz identica y que A 11 es una matriz invertible Encuentre matrices X y Y tales que el producto que sige tiene la forma indicada Encuentre además B 22 I 0 0 X I 0 Y 0 I A 11 A 12 A 21 A 22 A 32 A 33 = B 11 B 12 0 B 22 0 B Demuestre que si A es una matriz invertible 2 2, entonces Tr(A) = det(a) Tr(A 1 ) 17 Sea V el espacio vectorial de las matrices n n; (V = M n n ) Demuestre que la función ; : V V M denida por A; B = Tr(AB T ) es un producto interno en V (Vea el apartado 123 del capítulo 1) 41

46 24 Ejercicios Matrices particionadas 18 Sean A y B matrices cuadradas de orden n Demuestre que Tr(AB T ) (Tr(AA T ) Tr(BB T )) 1/2 19 Si A, B M n n, muestre que AB BA I (Sugerencia: Utilice la función traza) 20 Si T : M n n R es una transformación lineal, entonces existe una matriz A tal que T (M) = Tr(AM) (Escriba T (M) en términos de T (E ij ), siendo E ij los elementos de la base estándar de las matrices) 21 Calcule dim W, donde W = {A : Tr(A) = 0} 22 Sean A y B matrices cuadradas del mismo orden a) Muestre que Tr((AB) k ) = Tr((BA) k ) b) Muestre con un ejemplo que Tr((AB) k ) Tr(A k B k ) 42

47 CAPÍTULO 3 Valores propios y vectores propios Diagonalización Este capítulo consta de cuatro secciones Con el n de dar una idea de lo que haremos en las dos primeras secciones, consideraremos un espacio vectorial U y una transformación lineal T : U U Ahora; si existe una base ordenada B = {u 1, u 2,, u n } de U tal que [T BB es una matriz diagonal, es decir, λ λ 2 0 [T BB = D =, 0 0 λ n entonces T (u i ) = λ i u i ; i = 1, 2,, n, esto es, T (u i ) es un múltiplo escalar de u i Este hecho da información inmediata acerca de la transformación lineal T Por ejemplo, la imagen de T es el espacio generado por los vectores u i para los cuales λ i 0, y el núcleo de T es el espacio generado por los restantes vectores u i En la sección 32 responderemos las preguntas: ¾Para qué transformaciones lineales T existe una tal base B? y si existe, ¾Cómo encontrarla? Las respuestas a estas preguntas están directamente ligadas a los conceptos de valor propio y vector propio, los cuales serán abordados en la sección 31 Veremos en esta sección, que el cálculo de los valores propios y los vectores propios de una transformación lineal T se reduce al cálculo de los valores propios y los vectores propios de una cierta matriz A Por otro lado, en las secciones 33 y 34 consideraremos los conceptos de valor propio, vector propio y diagonalización de matrices simétricas, los cuales son particularmente importantes en la teoría y en aplicaciones del álgebra lineal 43

48 31 Valores propios y vectores propios Diagonalización de matrices 31 Valores propios y vectores propios Un problema que se presenta con frecuencia en el Álgebra lineal y sus aplicaciones es el siguiente: Dado un espacio vectorial U y dada una transformación lineal T : U U, encontrar valores de un escalar λ para los cuales existan vectores u 0 tales que T (u) = λu Tal problema se denomina un problema de valores propios (la gura 31 nos ilustra las posibles situaciones) En esta sección veremos cómo resolver dicho problema 311 Denición Sean U un espacio vectorial y T : U U una transformación lineal Se dice que el escalar λ es un valor propio de T, si existe un vector u 0 de U tal que T (u) = λu A dicho vector no nulo u se le llama un vector propio de T correspondiente al valor propio λ, o se dice que es λ-vector de T Nota Los valores propios se denominan también eigenvalores o valores característicos y los vectores propios se denominan también eigenvectores T(u)= λu u u u u T(u)= λu T(u)= λu T(u)= 0 λ>1 0<λ<1 λ<0 λ=0 Figura 31 Interpretación geométrica de vector propio 312 Ejemplo Calcule los valores propios de la transformación lineal T : R 2 R 2, dada por T (x, y) = (2x, x + 3y) De acuerdo con la denición anterior; el escalar λ es un vector propio T sii existe un vector u = (x, y) 0 de R 2 tal que T [(x, y) = (2x, x + 3y) = λ(x, y), lo que equivale a que exista un vector u = (x, y) 0 de R 2 que satisfaga el sistema 2x = λx x + 3y = λy 44

49 Diagonalización de matrices 31 Valores propios y vectores propios Ahora, si x 0, entonces se tiene que λ = 2 y por lo tanto y = x Esto quiere decir que todos los vectores de la forma u = (x, y) = (x, x); x R, x 0 son 2-vectores propios de T En efecto: T [(x, x) = (2x, 2x) = 2(x, x) De otro lado, si x = 0 y y 0 entonces λ = 3 Esto quiere decir que todos los vectores de la forma u = (x, y) = (0, y); y R, y 0 son 3-vectores propios de T En efecto: T [(0, y) = (0, 3y) = 3(0, y) Λ La gura 32 nos ilustra el ejemplo anterior y, T(u ) =3 (0, y), u = (0, y) u = (x, x) x T(u) =2 (x, x) Figura 32 Vectores propios de T (x, y) = (2x, x + 3y) 45

50 31 Valores propios y vectores propios Diagonalización de matrices En el ejemplo anterior observamos que a cada vector propio de T le corresponde un número innito de vectores propios (todo un subespacio de U R 2, sin el vector nulo) Esto es válido en general, tal como se establece en la proposición siguiente 313 Proposición Sean U un espacio vectorial, T : U U una transformación lineal y λ un valor propio de T El conjunto S(λ) de todos los λ-vectores propios de T junto con el vector 0, es un subespacio de U Demostración De acuerdo con la denición de transformación lineal, así como de vector y valor propio se tiene: 1 Si u 1 S(λ) y u 2 S(λ) entonces T (u 1 + u 2 ) = T (u 1 ) + T (u 2 ) = λ(u 1 + u 2 ) Esto es, u 1 + u 2 S(λ) 2 Si u S(λ) y α R entonces Esto es, αu S(λ) T (αu) = αt (u) = λ(α u) De acuerdo con el teorema 126, S(λ) es un subespacio vectorial de U 314 Denición Sean U un espacio vectorial, T : U U una transformación lineal y λ un valor propio de T 1 El subespacio de U, S(λ), mencionado en el teorema anterior, se denomina espacio propio asociado al valor propio λ 2 La dimensión de S(λ) se denomina multiplicidad geométrica del valor propio λ 315 Nota Sean U un espacio vectorial, T : U U una transformación lineal, B una base ordenada para U y A = [T BB, la matriz de la transformación T referida a la base B Entonces para cada u U se tiene [T (u) B = A [u B (ver teorema 138) En particular, u es un λ-vector propio de T si y sólo si u 0 y A [u B = [T (u) B = [λu B = λ [u B Esto es, u es un λ-vector propio de T si y sólo si u 0 y A [u B = λ [u B Por esta razón, y porque resulta en otros contextos, consideramos a continuación los conceptos particulares de valor propio y vector propio de una matriz cuadrada A 46

51 Diagonalización de matrices 31 Valores propios y vectores propios 316 Denición Sea A una matriz cuadrada de orden n 1 Se dice que el escalar λ es un valor propio de A, si existe un vector n 1, x 0 tal que Ax = λx 2 Si λ es un valor propio de A y si el vector n 1, x 0 es tal que Ax = λx Entonces se dice que x es un vector propio de A correspondiente al valor propio λ, o que x es un λ-vector de A En el caso especial de la transformación lineal; A : R n R n ; x y = Ax, esta la denición anterior concuerda con la denición 311 (véase la sección 13) De otro lado, según la denición anterior y la nota 315, odemos enunciar el siguiente teorema 317 Teorema Sean U un espacio vectorial, T : U U una transformación lineal, B una base ordenada para U y A = [T BB 1 λ es un valor propio de T sii λ es un valor propio de A 2 u U es un λ-vector propio de T sii x = [u BB es un λ-vector propio de A Dicho teorema nos garatiza entonces, que el cálculo de los valores y vectores propios de una transformación lineal se reduce al cálculo de los valores y vectores propios de una cierta matriz A En lo que sigue, veremos cómo calcular los valores y vectores propios de una matriz Sea A una matriz n n Por denición, el escalar λ es un valor propio de A sii existe un vector n 1, x 0 tal que Ax = λx, lo cual equivale a que el sistema homogéneo de ecuaciones lineales (A λi)x = 0 tenga una solución no trivial x 0 Ahora por el teorema 148 del capítulo 1, el sistema de ecuaciones lineales (A λi)x = 0 tiene una solución x 0 sii A λi 0 En consecuencia, el escalar λ es un valor propio de A sii p A (λ) = A λi = a 11 λ a 12 a 13 a 1n a 21 a 22 λ a 23 a 2n a 31 a 32 a 33 λ a 3n a n1 a n2 a n3 a nn λ 47 = 0

52 31 Valores propios y vectores propios Diagonalización de matrices La expresión p A (λ) = A λi es un polinomio en λ de grado n, el cual puede expresarse así (ver ejercicio 35(9)) p A (λ) = A λi = a 0 + a 1 λ + a 2 λ a n 1 λ n 1 + ( 1) n λ n 318 Denición Sea A una matriz cuadrada 1 El polinomio p A (λ) = A λi se denomina polinomio característico de A 2 La ecuación p A (λ) = A λi = 0 se denomina ecuación característica de A El siguiente teorema resume buena parte de la discusión anterior 319 Teorema Sea A una matriz cuadrada de orden n 1 El escalar λ es un valor propio de A sii λ es una solución (real) 1 de la ecuación característica de A 2 A tiene a lo más n valores propios (reales) Denición Sea A una matriz cuadrada y λ un valor propio de A La multiplicidad algebraica de λ es k, si λ es una raíz del polinomio característico de A de multiplicidad k El siguiente algoritmo, recoge entonces el esquema para calcular los valores propios y los vectores propios de una matriz A Paso 1 Se determina el polinomio característico p A (λ) = A λi Paso 2 Se resuelve la ecuación característica p A (λ) = A λi = 0 Las soluciones (reales) de ésta, son los valores propios de A Paso 3 Para cada valor propio λ de la matriz A, se resuelve el sistema de ecuaciones (A λ I)x = 0 Las soluciones no nulas de este sistema son los λ vectores propios de A 1 Un valor propio de A es un escalar, y, como hemos establecido, en estas notas los escalares serán números reales a menos que se exprese lo contrario De hecho, uno puede estudiar espacios vectoriales donde los escalares son números complejos No sobra mencionar que en cursos avanzados de espacios vectoriales, la única restricción para los escalares es que sean elementos de un sistema matemático llamado cuerpo o campo 2 El teorema fundamental del álgebra establece que toda ecuación polinómica de grado n, con coecientes complejos, tiene exactamente n raíces complejas, contadas con sus multiplicidades 48

53 Diagonalización de matrices 31 Valores propios y vectores propios 3111 Ejemplo Determine los valores propios y vectores propios de la matriz A = Determinemos inicialmente, el polinomio característico de A, p A (λ) = A λi Desarrollemos A λi por cofactores por la primera la (véase el teorema 115) 1 λ 1 1 p A (λ) = A λi = 1 3 λ λ = (1 λ) 3 λ 1 2 λ λ λ 1 2 = (1 λ)(λ 2 3λ + 2) (1 λ) ( λ + 1) = (1 λ)(λ 2 3λ + 2) = (1 λ) 2 (λ 2) De aquí se tiene, que λ = 1 ó λ = 2 son las soluciones de la ecuación característica p A (λ) = A λi = 0 λ = 1 y λ = 2 so pues los valores propios de A, con multiplicidades algebraicas k = 2 y k = 1 respectivamente Determinemos los vectores propios de A Los 1 vectores propios de A son las soluciones no nulas del sistema de ecuaciones lineales (A 1 I)x = 0 Resolvamos dicho sistema usando el método de eliminación de Gauss- Jordan (véase el teorema 147 ) A 1 I = = R Donde R es la forma escalonada reducida de la matriz A 1 I (véase el teorema 1110) Las soluciones del sistema (A 1 I)x = 0 son, por lo tanto, los vectores de la forma: x = x 1 x 2 = x 3 x 3 = x 3 1 1, x 3 R x 3 x

54 31 Valores propios y vectores propios Diagonalización de matrices En consecuencia, U λ1 = U 1 = es una base para S(λ 1 ) = S(1) y la multiplicidad geométrica del valor propio λ 1 = 1 es 1 De otro lado, los 2 vectores propios de A son las soluciones no nulas del sistema de ecuaciones lineales (A 2 I)x = 0 Procediendo como en el cálculo anterior, se tiene: A 2 I = = R Donde R es la forma escalonada reducida de la matriz A 2 I Las soluciones del sistema (A 2 I)x = 0 son los vectores de la forma: x x = x 2 = x 3 = x 3 1, x 3 R x 3 x 3 1 En consecuencia, U λ2 = U 2 = es una base para S(λ 2 ) = S(2) y la multiplicidad geométrica del valor propio λ 2 = 2 es 1 En el ejemplo anterior, la multiplicidad geométrica del valor propio λ 1 = 1 es menor que su correspondiente multiplicidad algebraica y la multiplicidad geométrica del valor propio λ 2 = 2 es igual que su correspondiente multiplicidad algebraica (ver el ejercicio 352(10)) 3112 Ejemplo Calculemos los valores y vectores propios de la matriz [ 0 1 A = 1 0 Para ello calculemos el polinomio característico de A, p A (λ) = A λi p A (λ) = A λi = λ 1 1 λ = λ2 + 1, 50

55 Diagonalización de matrices 31 Valores propios y vectores propios y resolvemos la ecuación característica de A, p A (λ) = A λi = 0 p A (λ) = λ = (λ + i)(λ i) sii λ = i ó λ = i Puesto que las soluciones de la ecuación característica de A no son reales, entonces A no tiene valores propios y por lo tanto no tiene vectores propios, en el sentido considerado en este texto 3113 Ejemplo Sea T : P 2 P 2 la transformación lineal denida por: T [ a + bx + cx 2 = (a + b c) + ( a + 3b c)x + ( a + 2b)x 2 Determine los valores y los vectores propios de la transformación Sea B = { 1, x, x 2} la base canónica de P 2, se tiene entonces que: [T BB = A = De acuerdo con el teorema 317(1); los valores propios de la transformación lineal T son los valores propios de la matriz A, los cuales son, según el ejemplo 3111 λ 1 = 1 y λ 2 = 2 De otro lado, del ejemplo 3111 se sabe que U λ1 = {x 1 } es una base de S(λ 1 ) y que U λ2 = {x 2 } es una base de S(λ 2 ), donde 1 0 x 1 = 1 1 y x 2 = 1 1 Como se estableció en el teorema 317(2), éstos son respectivamente, los vectores de coordenadas respecto a la base B (véase apartado 122) de los vectores de P 2 ; u 1 = 1 + x + x 2 y u 2 = x + x 2 En consecuencia; U λ 1 = {u 1 } = { 1 + x + x 2} es una base del espacio de vectores propios de T correspondientes al valor propio λ 1 = 1 y U λ 2 = {u 2 } = { x + x 2} es una base del espacio de vectores propios de T correspondientes al valor propio λ 2 = 2 Terminamos esta sección con dos resultados que involucran matrices semejantes El primero de ellos relaciona los polimomios característicos de matrices semenjantes y el segundo relaciona los vectores propios de dichas matrices 51

56 31 Valores propios y vectores propios Diagonalización de matrices 3114 Teorema Si A y B son matrices semejantes, entonces los polinomios característicos de A y B son iguales, y por consiguiente, las matrices A y B tienen los mismos valores propios Demostración Si A y B son matrices semejantes, entonces existe una matriz invertible P tal que B = P 1 AB De aquí: p B (λ) = B λi = P 1 AP λp 1 P = P 1 (A λi)p = P 1 A λi P = P 1 P A λi = A λi = p A (λ) 3115 Nota El converso del teorema anterior no es cierto; o sea, si A y B son matrices con el mismo polinomio característico, no necesariamente A y B son matrices semejantes Para mostrar esto, basta considerar el siguiente ejemplo 3116 Ejemplo Las matrices [ 1 0 A = 0 1 y B = [ tienen el mismo polinomio característico; explícitamente p A (λ) = p B (λ) = (λ 1) 2 Sin embargo, A y B no son matrices semejantes, pues para cualquier matriz invertible P de orden 2 se tiene que: P 1 AP = P 1 IP = P 1 P = I B 3117 Proposición Si A y B = P 1 AP son matrices semejantes, entonces x es un λ vector propio de A sii P 1 X es un λ vector propio de B Demostración Por denición se tiene Ax = λx AIx = λx AP P 1 x = λx P 1 AP P 1 x = λp 1 x Tomando B = P 1 AP tenemos entonces que: x 0 es un λ-vector propio de A si y sólo si P 1 x 0 es un λ-vector propio de B = P 1 AP 52

57 Diagonalización de matrices 32 Diagonalización 32 Diagonalización En esta sección responderemos las preguntas siguientes: Dado un espacio vectorial U y dada una transformación lineal T : U U ¾Existe una base B de U tal que [T BB es una matriz diagonal? y si existe ¾cómo encontrar una tal base? Como se estableció en el teorema 1314(2), si T : U U es una transformación lineal, B 1 y B 2 son bases ordenadas de U, A = [T B1B 1 y P = [I B2B 1, entonces D = [T B2B 2 = P 1 AP, esto es, las matrices A y D son semejantes Esta consideración nos permite formular las preguntas anteriores en términos de matrices, así: Dada una matriz cuadrada A, ¾Existe una matriz diagonal D semejante a la matriz?, en otros términos, existirá una matriz invertible P tal que P 1 AP = D sea una matriz diagonal? y si existe ¾cómo encontrar una tal matriz P? 321 Denición Sea A una matriz cuadrada Diremos que A es diagonalizable si A es semejante a una matriz diagonal 322 Teorema Sea A una matriz cuadrada de orden n Si existen n vectores propios de A linealmente independientes, entonces A es diagonalizable; esto es, existe una matriz invertible P tal que P 1 AP = D es una matriz diagonal Además, los vectores columna de P son los vectores propios de A y los elementos de la diagonal de D son los correspondientes valores propios de A Demostración Sean λ 1, λ 2,,λ n, los n valores propios de A, los cuales no son necesariamente diferentes y sean x 1, x 2,, x n, vectores propios de A linealmente independientes, correspondientes respectivamente a cada uno de dichos valores propios Sea ahora P la matriz cuya j ésima columna es el vector propio x j, j = 1, 2,, n, la cual particionamos como sigue: P = [ x 1 x 2 x n Puesto que las columnas de P son linealmente independientes, entonces P es invertible (teorema 148) 53

58 32 Diagonalización Diagonalización de matrices Ahora, AP = A [ x 1 x 2 x n = [ [ Ax 1 Ax 2 Ax n = λ1 x 1 λ 2 x 2 λ n x n λ = [ 0 λ 2 0 x 1 x 2 x n 0 0 λ 3 = P D Donde D es la matriz diagonal indicada arriba Por lo tanto, P 1 AP = D, y el teorema queda demostrado El recíproco de este resultado también es válido y está dado por el siguiente teorema La demostración se deja como ejercicio 323 Teorema Sea A una matriz cuadrada de orden n Si A es diagonalizable, es decir, si existe una matriz invertible P tal que P 1 AP = D es una matriz diagonal, entonces existen n vectores propios de A linealmente independientes Además, los vectores columna de P son vectores propios de A y los elementos de la diagonal de D son los correspondientes valores propios de A 324 Ejemplo Veriquemos que la matriz A = es diagonalizable y encontremos una matriz invertible P tal que P 1 AP = D sea una matriz diagonal Para tal n, veamos que A tiene 3 vectores propios linealmente independientes En efecto: El polinomio característico de A, está dado por 4 λ 1 2 p A (λ) = A λi = 6 5 λ λ = (λ 2)2 (λ 1) La ecuación característica de A, p A (λ) = A λi = 0 tiene entonces como solución a λ = 2 (de multiplicidad 2) y a λ = 1 (de multiplicidad 1) Estos escalares son pues, los valores propios de A Determinemos ahora los vectores propios asociados: 54

59 Diagonalización de matrices 32 Diagonalización Los 2-vectores propios de A son las soluciones no nulas del sistema de ecuaciones (A 2I)x = 0, y los 1-vectores propios de A son las soluciones no nulas del sistema de ecuaciones (A 1I)x = 0 Es decir, debemos resolver sistemas homogéneos de ecuaciones cuyas matrices de coecientes son respectivamente: A 2I = y A 1I = Es fácil vericar que las soluciones del sistema homogéneo (A 2I)x = 0 son los vectores de la forma x 1 x = x 2 = en consecuencia, x 3 = 1 2 x x 2 x 3 x 2 x 3 + x 3 U λ1 = U 2 = es una base para S(λ 1 ) = S(2) ,, x 2, x 3 R, De otra parte, se encuentra que las soluciones del sistema (A 1I)x = 0 son los vectores de la forma x 1 x = x 2 = 1 3 x 3 x 3 = x 3 3, x 3 R x 3 x 3 3 En consecuencia, es una base para S(λ 2 ) = S(1) U λ2 = U 1 =

60 32 Diagonalización Diagonalización de matrices Ahora, los vectores x 1 = 1 2 0, x 2 = y x 3 = son vectores propios de A correspondientes a los valores propios 2, 2 y 1, respectivamente, y son linealmente independientes como se comprueba fácilmente De acuerdo con el teorema 322, la matriz A es diagonalizable Por otro lado, según la demostración del teorema, la matriz P = [ x 1 x 2 x 3 = es invertible y es tal que: P 1 AP = D = Ejemplo La matriz del ejemplo 3111, A = no es diagonalizable, pues vimos en dicho ejemplo, que la matriz A tiene dos valores propios: λ 1 = 1 y λ 2 = 2, y que U 1 = 1 1 y U 2 = son bases para los espacios propios asociados, respectivamente Así que A sólo tiene dos vectores propios linealmente independientes 326 Teorema Si λ 1, λ 2,, λ k son los valores propios diferentes de una matriz A y si x 1, x 2,, x k son vectores propios de A correspondientes a los valores propios λ 1, λ 2,, λ k, respectivamente, entonces C = {x 1,, x 2,, x k } es un conjunto linealmente independiente Demostración Haremos la demostración utilizando inducción sobre el número k de vectores del conjunto C

61 Diagonalización de matrices 32 Diagonalización Si C = {x 1 }, entonces C es linealmente independiente, pues x 1 0 El teorema es cierto para cuando k = 2 En efecto: Si (31) α 1 x 1 + α 2 x 2 = 0, premultiplicando (31) por el escalar λ 2 se obtiene: (32) λ 2 α 1 x 1 + λ 2 α 2 x 2 = 0 De otra parte; premultiplicando (31) por la matriz A se llega a: (33) λ 1 α 1 x 1 + λ 2 α 2 x 2 = 0 Restando (33) de (32) se obtiene: (λ 2 λ 1 )α 1 x 1 = 0 Puesto que x 1 0, entonces (λ 2 λ 1 )α 1 = 0 Dado que λ 1 λ 2 se tiene entonces que α 1 = 0 Reemplazando este valor de α 1 en (31) se llega a que α 2 x 2 = 0, pero x 2 0, entonces α 2 = 0 Supongamos ahora que el teorema es cierto para cuando k = j y demostremos que el teorema es cierto para cuando k = j+1 Si (34) α 1 x 1 + α 2 x α j x j + α j+1 x j+1 = 0, premultiplicando (34) por el escalar λ j+1 se obtiene: (35) λ j+1 α 1 x 1 + λ j+1 α 2 x λ j+1 α j x j + λ j+1 α j+1 x j+1 = 0, De otra parte; premultiplicando (34) por la matriz A se llega a: (36) λ 1 α 1 x 1 + λ 2 α 2 x λ j α j x j + λ j+1 α j+1 x j+1 = 0 Restando (36) de (35) se obtiene: (λ j+1 λ 1 )α 1 x 1 + (λ j+1 λ 2 )α 2 x (λ j+1 λ j )α j x j = 0 Por hipótesis de inducción se tiene (λ j+1 λ 1 )α 1 = (λ j+1 λ 2 )α 2 = = (λ j+1 λ j )α j = 0 De otro lado, por hipótesis del teorema los escalares λ 1,, λ j, λ j+1 son diferentes, entonces se obtiene que α 1 = α 2 = = α j = 0 Reemplazando estos valores en 34 se llega a que α j+1 x j+1 = 0, pero x j+1 0, entonces α j+1 = 0 El teorema queda entonces demostrado La prueba del siguiente corolario es consecuencia inmediata de los teoremas 326 y

62 32 Diagonalización Diagonalización de matrices 327 Corolario Sea A una matriz cuadrada de orden n Si A posee n valores propios distintos, entonces A es diagonalizable 328 Ejemplo La matriz A = es diagonalizable En efecto, la ecuación característica de A es: p A (λ) = A λi = ( 1) 3 (λ 1)(λ 4)(λ 6) = 0 De esto se sigue que A tiene tres valores propios distintos, a saber: λ 1 = 1, λ 2 = 4 y λ 3 = 6 De acuerdo con los teoremas 322 y 323, dada la matriz cuadrada A de orden n; existe una matriz invertible P tal que P 1 AP = D es una matriz diagonal sii A tiene n vectores propios linealmente independientes Además, si existe una tal matriz P, los vectores columna de P son vectores propios de A y los elementos de la diagonal de D son los valores propios de A Quedan así contestadas las preguntas propuestas al comienzo de esta sección sobre la diagonalización de matrices El siguiente teorema responde a las preguntas sobre diagonalización pero formuladas en el contexto de las transformaciones lineales 329 Teorema Sea U un espacio de dimensión n y sea T : U U una transformación lineal Existe una base ordenada B 2 de U tal que [T B2B 2 = D es una matriz diagonal sii T tiene n vectores propios linealmente independientes Además, si B 2 = { u 1, u 2,, u n } es un base ordenada de U tal que λ λ 2 0 [T B2B 2 = D = 0 0 λ n es una matriz diagonal, entonces u i es un λ i -vector propio de T, o sea T (u i ) = λ i u i, i = 1, 2,, n Demostración Puesto que las matrices asociadas a transformaciones lineales y referidas a bases arbitrarias son semejantes, y puesto que el polinomio característico de matrices semejantes es el mismo (ver teorema 3114), podemos considerar una base arbitraria B 1 para U 58

63 Diagonalización de matrices 32 Diagonalización Sea pues A = [T B1B 1, la matriz de la transformación T referida a dicha base B 1, Existe una base ordenada B 2 de U tal que D = [T B2B 2 = [I 1 B 2B 1 A [I B2B 1 es una matriz diagonal sii A es semejante a una matriz diagonal Ahora por los teoremas 322 y 323; A es semejante a una matriz diagonal sii A tiene n vectores propios linealmente independientes, lo cual equivale a que T tenga n vectores propios linealmente independientes (ver el apartado 122) Además, si B 2 = {u 1, u 2,, u n } es una base ordenada de U tal que λ λ 1 0 [T B2B 2 = D = 0 0 λ 1 es una matriz diagonal, entonces, de acuerdo con la denición de la matriz [T B2B 2, T (u i ) = λ i u i ; o sea, u i es un λ i -vector propio de T, i = 1, 2,, n 3210 Ejemplo Consideremos la transformación lineal T : P 3 P 3 denida por: T [ a + bx + cx 2 = (4a b + 2c) + ( 6a + 5b 6c)x + ( 6a + 3b 4c)x 2 Encontremos una base ordenada B 2 de U = P 2 tal que [T B2B 2 = D es una matriz diagonal Sea B 1 = { 1, x, x 2} la llamada base canónica de P 2 entonces: A = [T B1B 1 = , que es la matriz del ejemplo 324 De dicho ejemplo sabemos que x 1 = 2 0, x 2 = 0 1 y x 3 = 3 3, son vectores propios linealmente independientes de A, correspondientes respectivamente a los valores propios 2, 2 y 1 Los vectores x 1, x 2 y x 3 son respectivamente, los vectores de coordenadas respecto a la base B 1 de los vectores de P 2 : u 1 = 1 + 2x; u 2 = 1 + x 2 y u 3 = 1 + 3x + 3x 2 59

64 32 Diagonalización Diagonalización de matrices Ahora, los valores propios de T son los valores propios de A (ver teorema 317), esto es, los diferentes valores propios de T son λ 1 = 2 y λ 2 = 1 De otro lado, por lo establecido en el apartado 122, u 1, u 2 y u 3 son vectores propios de T linealmente independientes, correspondientes a los valores propios 2, 2 y 1, respectivamente En consecuencia, de acuerdo con el teorema anterior, B 2 = {u 1, u 2, u 3 } es una base para P 2 tal que: [T B2B 2 = D = Como hemos visto, dada una matriz cuadrada A de orden n, existe una matriz invertible P tal que P 1 AP = D es una matriz diagonal sii existen n vectores propios de A linealmente independientes En el caso en que A no posea n vectores propios linealmente independientes, es posible, bajo cierta condición, que A sea semejante a una matriz triangular superior T ; es decir, que A sea semejante a una matriz T = [t ij n n para la cual t ij = 0 si i > j El siguiente teorema explicita esta armación 3211 Teorema Sea A una matriz cuadrada (real) de orden n Todas las soluciones de la ecuación característica de A son reales sii existe una matriz invertible P (real) tal que P 1 AP = T es una matriz triangular superior Además, si existe una tal matriz P, entonces los elementos de la diagonal de T son los valores propios de A Demostración (= ) Haremos la demostración en este sentido, utilizando inducción sobre el orden n de la matriz A Para cuando n = 2, la implicación es verdadera En efecto, de la hipótesis se sigue que A tiene dos valores propios (reales) los cuales no son necesariamente distintos Sea λ un valor propio de A Existe por lo tanto un vector 2 1, x 1 0 tal que Ax 1 = λ x 1 Por el teorema1213(3), existe un vector 2 1, x 2 0 tal que B = {x 1, x 2 } es una base para M 2 1 Ahora, la matriz P = [ x 1 x 2 es invertible; escribamos a P 1 particionada por las así: [ P 1 y1 =, y 1, y 2 M 1 2, entonces se tiene que P 1 AP = [ y1 y 2 es una matriz triangular superior A [ [ λ y1 Ax x y 1 x 2 = 2 = T 2 0 y 2 Ax 2 60

65 Diagonalización de matrices 32 Diagonalización Supongamos ahora que la implicación es verdadera para cuando n = j 1 y demostremos que ésta es verdadera cuando n = j, j 3 Sea A una matriz cuadrada de orden j para la cual todas las soluciones de su ecuación característica son reales De ésto se sigue que A tiene j valores propios (reales) los cuales no son necesariamente distintos Sea λ un valor propio de A Existe por lo tanto un vector j 1, x 1 0 tal que Ax 1 = λx 1 Por el teorema 1213(3), existen j 1 vectores x 2, x 3,, x j de M j 1 tales que B = {x 1, x 2, x 3,, x j } es una base para M j 1 Ahora por el teorema 148, la matriz P = [ x 1 x 2 x j = [ x1 M es invertible Escribamos la inversa P 1 así: [ P 1 y1 =, y N 1 M 1 j, y N M (j 1) (j 1) Entonces se tiene [ P 1 y1 AP = A [ x N 1 M [ [ λ y1 AM λ B = = = T 0 NAM 0 C 1 es una matriz triangular superior por bloques Ahora, las matrices A y T 1 tienen el mismo polinomio característico (teorema 3114): p A (λ) = p T1 (λ) = (λ 1 λ) C λi De ésto se sigue, que todas las soluciones de la ecuación característica de la matriz cuadrada de orden j 1, C, son reales Por hipótesis de inducción, existe una matriz invertible Q tal que Q 1 CQ = T 1 es una matriz triangular superior Sea ahora: [ 1 0 P 2 =, 0 Q entonces se tiene que la matriz invertible P = P 1 P 2 es tal que [ [ [ P 1 AP = P2 1 P λ1 B 1 0 AP 1 P 2 = 0 Q 1 0 C 0 Q [ [ λ1 BQ λ1 BQ = 0 Q 1 = = T CQ 0 T 2 es una matriz triangular superior La demostración de la otra implicación y de la segunda armación del teorema quedan como ejercicio para el lector 61

66 32 Diagonalización Diagonalización de matrices 3212 Ejemplo Todas las soluciones de la ecuación característica de la matriz del ejemplo 325 A = son reales, pues: 3 3 p A (λ) = (λ 1) 2 (λ 2) = 0 sii λ 1 = 1 ó λ 2 = 2 De otro lado, como lo establecimos en el ejemplo 325, la matriz A no es diagonalizable, pues A sólo posee dos vectores propios linealmente independientes En particular: x 1 = y x 2 = son vectores propios linealmente independientes correspondientes a los valores propios λ 1 = 1 y λ 2 = 2, respectivamente Por el teorema anterior, existe una matriz invertible P tal que P 1 AP = T es una matriz triangular superior Para encontrar una tal matriz P, demos un vector x 3 tal que B = {x 1, x 2, x 3 } sea una base para M 3 1, el vector x 3 = sirve para tal efecto Ahora bien, la matriz es invertible y es tal que P = [ x 1 x 2 x 3 = P 1 AP = T = es una matriz triangular superior De acuerdo con el teorema anterior, si A es una matriz cuadrada (real) cuyos valores propios no son todos reales entonces, no puede existir una matriz invertible P (real) tal que P 1 AP = T sea una matriz triangular 62

67 Diagonalización de matrices 32 Diagonalización superior Ahora bien, hemos mencionado que uno puede estudiar espacios vectoriales donde los escalares sean números complejos (ver pié de página 2); en este caso, se pueden obtener resultados más amplios En particular, se tiene que para toda matriz cuadrada A (real o compleja) existe una matriz invertible P (real o compleja) tal que P 1 AP = T sea una matriz triangular superior Este resultado se tiene, gracias a la propiedad importante del sistema de los números complejos que establece, que todo polinomio de grado n con coecientes reales o complejos tiene exactamente n raíces reales o complejas, contadas sus multiplicidades En el teorema siguiente se establece este resultado sin demostración Quien desee estudiar sobre éste, puede consultar las secciones 55 y 56 de [ Teorema Para toda matriz cuadrada A (real o compleja) existe una matriz invertible P (real o compleja) tal que P 1 AP = T es una matriz triangular superior Además, los elementos de la diagonal de T son las soluciones de la ecuación característica de A 3214 Ejemplo Consideremos la matriz (real) A = La ecuación característica de A es p A (λ) = A λi = (λ 1)(λ 2 + 1) = (λ 1)(λ i)(λ + i) = 0 De esto se sigue que A sólo tiene un valor propio real, a saber, λ 1 = 1 En este caso no es posible que exista una matriz invertible P (real) tal que P 1 AP = T sea una matriz triangular superior Sin embargo, en el contexto de los espacios vectoriales donde los escalares son números complejos, podemos decir que A tiene tres valores propios complejos λ 1 = 1, λ 2 = i y λ 3 = i Efectuando, en este contexto, los cálculos pertinentes, se encuentra que x 1 = 1 0 0, x 2 = 0 i 1 y x 3 = son tres vectores propios complejos de A linealmente independientes correspondientes a los valores propios complejos λ 1 = 1, λ 2 = i y λ 3 = i 63 0 i 1

68 33 Matrices simétricas Diagonalización de matrices respectivamente Así que la matriz compleja: P = [ x 1 x 2 x 3 = 0 i i es invertible y es tal que P 1 AP = 0 i/2 i/2 0 i/2 i/ = 0 i 0 = D 0 0 i i i es una matriz diagonal, y por lo tanto, es una matriz triangular superior 33 Diagonalización de matrices simétricas En esta sección limitaremos el estudio de los conceptos de valor propio, vector propio y diagonalización a matrices simétricas Dos resultados importantes que veremos es esta sección son los siguientes: (i) Todas las soluciones de la ecuación característica de toda matriz simétrica (real) son reales, y (ii) Toda matriz simétrica (real) es diagonalizable, y más aún, diagonalizable en una forma especial Como veremos en el capítulo 4, los valores propios de una matriz simétrica se utilizan como criterio para decidir cuándo una forma cuadrática es positivamente (negativamente) denida (semidenida) o indenida Como se estableció al nal de la sección anterior, uno puede estudiar espacios vectoriales donde los escalares son números complejos Únicamente en la demostración del teorema 331, utilizaremos los hechos siguientes que involucran números complejos 1 El conjugado del número complejo z = a+bi, a, b R, se denota por z y se dene así: z = a bi 2 Un número complejo z es real sii z = z 3 La matriz conjugada de la matriz compleja n n, A, se de nota por A y cuyos componentes son A ij = A ij, i, j = 1, 2,, n 64

69 Diagonalización de matrices 33 Matrices simétricas 4 Para todo vector complejo n 1, x, se tiene: x T x = xx T y x T x = 0 sii x = 0 5 Para toda matriz cuadrada A con componentes complejas; A = 0 sii existe un vector x 0, con componentes complejas, tal que Ax = Teorema Sea A una matriz (real) cuadrada de orden n Si A es una matriz simétrica, entonces todas las soluciones de la ecuación característica de A: p A (λ) = A λi = 0, son reales Esto es, A tiene n valores propios (reales) los cuales no son necesariamente diferentes Demostración Si p A (λ) = A λi = 0, entonces por (5), existe un vector x 0 tal que: (31) Ax = λx de esto se sigue que, (ver (3) y (2)): (32) Ax = λx Ahora, premultiplicando (31) por x T y (32) por x T se tiene (33) x T Ax = λx T x y x T Ax = λx T x, puesto que x T Ax = (x T Ax) T = x T A T x = x T Ax, de (33) se sigue que: (34) λx T x = λx T x De (4) se tiene que x T x = x T x, por lo tanto, de (34) se concluye que : Ya que x 0, de (4) se tiene que (λ λ)x T x = 0 (λ λ) = 0 o sea, λ = λ en consecuencia, por (2), λ es un número real En lo que resta de estas notas, no haremos más referencia al sistema de números complejos El teorema 326 establece que, para cada matriz cuadrada A, los vectores propios correspondientes a valores propios diferentes son linealmente independientes Para matrices simétricas se tiene un resultado más fuerte Este resultado se establece en el teorema siguiente 65

70 33 Matrices simétricas Diagonalización de matrices 332 Teorema Si λ 1, λ 2,, λ k son los valores propios diferentes de una matriz simétrica A y si x 1, x 2,, x k son vectores propios de A correspondientes a los valores propios λ 1, λ 2,, λ k, respectivamente, entonces el conjunto de vectores C = {x 1, x 2,, x k } es ortogonal Demostración Debemos demostrar que x i ; x j = x T i x j i j, para i, j = 1, 2, k = 0 si Por la hipótesis se tiene que: (35) (36) Ax i = λ i x i, y Ax j = λ j x j Ahora, premultiplicando (35) por x t j y a (36) por x i, se obtiene (37) x T j Ax i = λ i x j T x i y x T i Ax j = λ j x T i x j, puesto que x T j Ax i = (x T j Ax i) T = x T i AT x j = x T i Ax j, de (37) se sigue que: (38) λx T j x i = λ j x T i x j Ya que x T j x i = x T i x j de (38) se concluye que : (λ i λ j )x T i x j = 0 Puesto que por hipótesis, los valores propios son distintos, entonces x T i x j = 0, si i j, i, j = 1, 2, k 333 Denición Se dice que una matriz cuadrada P es ortogonal, si P es invertible y P 1 = P T 334 Ejemplo La matriz P = 1 3 es ortogonal, pues: P P T = P = = = I 335 Proposición Una matriz P = [ x 1 x 2 x n es ortogonal sii el conjunto B = {x 1, x 2,, x n } constituye una base ortonormal de M n 1 66

71 Diagonalización de matrices 33 Matrices simétricas La matriz P = [ x 1 x 2 x n es ortogonal sii P T P = I Ahora bien, x T 1 x T P T x T 1 x 1 x T 1 x 2 x T 1 x n [ x P = x1 x 2 x n = 2 2 x 1 x T 2 x 2 x T 2 x n x T n x 1 x T n x 2 x T n x n x T n Es fácil entonces observar, que P T P = I si y sólo si se cumple que: { x T 1 si i j i x j = ; i, j = 1, 2,, n, 0 si i = j lo cual equivale a que B = {x 1, x 2,, x n } es una base ortonormal de M n Teorema Si λ es un valor propio de una matriz simétrica, entonces las multiplicidades algebraica y geométrica de λ son iguales Demostración Sea A una matriz simétrica de orden n y sea λ un valor propio de A Supongamos que la multiplicidad geométrica de λ es r Por el teorema 1224, existe una base ortonormal B = {x 1, x 2,, x r } del espacio de vectores propios asociados a λ, S(λ ) Si r = n, la matriz P = [ x 1 x 2 x n es ortogonal (proposición 335), y de acuerdo con el teorema 322, P T AP = P 1 AP = D = λ I Ahora, las matrices A y D tienen igual polinomio característico: p A (λ) = p D (λ) = λ I λi = (λ λ) n De esto se sigue que λ es un valor propio de A con multiplicidad algebraica r = n De otra parte, si r < n, existen n r vectores y 1, y 2,, y n r de M n 1 tales que B = {x 1,, x r, y 1,, y n r } es una base ortonormal de M n 1 (teorema 1225) Por la proposición 335, la matriz P = [ x 1 x 2 x r y 1 y 2 y n r = [ X Y 67

72 33 Matrices simétricas Diagonalización de matrices es ortogonal Consideremos ahora la matriz T = P T AP = P 1 AP, es decir, la matriz: [ X T T = A [ X Y = = Y T [ λ I X T AY 0 Y T AY [ λ I B 0 C Puesto que A es simétrica, T T = (P T AP ) T = P T A T P = P T AP = T, o sea [ [ λ I B λ = I 0 0 C B C T, por lo tanto B = 0 y [ λ T = I 0 0 C Puesto que las matrices A y T son semejantes, entonces tienen el mismo polinomio característico: p A (λ) = p T (λ) = T λi = (λ λ) r C λi De ésto se sigue, que λ es un valor propio de A con multiplicidad algebraica k r Veamos que k = r Si k > r, entonces se debe tener que C λ I = 0, y por lo tanto existe un vector (n r) 1, w 0 tal que Cw = λ w [ 0 Consideremos ahora el vector no nulo u M n 1 dado por u = P w Es decir, u = P [ 0 w = [x 1 x 2 x r y 1 y 2 y n r = w 1 y 1 + w 2 y 2 + w n r y n r w 1 w 2 w n r Esto es, el vector u y 1, y 2,, y n r y u / x 1, x 2,, x r 68

73 Diagonalización de matrices 33 Matrices simétricas De otro do, el vector u, es un λ -vector propio de A En efecto, [ [ [ [ λ Au = P I 0 P t 0 λ P = P I C w 0 C w [ [ 0 0 = P = P Cw λ w [ = λ 0 P = λ u w Esto indica, que B = {x 1, x 2,, x r, u r+1 } es un conjunto de r + 1 vectores propios linealmente independientes correspondientes al valor propio λ, lo cual contradice el hecho de que la multiplicidad geométrica de λ sea r 337 Teorema Si A es una matriz simétrica de orden n, entonces A tiene n vectores propios ortogonales, y por tanto, linealmente independientes Demostración Sean λ 1, λ 2,, λ k los diferentes valores propios de A Supongamos que la multiplicidad algebraica de λ i es m i, m i = 1, 2,, k; esto es, supongamos que p A (λ) = ( 1) n (λ λ 1 ) m1 (λ λ 2 ) m2 (λ λ k ) m k, donde m 1 + m m k = n Por el teorema anterior, la multiplicidad geométrica de λ i es m i, i = 1,, k Sean ahora: U 1 = { x 1 1,, x 1 m 1 },, Uk = { x k 1,, x k m k } bases ortogonales de S(λ 1 ),, S(λ k ) respectivamente Entonces por el teorema 332, el conjunto de n vectores propios de A : es ortogonal U = U 1 U 2 U k = { x 1 1,, x 1 m 1, x 2 1,, x 2 m 2,, x k 1,, x k m k } La demostración del siguiente corolario es consecuencia inmediata del teorema 337 y del teorema Corolario Toda matriz simétrica es diagonalizable 69

74 33 Matrices simétricas Diagonalización de matrices 339 Denición Sea A una matriz cuadrada Se dice que A es ortogonalmente diagonalizable si existe un matriz ortogonal P tal que P T AP = D es una matriz diagonal 3310 Teorema Si A es una matriz simétrica, entonces A es ortogonalmente diagonalizable; esto es, existe una matriz ortogonal P tal que P T AP = D es una matriz diagonal Más aún, las columnas de la matriz P son los vectores propios de A y los elementos de la diagonal de D son los valores propios de A Demostración Sea A es una matriz simétrica de orden n, entonces A tiene n vectores propios ortonormales x 1, x 2,, x n (teorema 337) Supongamos que éstos corresponden a los valores propios λ 1, λ 2,, λ n, respectivamente La matriz P = [ x 1 x 2 x n es ortogonal (proposición 335), y de acuerdo con la demostración del teorema 322, se tiene que P T AP = P 1 AP = D = λ λ λ n El recíproco del teorema 3310 también es válido y está dado por el siguiente 3311 Teorema Si una matriz A es ortogonalmente diagonalizable, entonces A es simétrica Demostración Por hipótesis existe una matriz ortogonal P tal que P T AP = D es una matriz diagonal De aquí que: A = P DP T = (P D T P T ) T = (P DP T ) T = A T, o sea, A es una matriz simétrica 70

75 Diagonalización de matrices 33 Matrices simétricas 3312 Ejemplo Para la matriz simétrica: A = encontremos una matriz ortogonal P tal que P t AP = D sea una matriz diagonal Para ello debemos encontrar tres vectores propios de A ortonormales Determinemos el polinomio característico de A, p A (λ) = A λi 5 λ 2 2 p A (λ) = A λi = 2 2 λ 4 = (λ + 3)(λ 6) λ Resolvamos la ecuación característica de A, p A (λ) = A λi = 0 p A (λ) = (λ + 3)(λ 6) 2 = 0 sii λ = 3 ó λ = 6 de aquí que los diferentes valores propios de A son λ 1 = 3 y λ 2 = 6 Por denición, los ( 3)-vectores propios de A son las soluciones no nulas del sistema de ecuaciones lineales (A+3I) x = 0 y los 6-vectores propios de A son las soluciones no nulas del sistema de ecuaciones lineales (A 6I)x = 0 Se tiene entonces: A + 3I = y A 6I = Es fácil vericar, que las soluciones del sistema homogéneo (A + 3I)x = 0 son los vectores de la forma: x 1 x = x 2 = 1 2 x 3 x 3 = x 3 2 ; x 3 R x 3 x 3 2 En consecuencia, 1 Û λ1 = Û 3 = 2, 2 es una base para S(λ 1 ) = S( 3) Aplicando el proceso de ortogonalización de Gram-Scmidt a esta base (vea el teorema 1224), se llega a que: 1 Û λ1 = Û 3 = ,

76 33 Matrices simétricas Diagonalización de matrices es una base ortonormal de S(λ 1 ) = S( 3) De otra parte, se encuentra que las soluciones del sistema homogéneo (A 6I)x = 0 son los vectores de la forma: x 1 2x 2 + 2x 3 x = x 2 = x 2 En consecuencia, x 3 = x x 3 Û λ2 = Û6 = x , ; x 2, x 3 R 2 0 1, es una base para S(λ 2 ) = S(6) Aplicando el proceso de ortogonalización de Gram-Schmidt a esta base se llega a que: Û λ2 = Û6 = 1 1, , 5 es una base ortonormal de S(λ 2 ) = S(6) Según la demostración del teorema 337, U = Ûλ 1 Ûλ 2 = 2 1, , , es un conjunto ortonormal de vectores propios de A Ahora, según la demostración del teorema 3310, la matriz, P =

77 Diagonalización de matrices 33 Matrices simétricas es ortogonal tal que P T AP = P 1 AP = D = Teorema Sea A una matriz simétrica de orden n Supongamos que A que tiene ρ (0 ρ n) valores propios, no necesariamente diferentes, estrictamente positivos y η (0 η n) valores propios, no necesariamente diferentes, estrictamente negativos Entonces existe una matriz invertible P tal que: P T AP = I ρ I η Si además existe otra matriz invertible Q tal que I ρ 0 0 Q T AQ = 0 I η 0, entonces ρ = ρ y η = η Demostración Sean λ 1, λ 2,, λ ρ los valores propios de A estrictamente positivos (no necesariamente distintos) y sean x 1, x 2,, x ρ vectores propios ortonormales de A asociados respectivamente a tales valores propios Sean además β 1, β 2,, β η los valores propios de A estrictamente negativos (no necesariamente distintos) y y 1, y 2,, y η vectores propios ortonormales de A asociados a dichos valores propios negativos y sean z 1, z 2,, z γ, γ = n (ρ + η), vectores propios ortonormales de A asociados al valor propio nulo (0) Según la demostración del teorema 3310, la matriz M, cuyas columnas son los correspondientes vectores propios organizados adecuadamente, es ortogonal Es decir, la matriz M = [ x 1 x 2 x ρ y 1 y 2 y η z 1 z 2 z γ es ortogonal De otro lado, se tiene que M t AM = D es una matriz diagonal con los valores propios en su diagonal y dispuestos así: D ρ 0 0 M t AM = D = 0 D η

78 33 Matrices simétricas Diagonalización de matrices donde: λ β λ 2 0 D ρ = y D 0 β 2 0 η = 0 0 λ ρ 0 0 β η Sea ahora D la matriz diagonal: D D ρ 0 0 = 0 Dη I γ donde Dρ = 1 λ λ λρ y Dη = 1 β β βη La matriz D es invertible y es tal que: DρD ρ D D DD = D t M t AMD ρ 0 0 = 0 DηD η Dη I γ 0 I γ I ρ 0 0 = 0 I η En consecuencia, la matriz invertible P = MD es tal que: I ρ 0 0 P t AP = 0 I η

79 Diagonalización de matrices 33 Matrices simétricas Supongamos ahora que las matrices invertibles P y Q son tales que: I ρ 0 0 I ρ 0 0 P t AP = 0 I η 0 y Q t AQ = 0 I η y demostremos que ρ = ρ y η = η Escribamos las matrices P y Q particionadas por columnas así: P = [ x 1 x 2 x ρ x ρ+1 x n y Q = [ y 1 y 2 y ρ y ρ +1 y n Por hipótesis se tiene que: x T i Ax i = 1 si i = 1, 2, ρ x T i Ax j = 0 si i j (i, j = 1, 2, n) yi T Ay i 0 si i = ρ + 1, ρ + 2, n yi T Ay j = 0 si i j (i, j = 1, 2, n) Ahora, el conjunto de vectores de M n 1 : C = {x 1, x 2,, x ρ, y ρ +1, y ρ +2,, y n } es linealmente independiente En efecto, si entonces el vector es tal que: y λ 1 x λ ρ x ρ + β 1 y ρ β n ρ y n = 0 U = λ 1 x 1 + λ 2 x λ ρ x ρ = β 1 y ρ +1 β 2 y ρ +2 β n ρ y n U T AU = (λ 1 x λ ρ x ρ ) T A(λ 1 x λ ρ x ρ ) = λ λ λ 2 ρ 0 U T AU = (β 1 y ρ β n ρ y n ) T A(β 1 y ρ β n ρ y n ) = β 2 1y T ρ +1Ay ρ +1 + β 2 2y T ρ +2Ay ρ β 2 n ρ yt n Ay n 0 Por lo tanto U T AU = 0 De esto se sigue que λ 1 = λ 2 = = λ ρ = 0 En consecuencia, β 1 y ρ +1 + β 2 y ρ β n ρ y n = 0 75

80 33 Matrices simétricas Diagonalización de matrices Puesto que la matriz Q es invertible, los vectores y ρ +1, y ρ +2,, y n son linealmente independientes, y por lo tanto, β 1 = β 2 = = β n ρ = 0 Ahora bien, como la dimensión del espacio vectorial M n 1 es n y C es un conjunto linealmente independiente de ρ + (n ρ ) vectores en M n 1, entonces por el teorema 138(2) : ρ + (n ρ ) n, o sea, ρ ρ Argumentando en forma similar se demuestra que ρ ρ, de donde ρ = ρ De otro lado, de la hipótesis, se tiene que por lo tanto η = η ρ(a) = ρ + η = ρ + η Nota En la parte (1) del teorema anterior se tiene que P T AP es igual a: (i) I n, si ρ = n (ii) I n, si η = n [ Iρ 0 (iii), si 0 < p < n y η = [ Iη 0 (iv), si 0 < η < n y ρ = [ Iρ 0 (v), si 0 < p < n y 0 < η < n y ρ + η = n 0 I η I ρ 0 0 (vi) 0 I η 0, si 0 < p < n y 0 < η < n y ρ + η < n (vii) 0, sii A = Ejemplo Para la matriz simétrica A = encontremos una matriz invertible P tal que P t AP sea una matriz diagonal con las características que se establecen en el teorema anterior 76

81 Diagonalización de matrices 33 Matrices simétricas Efectuando los cálculos pertinentes se encuentra que los valores propios de A son: λ 1 = 3, λ 2 = 3 y λ 3 = 0, y que la matriz ortogonal: M = es tal que Ahora, la matriz diagonal es invertible y es tal que: M t AM = D = D = D DD = D t M t AMD = = 0 1 0, o sea, la matriz invertible P = MD es tal que I P t AP = 0 I En relación con la primera parte del teorema 3313 (ver su demostración) y tal como aparece en el ejemplo anterior, un método para calcular una de tales matrices P consiste en encontrar una matriz ortogonal M que diagonalice a la matriz A, y después postmultiplicar a M por una matriz diagonal conveniente D A continuación damos otro método para calcular, simultáneamente, una de tales matrices P y la matriz P t AP El método se basa en el hecho de que la matriz P es invertible y por 77

82 33 Matrices simétricas Diagonalización de matrices ende se puede expresar como producto de un número nito de matrices elementales (véase teorema 1111(2)); ésto es, P = E 1 E 2 E k, donde E 1, E 2,, E k, son matrices elementales Así que una forma de calcular la matriz P t AP = E t k E t 2E t 1A E 1 E 2 E k, consiste en efectuar una sucesión de operaciones elementales en las las de A y la "misma" sucesión de operaciones elementales en las columnas de A (véase teorema 118), hasta lograr lo deseado Esta misma sucesión de operaciones elementales en las las de la matriz identidad I da P t Ilustraremos este método con el ejemplo siguiente 3315 Ejemplo Para la matriz simétrica A = encontremos una matriz invertible P tal que P T AP sea una matriz diagonal con las características que se establecen en el teorema 3313 Formemos la matriz [ A I = Efectuemos, en las las de la matriz [ A I, las operaciones elementales; E T 1 ; multiplicar los elementos de la primera la por α = 2 y sumar los resultados con los correspondientes elementos de la segunda la, E T 2 ; multiplicar los elementos de la primera la por α = 3 y sumar los resultados con los correspondientes elementos de la tercera la Así obtenemos la matriz [ E T 2 E T 1 A E T 2 E T 1 I = [ A 1 B 1, luego efectuamos las "mismas" operaciones elementales en las columnas de la matriz A 1, para obtener: [ E T 2 E T 1 A E 1 E 2 E T 2 E T 1 I = [ A 1 B 1 Se tiene: [ A1 B 1 =

83 Diagonalización de matrices 33 Matrices simétricas y [ A 1 B 1 = Efectuemos, en las las de la matriz [ A 1 B 1, la operación elemental; E T 3 ; multiplicar los elementos de la segunda la por α = 2 y sumar los resultados con los correspondientes elementos de la tercera la Así obtenemos la matriz [ E T 3 E T 2 E T 1 AE 1 E 2 E T 3 E T 2 E T 1 I = [ A 2 B 2, luego efectuamos la "misma" operación elemental en las columnas de la matriz A 2, para obtener: [ E T 3 E T 2 E T 1 AE 1 E 2 E 3 E T 3 E T 2 E T 1 I = [ A 2 B 2 Se tiene: y [ A2 B 2 = [ A 2 B 2 = Finalmente, efectuemos en las las de la matriz [ A 2 B 2 la operación elemental; E T 4 ; multiplicar los elementos de la tercera la por α = 1/2 Así obtenemos la matriz [ E T 4 E T 3 E T 2 E T 1 AE 1 E 2 E 3 E T 4 E T 3 E T 2 E T 1 I = [ A 3 B 3, luego efectuamos la "misma" operación elemental en las columnas de la matriz A 3, para obtener: [ E T 4 E T 3 E T 2 E T 1 AE 1 E 2 E 3 E 4 E T 4 E T 3 E T 2 E T 1 I = [ A 3 B 3 Se tiene: [ A3 B 3 =

84 33 Matrices simétricas Diagonalización de matrices y [ A 2 B 2 = Así que la matriz invertible es tal que P T = B 3 = E T 4 E T 3 E T 2 E T 1 = P T AP = D = A 3 = Podemos decir entonces, que la matriz A tiene dos valores estrictamente positivos y un valor propio estrictamente negativo 3316 Nota En relación con el método ilustrado en el ejemplo anterior, si todos los elementos de la diagonal principal de la matriz simétrica A = [a ij n n son nulos y si a ij 0, i j, entonces sumando la la j a la la i y la columna j a la columna i, obtendremos una matriz simétrica A = M T AM con 2a ij en el lugar i ésimo de la diagonal principal de A Una vez hecho ésto, se sigue el proceso descrito en el ejemplo anterior 3317 Ejemplo Para la matriz simétrica [ 0 1 A =, 1 0 encontremos una matriz invertible P tal que P T AP sea una matriz diagonal con las características que se establecen en el teorema 3313 Formemos la matriz: [ A I = [ Efectuemos, en las las de la matriz [ A I la operación elemental M T ; sumar los elementos de la segunda la con los correspondientes elementos de la primera la Así obtenemos la matriz [ M T A M T I, 80

85 Diagonalización de matrices 33 Matrices simétricas luego efectuamos la "misma" operación elemental en las columnas de la matriz M T A, para obtener la matriz: [ M T AM M T I = [ A M T, Se tiene: [ M T A M T I = [ A M T = [ [ Efectuemos, en las las de la matriz [ A M T, la operación elemental; E T 1 ; multiplicar los elementos de la primera la por α = 1 2 y sumar los resultados con los correspondientes elementos de la segunda la Así obtenemos la matriz [ E T 1 A E T 1 M T = [ A 1 B 1, luego efectuamos la "misma" operación elemental en las columnas de la matriz A 1, para obtener: [ E T 1 A E 1 E T 1 M T = [ A 1 B 1 y Se tiene: [ A1 B 1 = y [ A 1 B 1 = Efectuemos en las las de la matriz [ A 1 B 1 las operaciones elementales; E T 2 ; multiplicar los elementos de la primera la por α = 1 2, y, E T 3 ; multiplicar los elementos de la segunda la por β = 2 Así obtenemos la matriz [ E T 3 E T 2 E T 1 A E 1 E T 3 E T 2 E T 1 M T = [ A 2 B 2, luego efectuamos las "mismas" operaciones elementales en las columnas de la matriz A 2, para obtener: [ E T 3 E T 2 E T 1 A E 1 E 2 E 3 E T 3 E T 2 E T 1 M T = [ A 2 B 2 81

86 34 Diagonalización simultánea Diagonalización de matrices Se tiene: [ A2 B 2 = y [ A 2 B 2 = Así que la matriz invertible P T = B 2 = E3 T E2 T E1 T M T = es tal que 1 0 P T AP = D = A 3 = 0 1 Podemos decir, que la matriz A tiene un valor estrictamente positivo y un valor propio estrictamente negativo 34 Diagonalización simultánea de matrices simétricas En esta sección veremos un par de teoremas sobre diagonalización simultánea de matrices simétricas, los cuales son útiles en estadística En particular el teorema 343 es utilizado en la demostración de la independencia de dos ciertas formas cuadráticas (ver teorema 453 de [4) 341 Teorema (Diagonalización simultánea) Sean A y B matrices simétricas de orden n Si todos los valores propios de A son estrictamente positivos, entonces existe una matriz invertible Q tal que Q T AQ = I n y Q T BQ = D es una matriz diagonal Además, los elementos de la diagonal de D, son las soluciones de la ecuación B λa = 0, las cuales son reales 82

87 Diagonalización de matrices 34 Diagonalización simultánea Demostración Puesto que todos los valores propios de A son estrictamente positivos, se sigue del teorema 3310, que existe una matriz invertible P tal que P T AP = I n Sea ahora C = P T BP La matriz C es simétrica pues, C T = (P T BP ) T = P T B T P = P T BP = C Ahora bien, en virtud del teorema 331, existe una matriz ortogonal M tal que M T CM = D es una matriz diagonal con los valores propios de C en su diagonal principal En consecuencia: M T P T AP M = M T I n M = M T M = I n y M T P T BP M = M T CM = D ; esto es, la matriz Q = P M es tal que Q T AQ = I n y Q T BQ = D es una matriz diagonal De otro lado, como lo hemos expresado, los elementos de la diagonal de D son los valores propios de C, los cuales según el teorema 331 son reales Esto es, los elementos de la diagonal de D son la soluciones de la ecuación C λi = 0 En vista de que la matriz P es invertible se tiene: C λi = P T BP λp T AP = sii B λa = 0, P T B λa P = 0 lo cual termina la demostración del teorema 342 Ejemplo Consideremos las matrices simétricas A = y B = Efectuando los cálculos correspondientes se encuentra que los valores propios de A son: λ 1 = 1, λ 2 = y λ 3 = 3 5, los cuales son estrictamente positivos y que la matriz invertible P = es tal que P T AP = I 3 y C = P T BP =

88 34 Diagonalización simultánea Diagonalización de matrices Por el ejemplo 3312 se sabe que M = es ortogonal y es tal que M T CM = D = En consecuencia, la matriz invertible 1 3 Q = P M = es tal que Q T AQ = I 3 y Q T BQ = D = Teorema (Diagonalización ortogonal simultánea) Sean A y B matrices simétricas de orden n AB = BA sii existe una matriz ortogonal P tal que P T AP y P T BP son matrices diagonales Demostración (= ) En virtud del teorema 3310, existe una matriz ortogonal R tal que: λ 1 I k1 0 0 R T 0 λ 2 I k2 0 AR = D =, 0 0 λ m I km 84

89 Diagonalización de matrices 34 Diagonalización simultánea donde los λ i son los diferentes valores propios de A y k i es la multiplicidad geométrica (algebraica) del valor propio λ i, i = 1, 2,, m Sea ahora C = R T BR Puesto que por hipótesis AB = BA, entonces DC = R T ARR T BR = R T BAR = R T BRR T AR = CD Particionando la matriz C convenientemente podemos escribir: λ 1 I k1 0 0 C 11 C 12 C 1m 0 λ 2 I k2 0 C 21 C 22 C 2m DC = 0 0 λ m I km C m1 C m2 C mm λ 1 C 11 λ 1 C 12 λ 1 C 1m λ 2 C 21 λ 2 C 22 λ 2 C 2m =, λ m C m1 λ m C m2 λ m C mm C 11 C 12 C 1m λ 1 I k1 0 0 C 21 C 22 C 2m 0 λ 2 I k2 0 CD = C m1 C m2 C mm 0 0 λ m I km λ 1 C 11 λ 2 C 12 λ m C 1m λ 1 C 21 λ 2 C 22 λ m C 2m = λ 1 C m1 λ 2 C m2 λ m C mm Ya que DC = CD y λ i λ j, si i j, entonces se tiene que C ij = 0, si i j y por tanto C C 22 0 C = 0 0 C mm Como la matriz C es simétrica, cada una de las matrices C ii, i = 1, 2, m, es simétrica, por tanto existe una matriz ortogonal Q i tal que Q T i C iiq i = D i es una matriz diagonal Sea a hora: 85

90 34 Diagonalización simultánea Diagonalización de matrices Q Q 2 0 Q = 0 0 Q m La matriz Q es ortogonal (véase ejercicio 35(14)) y es tal que Q T CQ = D es una matriz diagonal También se tiene que Q T DQ = D; es decir, Q T R T ARQ = D y Q T R T BRQ = D Ya que las matrices R y Q son ortogonales, entonces la matriz P = RQ es ortogonal (vea el ejercicio 352(13)) y es tal que P T AP y P T BP son matrices diagonales ( =) Supongamos que existe una matriz ortogonal P tal que P T AP = D 1 y P T BP = D 2 son matrices diagonales Puesto que D 1 D 2 = D 2 D 1, entonces : P T AP P T BP = P T BP P T AP, de donde AB = BA 344 Ejemplo En este ejemplo seguiremos los pasos hechos en la demostración del teorema anterior en el sentido (= ) La vericación de los cálculos numéricos queda a cargo del lector Las matrices simétricas: A = y B = son tales que AB = BA Los valores propios de la matriz A son λ 1 = 0 de multiplicidad algebraica k 1 = 1, λ 2 = 1 de multiplicidad algebraica k 2 = 2 y λ 3 = 2 de multiplicidad algebraica k 3 = 1 La matriz ortogonal 1/ / 2 1/ / 2 R =

91 Diagonalización de matrices 34 Diagonalización simultánea es tal que: R T AR = D = = λ 1 I λ 2 I λ 3 I y R T BR = C = = C C C 33 La matriz ortogonal Q = / 5 1/ / 5 2/ = Q Q Q 3 es tal que Q T CQ = = QT R T BRQ = D

92 34 Diagonalización simultánea Diagonalización de matrices y Q T DQ = = QT R T ARQ = D En consecuencia, la matriz ortogonal 1/ / 2 1/ / 2 P = RQ = 0 2/ 5 1/ / 5 2/ 5 0 es tal que P T AP = D y P T BP = D son matrices diagonales 345 Corolario Sean A 1, A 2,, A k matrices simétricas de orden n Una condición necesaria y suciente para que exista una matriz ortogonal P tal que P T A i P sea una matriz diagonal para cada i = 1, 2,, k es que A i A j = A j A i para cada i y j; i, j = 1, 2,, k Demostración (Suciencia:) La demostración de esta parte del teorema la haremos utilizando inducción sobre el número de matrices k Para cuando k = 2 el corolario es cierto por el teorema anterior Supongamos ahora que el corolario es cierto para cuando k = s y demostremos que el corolario es cierto para cuando k = s + 1 Sean pues A 1, A 2,, A s+1 matrices simétricas de orden n tales que A i A j = A j A i para cada i y j; i, j = 1, 2,, s + 1 Por el teorema 3310 existe una matriz ortogonal R tal que λ 1 I k1 0 0 R T 0 λ 2 I k2 0 A 1 R = D =, 0 0 λ m I km donde los λ τ, τ = 1, 2,, m, son los diferentes valores propios de A 1 y k τ es la multiplicidad geométrica (algebraica) del valor propio λ τ Ahora, para cada i, i = 2, 3,, s + 1, tomemos la matriz C i = R T A i R Puesto que por hipótesis A 1 A i = A i A 1, entonces C i D = R T A i RR T A 1 R = R T A i A 1 R = R T A 1 A i R = R T A 1 RR T A i R = DC i, 88

93 Diagonalización de matrices 34 Diagonalización simultánea para i = 2, 3,, s + 1 De ésto se sigue que: C i C i2 0 C i =, i = 2, 3,, s C im De otra parte, como A i A j = A j A i para todo i y todo j; i, j = 2, 3,, s+ 1, entonces: C i C j = R T A i RR T A j R = R T A i A j R = R T A j A i R = R T A j RR T A i R = C j C i De esto se sigue que para cada τ, τ = 1, 2,, m C iτ C jτ = C jτ C iτ De otra parte, como la matriz C i es simétrica, entonces la matriz C iτ es simétrica para cada i = 2, 3, s + 1 y cada τ = 1, 2,, m Por lo anterior y por la hipótesis de inducción; para cada τ, existe una matriz ortogonal Q τ tal que Q T i C iτ Q i = D τ es una matriz diagonal Sea ahora: Q Q 2 0 Q = 0 0 Q m La matriz Q es ortogonal y es tal que Q T C i Q = D i es una matriz diagonal También se tiene que Q T DQ = D Así que: Q T R T A i RQ = D i, i = 2, 3, s + 1, y Q T R T A 1 RQ = D Puesto que R y Q son matrices ortogonales, entonces la matriz P = RQ es ortogonal En consecuencia, la matriz ortogonal P es tal que P T A i P es una matriz diagonal para i = 2, 3, s + 1 (Necesidad:) Supongamos ahora que existe una matriz ortogonal P tal que P T A i P = D i es una matriz diagonal para cada i = 1, 2,, k Puesto que D i D j = D j D i, para todo i y todo j, i, j = 1, 2,, k, entonces P T A i P P T A j P = P T A j P P T A i P, de donde se tiene que A i A j = A j A i para todo i y todo j; i, j = 1, 2,, k 89

94 35 Ejercicios Diagonalización de matrices 346 Ejemplo Las matrices simétricas [ [ A 1 =, A = 4 3 son tales que A i A j = A j A i, i = 1, 2 y A 3 = [ La matriz ortogonal es tal que R = R T A 1 R = [ 1 0 D 1 = 0 3 R T A 2 R = [ 1 0 D 2 = 0 7 R T A 3 R = [ 1 D 3 =, 11 es decir, la matriz ortogonal R diagonaliza de manera simultánea a las matrices A 1, A 2 y A 3 35 Ejercicios 351 Responda verdadero o falso, justicando su respuesta: 1 El Polinomio p(λ) = 3 + 2λ λ 2 + 4λ 3 puede ser el polinomio característico de una matriz A M Si p(λ) = λ 3 + 4λ 2 5λ + 2 es el polinomio característico de una matriz A M 3 3, entonces A = 2 3 x = es un vector propio de M = λ = 1 es un valor propio de la matriz M anterior 5 Si una matriz cuadrada A es diagonalizable, entonces existen innitas matrices invertibles P tales que P 1 AP = D es una matriz diagonal 90

95 Diagonalización de matrices 35 Ejercicios 6 Sea A una matriz cuadrada de orden n Si C es una matriz cuadrada de orden n invertible, entonces las matrices A, C 1 AC y CAC 1, tienen el mismo polinomio característico 7 Si A y B son matrices simétricas de orden n, entonces la matriz AB es simétrica 8 Sean A y B matrices simétricas de orden n AB es simétrica sii AB = BA 9 Si P es una matriz ortogonal, entonces P 1 también es ortogonal 10 Si P es una matriz ortogonal, entonces P T también es ortogonal 11 Si P es una matriz ortogonal, entonces P = ±1 12 Una matriz P de tamaño n n es ortogonal sii los vectores la de P conforman una base ortonormal de R n [ La matriz P = es ortogonal Si la matriz A satisface la igualdad: A 2 = 3A 2I, entonces los posibles valores propios de A son λ 1 = 1, λ 2 = Demuestre que: 1 Si λ es un valor propio de A, entonces λ n es un valor propio de A n, n = 1, 2, 3, 2 Si x es un vector propio de A, entonces x es un vector propio de A n, n = 1, 2, 3, 3 λ = 0 es un valor propio de una matriz A sii A = 0 4 Si A es una matriz invertible y λ es un valor propio de A, entonces λ 1 es un valor propio de A 1 5 Si A y C son matrices cuadradas de orden n y si C es invertible entonces las matrices A, A T, C 1 AC, CAC 1, C 1 A T C y CA T C 1 tienen el mismo polinomio característico 6 Si T es una matriz triangular superior, entonces los valores propios de T son los elementos de la diagonal principal de T 7 Si A y B son matrices cuadradas del mismo orden, entonces AB y BA tienen los mismos valores propios (sugerencia: Analice los casos λ = 0 es un valor propio de AB y λ 0 es un valor propio de AB) 8 Sean λ 1, λ 2,, λ n los diferentes valores propios de una matriz A y sean β 1, β 2,, β m son los diferentes valores propios de una matriz B, entonces los diferentes valores propios de una matriz 91

96 35 Ejercicios Diagonalización de matrices de la forma M = [ A C 0 B son λ 1, λ 2,, λ n, β 1, β 2,, β m 9 Si A es una matriz cuadrada de orden n, entonces p A (λ) = A λi es un polinomio de grado n en la variable λ que tiene la forma: p A (λ) = a 0 + a 1 λ + a 2 λ ( 1) n λ n (sugerencia: usar inducción sobre n) 10 Si λ es un valor propio de una matriz A, entonces la multiplicidad geométrica de λ es menor o igual que la multiplicidad algebraica de λ (sugerencia: vea la demostración del teorema 332) 11 Si A M n n es tal que p A (λ) = ( 1) n (λ λ 1 )(λ λ 2 ) (λ λ n ) entonces: (i) A = λ 1 λ 2 [ λ n y (ii) Tr A = λ[ 1 + λ λ n A B In I 12 Sean A, B M n n, M = y P = n B A I n I n a) Verique que P 1 = 1 2 P b) Calcule P 1 MP y concluya que det M = det(a + B) det(a B) c) Use (b) para mostrar que p M (λ) = det(m λi) = det((a + B) λi) det((a B) λi) 13 Si P y Q son matrices ortogonales, entonces P Q es una matriz ortogonal 14 Si Q 1, Q 2,, Q m son matrices ortogonales, entonces la matriz Q Q 2 0 Q = 0 0 Q m es también ortogonal 15 Sea x un λ-vector propio de A y sea y un β-vector propio de A T, donde λ β, entonces x, y son vectores ortogonales (sugerencia: vea la demostración del teorema 332) 16 Si A es una matriz idempotente; esto es, tal que A 2 = A, entonces los posibles valores propios de A son λ 1 = 0, λ 2 = 1 92

97 Diagonalización de matrices 35 Ejercicios 17 Si A es una matriz simétrica idempotente n n entonces: p A (λ) = Tr A = n i=1 n (a ij ) 2 (Sugerencia: Utilice el teorema 3313 y el corolario 235) 18 Sea a M n 1 un vector no nulo Entonces A = (a T a) 1 aa T es una matriz simétrica de rango 1 y es tal que A 2 = A 19 Si A es una matriz simétrica tal que todos los valores propios son positivos, entonces existe una matriz invertible M tal que A = M T M (Sugerencia: utilice el teorema 3313(1)) 20 Si A es una matriz simétrica tal que todos los valores propios son positivos, entonces existe una matriz triangular superior e invertible, T, tal que A = T T A (Sugerencia: utilice inducción sobre el orden n de la matriz A) 21 Si A es una matriz simétrica de orden n que tiene p valores propios positivos (p < n) y n p valores propios nulos, entonces existe una matriz no invertible M tal que A = M T M (Sugerencia: utilice el teorema 3313(1)) 22 Si A es una matriz simétrica tal que A 2 = A y si B es una matriz simétrica, del mismo orden de A, que tiene sus valores propios positivos, entonces: i=1 ρ(aba) = ρ(a) = Tr A (sugerencia: Utilice (19) y (17)) 23 Sea A una matriz cuadrada n n tal que a ii > n j i,j=1 a ij, para todo i = 1, 2, n, entonces A es invertible (Sugerencia: suponga que existe un vector x = [ x 1 x 2 x n T 0 tal que Ax = 0 y que x i = máx { x 1, x 2, x n } Despeje a ii x i en la i-ésima ecuación del sistema Ax = 0, tome valor absoluto y llegue a una contradicción) 24 Si A = [a ij n n es una matriz simétrica tal que a ii > n j i,j=1 93 a ij

98 35 Ejercicios Diagonalización de matrices para todo i = 1, 2, n, entonces todos los valores propios de A son positivos (Sugerencia: suponga λ 0 es un valor propio de A y utilice (23) para llegar a una contradicción) 25 Si A y B son dos matrices simétricas invertibles de igual orden tales que AB = BA, entonces existe una matriz ortogonal P tal que P T AP, P T BP, P T ABP, P T AB 1 P, P T A 1 BP y P T A 1 B 1 P son matrices diagonales 26 Si A es una matriz n n tal que A 2 = ma, entonces 353 Cálculos Tr A = mρ(a) (Sug: considere (i) ρ(a) = 0, (ii) ρ(a) = n y (ii) 0 < ρ(a) < n 1 Para cada una de las siguientes matrices: encuentre, si es posible, una matriz invertible P tal que P 1 MP sea una matriz diagonal [ [ (i) M = (ii) M = (iii) M = (v) M = (vii) M = (ix) M = [ [ (iv) M = (vi) M = (viii) M = (x) M = Sea T : P 2 P 2 la transformación lineal denida por T [a + bx + cx 2 = (a b + 4c) + (3a + 2b c)x + (2a + b c)x 2 a) Calcule los valores propios y los vectores propios 94

99 Diagonalización de matrices 35 Ejercicios b) Dé, si existe, una base ordenada C de P 2 tal que [T CC sea una matriz diagonal 3 Para cada una de las siguientes matrices encuentre una matriz ortogonal P, tal que P T MP sea una matriz diagonal Dé en cada caso Tr M y ρ(a) [ (i) M = (ii) M = (iii) M = (iv) M = (v) M = (vi) M = Para cada una de las siguientes matrices encuentre una matriz invertible Q, tal que Q t MQ sea de la forma I ρ I η (i) M = (iii) M = (v) M = (ii) M = (iv) M = (vi) M = Considere las matrices del ejercicio anterior: a) Si Q T MQ = I, encuentre una matriz invertible P, tal que M = P T P 95

100 35 Ejercicios Diagonalización de matrices [ b) Si Q T Iρ 0 MQ = 0 0 P, talque M = P T P Sean A =, encuentre una matriz no invertible y B = a) Verique que todos los valores propios de A son positivos, encontrando una matriz invertible P tal que P T AP = I b) En una matriz invertible M tal que M T AM = I y M T BM = D sea una matriz diagonal 7 Considere la matrices S 1 = y S 3 = , S 2 = a) Verique que todos los valores propios de S 1 son positivos, encontrando una matriz invertible P tal que P T S 1 P = I b) Haga A = P T S 2 P y B = P T S 3 P Verique que AB = BA y encuentre una matriz ortogonal Q tal que Q T AQ = D 1 y Q T BQ = D 2 son matrices diagonales c) Concluya que la matriz invertible M = P Q es tal que M T S 1 M = I y M T AM = D 1 y M T BM = D 2 son matrices diagonales 96

101 CAPÍTULO 4 Formas cuadráticas Este capítulo consta de tres secciones En la primera sección introduciremos el concepto de Forma cuadrática y sus respectivas clasicaciones (según el signo de los elementos del rango) en formas cuadráticas positivamente (negativamente) denidas, formas cuadráticas positivamente (negativamente) semidenidas y formas cuadráticas indenidas La segunda sección versa sobre cambio de variables y diagonalización de formas cuadráticas En esta sección se utilizan los resultados de las secciones 33 y 34 En la tercera sección damos algunos criterios para clasicar las formas cuadráticas según el signo de los valores propios 41 Clasicación de las formas cuadráticas Las formas cuadráticas juegan un papel importante en las aplicaciones del álgebra lineal, particularmente, en la teoría de modelos lineales (véase el capítulo 4 de [4) Ellas se clasican de acuerdo al signo que tomen sus respectivas imágenes en: positivas, no negativas, negativas, no positivas e indenidas como veremos más adelante 411 Denición Una forma cuadrática en R n es una función q : R n R de la forma (41) n n q [(x 1, x 2,, x n ) = a ij x i x j, donde a ij R, i, j = 1, 2,, n i=1 j=1 97

102 41 Clasicación Formas cuadráticas En términos matriciales, dicha forma cuadrática se puede expresar mediante x 1 (42) q (x) = x T x 2 Ax, siendo x = Rn x n Ahora bien, puesto que para la matriz simétrica S, S = 1 2 (A + AT ), se satisface x T Sx = x T 1 2 (A + AT )x = 1 2 (xt Ax + x T A T x) = 1 [ x T Ax + (x T Ax) T = (xt Ax + x T Ax) = x T Ax, en la denición anterior, (41) puede darse usando matrices simétricas así: (43) q (x) = x T Sx Observamos entonces, que una forma cuadrática se puede expresar matricialmente de varias maneras Sin embargo, se puede demostrar (ejercicio 442(1)), que existe una única representación en términos de matrices simétricas, S = 1 2 (A + AT ), para cada forma cuadrática q(x) = x T Ax Nota Con respecto a las formas cuadráticas podemos anotar que: 1 En la denición 411 sólo aparecen términos cuadráticos (de orden 2) de la forma a ij x i x j De aquí el calicativo de cuadrática 2 Podemos considerar sólo matrices simétricas En este sentido, en lo que sigue, al referirnos a una forma cuadrática x T Sx, siempre S denotará una matriz simétrica Dicha matriz simétrica se denomina, matriz de la forma cuadrática 412 Ejemplo De las siguientes funciones denidas sobre R 3 y con recorrido en R, solamente la primera, q 1, representa a una forma cuadrática q 1 (x 1, x 2 ) = 3x 1 x 1 + 4x 1 x 2 + 2x 2 x 1 + 5x 2 x 2, q 2 (x 1, x 2 ) = 3x 1 x 1 + 4x 2 1x 2 + 2x 2 x 1 + 5x 2 x 2, q 3 (x 1, x 2 ) = 3x 1 x x 1 x 2 + 2x 2 x 1 + 5x 2 x 2 98

103 Formas cuadráticas 41 Clasicación Dicha forma cuadrática la podemos representar matricialmente como q 1 (x 1, x 2 ) = x T Ax = [ [ [ 3 4 x1 x 1 x 2, 2 5 x 2 o en términos de matrices simétricas q 1 (x 1, x 2 ) = x T Sx = [ x 1 x 2 [ [ x1 x Denición Sea x T Sx una forma cuadrática en R n El conjunto Ima S = { x T Sx : x R n} = { r R : r = x T Sx para algún x R n} se denomina recorrido o conjunto imagen de la forma cuadrática x T Sx Una forma cuadrática x T Sx se puede clasicar según su recorrido Ima S de acuerdo con la denición siguiente 414 Denición Se dice que una forma cuadrática x T Sx es: 1 Positivamente denida, si x T Sx > 0 para todo x 0 2 Negativamente denida, si x T Sx < 0 para todo x 0 3 Positivamente semidenida, si x T Sx 0 para todo x 0, y existe un x 0 tal que x T Sx = 0 4 Negativamente semidenida, si x T Sx 0 para todo x 0, y existe un x 0 tal que x T Sx = 0 5 Indenida, si existen vectores no nulos x 1 y x 2 tales que x T 1 Sx 1 > 0 y x T 2 Sx 2 < 0, respectivamente 6 No negativa, si es positivamente denida o positivamente semidenida 7 No positiva, si es negativamente denida o negativamente semidenida 415 Observación La forma cuadrática q 1 (x) = x T Sx es negativamente denida (semidenida) sii la forma cuadrática q 2 (x) = x T ( S)x es positivamente denida (semidenida) 416 Denición Se dice que una matriz simétrica S es positivamente (negativamente) denida (semidenida), indenida o no negativa, si la forma cuadrática q(x) = x T Sx lo es 99

104 41 Clasicación Formas cuadráticas 417 Ejemplo Consideremos las siguientes tres formas cuadráticas en R 3 q 1 (x 1, x 2, x 3 ) = x x x 2 3 q 2 (x 1, x 2, x 3 ) = x x 1 x 2 + x x 2 3 q 3 (x 1, x 2, x 3 ) = x 2 1 2x x 2 3 Para la forma cuadrática q 1 : R 3 R se tiene: q 1 (x 1, x 2, x 3 ) = x x x 2 3 = [ x 1 x 2 x 3 = x T S 1 x Puesto que x T S 1 x > 0 para todo x 0, entonces q 1 es positivamente denida Para la forma cuadrática q 2 : R 3 R se tiene: x 1 x 2 x 3 q 2 (x 1, x 2, x 3 ) = x x 1 x 2 + x x 2 3 = (x 1 + x 2 ) 2 + x 2 3 = [ x 1 x 1 x 2 x x x 3 = x t S 2 x Puesto que x T S 2 x 0 para todo x 0, y dado que para x = [1 1 0 T se tiene que x T S 2 x = 0, entonces q 2 es positivamente semidenida Para la forma cuadrática q 3 : R 3 R se tiene: q 3 (x 1, x 2, x 3 ) = x 2 1 2x x 2 3 = [ x 1 x 2 x x 1 x x 3 = x t S 3 x Dado que x 1 = [1 0 1 T y x 2 = [0 2 1 T son vectores tales que x T 1 S 3 x 1 = 4 > 0 y x T 2 S 3 x 2 = 5 < 0, entonces q 3 es una forma cuadrática indenida 100

105 Formas cuadráticas 42 Cambios de variable y diagonalización 42 Cambio de variables Diagonalización simultánea de formas cuadráticas El objetivo de esta sección es continuar la discusión sobre la clasicación de formas cuadráticas pero mediante la introducción de cambios de variables adecuados Se pretende con dichos cambios de variables, que la nueva representación de las formas cuadráticas tengan una estructura más sencilla, en algún sentido Los resultados de esta sección, son corolarios de aquellos obtenidos en las secciones 33 y 34 En tal sentido, omitiremos sus demostraciones y nos limitaremos a dar la referencia del resultado correspondiente en dichas secciones 421 Denición (Cambio de variable) Sea q : R n R una forma cuadrática una denida por (41) q(x) = x T Sx x R n y sea P una matriz invertible n n Entenderemos como un cambio de variable para la forma cuadrática q, a la transformación x = P y o y = P 1 x Observación En la denición anterior, P es una matriz invertible, entonces la transformación y x = P y es biunívoca Esto es, un y R n determina un único x R n y viceversa Hecho un tal cambio de variables, se tiene: (42) x T Sx = y T P T SP y = y T By donde B = P T SP Podemos interpretar el cambio de variable x = P y (P invertible) como la transformación lineal biyectiva: P : R n R n y x = P y así que (q P ) : R n R dene una nueva forma cuadrática q (y) = (q P )(y) = q(p y) = y T P T SP y = y T By, que se relaciona con la forma cuadrática q por medio de las igualdades (42) 422 Ejemplo Sea q : R 3 R la forma cuadrática denida por q [(x 1, x 2, x 3 ) = x x 1 x 2 6x 1 x 3 + 5x 2 2 8x 2 x 3 + 8x

106 42 Cambios de variable y diagonalización Formas cuadráticas Para esta forma cuadrática podemos escribir q [(x 1, x 2, x 3 ) = x T Sx = [ x 1 x 2 x x 1 x x 3 Ahora, si hacemos el cambio de variables: y = y 1 y 2 = P 1 x = x 1 x 2 y x 3 = x 1 + 2x 2 3x 3 x 2 + 2x 3 x 3 encontramos que: x T Sx = y T P T SP y = y T By donde B = P T SP = = Por lo tanto, x t Sx = y t By = [ y 1 y 2 y 3 es decir, donde = y y 2 2 5y 2 3, x T Sx = x x 1 x 2 6x 1 x 3 + 5x 2 2 8x 2 x 3 + 8x 2 3 = y y 2 2 5y 2 3 y 1 = x 1 + 2x 2 3x 3, y 2 = x 2 + 2x 3, y y 3 = x 3 Claramente es más fácil estudiar la expresión y T By = y 2 1 +y 2 2 5y 2 3, que la expresión x T Sx = x 2 1+x 1 x 2 6x 1 x 3 +5x 2 2 8x 2 x 3 +8x 2 3 Por ejemplo, una simple inspección nos permite ver, que la expresión y T By = y y 2 2 5y 2 3 toma valores tanto positivos como negativos, tomando respectivamente 102 y 1 y 2 y 3

107 Formas cuadráticas 42 Cambios de variable y diagonalización y 1 0, y 2 0, y 3 = 0, y y 1 = 0, y 2 = 0, y 3 0 Lo que no es claro para la expresión x T Sx 423 Denición Dada una forma cuadrática x T Sx, si el cambio de variables y = P 1 x es tal que x T Sx = y T P T SP y = y T Dy, donde D es una matriz diagonal, entonces se dice que el cambio de variables y = P 1 x diagonaliza la forma cuadrática x T Sx 424 Observación El problema de encontrar un cambio de variables y = P 1 x que diagonalice la forma cuadrática x T Sx se reduce a encontrar una matriz invertible P tal que P T SP = D sea una matriz diagonal La demostración del siguiente resultado, es una consecuencia del teorema Teorema Para toda forma cuadrática x T Sx existe una matriz ortogonal Q tal, que el cambio de variables y = Q 1 x = Q T x la diagonaliza Además Q tiene como columnas un conjunto ortonormal de vectores propios de la matriz S y x T Sx = y T Q T SQy = y T Dy λ = [ 0 λ 2 0 y 1 y 2 y n 0 0 λ n = λ 1 y1 2 + λ 2 y λ n yn 2, y 1 y 2 y n donde los λ i, i = 1, 2,, n son los valores propios de la matriz S 426 Ejemplo Sea q : R 3 R la forma cuadrática denida por: q [(x 1, x 2, x 3 ) = X t SX = [ x 1 x 2 x x 1 x x 3 = x x 1 x 2 + 2x 1 x 3 + x x 2 x 3 + x 2 3 Según el teorema 3310, existe una matriz ortogonal Q tal que Q T SQ = D es una matriz diagonal con los valores propios de S en la diagonal Después de efectuar los cálculos pertinentes, se encuentra, que los valores propios de S son 0 (con multiplicidad 2) y 3 (con multiplicidad 1), y que la matriz 103

108 42 Cambios de variable y diagonalización Formas cuadráticas ortogonal: es tal que Q = 1/ 2 1/ 5 1/ 3 1/ 2 1/ 5 1/ 3 0 2/ 5 1/ 3 Q T SQ = D = Por lo tanto, el cambio de variables y = Q 1 x diagonaliza la forma cuadrática x T Sx, obteniéndose: x T Sx = y T Q T SQy = y T Dy = [ y 1 y 2 y y 1 y 2 y 3 = 3y 2 3 El siguiente teorema está estrechamente relacionado con el literal (1) del teorema 3313 y plantea la existencia de un cambio de variable ligado al signo de los valores propios de la matriz de la forma cuadrática 427 Teorema Sea x T Sx una forma cuadrática sobre R n Si la matriz S tiene ρ (0 ρ n) valores propios, no necesariamente diferentes, estrictamente positivos y η (0 η n) valores propios, no necesariamente diferentes, estrictamente negativos, entonces existe un cambio de variables y = P 1 x que diagonaliza la forma cuadrática x T Sx, obteniéndose: x T Sx = y T P T SP y = y T Dy = [ y 1 y 2 y n I ρ I η y 1 y 2 y n = y y y 2 ρ y 2 ρ+1 y 2 ρ+2 y 2 ρ+η 428 Ejemplo Sea q : R 3 R la forma cuadrática denida por: q (x) = x T Sx = [ x 1 x 2 x = x x 1 x 2 + 2x 1 x 3 + 4x 2 x x 1 x 2 x 3

109 Formas cuadráticas 42 Cambios de variable y diagonalización Los valores propios de S son λ 1 = 3, λ 2 = 2 y λ 3 = 0 Por el teorema 3313(1), existe una matriz invertible P tal que: P T SP = D = Efectuando los cálculos del caso se encuentra que la matriz invertible P = sirve par tal efecto Por lo tanto, el cambio de variables y = P 1 x diagonaliza la forma cuadrática x T Sx, obteniéndose: x T Sx = y T P T SP y = y T Dy = [ y 1 y 2 y y 1 y 2 y 3 = y 2 1 y 2 2 El teorema siguiente, plantea un criterio para la existencia de un cambio de variables que diagonalice simultáneamente a dos formas cuadráticas Su demostración se obtiene de la diagonalización simultánea de matrices simétricas (teorema 341) 429 Teorema Sean q 1 (x) = x T S 1 x y q 2 (x) = x T S 2 x dos formas cuadráticas en R n Si todos los valores propios de S 1 son estrictamente positivos, entonces existe un cambio de variables y = Q 1 x que diagonaliza simultáneamente las formas cuadráticas q 1 (x) = x T S 1 x y q 2 (x) = x T S 2 x obteniéndose: y x T S 1 x = y T Q T S 1 Qy = y T Iy = y y y 2 n x T S 2 x = y T Q T S 2 Qy = y T Dy λ = [ 0 λ 2 0 y 1 y 2 y n 0 0 λ n = λ 1 y λ 2 y λ n y 2 n, 105 y 1 y 2 y n

110 42 Cambios de variable y diagonalización Formas cuadráticas donde los λ i, i = 1, 2,, n son las soluciones de la ecuación S 2 λs 1 = 0, las cuales son reales Ilustremos dicho resultado con el siguiente ejemplo 4210 Ejemplo Sean q 1 : R 3 R y q 2 : R 3 R las formas cuadrática denidas por: q 1 (x) = x T S 1 x = [ x 1 x 1 x 2 x x x 3 = x x x 2 x 3 + 2x 2 3, q 2 (x) = x T S 2 x = [ x 1 x 2 x = 5x x 1 x 2 + 8x 1 x 3 + 8x 2 2 8x 2 x 3 4x 2 3 Por el ejemplo 342 sabemos que los valores propios de S 1 son: λ 1 = 1, λ 2 = y λ 3 = 3 5, los cuales son estrictamente positivos y que la matriz invertible es tal que 1 3 Q = Q T S 1 Q = I 3 y Q T S 2 Q = D = Por lo tanto, el cambio de variables y = Q 1 x diagonaliza simultáneamente las formas cuadráticas x t S 1 x y x t S 2 x obteniéndose: x T S 1 x = y T Q T S 1 Qy = y T I 3 y = y y y x 1 x 2 x 3

111 Formas cuadráticas 42 Cambios de variable y diagonalización y x T S 2 x = y T Q T S 2 Qy = y T Dy = [ y 1 y 2 y 3 = 3y y y y 1 y 2 y 3 Los siguientes dos resultados están relacionados de manera muy cercana con el teorema 343 y el corolario 345 respectivamente Ellos nos brindan condiciones necesarias y sucientes bajo las cuales podemos hablar de diagonalización ortogonal simultánea de dos o más formas cuadráticas En forma más precisa tenemos: 4211 Teorema (Diagonalización ortogonal simultánea) Considere en R n las dos formas cuadráticas q 1 (x) = x T S 1 x y q 2 (x) = x T S 2 x S 1 S 2 = S 2 S 1 sii existe una matriz ortogonal P tal que el cambio de variables y = P 1 x = P T x diagonaliza simultáneamente las formas cuadráticas x T S 1 x y x T S 2 x obteniéndose: x T S 1 x = y T P T S 1 P y = y T D 1 y y λ = [ 0 λ 2 0 y 1 y 2 y n 0 0 λ n = λ 1 y1 2 + λ 2 y λ n yn 2, x T S 2 x = y T P T S 2 P y = y T D 2 y β = [ 0 β 2 0 y 1 y 2 y n 0 0 β n = β 1 y1 2 + β 2 y β n yn 2, 107 y 1 y 2 y n y 1 y 2 y n

112 42 Cambios de variable y diagonalización Formas cuadráticas donde los λ i, i = 1, 2,, n son los valores propios de S 1 y los β i, i = 1, 2,, n son los valores propios de S Corolario Sean x T S 1 x, x T S 2 x,, x T S k x formas cuadráticas en R n Una condición necesaria y suciente para que exista una matriz ortogonal P tal que el cambio de variables y = P 1 x = P T x diagonalice simultáneamente las formas cuadráticas x T S 1 x, x T S 2 x,, x T S k x es que S i S j = S j S i para todo i y todo j; i, j = 1, 2,, k 4213 Ejemplo Sean q 1 : R 4 R y q 2 : R 4 R las formas cuadrática denidas por: q 1 (x) = x T S 1 x = [ x 1 x 2 x 3 x 4 = x 2 1 2x 1 x 2 + x x x 2 4, x 1 x 2 x 3 x 4 q 2 (x) = x T S 2 x = [ x 1 x 2 x 3 x 4 = x x x 2 3 4x 3 x 4 + 5x Del ejemplo 344 sabemos que, S 1 S 2 = S 2 S 1 y que la matriz ortogonal 1/ / 2 1/ / 2 P = 0 2/ 5 1/ / 5 2/ 5 0 es tal que P t S 1 P = D 1 = , y P t S 2 P = D 2 = 108 x 1 x 2 x 3 x

113 Formas cuadráticas 42 Cambios de variable y diagonalización Por lo tanto, el cambio de variables y = P 1 x diagonaliza simultáneamente las formas cuadráticas x T S 1 x y x T S 2 x obteniéndose: x T S 1 x = y T P T S 1 P y = y T D 1 y = y y y 2 4, x T S 2 x = y T P T S 2 P y = y T D 2 y = y y y y Ejemplo Consideremos las formas cuadráticas en R 2 : q 1 (x) = x T S 1 x = [ [ [ 2 1 x1 x 1 x 2 = 2x x 1 + 2x 1 x 2 + 2x q 2 (x) = x T S 2 x = [ [ [ 3 4 x1 x 1 x 2 = 3x x 1 + 8x 1 x 2 + 3x q 3 (x) = x T S 3 x = [ [ [ 5 6 x1 x 1 x 2 = 5x x x 1 x 2 + 5x Del ejemplo 346 sabemos, que S i S j = S j S i, i = 1, 2, 3 y que la matriz ortogonal P = 1/ [ es tal que P T S 1 P = D 1 = [ P T S 3 P = D 3 = P T S 2 P = D 2 = [ [ , y Por lo tanto, el cambio de variables y = P 1 x diagonaliza simultáneamente las formas cuadráticas x T S 1 x, x T S 2 x y x T S 3 x, obteniéndose: x T S 1 x = y T P T S 1 P y = [ [ [ 1 0 y1 y 1 y 2 = y 0 3 y y2 2 2 x T S 2 x = y T P T S 2 P y = [ [ [ 1 0 y1 y 1 y 2 = y 0 7 y y2 2 2 x T S 3 x = y T P T S 3 P y = [ [ [ 1 0 y1 y 1 y 2 = y y y 2

114 43 Formas positivas denidas Formas cuadráticas 43 Formas cuadráticas positivas, negativas e indenidas En esta sección utilizaremos la discusión previa sobre cambios de variables con el objeto de introducir algunos criterios de clasicación de formas cuadráticas Tales criterios estarán dados en términos de los signos de valores propios de la matriz de la forma cuadrática Como se recordará de la sección anterior, toda matriz invertible P M n n, junto con el cambio de variables x = P y ó y = P 1 x (x, y R n ), nos permite reescribir la forma cuadrática q(x) = x t Sx en términos de la variable y, mediante la expresión q (y) = y T By, donde B = P T SP Esto es, para dicho cambio de variable se tiene q(x) = x T Sx = y T By = q (y), con x = P y, P invertible De esto se sigue entonces, que q( ) y q ( ) tienen la misma imagen, es decir, { x T Sx : x R n} = { y T By : y R n} El siguiente resultado relaciona las clasicaciones de dichas formas cuadráticas La vericación de éste se deja a cargo del lector 431 Teorema Sea q(x) = x T Sx una forma cuadrática en R n y sea P una matriz invertible n n Sea además q (y) = y t By, donde B = P T SP, la forma cuadrática generada por el cambio de variables y = P 1 x Entonces se tiene: 1 q(x) = x t Sx es positivamente (negativamente) denida sii q (y) = y t By es positivamente (negativamente) denida 2 q(x) = x T Sx es positivamente (negativamente) semidenida sii q (y) = y T By es positivamente (negativamente) semidenida 3 q(x) = x T Sx es indenida sii q (y) = y T By es indenida El siguiente teorema relaciona el signo de las formas cuadráticas con el signo de los valores propios de la matriz simétrica que dene dicha forma cuadrática 432 Teorema Sea x T Sx una forma cuadrática en R n, S 0 1 x T Sx es positivamente denida sii todos los valores propios de S son estrictamente positivos 110

115 Formas cuadráticas 43 Formas positivas denidas 2 x T Sx es positivamente semidenida sii S tiene p (0 < p < n) valores propios estrictamente positivos y el resto de valores propios de S son nulos 3 x T Sx es indenida sii S tiene valores propios estrictamente positivos y valores propios estrictamente negativos Demostración De acuerdo con el teorema 425, la forma cuadrática q(x) = x T Sx, con S una matriz simétrica, es ortogonalmente diagonalizable Es decir, existe una matriz ortogonal Q y un cambio de variables y = Q 1 x = Q t x, tal que (41) x T Sx = y T Q T SQy = y T Dy = λ 1 y λ 2 y λ n y 2 n, donde los λ i, i = 1, 2,, n son los valores propios de la matriz S, y D = Q T SQ = diag ( λ 1, λ 2,, λ n ) Supongamos ahora, que la forma cuadrática q(x) = x T Sx es positivamente denida Entonces por el teorema 431(1), q (y) = y T Dy es también positivamente denida, ésto es, q (y) = y T Dy > 0 para todo y 0 De (41) se tiene entonces que λ 1 > 0, λ 2 > 0,, λ 2 > 0 Es decir, todos los valores propios de S son estrictamente positivos De otro lado, si todos los valores propios de S son estrictamente positivos, entonces existe un cambio de variables y = P 1 x (teorema 427), tal que x T Sx = y T P T SP y = y T y = y y y 2 n Puesto que y T y > 0 para todo y 0, entonces x T Sx > 0, para todo x 0 Esto es, la forma cuadrática x T Sx, es positivamente denida, lo que demuestra el inciso (1) de nuestro teorema Supongamos ahora, que la forma cuadrática q(x) = x T Sx es positivamente semidenida Por el inciso (2) del teorema 431, la forma cuadrática q (y) = y T Dy es también positivamente semidenida Esto es, se tiene que q (y) = y T Dy 0 para todo y M n 1 y existe un y 0 tal que y T Dy = 0 Usando (41) se tiene entonces, que los valores propios de S son no negativos y que por lo menos uno de ellos es nulo Es decir, S tiene ρ (0 < ρ < n) valores propios estrictamente positivos y el resto de valores propios de S son nulos Finalmente, supongamos que la matriz S de la forma cuadrática, x T Sx, tiene ρ valores propios estrictamente positivos, con 0 < ρ < n, y (n ρ) 111

116 43 Formas positivas denidas Formas cuadráticas valores propios nulos Por el teorema 427 existe un cambio de variables y = P 1 x tal que x T Sx = y T P T SP y = y T Dy = y y y 2 ρ por hipótesis, y T Dy 0 para todo y M n 1 No es difícil sin embargo ver, que para y M n 1 dado por 0 ρ 1 0 y = = 0 1, 1 n se tiene y T Dy = 0 Ésto quiere decir, que q (y) = y T Dy es positivamente semidenida y por consiguiente, q(x) = x T Sx también lo es, lo que demuestra el inciso (2) de nuestro teorema n 1 El resultado correspondiente a formas indenidas se plantea como un ejercicio para el lector 433 Ejemplo Ilustremos el teorema 432 con formas cuadráticas q(x) = x T Sx, denidas en R 3 1 La forma cuadrática q(x) = x T Sx denida por: q(x) = 5x x x 2 x 3 + 6x 2 3 = [ x 1 x 2 x 3 = x T Sx es positivamente denida, pues los valores propios de la matriz S son: λ 1 = 5, λ 2 = 3 y λ 3 = 7, los cuales son estrictamente positivos 112 x 1 x 2 x 3

117 Formas cuadráticas 43 Formas positivas denidas 2 La forma cuadrática q(x) = x T Sx denida por: q(x) = x x 1 x 2 4x 1 x 3 + 2x 2 2 4x 2 x 3 + 4x 2 3 = [ x 1 x 2 x 3 = x T S x es positivamente semidenida, pues los valores propios de la matriz S son: λ 1 = , λ 2 = y λ 3 = 0 3 La forma cuadrática q(x) = x T Sx denida por: q(x) = x 2 1 4x 1 x 2 + 2x 2 2 4x 2 x 3 + 3x 2 3 = [ x 1 x 2 x 3 = x T Sx es indenida, pues los valores propios de S son: λ 1 = 1, λ 2 = 2 y λ 3 = Teorema Sea x T Sx una forma cuadrática en R n 1 x T Sx es positivamente denida sii existe una matriz invertible Q tal que S = Q t Q 2 x T Sx es positivamente semidenida sii existe una matriz no invertible Q tal que S = Q T Q Demostración Demostraremos sólo el inciso (1), el otro se verica análogamente y se deja como ejercicio Supongamos que la forma cuadrática x t Sx es positivamente denida, entonces todos los valores propios de S son estrictamente positivos (teorema 432(1)), además, existe una matriz invertible P tal que P T SP = I (teorema 3313(1)) De ésto se sigue, que S = (P T ) 1 P 1 = Q T Q, donde Q = P 1 Supongamos ahora que existe una matriz invertible Q tal que S = Q T Q 113 x 1 x 2 x 3 x 1 x 2 x 3

118 43 Formas positivas denidas Formas cuadráticas Puesto que Q es invertible, entonces Qx 0 para todo vector no nulo x De ésto se sigue, que x T Sx = x T Q T Qx = (Qx) T (Qx) > 0, para todo x 0 Ésto es, la forma cuadrática x T Sx es positivamente denida 435 Ejemplo 1 La forma cuadrática q : R 3 R denida por: q(x) = 4x x 2 2 4x 2 x 3 + 5x 2 3 = [ x 1 x 2 x = x T Sx es positivamente denida, pues los valores propios de la matriz S son λ 1 = 4, λ 2 = y λ 3 = 3 5, los cuales son estrictamente positivos Efectuando los cálculos pertinentes se encuentra que la matriz invertible Q = , es tal que S = = Q T Q La forma cuadrática q : R 3 R denida por: x 1 x 2 x 3 q(x) = x x 1 x 2 + 2x 1 x 3 + x x 2 x 3 + x 2 3 = [ x 1 x 2 x x 1 x x 3 = x T Sx es positivamente semidenida, pues los valores propios de la matriz S son λ 1 = 0, λ 2 = 0 y λ 3 = 3 Efectuando los cálculos pertinentes se encuentra que la matriz no invertible Q = , es tal que S = = Q T Q

119 Formas cuadráticas 43 Formas positivas denidas El siguiente teorema nos da un criterio para clasicar matrices simétricas como positivamente denidas o negativamente te denidas, en términos de los determinantes de la propia matriz y de algunas de sus submatrices Aquí hacemos la salvedad, de que en el caso de matrices de tamaño 1 1(es decir escalares), escribiremos det( ) en lugar de, para evitar la confusión con el valor absoluto 436 Teorema Considere una matriz simétrica S de orden n s 11 s 12 s 1n s 21 s 22 s 2n S = s n1 s n2 s nn Dena ahora la secuencia de matrices s 11 s 12 s 1(n 1) s 21 s 22 s 2(n 1) S n = S, S n 1 =, s n1 s n2 s n(n 1) Entonces: S 2 = [ s11 s 12 s 21 s 22 y S 1 = [s 11 1 La forma cuadrática q(x) = x T Sx es positivamente denida si y sólo si det(s 1 ) > 0, S 2 > 0, S 3 > 0, S n > 0 2 La forma cuadrática q(x) = x T Sx es negativamente denida si y sólo si det(s 1 ) < 0, S 2 > 0, S 3 < 0, ( 1) n S n > 0 Demostración Presentaremos aquí sólo la demostración de la parte (1), la otra se deja como ejercicio: (Condición necesaria) En primer lugar, si la forma cuadrática x T j S jx j denida sobre R j, para 2 j n, es positivamente denida, entonces la forma cuadrática en R j 1 x T j 1 S j 1x j 1 es positivamente denida En efecto, para todo x j 1 0 se tiene que: x T j S j x j = [ x T j 1 0 [ S j 1 s s t s jj = x T j 1S j 1 x j 1 > [ xj 1 0

120 43 Formas positivas denidas Formas cuadráticas En segundo lugar, si la forma cuadrática x T j S jx j, denida sobre R j (2 j n), es positivamente denida, entonces existe una matriz invertible Q j tal que S j = Q T j Q j, de donde S j = Q t j Q j = Q j 2 > 0 (teorema 434(1)) Estas dos observaciones nos permiten concluir que si la forma cuadrática x t Sx es positivamente denida entonces det(s 1 ) > 0, S 2 > 0, S 3 > 0, S n > 0 (Condición suciente) Haremos una demostración de esta implicación usando inducción sobre n Cuando n = 1, S 1 = [s 11 Ahora, por hipótesis det(s 1 ) = s 11 > 0 Por ésto, x t S 1 x = s 11 x 2 > 0 para todo x 0; esto es, la forma cuadrática x t S 1 x es positivamente denida Supongamos ahora que la implicación es válida para cuando n = k, y veriquemos que la implicación es válida para n = k + 1 Sea pues S = S n una matriz simétrica de orden n = k + 1 tal que S n = S k+1 > 0, S n 1 = S k > 0, S 2 > 0 y S 1 > 0 Por hipótesis de inducción, la forma cuadrática x t k S kx k en R k es positivamente denida Existe entonces una matriz invertible Q k tal que S k = Q t k Q k (teorema 434(1)) Ahora, por el teorema 223(2) se tiene que: S k+1 = S k s t s s (k+1)(k+1) = S k det ( s (k+1)(k+1) s t S 1 k s) = S k det( α k ) Aquí hemos introducido la sustitución α k = s (k+1)(k+1) s t S 1 k s para simplicar un poco la escritura, además se tiene que det( α k ) > 0, puesto que S k+1 > 0 y S k > 0 Sea ahora Q k+1 = Q k (Q t k ) 1 s 0 α k 116

121 Formas cuadráticas 43 Formas positivas denidas La matriz Q k+1 es invertible y es tal que: [ Sk s S k+1 = s T s (k+1)(k+1) Q T k 0 = Q k (Q T k ) 1 s s T (Q k ) 1 α k 0 α k = Q T k+1 Q k+1 Por lo tanto, en virtud del teorema 434(1), la forma cuadrática x T k+1 S k+1x k+1, denida sobre R k+1 es positivamente denida 437 Ejemplo 1 La forma cuadrática x T Sx, donde : S = es positivamente denida, pues: det(s 1 ) = det(4) = 4 > 0, S 2 = = 16 > S 3 = = 20 > La forma cuadrática x t Sx, donde : S = es negativamente denida, pues: det(s 1 ) = det( 3) = 3 < 0, S 2 = = 8 > S 3 = = 28 < y y

122 44 Ejercicios Formas cuadráticas 438 Nota Sea S = [a ij n n una matriz simétrica y sean S 1, S 2,, S n las matrices que aparecen en el enunciado del teorema anterior Las condiciones det(s 1 ) 0, S 2 0, S 3 0, S n 0 no implican que la forma cuadrática x t Sx sea positivamente semidenida Por ejemplo, la matriz es tal que y S = det(s 1 ) = det(1) = 1, S 2 = = 0 S 3 = = 0 Sin embargo, la forma cuadrática x T Sx no es positivamente denida, pues el vector x T = [ es tal que x T Sx = 3 < 0 44 Ejercicios 441 Responda verdadero o falso justicando su respuesta 1 Sea M una matriz cuadrada de orden n Si x T Mx = 0 para todo x R n entonces M = 0 2 Si la matriz S es indenida, entonces la matriz S es indenida 3 Si S es una matriz simétrica tal que S 2 = S, entonces S es no negativa 4 Si S es una matriz simétrica tal que S 3 = S, entonces S es no negativa 5 Si S 1 y S 2 son matrices positivamente denidas (semidenidas) entonces la matriz [ S1 0 S = 0 S 2 es positivamente denidas (semidenidas) 6 Si S 1 y S 2 son matrices positivamente denidas de igual orden, entonces la matriz S = S 1 + S 2 es positivamente denida 118

123 Formas cuadráticas 44 Ejercicios 7 Si S 1 y S 2 son matrices indenidas de igual orden, entonces la matriz S = S 1 + S 2 es indenida 8 Si S 1 y S 2 son matrices positivamente denidas de igual orden tales que S 1 S 2 = S 2 S 1, entonces la matriz S = S 1 S 2 es positivamente denida [ a b 9 Sea S = Si a > 0 y c > 0, entonces S es positivamente b semidenida 10 La matriz S = ac b 2 > 0 c [ a b es negativamente denida sii a < 0 y b c 442 Demuestre que: 1 Para cada forma cuadrática q : R n R existe una única matriz simétrica S de orden n tal que: q [(x 1, x 2,, x n ) = x T Sx, con x T = [ x 1 x 2 x n 2 Para cualquier matriz cuadrada A, las matrices S 1 = A T A y S 2 = AA T son no negativas 3 Para cualquier matriz cuadrada n n, A, se tiene: ρ(a) = n sii la matriz S = A T A es positivamente denida 4 Para cualquier matriz cuadrada n n, A, se tiene: ρ(a) < n sii la matriz S = A T A es positivamente semidenida 5 Si la matriz S es positivamente denida entonces la matriz S 1 es positivamente denida 6 Si la matriz S es no negativa, entonces los elementos de la diagonal de S son no negativos 7 Si la matriz S = [s ij n n es positivamente semidenida y si s ii = 0, entonces cada elemento de la la i de S y cada elemento de la columna i de S es nulo 8 Si S = [s ij n n es una matriz simétrica tal que: s ii > j i n j=1 s ij, para i = 1, 2, n, entonces S es positivamente denida (sugerencia: vea el problema 352(23)) 119

124 44 Ejercicios Formas cuadráticas 9 Si S 1 y S 2 son matrices simétricas de igual orden tales S1 2 +S2 2 = 0 entonces S 1 = S 2 = 0 (sugerencia: considere la expresión x T (S1 2 + S2)x) 2 10 Si S es positivamente denida de orden n, a un vector n 1 y α un número real tal que α > a T Sa, entonces la matriz [ S S a = a T α es positivamente denida (Sugerencia: utilice el teorema 436(1)) 11 Si S es una matriz positivamente denida, entonces existe una matriz invertible T triangular superior tal que S = T T T (Sugerencia: utilice inducción sobre el orden n, de la matriz S) 12 Si S es una matriz positivamente, entonces Tr S > 0 13 Si S es una matriz positivamente, entonces Tr S 0 14 Si S 1 y S 2 son matrices positivamente denidas de igual orden, entonces Tr(S 1 S 2 ) > 0 (Sugerencia: utilice el teorema 434(1)) 15 Si S 1 y S 2 son matrices positivamente semidenidas de igual orden, entonces Tr(S 1 S 2 ) > 0 (Sugerencia: utilice el teorema 434(2)) 443 Cálculos 1 Para cada una de las formas cuadráticas x T Sx siguientes: a) Haga un cambio de variables que las diagonalice b) Clasifíquela como positivamente denida (semidenida), negativamente denida (semidenida) o indenida c) Para aquellas que sean positivamente denidas, encuentre una matriz invertible Q tal que S = Q T Q d) Para aquellas que sean positivamente semidenidas, encuentre una matriz no invertible Q tal que S = Q T Q 1) x T Sx = x x 1 x 2 2x 2 2 2) x T Sx = x x 1 x 2 + 4x x 2 3 3) x T Sx = x x 1 x 2 2x 1 x 3 + 4x 2 2 4x 2 x 3 + 8x 2 3 4) x T Sx = x x 1 x 2 + 6x 1 x 3 2x 2 x 3 + x 2 3 5) x T Sx = x x 1x 3 + x x2 3 6) x T Sx = x 2 1 2x 1 x 3 + 2x x 2 x 3 + 2x

125 Formas cuadráticas 44 Ejercicios 2 Considere las formas cuadráticas: x T S 1 x = x x 1 x 2 + 5x x 2 x 3 + 2x 2 3, y x T S 2 x = x x 1 x 2 2x 1 x 3 + x 2 2 2x 2 x 3 + 2x 2 3 a) Encuentre, si existe, un cambio de variables y = M 1 x que diagonalice simultáneamente las dos formas cuadráticas b) Encuentre, si existe, un cambio de variables y = Q 1 x, (Q una matriz ortogonal), que diagonalice simultáneamente las dos formas cuadráticas 3 Resuelva el problema (2) para cuando: 4 Sea S = x T S 1 x = x 2 1 2x 1 x 2 + 2x 2 2, y x T S 2 x = 2x x 1 x 2 [ a) Verique que la matriz S es positivamente denida b) Encuentre un vector a 2 1 y un número α, tales que la matriz [ S S a = a T α sea positivamente denida 121

126

127 CAPÍTULO 5 Anexo 1: Matrices no negativas Matrices idempotentes Las matrices no negativas, y, en particular, las matrices idempotentes, aparecen con frecuencia en la teoría y en las aplicaciones de los modelos lineales El propósito de este anexo es el recopilar los aspectos más importantes de este tipo de matrices No daremos las demostraciones de aquellos resultados que ya han sido demostrados en los capítulos anteriores o que fueron propuestos como ejercicios 51 Matrices no negativas 511 Denición Sea S una matriz simétrica: 1 S es positivamente denida, si x T Sx > 0 para todo x 0 2 S es positivamente semidenida, si x T Sx 0 para todo x 0, y existe un x 0 tal que x T Sx = 0 3 S es no negativa, si S es positivamente denida o si S positivamente semidenida 512 Teorema Sea S una matriz simétrica n n Las siguientes armaciones son equivalentes: 1 S es positivamente denida 2 Para cada matriz invertible P de orden n, la matriz P T SP es positivamente denida 3 Todos los valores propios de S son estrictamente positivos 4 Existe una matriz invertible P de orden n, tal que P T SP = I n 5 Existe una matriz invertible Q de orden n, tal que S = Q T Q 123

128 51 Matrices no negativas Anexo 1 6 Existe una matriz invertible triangular superior n n, T, tal que S = T T T 7 S es invertible y S 1 es positivamente denida 8 det (s 11 ) > 0, det 0,, det (S) = S > 0 ( ) s11 s 12 s 21 s 22 > 0, det s 11 s 12 s 13 s 21 s 22 s 23 s 31 s 32 s Teorema Sea S una matriz simétrica n n Si se cumple que n s ii > s ij, para i = 1, 2, n, j=1, j i entonces S es positivamente denida > 514 Teorema Sea S una matriz simétrica n n Si S es positivamente denida, entonces, 1 ρ(s) = n 2 s ii > 0 para i = 1, 2,, n 515 Teorema Sean S 1 y S 2 matrices simétricas de igual orden y sean α 1, α 2 números reales positivos Si S 1 y S 2 son positivamente denidas, entonces la matriz S = α 1 S 1 + α 2 S 2 es positivamente denida 516 Teorema Sean S 1 y S 2 matrices simétricas de igual orden Si S 1 es positivamente denida, entonces existe una matriz invertible Q tal que Q T S 1 Q = I y Q T S 2 Q = D, donde D es una matriz diagonal real, cuyos elementos en la diagonal las soluciones de la ecuación S 2 λs 1 = Teorema Sean S 1 y S 2 matrices simétricas de igual orden Si S 1 y S 2 son positivamente denidas y si S 1 S 2 = S 2 S 1, entonces la matriz S = S 1 S 2 es positivamente denida 518 Teorema Sean S 1 y S 2 matrices simétricas de orden n Si S 1 es positivamente denida, entonces existe un α > 0 tal que S = S 1 + αs 2 es positivamente denida Demostración Si S 2 = 0 entonces para cualquier α > 0 se tiene que la matriz S = S 1 + αs 2 es positivamente denida Supongamos entonces que S 2 0 Por el teorema 516, existe una matriz invertible Q 124

129 Anexo 1 51 Matrices no negativas tal que Q T S 1 Q = I n y Q T S 2 Q = D, donde D es una matriz diagonal Digamos que d d 22 0 D = 0 0 d nn Puesto que S 2 0, entonces al menos un elemento de la diagonal de D es diferente de cero Sea ahora α un número tal que: 0 < α < mín {1/d ii} d ii 0 De esto se sigue que: 1 + αd ii > 0 para i = 1, 2,, n y que la matriz I + αd es positiva denida En consecuencia, por el teorema 512, la matriz (Q 1 ) T [I + αdq 1 = S 1 + αs 2 = S es positivamente denida 519 Teorema Sea S una matriz simétrica de orden n Si S es positivamente denida, entonces para cada par de vectores x, y M n 1 se tiene (x T y) 2 (x T Sx)(y T S 1 y) Puesto que S es positivamente denida, por el teorema 512, existe una matriz invertible Q tal que S = Q T Q De aquí que S 1 = Q 1 (Q T ) 1 Ahora, por la desigualdad de Schwarz (ver el teorema 1221) para cada par de vectores x, y M n 1 se tiene Qx, (Q T ) 1 y 2 Q x 2 (Q T ) 1 y 2, o sea: esto es, (x T Q T (Q T ) 1 y) 2 (x T Q T Qx) (y T Q 1 (Q 1 ) T y), (x T y) 2 (x T Sx) (y T S 1 y) 5110 Teorema Sean S 1 y S 2 matrices simétricas de orden n Sean además λ 1 λ 2 λ n, las soluciones de la ecuación S 2 λs 1 = 0 Si S 1 es positiva denida, entonces para cada x 0 se tiene que λ 1 xt S 2 x x T S 1 x λ n 125

130 51 Matrices no negativas Anexo 1 Demostración Puesto que S 1 es positiva denida, existe una matriz invertible Q, tal que Q T S 1 Q = I n y Q T S 2 Q = D es una matriz diagonal real, cuyos elementos en la diagonal son las soluciones de la ecuación S 2 λs 1 = 0 (ver teorema 516) Más aún, podemos escoger Q tal que λ Q T 0 λ 2 0 S 2 Q = D =, 0 0 λ n donde λ 1 λ 2 λ n Ahora, si hacemos y = Q 1 x, entonces: x T S 1 x = y T Q T S 1 Qy = y T I n y = y y y 2 n, y x T S 2 x = y T Q T S 2 Qy = y T Dy = λ 1 y1 2 + λ 2 y λ n yn 2 Por lo tanto, para cada x 0: x T S 2 x x T S 1 x = λ 1y1 2 + λ 2 y λ n yn 2 y1 2 + y y2 n De esto se sigue que para cada x 0 : λ 1 xt S 2 x x T S 1 x λ n 5111 Teorema Sea S una matriz simétrica de orden n Las armaciones siguientes son equivalentes: 1 S es positivamente semidenida 2 Para cada matriz P, n n, P T SP es positivamente semidenida 3 S tiene ρ (0 ρ < n) valores propios positivos (estrictamente) y n ρ valores propios nulos 4 Existe una matriz invertible P de orden n, tal que [ P T In 0 SP = ; 0 ρ < n Existe una matriz n n no invertible Q, tal que S = Q T Q 5112 Teorema Sea S = [s ij n n una matriz simétrica de orden n Si S es positivamente semidenida, entonces 1 ρ(s) < n 126

131 Anexo 1 51 Matrices no negativas 2 s ii 0 para i = 1, 2,, n Además, si s ii = 0, entonces cada elemento de la la i y cada elemento de la columna j de S es nulo 5113 Teorema Sean S 1 y S 2 matrices simétricas de igual orden Si S 1 y S 2 son positivamente semidenidas, S 2 es no negativa y S 1 S 2 = S 2 S 1, entonces la matriz S = S 1 S 2 es positivamente semidenida 5114 Teorema Sean S 1 y S 2 matrices simétricas de igual orden y sean α 1, α 2 números reales positivos Si S 1 y S 2 son positivamente semidenidas, entonces la matriz S = α 1 S 1 + α 2 S 2 es positivamente semidenida 5115 Teorema Sea A una matriz n n de rango r, entonces: 1 A T A y AA T son matrices no negativas 2 A T A es positivamente denida sii r = n 3 A T A es positivamente semidenida sii r < n 5116 Teorema Sean S 1 y S 2 matrices simétricas de orden n 1 Si S 1 y S 2 son matrices no negativas, entonces: a) Tr S 1 0 b) Tr S 1 = 0 sii S 1 = 0 c) Tr (S 1 S 2 ) 0 d) Tr (S 1 S 2 ) = 0 sii S 1 S 2 = 0 2 Si S 1 y S 2 son matrices positivamente denidas, entonces: a) Tr S 1 > 0 b) Tr (S 1 S 2 ) > Teorema Sean S 1, S 2,, S k matrices simétricas de orden n 1 Si S 1, S 2,, S k son no negativas, entonces: a) Tr ( ) k i=1 S i = k Tr i=1 (S i) 0 b) Tr ( ) k i=1 S i = k Tr i=1 (S i) = 0 sii S 1 = S 2 = = S k = 0 k k k k c) Tr (S i S j ) 0, y Tr (S i S j ) 0 d) j=1 i=1 k k j=1 i=1, i j j=1 i=1, i j Tr (S i S j ) = 0 sii S i S j = 0 para todo i j 2 Si S 1, S 2,, S k son matrices positivamente denidas, entonces: 127

132 51 Matrices no negativas Anexo 1 a) Tr ( ) k i=1 S i = k Tr i=1 (S i) 0 k k k k b) Tr (S i S j ) > 0 y j=1 i=1 j=1 i=1, i j Tr (S i S j ) > Teorema Sea S una matriz simétrica n n tal que S 2 = S Sean además S 1, S 2,, S k son matrices no negativas de orden n Si k I n = S + S i, i=1 entonces SS i = S i S = 0 para todo i = 1, 2,, k Demostración Por el teorema 5115(1) la matriz S = S 2 = S T S es no negativa, y por el teorema 5116(1) Tr (SS i ) 0 para i = 1, 2,, k Ahora; premultiplicando los dos miembros de la igualdad: k I n = S + S i, por la matriz S, se obtiene S = S 2 + i=1 k SS i = S + i=1 De esto se sigue que: ( k k ) SS i = 0 y Tr SS i = i=1 i=1 k SS i i=1 k Tr (SS i ) = 0 En consecuencia, Tr (SS i ) = 0 y por ende S S i = 0, para i = 1, 2,, k (ver teorema 5116(1)) Además se se tiene que S i S = Si T S T = (S S i ) T = Teorema Sean S 1 y S 2 matrices simétricas de orden n Si S 1 es no negativa o S 2 es no negativa, entonces las soluciones de la ecuación S 1 S 2 λi = 0 son reales Demostración Supongamos que S 1 es una matriz no negativa de rango ρ n Entonces existe una matriz invertible P tal que: [ P t Iρ 0 S 1 P = i=1

133 Anexo 1 52 Matrices idempotentes [ Sea ahora C = P 1 S 2 (P T ) 1 C11 C = 12, donde C C 21 C 11 es una matriz 22 ρ ρ Puesto que C es una matriz simétrica, entonces C 11 es una matriz simétrica y por lo tanto las soluciones de la ecuación C 11 λi ρ = 0 son reales Ahora; S 1 S 2 λi = 0 sii P T S 1 S 2 λi n (P T ) 1 = P T S 1 S 2 (P T ) 1 λi n = 0 Puesto que: entonces P T S 1 S 2 (P T ) 1 = P T S 1 P P 1 S 2 (P T ) 1 [ [ Iρ 0 C11 C = C 21 C 22 [ C11 C = 12, 0 0 P T S 1 S 2 (P T ) 1 λi n = C 11 λi ρ C 12 0 λi = C 11 λi ρ λi De aquí que las soluciones de la ecuación S 1 S 2 λi = 0, son las soluciones de la ecuación C 11 λi λi = 0, las cuales son reales 52 Matrices idempotentes 521 Denición Una matriz A cuadrada de orden n es idempotente, si satisface que A 2 = A 522 Teorema Sea A una matriz idempotente n n de rango r: 1 Si r = n, entonces A = I n 2 Si A es simétrica y r < n, entonces A es positiva semidenida 1 Si r = n, entonces A es invertible Premultiplicando por A 1 los dos miembros de la igualdad A 2 = A, se obtiene A = I n 129

134 52 Matrices idempotentes Anexo 1 a) Si A es simétrica y r < n, entonces por el teorema 5115(3), la matriz A = A 2 = A T A es positivamente semidenida 523 Teorema Sea A una matriz idempotente n n Si λ es un valor propio de A, entonces λ = 0 ó λ = Teorema Si S es una matriz simétrica idempotente, entonces: 1 Para cada matriz ortogonal Q, la matriz S = Q T SQ es una matriz simétrica idempotente 2 La matriz S = S n, n = 1, 2,, es simétrica idempotente 3 La matriz S = I 2S, es una matriz simétrica ortogonal 525 Teorema Si S es una matriz simétrica tal que S n+1 = S n para algún n N, entonces S es una matriz idempotente Demostración Sea P una matriz ortogonal tal que P T SP = D es una matriz diagonal con los valores propios de S en la diagonal Puesto que S n+1 = S n, entonces: D n+1 = (P T SP ) n+1 = P T S n+1 P = P T S n P = D n De esto se sigue, que cada elemento de la diagonal de D es 1 ó 0 Por lo tanto, D 2 = D, a sea: D 2 = P T S 2 P = P T SP = D, puesto que P es invertible, se tiene entones que S 2 = S 526 Teorema Si S una matriz simétrica idempotente n n, entonces: ρ(s) = Tr S = Tr ( S T S ) n n = s 2 ij i=1 j=1 527 Teorema Si S es una matriz simétrica idempotente n n Si s ii = 0 ó s ii = 1, entonces cada elemento de la la i y cada elemento de la columna i de S es nulo Demostración Puesto que S es una matriz simétrica idempotente, entonces: n n s ii = s ik s ki = s 2 ik k=1 130 k=1

135 Anexo 1 52 Matrices idempotentes Por lo tanto, si s ii = 0 o si s ii = 1, se tiene n s 2 ik = 0, k=1, k i es decir, s i1 = s i2 = = s i(i 1) = s i(i+1) = s in = Teorema Sean S 1, S 2,, S k matrices simétricas de orden n, y k sea además S = S i Entonces dos de las condiciones siguientes implican la tercera: i=1 a) S 2 = S b) S i = Si 2, i = 1, 2,, k c) S i S j = 0 si i j; i, j = 1, 2,, k Demostración Supongamos que las condiciones a) y b) se satisfacen Por la condición a) se tiene: k k k k S 2 = ( S i ) 2 = Si 2 + S i S j i=1 = i=1 j=1 k S i = S, i=1 y por la condición b), se tiene: k Si 2 = y por lo tanto: k De aquí que Tr k k j=1 j=1 i=1, i j i=1 k i = 1 i j k S i, i=1 S i S j = 0 S i S j = 0 i = 1 i j Puesto que cada S i es una matriz simétrica idempotente, entonces S i, 131

136 52 Matrices idempotentes Anexo 1 para i = 1, 2,, k, es no negativa (teorema 522), además se tiene que que S i S j = 0 si i j; i, j = 1, 2,, k (ver teorema 5117) De manera que las condiciones a) y b) implican la condición c) Supongamos ahora que las condiciones a) y c) se satisfacen Se tiene entonces que: o sea, S = S 2 = ( k S i ) 2 = i=1 k S i = i=1 k Si 2 i=1 k Si 2, Premultiplicando cada miembro de la última igualdad por S j, j = 1, 2,, k, se tiene que: o sea: S j S j = S j S 2 j, S 2 j = S 3 j, pues S i S j = 0 si i j; i, j = 1, 2,, k Por el teorema 525, se concluye que S j es una matriz simétrica idempotente, j = 1, 2,, k Así, as condiciones a) y c) implican la condición b) Por último, si las condiciones b) y c) se satisfacen, entonces i=1 k S 2 = ( S i ) 2 = i=1 k k Si 2 + i=1 j=1 k i = 1 i j S i S j esto es, la condición a) se satisface k = S i = S; i=1 529 Teorema Sean S 1, S 2,, S k matrices simétricas idempotentes de orden n, de rangos η 1, η 2,, η k Sea S k+1 una matriz no negativa de orden n Si I = k+1 i=1 S i, entonces S k+1 es una matriz simétrica idempotente de orden n k i=1 η i, y S i S j = 0 para i j; i, j = 1, 2,, k 132

137 Anexo 1 52 Matrices idempotentes Demostración Puesto que las matrices S i para i = 1, 2,, k, son idempotentes, entonces: S 2 k+1 = (I = I 2 = I k S i ) 2 i=1 k S i + i=1 k S i + i=1 = S k+1 + k j=1 k Si 2 + i=1 k j=1 k i = 1 i j k i = 1 i j S i S j k j=1 S i S j k i = 1 i j S i S j De otro lado, como S k+1 = I k i=1 S i, entonces: En consecuencia: k Sk+1 2 = S k+1 S i S k+1 i=1 De esto se sigue: k S k+1 + j=1 k i = 1 i j k S i S j = S k+1 S i S k+1 i=1 k j=1 k i = 1 i j k S i S j + S i S k+1 = 0, 133 i=1

138 52 Matrices idempotentes Anexo 1 por lo tanto, k Tr k j=1 i=1, i j S i S j + k S i S k+1 = 0 Puesto que las matrices S 1, S 2,, S k son simétricas idempotentes, entonces por el teorema 522, las matrices S 1, S 2,, S k son no negativas Por hipótesis se tiene que también la matriz S k+1 es no negativa Así que S i S j = 0 para i j; i, j = 1, 2,, k, k + 1 (teorema 5117(1)) Ahora bien, puesto que I 2 = I = k+1 i=1 S i, se sigue del teorema anterior que, Si 2 = S i para i = 1, 2,, k + 1 y por lo tanto, Tr (S i ) = ρ (S i ) (ver teorema 526) Así: [ k ρ (S i ) = Tr (S i ) = Tr I S i que es lo que se quería demostrar i=1 = Tr (I ) = n = n i=1 k Tr (S i ) i=1 k ρ (S i ) i=1 k η i 5210 Teorema Sean S 1, S 2,, S k matrices no negativas de orden n, y sea S = k i=1 S i Si S 2 = S y Tr S Tr [ k i=1 S2 i, entonces: i=1 a) S 2 i = S i para i = 1, 2,, k b) S i S j = 0 para i j; i, j = 1, 2,, k Demostración Puesto que S = S 2 ; S = k Si 2 + i=1 k j=1 134 k i = 1 i j S i S j

139 Anexo 1 52 Matrices idempotentes De aquí que: k k Tr ( k ) S i S j = Tr S Tr 0 j=1 i=1, i j i=1 Ya que las matrices S 1, S 2,, S k son no negativas, entonces b) se satisface Esta condición, junto con la hipótesis de que S 2 = S implican entonces la validez de la condición a), (ver teorema 528) 5211 Teorema Sea S una matriz simétrica de orden n Si ρ(s) = r, entonces S puede escribirse en la forma: r S = λ i S i, i=1 donde: Si t = S i, Si 2 = S i, S i S j = 0 si i j, ρ(s i ) = 1 y los λ i son los valores propios no nulos de la matriz S; i, j = 1, 2,, k S 2 i Demostración Existe una matriz ortogonal Q tal que: [ Q T D 0 SQ =, 0 0 donde D es una matriz diagonal de orden r con los valores propios no nulos de la matriz S en su diagonal De aquí que: [ D 0 S = Q Q T 0 0 λ Q T 1 0 λ r Q T 2 = [Q 1 Q 2 Q n 0 0 λ r Q T n r = λ i Q i Q T i = i=1 r λ i S i, i=1 135

140 52 Matrices idempotentes Anexo 1 donde S i = Q i Q T i, i = 1, 2,, r Así: S T i = (Q i Q T i ) T = (Q T i ) T Q T i = Q i Q T i = S i S T i = Q i Q T i Q i Q T i = Q i I Q T i = Q i Q T i = S i S i S j = Q i Q T i Q j Q T j = Q i 0 Q T j = 0, si i j ρ(s i ) = ρ(q i Q T i ) = ρ(q i ) = 1 El teorema queda entonces demostrado 136

141 CAPÍTULO 6 Inversa generalizada e inversa condicional de matrices Este capítulo consta de cuatro secciones Las dos primeras versan sobre la denición, propiedades y cálculo de la inversa generalizada de una matriz La tercera sección trata sobre la denición y el cálculo de inversas condicionales de una matriz En la última sección veremos aplicaciones de la inversa generalizada y de la inversa condicional de una matriz a los sistemas de ecuaciones lineales y a los mínimos cuadrados 61 Inversa generalizada de una matriz La inversa generalizada de una matriz es una herramienta de gran utilidad en los cursos de modelos lineales (véase la sección 15 de [4) Antes de dar la denición de inversas generalizada de una matriz, veamos un par de teoremas que nos serán útiles en el desarrollo del resto del capítulo 611 Teorema Si A es una matriz m n de rango r > 0, entonces existen matrices invertibles P y Q tales que P AQ es igual a: [ Ir 0 1 si r < n y r < m 0 0 [ Ir 2 si r = n < m 0 3 [ I r 0 si r = m < n 4 I r si r = n = m 137

142 61 G-Inversa y C-inversa Inversa generalizada e inversa condicional Demostración Demostremos únicamente (1) Si R es la forma escalonada reducida de A, entonces R = P A, P es un producto de matrices elementales, (véase el apartado 119) Las últimas m r las de R son nulas y R tienen la estructura siguiente: a 1k 0 a 1k a 1k 0 a 1k a 2k a 2k 0 a 2k a 3k ahora bien, efectuando las operaciones elementales sobre las columnas de la matriz R podemos obtener [ Ir 0 F = 0 0 Así que F = RQ, donde Q es un producto de marices elementales (por columnas) Por lo tanto; F = RQ = P AQ, donde P y Q son matrices invertibles 612 Ejemplo Consideremos la matriz A = claramente las dos primeras las son linealmente independientes, y la tercera es un múltiplo escalar de la primera la de A por lo tanto, el número máximo de las linealmente independientes de A es 2; o sea, A tiene rango 2 Por el teorema anterior existen matrices invertibles P y Q tales que P AQ = [ I = Procedemos ahora a calcular las matrices invertibles P y Q siguiendo las pautas de la demostración del teorema anterior PASO I: Encontremos una matriz invertible P tal que P A = R, donde R es la forma escalonada reducida de A 138

143 Inversa generalizada e inversa condicional 61 G-Inversa y C-inversa [ A I3 = filas filas = [ R P PASO II: Encontremos una matriz invertible Q tal que RQ = F, donde [ I2 0 F = 0 0 [ R I = = [ F Q Col Col Col Luego las matrices invertibles 139

144 61 G-Inversa y C-inversa Inversa generalizada e inversa condicional P = son tales que: P AQ = y Q = [ I = Teorema Si A es una matriz m n de rango r > 0, entonces existen matrices B m r y C r n, de rango r, tales que A = B C Demostración Consideremos distintas posibilidades para rango de la matriz A, ρ(a) = r 1 Si r = m, entonces A = BC, donde B = I r y C = A 2 Si r = n, entonces A = BC, donde B = A y C = I r 3 Si r < n y r < m, entonces por el teorema 611(1) existen matrices invertibles P y Q tales que: [ Ir 0 P AQ = 0 0 De aquí que: [ A = P 1 Ir 0 Q [ Ir 0 Q 1 = [ P 1 Ir 0 = BC, donde B M m r y C M r n son las matrices de rango r, dadas por [ B = P 1 Ir 0 y C = [ I r 0 Q 1 El teorema queda entonces demostrado 140

145 Inversa generalizada e inversa condicional 61 G-Inversa y C-inversa Una forma de calcular las matrices B y C que aparecen en el teorema anterior, en el caso en que r < n y r < m, tal como aparece en la demostración, es calculando primero las matrices invertibles P y Q tales que: [ Ir 0 P AQ =, 0 0 después calcular las matrices P 1 y Q 1, y por último obtener: [ B = P 1 Ir y C = [ I 0 r 0 Q 1 Para el caso en que la matriz A no sea de rango la completo, existe una demostración alternativa, la cual presentamos a continuación Como veremos, esta demostración nos facilitará un algoritmo más económico para calcular matrices B y C adecuadas Otra prueba del teorema 613 para r < m Suponga que A es una matriz de rango r < m Sea P una matriz invertible de orden m tal que P A = R, donde R es la forma escalonada reducida de A (véase apartado 119) Puesto que r < m, R tiene la estructura siguiente: C R =, 0 donde C es una matriz r n de rango r Ahora, si escribimos P 1 particionada adecuadamente P 1 = [ B D, donde B es una matriz m r de rango r y además, A = P 1 R = [ B D C 0 = BC Presentamos a continuación, un método basado en esta demostración para calcular matrices B y C, de rango r, tales que A = BC 614 Algoritmo Considere una matriz A de tamaño m n 141

146 61 G-Inversa y C-inversa Inversa generalizada e inversa condicional PASO I Forme la matriz [ A m n I m PASO II Efectúe operaciones elementales en las las de A hasta obtener su forma escalonada reducida, y en las columnas de I m, siguiendo las siguientes pautas: i) Si se intercambian las las i y j de A, entonces intercambie las columnas i y j de I m ii) Si se multiplica la i-ésima la de A por el número α 0, entonces se multiplica la i-ésima columna de I m por el número α 1 iii) Si a la j-ésima la de A se le suma α veces la i-ésima la de A (α 0), entonces a la i-ésima columna de I m se le suma ( α) veces la j-ésima columna de I m Al nal de este paso se obtiene la matriz [ R P 1 PASO III B = [ Primeras r columnas de P 1, C = [Primeras r las de R 615 Ejemplo La matriz del ejemplo 612 A = tiene rango 2 Existen por lo tanto matrices B 3 2 y C 2 4 de rango 2 tales que A = BC Calculemos matrices B y C siguiendo los pasos indicados anteriormente [ A I3 = = [ R P 1 Así, tomando las primeras 2 columnas de R y las 2 primeras las de P 1 obtenemos respectivamente las matrices 1 1 [ B = y C =,

147 Inversa generalizada e inversa condicional 61 G-Inversa y C-inversa las cuales tienen rango 2 y son tales que: BC = 1 1 [ = = A 616 Denición (Inversa generalizada o pseudoinversa) Sea A una matriz m n Si M es una matriz n m tal que: 1 AM es una matriz simétrica 2 MA es una matriz simétrica 3 AMA = A 4 MAM = M, entonces se dice que M es una inversa generalizada (pseudoinversa) de A, o simplemente que M es una g-inversa de A 617 Ejemplo Veriquemos que la matriz M = es una 11 [ g-inversa de la matriz A = En efecto, AM = 1 [ MA = AMA = I 2 A = A 4 MAM = M, 618 Observación = I 2 es una matriz simétrica es una matriz simétrica = = 1 Si A es invertible, entonces la matriz A 1 es una g-inversa de A 143

148 61 G-Inversa y C-inversa Inversa generalizada e inversa condicional 2 Si A = 0 m n, entonces la matriz M = 0 n m es una g-inversa de A 619 Teorema (Existencia de una g-inversa) Toda matriz A de tamaño m n tiene una inversa generalizada Demostración De acuerdo con la observación 618(2), la demostración es trivial en el caso en que A = 0 Supongamos ahora que que A 0 tiene rango r > 0 Por el teorema 613, existen matrices B de tamaño m r y C de tamaño r n, ambas de rango r tales que A = BC Puesto que B y C tiene rango r, las matrices B T B y CC T son invertibles (véase el teorema 148) Consideremos ahora la matriz M = C T ( CC T ) 1 ( B T B ) 1 B T, y veriquemos que M es una g-inversa de A Es decir, veriquemos que las condiciones de la denición 616 se satisfacen En efecto: Las matrices AM y MA son simétricas puesto que y AM = BCC T ( CC T ) 1 ( B T B ) 1 B T = B ( B T B ) 1 B T MA = C T ( CC T ) 1 ( B T B ) 1 B T BC = C T ( CC T ) 1 C De otro lado, AMA = B ( B T B ) 1 B T BC = BC = A, y MAM = C T ( CC T ) 1 CC T ( CC T ) 1 ( B T B ) 1 B T = C T ( CC T ) 1 ( B T B ) 1 B T = M Es decir, AMA = A y MAM = A, por lo tanto, M es una g-inversa de A 6110 Teorema (Unicidad de la g-inversa) Toda matriz A tiene una única g-inversa Demostración Supongamos que M 1 y M 2 son dos g-inversas de una matriz A Utilizando la denición de g-inversa de una matriz se obtiene la cadena siguiente de igualdades: AM 2 = (AM 1 A)M 2 = (AM 1 )(AM 2 ) = (AM 1 ) T (AM 2 ) T = ((AM 2 )(AM 1 )) T = ((AM 2 A)M 1 ) T = (AM 1 ) T = AM 1 144

149 Inversa generalizada e inversa condicional 61 G-Inversa y C-inversa De aquí que AM 2 = AM 1 En forma análoga se obtiene que M 2 A = M 1 A Por lo tanto M 1 = M 1 AM 1 = (M 1 A)M 1 = (M 2 A)M 1 = M 2 (AM 1 ) = M 2 (AM 2 ) = M 2 AM 2 = M Nota En lo sucesivo, la g-inversa de una matriz la denotaremos con el signo + como exponente Por ejemplo, por A +, B + denotarán respectivamente las inversas generalizadas de las matrices A y B 6112 Teorema (Propiedades de la g-inversa) Para cualquier matriz A tiene que: a) (A + ) + = A b) (αa) + = α 1 A +, para todo escalar α 0 c) (A T ) + = (A + ) T d) (AA T ) + = (A T ) + A + e) (A T A) + = A + (A T ) + Demostración Por el teorema anterior, toda matriz tiene una única g-inversa Sólo resta vericar en cada caso, que se satisfacen las condiciones de la denición 616 Haremos la demostración sólo para el inciso (e), para ello, supondremos válidas las armaciones (a)-(d) (las vericaciones ) quedan a cargo del lector) y aplicaremos las propiedades de la denición 616: 1 La matriz M = A + (A T ) + satisface la igualdad ( A T A ) M = A + A y por lo tanto, la matriz ( A T A ) ( A + (A T ) +) es simétrica En efecto: ( A T A ) M = ( A T A ) ( A + (A T ) +) (c) = A T (AA + )(A + ) T def = A T (AA + ) T (A + ) T = ( A + AA + A +) T def = ( A + A ) T = A + A 145

150 61 G-Inversa y C-inversa Inversa generalizada e inversa condicional 2 La matriz M = A + (A T ) + satisface la igualdad M ( A T A ) = A + A y por lo tanto, la matriz ( A + (A T ) +) ( A T A ) es simétrica En efecto: M ( A T A ) = ( A + (A T ) +) ( A T A ) (c) = A + (A + ) T A T A def = A + (AA + ) T A def = A + AA + A def = A + A 3 La matriz M = A + (A T ) + satisface la igualdad (A T A)M(A T A) = A T A (A T A)M(A T A) = ( A T A ) ( A + (A T ) +) ( A T A ) (1) = ( A + A ) ( A T A ) = (A + A) T A T A = ( A(A + A) ) T A def = ( AA + A ) T A = A T A 4 La matriz M = A + (A T ) + satisface la igualdad M(A T A)M = M En efecto M(A T A)M = M = ( A + (A T ) +) ( A T A ) ( A + (A T ) +) (2) = ( A + A ) ( A + (A T ) +) = ( A + AA +) T ( A T ) + def = A + (A T ) Observación No siempre es cierto que (AB) + = B + A + Para mostrar este hecho consideremos el siguiente ejemplo 6114 Ejemplo Si A = [ 1 1 [ 1 y B =, entonces AB = [3 Por 2 [ 1 lo tanto (AB) + = 1/3 De acuerdo con el corolario 622, A + = 1 2 y [ 1 B + = , de donde se tiene que B + A + = 1 [ [ = [3 = [3/10 [3 = (AB)+ 146

151 Inversa generalizada e inversa condicional 62 Cálculo de la g-inversa 62 Cálculo de la g-inversa de una matriz En esta sección veremos algunos teoremas que pueden ser utilizados para calcular la g-inversa de una matriz Empezamos con el siguiente resultado, el cual se deduce de los teoremas 613, 619 y Teorema Sea A una matriz m n de rango r > 0 1 Si r = n = m, entonces A es invertible y A + = A 1 2 Si r = m < n, entonces A + = A T ( AA T ) 1 3 Si r = n < m, entonces A + = ( A T A ) 1 AT 4 Si r < n y r < m, entonces existen matrices B M m r y C M r n de rango r tales que A = B C y A + = C T ( CC T ) 1 ( B T B ) 1 B T 622 Corolario Sea a un vector no nulo de n componentes 1 Si a M 1 n, entonces a + = ( aa T ) 1 at 2 Si a M n 1, entonces a + = [ a T a 1 at 623 Ejemplo Ilustremos el teorema 621 con alguna matrices sencillas 1 La matriz A = [ [ es invertible, así que A + = A 1 = [ La matriz A = tiene rango 2, así que: A + = A T ( AA T ) = [ =

152 62 Cálculo de la g-inversa Inversa generalizada e inversa condicional 3 La matriz A = A + = ( A T A ) 1 A T = 1 24 [ = La matriz A dada por A = tiene rango 2, así que: [ [ Del ejemplo 615 se sabe ρ(a) = 2 y que las matrices 1 1 [ B = y C = son tales que A = BC Luego A + = C T ( CC T ) 1 ( B T B ) 1 B T = Para la matriz A = [ se tiene que: a + = ( aa T ) 1 a T = La matriz A = se tiene que, a + = [ a T a 1 a T = 1 [ Teorema Sea A M m n una matriz de rango r > 0 Entonces la g-inversa de A se puede calcular siguiendo los pasos dados a continuación: 1 Calcule M = A T A 148

153 Inversa generalizada e inversa condicional 62 Cálculo de la g-inversa 2 Haga C 1 = I 3 Calcule C i+1 = 1 i Tr(C im)i C i M, para i = 1, 2,, r 1 r 4 Calcule Tr (C r M) C ra T, ésta es la matriz A + Además, se tiene que C r+1 M = 0 y Tr (C r M) 0 Para la demostración de este teorema, remitimos al lector a [3 (teorema 658) Obsérvese además, que la condición C r+1 M = 0 nos permite proceder sin conocer de antemano el rango de A 625 Ejemplo Consideremos la matriz A = del ejemplo 623(4) Calculemos A + utilizando el teorema anterior Para ello calculemos M = A t A Esto es, M = y consideremos C 1 = I 4 Entonces tenemos que: C 2 = Tr (C 1 M) I C 1 M = Como C 3 M = 0, entonces ρ(a) = 2, y además A + = 2 Tr (C 2 M) C 2A T = El siguiente teorema nos presenta una forma alternativa para calcular la g-inversa de una matriz Para su demostración, remitimos a [7 (véase páginas 14-15) 149

154 62 Cálculo de la g-inversa Inversa generalizada e inversa condicional 626 Teorema Sea A M m n una matriz de rango r > 0 La g-inversa de A se puede calcular mediante los siguientes pasos: 1 Forme la matriz [ A I m 2 Efectúe operaciones elementales en las las de la matriz anterior hasta conseguir la forma escalonada reducida de A Al nal de este paso se obtiene una matriz que podemos describir por bloques así: [ Er n P r m si r < m 0 m r n P m r m ó [ Em n P m m si r = m (Si r = m = n, entonces A es invertible, E = I y P = A 1 = A + ) 3 Forme la matriz: [ Er n A T E r n si r < m P m r m 0 m r m ó [ Em n A T E m n si r = m 4 Efectúe operaciones elementales en las las de la matriz anterior hasta conseguir la forma escalonada reducida Al nal de este paso se obtiene la matriz [ Im (A + ) T 627 Ejemplo Consideremos de nuevo la matriz A del ejemplo 625 A = Con el objeto de calcular A + utilizando el teorema anterior, formemos la matriz [ A I 3 y apliquemos operaciones elementales en las las 150

155 Inversa generalizada e inversa condicional 62 Cálculo de la g-inversa hasta encontrar la forma escalonada reducida de A [ A I3 = = [ E2 4 P P [ E2 4 A Construyamos ahora la matriz de la forma t E 2 4 y apliquemos de nuevo operaciones elementales en las las, hasta obtener la matriz P identidad I 3 en el lado izquierdo de este arreglo [ E2 4 A t E 2 4 = P Así que A + = = [ I 3 (A + ) t =

156 63 C-inversa Inversa generalizada e inversa condicional 628 Ejemplo Consideremos la matriz A del ejemplo 623(2) [ A =, y sigamos los pasos del ejemplo anterior (teorema 626) para calcular A + [ [ A I2 = [ = [ E 2 4 P Construyamos ahora la matriz [ E 2 4 A T E 2 3 y reduzcámosla Así que [ E2 4 A T E 2 3 A + = = [ = [ I 2 (A + ) T = Inversa condicional de una matriz Al igual que el concepto de inversa generalizada de una matriz, el concepto de inversa condicional es de gran utilidad en los cursos de modelos lineales 152

157 Inversa generalizada e inversa condicional 63 C-inversa (véase la sección 15 de [4) y en la caracterización del conjunto solución de sistemas lineales de ecuaciones 631 Denición Sea A una matriz m n Si M es una matriz n m tal que: AMA = A, entonces se dice que M es una inversa condicional de A o simplemente, que M es una c-inversa de A 632 Observación De acuerdo con el teorema 6110, toda matriz A tiene una única inversa generalizada A + Ésta es a su vez por denición una c-inversa de A Así que, toda matriz A tiene al menos una c-inversa Veremos aquí, que una matriz A puede tener varias (incluso innitas) inversas condicionales, salvo cuando la matriz A es invertible, en cuyo caso A 1 es la única c-inversa Nota El teorema 635 caracteriza el conjunto de todas las inversas condicionales de A 633 Teorema Sea A M m n una matriz de rango r Entonces: 1 W = {N M n m : ANA = 0} es un subespacio de M n m 2 La dimensión del espacio W mencionado en (1) es m n r 2 Demostración Para demostrar el inciso (1) basta demostrar, según el teorema 126, que el conjunto W es cerrado bajo la suma y la multiplicación por un escalar En efecto, Sean N 1 y N 2 dos elementos (matrices) del conjunto W, entonces A(N 1 + N 2 )A = AN 1 A + AN 2 A = = 0, esto implica que N 1 + N 2 W Ésto es, W es cerrado bajo la suma De otro lado, para cualquier escalar α R se tiene que A(αN 1 )A = αan 1 A = α0 = 0, ésto implica que, αn 1 W Es decir, W es cerrado bajo la multiplicación por un escalar El conjunto W es entonces un subespacio vectorial de M n m, lo que completa la demostración del inciso (1) Hagamos ahora la demostración del inciso (2) en el caso en la matriz A M m n tenga rango r con 0 < r < mín {m, n} Las demostraciones en los demás casos son similares 153

158 63 C-inversa Inversa generalizada e inversa condicional Sea entonces A una matriz m n de rango r, con 0 < r < mín {m, n} De acuerdo con el inciso (1) del teorema 611, existen matrices invertibles P M m m y Q M n n tales que: [ [ Ir 0 (61) P AQ = o A = P 1 Ir 0 Q Consideremos ahora matrices arbitrarias X M r r, Y M r (m r), Z M (n r) r y W M (n r) (m r) y la matriz N M n m dada por [ X Y N = Q P Z W Ahora N W sii ANA = 0 De (61) se sigue que [ [ ANA = P 1 Ir 0 Q 1 X Y Q 0 0 Z W Q 1 = P 1 [ X P P 1 [ Ir Q 1 De aquí se deduce ANA = 0 sii X = 0 Esto es, N W sii N es de la forma: [ 0 Y N = Q P Z W Demostremos ahora que la dimensión de W es m n r 2 Para ello, usaremos el hecho de que dim M k j = k j En efecto, consideremos los espacios de matrices M r (m r), M (n r) r y M (n r) (m r) con las bases respectivas B 1 = { } Y 1, Y 2,, Y r(m r), B1 = { } Z 1, Z 2,, Z r(n r) y B 3 = { } W 1, W 2,, W (n r) (m r) Es fácil mostrar entonces que el conjunto B = {N 1, N 2,, N m n r r } con [ 0 Yi N i = Q P ; i = 1, 2,, m r r [ 0 0 N r(m r)+j = Q P ; j = 1, 2,, n r r 2 Z j 0 [ 0 0 N r(m+n 2r)+k = Q P ; k = 1, 2,, (n r) (m r), 0 W k es una base de W 634 Teorema Sea A una matriz m n El conjunto M c A de todas las c-inversas, M c A = {M M n m : AMA = A}, es una variedad lineal de dimensión m n r 2 154

159 Inversa generalizada e inversa condicional 63 C-inversa Demostración Por el teorema 622 M c A es no vacío, sea entonces M 0 un elemento de M c A Veriquemos entonces, que M M c A si y sólo si M se puede escribir como la suma de M 0 y un elemento N W, ésto es, sii M = M 0 + N para algún N W, siendo W el conjunto dado en el teorema 633 Si M = M 0 +N, con N W, entonces AMA = AM 0 A+ANA = A+0 = A Ésto es, M M c A De otra parte, si M M c A, entonces podemos escribir donde N = M M 0 Puesto que M = M + M 0 M 0 = M 0 + (M M 0 ) = M 0 + N, A(M M 0 )A = AMA AM 0 A = A A = 0, se tiene entonces que N = M M 0 W y de aquí se sigue que: M c A = {M + N, N W } El teorema siguiente establece cómo determinar los elementos de M c A 635 Teorema Sea A una matriz m n de rango r Sean P M m m y Q M n n matrices invertibles como en el teorema Si A = 0, entonces M c A = M n m 2 Si r = n = m, entonces M c A = {A+ } = { A 1} 3 Si r = m < n, entonces { [ } M c Ir A = Q P : Y M Y (n r) m 4 Si r = n < m, entonces M c A = { Q [ I r X P : X M n (m r) } 155

160 63 C-inversa Inversa generalizada e inversa condicional 5 Si 0 < r < n y 0 < r < m, entonces el conjunto M c A de todas las inversas condicionales de la matriz A está dado por { [ Ir X Q P : Z M Y Z (n r) (m r), } Y M (n r) m, X M n (m r) Demostración De acuerdo con los teoremas 624 y 634, se tiene que en cada caso M c A es una variedad lineal de dimensión mn r 2 De otro lado, se puede vericar que si M M c A, entonces AMA = A 636 Ejemplo Sea A = la matriz del ejemplo 612 De dicho ejemplo sabemos que las matrices invertibles P = y Q = [ I2 0 son tales que P AQ =, ρ(a) = r = 2 En este caso, M c A = { [ I2 X Q Y Z, 0 0 } P : X M 2 1, Y M 2 2, Z M 2 1, representará, el conjunto de todas las inversas condicionales de A, En particular, si tomamos X = 0, Y = 0 y Z = 0, se tiene que una c-inversa de A es: [ I2 0 M 0 = Q P = En lo que resta de esta sección veremos un método alternativo para calcular una c-inversa de una matriz Consideremos inicialmente el caso de matrices cuadradas 637 Denición Una matriz cuadrada H = [h ij n n tiene la forma Hermite superior, si satisface las condiciones siguientes: 156

161 Inversa generalizada e inversa condicional 63 C-inversa 1 H es triangular superior 2 h ii = 0 ó h ii = 1, i = 1, 2,, n 3 Si h ii = 0, entonces la i-ésima la es nula, ésto es, h ij = 0 para todo j = 1, 2,, n 4 Si h ii = 1, entonces el resto de los elementos de la i-ésima columna son nulos Ésto es, h ji = 0 para todo j = 1, 2,, n; (j i) 638 Ejemplo La matriz H = tiene la forma Hermite superior El siguiente teorema establece que una matriz Hermite superior es idempotente La demostración de dicho resultado es consecuencia directa de la denición y se deja como un ejercicio para el lector 639 Teorema Si H es una matriz que tiene la forma Hermite superior, entonces H 2 = H 6310 Teorema Para toda matriz cuadrada A existe una matriz invertible B tal que BA = H tiene la forma Hermite superior Demostración Sea P una matriz invertible tal que P A = R es la forma escalonada reducida de A Si R tiene la forma Hermite superior, entonces la matriz B = P satisface la condición de que BA = R = H Si R no tiene la forma Hermite superior, intercambiamos las las de R hasta que el primer elemento no nulo (de izquierda a derecha) de cada la no nula de R, sea un elemento de la diagonal Así tenemos una matriz H que tiene la forma Hermite superior Así que existen matrices elementales (por las) E 1, E 2,, E k tales que E 1 E 2 E k R = H o sea: E 1 E 2 E k P A = H En consecuencia, la matriz invertible B = E 1 E 2 E k P es tal que BA = H tiene la forma Hermite superior 157

162 63 C-inversa Inversa generalizada e inversa condicional 6311 Ejemplo Para la matriz cuadrada: A = 1 2 5, la matriz invertible es tal que P = P A = R = 5/2 3/2 0 1/2 1/ donde R es la forma escalonada resucida de A Intercambiando las las 2 y 3 de R obtemos la matriz: H = tiene la forma Hermite superior Además, 5/2 3/2 0 B = /2 1/2 0 es invertible y es tal que BA = H 6312 Teorema Sea A una matriz cuadrada Si B es una matriz invertible tal que BA = H tiene la forma Hermite superior, entonces B es una c-inversa de A, Como H tiene la forma Hermite superior, por el teorema 639, H 2 = H Así que BABA = H 2 = H = BA, o sea: BABA = BA Premultiplicando los dos miembros de la última igualdad por la matriz B 1 se obtiene: ABA = A, esto es, B es una c-inversa de A 158

163 Inversa generalizada e inversa condicional 63 C-inversa 6313 Ejemplo Consideremos la matriz A del ejemplo 6311, A = Se sabe de dicho ejemplo, que la matriz invertible 5/2 3/2 0 B = 0 2 1, 1/2 1/2 0 es tal que BA = H tiene la forma Hermite superior Por lo tanto, por teorema anterior, B es una c-inversa de A El siguiente corolario presenta una forma de calcular una c-inversa para el caso de matrices rectangulares 6314 Corolario Sea A una matriz m n 1 Si m > n, sea A = [ A 0, donde 0 es la matriz nula m (m n) Sea además B una matriz invertible tal que B A = H tiene la forma Hermite superior Si escribimos la matriz B entonces particionada así: B B =, B 1 donde B es una matriz n m, entonces B es una c-inversa de A [ A 2 Si n > m, sea A =, donde 0 es la matriz nula (n m) 0 m Sea además B una matriz invertible tal que B A = H tiene la forma Hermite superior Si escribimos la matriz B entonces particionada así: B = [ B B 1, donde B es una matriz n m, entonces B es una c-inversa de A Demostración Presentamos aquí la sólo la demostración del inciso (1) Supongamos A es una matriz m n, con m > n y consideremos la matriz cuadrada A = [ A 0 n n 159

164 64 Mínimos cuadrados Inversa generalizada e inversa condicional Según el teorema 6310, existe una matriz invertible B, tal que B A = H tiene la forma Hermite superior Dicha matriz B es una c-inversa de A (teorema 6310), así que, A B A = A, o sea: A B A = [ A 0 B [ A 0 B 1 = [ ABA 0 = [ A 0 = A De ésto se sigue que ABA = A Es decir, B es una c-inversa de A 6315 Ejemplo Encontremos una c-inversa para la matriz: A = Sea A = Efectuando los cálculos pertinentes se encuentra que la matriz invertible: B = B = B es tal que B A = H tiene la forma Hermite superior Por lo tanto, por el corolario anterior, la matriz [ B = es una c-inversa de A Sistemas de ecuaciones lineales: g-inversa y c-inversa de una matriz mínimos cuadrados En esta sección veremos aplicaciones de la g-inversa y la c-inversa de una matriz a los sistemas de ecuaciones lineales y al problema de los mínimos cuadrados 160

165 Inversa generalizada e inversa condicional 64 Mínimos cuadrados 641 Teorema Sea A M m n una matriz y sea y M m 1 un vector El sistema de ecuaciones lineales Ax = y es consistente sii AA c y = y para cada c-inversa A c de A Demostración Supongamos que el sistema de ecuaciones lineales Ax = y es consistente Esto quiere decir, que existe al menos un x 0 tal que: Ax 0 = y Sea ahora A c una c-inversa de A, entonces: AA c y = AA c Ax 0 = Ax 0 = y Supongamos ahora, que para cada c-inversa A c de A, se tiene que AA c y = y Entonces para cada c-inversa A c, el vector x 0 = A c y es una solución del sistema de ecuaciones lineales Ax = y Por lo tanto, el sistema es consistente 642 Teorema Sea A una matriz m n y sea A c una c-inversa de A Si el sistema de ecuaciones lineales Ax = y es consistente, entonces su solución general es (61) x = A c y + (I A c A)h, h M n 1 Demostración Puesto que por hipótesis el sistema de ecuaciones lineales Ax = y es consistente, entonces por el teorema anterior, AA c y = y En consecuencia, para cada x de la forma (61): Ax = AA c y + A(I A c A)h = y + (A A)h = y + 0h = y, esto es, x es una solución del sistema dado De otro lado, si x 0 es solución del sistema dado, entonces Ax 0 = y Premultiplicando los miembros de la última igualdad por A c se obtiene A c Ax 0 = A c y, 161

166 64 Mínimos cuadrados Inversa generalizada e inversa condicional de donde: 0 = A c y A c Ax 0 Sumando x 0 a los dos lados de la última igualdad se llega a: x 0 = A c y + x 0 A c Ax 0 = A c y + (I A c A)x 0 = A c y + (I A c A)h, donde h = x 0 Ésto es, x 0 se puede expresar en la forma 61 Puesto que A + es una c-inversa de A, se tiene el siguiente corolario 643 Corolario Sea A una matriz m n Si el sistema de ecuaciones lineales Ax = y es consistente, entones su solución general es (62) x = A + y + (I A + A)h, h M n 1 PROBLEMA DE LOS MÍNIMOS CUADRADOS Como se estableció en el teorema 143(3), para un sistema de ecuaciones Ax = y se presenta una y sólo una de las opciones siguientes: (i) El sistema tiene innitas soluciones (ii) El sistema tiene solución única (iii) El sistema no tiene solución En el trabajo experimental generalmente se da generalmente la opción (iii), es decir, que el vector y no es un elemento del espacio columna de la matriz A, (y / C(A)) (véase gura 61) En este caso, nos preguntamos si existe una solución aproximada del sistema, para una denición conveniente de solución aproximada Un problema que se presenta con frecuencia en el trabajo experimental es: IR m y C (A) 0 A x 0 A x A x Figura 61 Problema de los mínimos cuadrados 162

167 Inversa generalizada e inversa condicional 64 Mínimos cuadrados Dado una serie de puntos (x 1, y 1 ); (x 2, y 2 ); ; (x n, y n ) obtener una relación y = f(x) entre las dos variables x y y, adaptando (en algún sentido) una curva a dicho conjunto de puntos Como los datos se obtienen experimentalmente, generalmente existe un error en ellos (errores de aproximación), lo que hace prácticamente imposible encontrar una curva de la forma deseada que pase por todos los puntos Por medio de consideraciones teóricas o simplemente por acomodo de los puntos, se decide la forma general de la curva y = f(x) que mejor se adapte Algunas posibilidades son (ver gura 62): 1 Funciones lineales (rectas): y = f(x) = a + bx; a, b R 2 Polinomios de grado dos: y = f(x) = a + bx + cx 2 ; a, b, c R 3 Polinomios de grado tres: y = f(x) = a+bx+cx 2 +dx 3 ; a, b, c, d R y y y x x x (1) Aproximacion lineal (2) Aproximacion cuadratica (3) Aproximacion cubica Figura 62 Ajuste por mínimos cuadrados A Adaptación de puntos por mínimos cuadrados a una línea recta Considere los puntos (x 1, y 1 ); (x 2, y 2 ); ; (x n, y n ), los cuales se pretende ajustar mediante la gráca de la línea recta y = f(x) = a + bx Si los 163

168 64 Mínimos cuadrados Inversa generalizada e inversa condicional puntos correspondientes a los datos fuesen colineales, la recta pasaría por todos los n puntos y, en consecuencia, los coecientes desconocidos a y b satisfarían la ecuación de la recta Ésto es, se tendrían las siguientes igualdades: y 1 = a + bx 1 y 2 = a + bx 2 y n = a + bx n Estas igualdades se pueden escribir, utilizando notación matricial, así: y 1 1 x 1 y 2 (63) y = = 1 x 2 a = Ax b y n 1 x n Si los puntos que corresponden a los datos no son colineales, es imposible encontrar coecientes a y b que satisfagan (63) En este caso, independientemente de la forma en que se escojan a y b, la diferencia Ax y, entre los dos miembros [ de (63) no será cero Entonces, el objetivo es a encontrar un vector x = b que minimice la longitud del vector Ax y, esto es, que minimice Ax y, lo que es equivalente a minimizar su cuadrado, Ax y 2 [ a Si x 0 = b es un vector que minimiza tal longitud, a la línea recta y = a + b x se le denomina recta de ajuste por mínimos cuadrados de los datos La gura 63 ilustra la adaptación de una línea recta por el método de los mínimos cuadrados Se tiene que Ax y, y Ax y 2 = [(a + b x 1 y 1 ) 2 + [(a + b x 2 y 2 ) [(a + b x n y n ) 2 [ a son minimizados por el vector x 0 = b En dicha gura se ve que a + b x i y i corresponde a la distancia vertical, d i, tomada desde el 164

169 Inversa generalizada e inversa condicional 64 Mínimos cuadrados punto (x i, y i ) hasta la recta y = a + b x Si se toma a d i como el error vertical en el punto (x i, y i ), la recta de ajuste minimiza la cantidad: d d d 2 n, que es la suma de los cuadrados de los errores verticales De allí el nombre de método de los mínimos cuadrados y ( x, y ) n n ( x, y ) d d 2 ( x 2, y 2 ) d 3 ( x 3, y 3 ) d n * * y=a+b x x Figura 63 Ajuste lineal por mínimos cuadrados Damos a continuación dos deniciones motivadas por la discusión anterior En el ejemplo 6413 veremos cómo se adapta, por mínimos cuadrados, una línea recta y = a + bx a n puntos (x 1, y 1 ); (x 2, y 2 ); ; (x n, y n ) 644 Denición (Solución Mínima Cuadrada) Se dice que el vector x 0 es una solución mínima cuadrada (SMC) del sistema de ecuaciones lineales Ax = y, si para todo vector x se tiene que: Ax 0 y < Ax y 645 Denición (Mejor Solución Aproximada) Se dice que el vector x 0 es una mejor solución aproximada (MSA) del sistema de ecuaciones lineales Ax = y, si: 1 Para todo vector x se tiene que: Ax 0 y < Ax y 165

170 64 Mínimos cuadrados Inversa generalizada e inversa condicional 2 Para todo vector x x 0 tal que Ax 0 y < Ax y se tiene que x 0 < x Nota Observe que una MSA de un sistema de ecuaciones lineales Ax = y es una SMC del mismo 646 Teorema Sea A una matriz m n y sea y un vector R m Si A c es una c-inversa de A tal que AA c es simétrica, entonces para todo vector x R n se tiene que: Ax y 2 = Ax AA c y 2 + AA c y y 2 Por hipótesis AA c = (AA c ) t Así que para todo vector x se tiene que: Ax y 2 = (Ax AA c y) + (AA c y y) 2 = Ax AA c y 2 + 2(Ax AA c y) T (AA c y y) + AA c y y 2 = Ax AA c y [ (x A c y) T A T ((AA c ) T I)y + AA c y y 2 = Ax AA c y [ (x A c y) T (A T (AA c ) T A T )y + AA c y y 2 = Ax AA c y [ (x A c y) T ((AA c A) t A t )y + AA c y y 2 = Ax AA c y [ (x A c y) T (0)y + AA c y y 2 = Ax AA c y 2 + AA c y y Teorema Sea A una matriz m n y sea y un vector R m Si A c es una c-inversa de A tal que AA c es simétrica, entonces x 0 = A c y es una SMC para el sistema Ax = y Demostración Por hipótesis y por el teorema anterior se tiene que x 0 = A c y es tal que: Ax y 2 = Ax Ax Ax 0 y 2 Ax 0 y 2 166

171 Inversa generalizada e inversa condicional 64 Mínimos cuadrados Para todo vector x De aquí que para todo vector x: Ax 0 y Ax y, esto es, x 0 = A c y es una SMC para el sistema Ax = y 648 Teorema Sea A una matriz m n y sea y un vector R m El sistema de ecuaciones lineales Ax = y tiene una única MSA, a saber x 0 = A + y Demostración Puesto que A + es una c-inversa de A tal que AA + es simétrica, entonces por el teorema 646 se tiene para todo x que: Ax y 2 = Ax AA + y 2 + AA + y y 2 AA + y y 2 De aquí que para todo vector x : (64) AA + y y Ax y Esto es, x 0 = A + y es una SMC para el sistema Ax = y Mostraremos ahora que para todo vector x x 0 = A + y tal que Ax = AA + y se tiene que x 0 < x Puesto que para todo vector x se tiene que: A + y + (I A + A)x 2 = A + y 2 + 2(A + y) T (I A + A)x + (I A + A)x 2 = A + y 2 + 2y t [ (A + ) T (A + ) T (AA + ) T x + (I A + A)x 2 = A + y 2 + 2y T [ (A + ) T (A + AA + ) T x + (I A + A)x 2 = A + y 2 + 2y t (0)x + (I A + A)x 2 = A + y 2 + (I A + A)x 2, entonces para todos los vectores x tales que Ax = AA + y o, equivalentemente, tales que A + Ax = A + y, se tiene que: A + y + (I A + A)x 2 = A + y + x A + x 2 = x 2 = A + y 2 + (I A + A)x 2 A + y 2 = x 0 2, 167

172 64 Mínimos cuadrados Inversa generalizada e inversa condicional es decir, x > x 0 2 si x 0 x 649 Observación El teorema anterior establece que todo sistema de ecuaciones lineales Ax = y tiene una única MSA, x 0 = A + y Por ésto de aquí en adelante hablaremos de la mejor solución aproximada (MSA) de un sistema de ecuaciones lineales Ahora bien, puesto que la mejor solución aproximada del sistema de ecuaciones lineales Ax = y es una solución mínima cuadrada, se tiene el siguiente teorema 6410 Corolario Todo sistema de ecuaciones lineales Ax = y tiene al menos una SMC 6411 Ejemplo Para el sistema de ecuaciones lineales 1 1 [ 1 Ax = 1 1 x = 2 = y, y se tiene que x 0 = A + y = 1 [ [ 2 1 = Además: Ax 0 y = 2; así que para todo vector x se tiene que: 2 Ax y, es la MSA y si existe un vector x tal que Ax y = 2, entonces se debe tener que: x 0 = 2 < x 6412 Teorema Sea A una matriz m n y sea y un vector R m Si ρ(a) = n, entonces el sistema de ecuaciones lineales Ax = y tiene una única SMC que es justamente la MSA dada por: x 0 = A + y Demostración Sea x una SMC del sistema de ecuaciones Ax = y Por denición se tiene para todo x R n, entonces que Ax y Ax y, en particular, para el vector x 0 = A + y se tiene: (65) Ax y AA + y y 168

173 Inversa generalizada e inversa condicional 64 Mínimos cuadrados De otra parte, como A + es una c-inversa de A tal que AA + es simétrica, entonces se tiene (ver teorema 646) Ax y 2 = Ax AA + y 2 + AA + y y 2 x R n En particular, para el vector x se tiene: (66) Ax y = Ax AA + y 2 + AA + y y 2 De (65) y (66) se sigue que: AA + y y 2 Ax AA + y 2 + AA + y y 2 = Ax y 2 AA + y y 2 De aquí que Ax AA + y = 0 y por lo tanto: Ax = AA + y Puesto que ρ(a) = n, entonces A + = ( A T A ) 1 AT (teorema 621), en consecuencia: Ax = A ( A T A ) 1 A T y Premultiplicando esta igualdad por ( A T A ) 1 A T, se obtiene: x = ( A T A ) 1 A T Ax = ( A T A ) 1 A T A ( A T A ) 1 A T y ( A T A ) 1 A T y = A + y = x Ejemplo Encontremos una recta de ajuste, por mínimos cuadrados (ver gura 64), que se adapte a los puntos: (0, 1); (1, 3); (2, 4); (3, 4) Para ello debemos encontrar una SMC del sistema de ecuaciones lineales Ax = y, donde 1 x y 1 1 A = 1 x 2 1 x 3 = , y = y 2 y 3 = x y 4 4 y el vector incógnita x está dada por [ a x = b 169

174 64 Mínimos cuadrados Inversa generalizada e inversa condicional Puesto que ρ(a) = 2, entonces por el teorema anterior, el sistema dado tiene una única SMC, a saber: x 0 = A + y = (A T A) 1 A T y = 1 [ 10 = [ 1, = [ a b En consecuencia, la recta de ajuste, por mínimos cuadrados, de los datos dados es: y = a + b x = 1,5 + x y (1,3) (2,4) (3,4) y=15+x (0,1) x Figura 64 Ajuste lineal ejemplo Ejemplo Encontremos una recta de ajuste, por mínimos cuadrados, que se adapte a los puntos: (1, 1); (1, 2) Observe que en este caso los puntos dados pertenecen a la recta, de pendiente innita, x = 1(ver gura 65(a)) 170

175 Inversa generalizada e inversa condicional 64 Mínimos cuadrados y x = 1 y y=3/2x (1,2) (1,2) y=3/4+3/4x (1,1) (1,1) x x a) Ajuste por una recta de pendiente infinita b) Ajuste por rectas de pendiente no infinita Figura 65 Ajuste lineal ejemplo 6414 Ahora bien, si buscamos una recta y = a + bx, que no tenga pendiente innita, que se adapte por mínimos cuadrados, a los puntos dados, entonces debemos dar una SMC del sistema de ecuaciones lineales (ver gura 65(b)) Ax = = [ [ 1 x1 a = 1 x 2 b [ [ 1 y1 = = y 2 Una SMC del sistema dado es: x 0 = A + y = 1 [ y 2 [ 1 2 [ = [ 3/4 3/4 [ a b [ a = Así que una recta de ajuste, por mínimos cuadrados, de los puntos dados es: De otra parte, la matriz y = a + b x = x A c = [ 0 0 1/2 1/2 es una c-inversa de A, AA c es simétrica En efecto, 171 b

176 64 Mínimos cuadrados Inversa generalizada e inversa condicional AA c = [ 1/2 1/2 1/2 1/2 Por lo tanto, de acuerdo con el teorema 647, [ [ x 0 = A c 0 â y = = 3/2 ˆb es también una SMC Así que otra recta de ajuste por mínimos cuadrados, de los puntos dados es (ver gura 65(b)): y = a + b x = 3 2 x B Adaptación a polinomios de grado n La técnica descrita antes para adaptar una recta a n puntos dados, se generaliza fácilmente a la adaptación, por mínimos cuadrados, de un polinomio de cualquier grado a un conjunto de puntos dados A continuación se muestra cómo adaptar un polinomio de grado m, y = a 0 + a 1 x + a 2 x a m x m a un conjunto de n puntos (x 1, y 1 ); (x 2, y 2 ); ; (x n, y n ), mediante la técnica de los mínimos cuadrados Sustituyendo estos n valores de x y y en la ecuación polinómica se obtienen las n ecuaciones siguientes: y 1 1 x 1 x 2 1 x m 1 a 0 y 2 = 1 x 2 x 2 2 x m 2 a 1 y n 1 x n x 2 n x m n a m De lo que se trata nuevamente, es de encontrar una SMC del sistema de ecuaciones lineales Ax = y 6415 Ejemplo Encontrar un polinomio de grado dos que mejor se ajuste, por mínimos cuadrados, a los puntos: ( 1, 0); (0, 2); (1, 1); (2, 0) 172

177 Inversa generalizada e inversa condicional 64 Mínimos cuadrados Debemos encontrar una SMC del sistema de ecuaciones lineales: Ax = a a 2 = 2 1 = y a Puesto que ρ(a) = 3, el sistema dado tiene una única SMC, la cual está dada por: x 0 = A + y = (A t A) 1 A t y = = = 1,55 0,65 0, En consecuencia, existe un único polinomio de grado dos que se ajuste por mínimos cuadrados de los datos dados Este polinomio está dado por (ver gura 66): y = 1,55 0,65x + 0,75x 2 y y= x+075x 2 ( 1,0) (1, 1) (2,0) x (0, 2) Figura 66 Ajuste cuadrático ejemplo

178 65 Ejercicios Inversa generalizada e inversa condicional 65 Ejercicios 651 Responda verdadero o falso justicando su respuesta 1 Si las matrices B M m r y C M m r tienen el mismo rango, entonces (BC) + = C + B + 2 Si S es una matriz simétrica, entonces S + es una matriz simétrica 3 Si S es una matriz simétrica tal que S 2 = S, entonces S + = S 4 Si S es una matriz simétrica tal que S 3 = S, entonces S + = S 5 Para toda matriz A se tiene que A + = (A T A) + A T 6 Para toda matriz A se tiene que A + = A T (AA T ) + 7 Para toda matriz A se tiene que (AA + ) 2 = AA + y (A + A) 2 = A + A 8 Para toda c-inversa A c de A se tiene que (AA c ) 2 = AA c y (A c A) 2 = A c A 9 Si A c es una c-inversa de A, entonces A es una c-inversa de A c 10 Si A c es una c-inversa de A, entonces (A c ) t es una c-inversa de A t 11 Si A M m n tiene rango m, entonces el sistema de ecuaciones lineales Ax = y tiene solución para cualquier y M m 1 12 Si A M m n tiene rango n y si el sistema de ecuaciones lineales Ax = y tiene solución, entonces el sistema tiene solución única 652 Demuestre que 1 Para cualquier matriz A se tiene que: ρ(a) = ρ(a + ) = ρ(aa + )= ρ(a + A) 2 Si A c es una c-inversa de A, entonces ρ(a c ) ρ(a) = ρ(aa c )= ρ(a c A) 3 Si A c es una c-inversa de A, entonces Tr(AA c )= Tr(A c A) = ρ(a) (sugerencia véase el ejercicio 35(26)) 4 Si BC t [ = 0, entonces BC + = 0 y CB + = 0 B 5 Si A = y BC C T = 0 entonces A + = [ B + C + 174

179 Inversa generalizada e inversa condicional 65 Ejercicios 6 Si B es una matriz simétrica m m y si C T B = 0, donde C T es la matriz C T = [ 1 1 1, entonces la g-inversa de 1 m la matriz: [ B A = C T es A + = [ B + 1/m C 7 Si D = [d ij n n es una matriz diagonal, entonces D + =[a ij n n es una matriz diagonal, donde { 1/d ii, si d ii 0 a ij = 0, si d ii = 0 [ [ B 0 B 8 Si A = entonces A = 0 C 0 C + 9 Si S es una matriz simétrica, entonces SS + = S + S 10 Si A es una matriz tal que A T A = AA T, entonces A + A = AA + 11 Si A es una matriz m n, donde A ij = 1 para i = 1, 2,, m y j = 1, 2,, n, entonces A + = 1 mn A 12 Si P M n n y Q M m m son matices ortogonales, entonces para cualquier matriz m n, A, se tiene que (P AQ) + = Q T A + P T 13 Si S es una matriz simétrica no negativa, entonces S + es una matriz no negativa 14 Para cada matriz m n, A; AB = AA + sii B es tal que ABA = A y AB es simétrica 15 Sea A una matriz m n ρ(a) = m sii AA + = I sii AA c = I para cada c-inversa A c de A 16 Sea A una matriz m n ρ(a) = n sii A + A = I sii A c A = I para cada c-inversa A c de A 17 Si B es una c-inversa de A, entonces también lo es BAB 18 Si B c y C c son c-inversas de las matrices B y C respectivamente, entonces una c-inversa de la matriz [ [ B 0 A = es A c B c 0 = 0 C 0 C c 19 Si el sistema de ecuaciones lineales Ax = y tiene solución, entonces la solución x = A + y es única sii A + A = I, y en este caso A + y = A c y para toda c-inversa A c de A 20 Si x 1, x 2,, x n son soluciones del sistema de ecuaciones lineales Ax = y, y si λ 1, λ 2,, λ n son escalares tales que n i=1 λ i = 1, 175

180 65 Ejercicios Inversa generalizada e inversa condicional entonces n x = λ i x i i=1 es una solución del sistema Ax = y 21 Sea y = a+bx una línea recta que se quiere adaptar, por mínimos cuadrados, a los puntos (x 1, y 1 ); (x 2, y 2 ); ; (x n, y n ) Utilice el teorema 642 y la regla de Cramer para demostrar que si para algún i y para algún j, x i x j, entonces existe una única recta de ajuste, por mínimos cuadrados, a los puntos dados: y = a + b x y que a = a y b = b, donde: = det n n i=1 x i n i=1 x i n i=1 x2 i a = det n i=1 y i n i=1 x iy i n i=1 x i n i=1 x2 i = det n n i=1 x i n i=1 y i n i=1 x iy i 653 Cálculos 1 Calcule la g-inversa de cada una de las matrices siguientes: (i) A 1 = [ [ 1 2 (ii) A 2 = 3 5 (iii) A 1 = [ (iv) A 4 =

181 Inversa generalizada e inversa condicional 65 Ejercicios (v) A 5 = (vii) A 7 = (ix) A 9 = Para la matriz A = (vi) A 6 = (viii) A 8 = ,dé dos c-inversa A c 1 y A c 2 tales que ρ(a c 1) > ρ(a) y ρ(a c 2) = ρ(a) 3 Determine el conjunto de todas las c-inversas de las matrices [ [ A 1 =, A =, A 3 = 1 2 [ , A 4 = Dé la MSA del sistema de ecuaciones lineales Ax = y, donde: A = y y = Dé la ecuación de la recta que mejor se ajuste por mínimos cuadrados a los puntos: (0, 1); (1, 3); (2, 2); (3, 4) 6 Obtenga la ecuación del polinomio de grado dos que mejor se adapte, por mínimos cuadrados, a los puntos: ( 1, 4); (0, 2); (1, 0); (2, 1) 177

182 65 Ejercicios Inversa generalizada e inversa condicional 7 Dé, si las hay, dos SMC diferentes del sistema de ecuaciones lineales: [ [ [ 2 2 x 1 Ax = = 2 2 y 0 178

183 CAPÍTULO 7 Factorización de matrices En este capítulo estudiaremos algunas de las técnicas más utilizadas para factorizar matrices, es decir, técnicas que nos permiten escribir una matriz como producto de dos o tres matrices con una estructura especial La factorización de matrices es importante por ejemplo cuando se quiere resolver sistemas de ecuaciones con un número muy grande tanto de variables como de ecuaciones En la sección 71 trataremos la descomposición LU, en la sección 72 nos ocuparemos de la descomposición QR, en la sección 73 trataremos la descomposición de Cholesky y en la sección 74 trataremos la descomposición en valores singulares 71 Descomposición LU En esta sección estudiaremos, quizás la factorización de matrices más sencilla pero igualmente muy útil Nos referimos a la factorización o descomposición LU, la cual está directamente relacionada con las operaciones elementales aplicadas a una matriz, para llevarla a una forma triangular inferior Como una motivación, supongamos que se conoce cómo factorizar una matriz A, m n en la forma (71) A = LU donde L es una matriz triangular inferior (del inglés lower) m m y U es una matriz escalonada m n (del inglés upper) Entonces el sistema (72) Ax = b puede resolverse de la siguiente forma: Usando (71), el sistema (72) se puede escribir en la forma (73) L(Ux) = b 179

184 71 Descomposición LU Factorización de matrices En este punto introducimos una nueva variable (por sustitución) y = Ux, obteniendo así el nuevo sistema (74) Ly = b Resolvemos entonces dicho sistema para la variable y, mediante sustitución hacia adelante Como paso nal, usamos sustitución hacia atrás para resolver el sistema (75) Ux = y Es de anotar, que los sistemas (74) y (75) son relativamente fáciles de resolver dado que se trata de matrices de coecientes triangulares inferiores y superiores respectivamente La factorización o descomposición LU es particularmente útil cuando se requiere resolver de manera simultánea varios sistemas de ecuaciones que dieren únicamente en la parte no homogénea El siguiente resultado nos da condiciones sucientes para la existencia de una tal factorización LU para una matriz cuadrada A Posteriormente lo extenderemos a matrices rectangulares 711 Teorema (Factorización LU) Sea A una matriz cuadrada n n Supongamos que A se puede reducir por las a una matriz triangular superior, U aplicando únicamente operaciones elementales de eliminación (operaciones del tipo αf i + F j con i < j) Entonces existe una matriz triangular inferior L que es invertible y posee unos en su diagonal principal, tal que A = LU Si A es invertible, entonces esta descomposición es única Demostración Por hipótesis, existen matrices elementales E 1, E 2,, E k del tipo (αf i + F j, i > j) y una matriz U (triangular superior) tales que E k E k 1 E 2 E 1 A = U De aquí obtenemos A = E1 1 E 1 2 E 1 k U Ahora bien, por construcción, cada matriz elemental E 1, E 2,, E k es triangular inferior y tiene unos en su diagonal principal, por consiguiente sus inversas E1 1, E 1 2,, E 1 k y la matriz L = E1 1 E 1 2 E 1 k también tienen las mismas características (ver ejercicio 1, de la sección 752) 180

185 Factorización de matrices 71 Descomposición LU Lo que implica que hemos obtenido la factorización LU buscada para la matriz A, es decir: A = LU, Consideremos ahora una matriz invertible A y demostremos la unicidad de dicha factorización Supongamos que tenemos dos factorizaciones LU para A de la forma A = L 1 U 1 = L 2 U 2, con U 1, U 2 matrices triangulares superiores y L 1, L 2 matrices triangulares inferiores con unos en su diagonal principal Como A es invertible las matrices U 1, U 2 también lo son, más aún sus inversas son igualmente triangulares superiores (ver ejercicio 2 de la sección 752) De esta última igualdad obtenemos entonces L 1 2 L 1 = U 2 U 1 1 El lado izquierdo de esta lgualdad es producto de matrices triangulares inferiores con unos en la diagonal, por tanto es riangular inferior y tiene unos en la diagonal principal Igualmente, el lado derecho es una triangulares superiores, pues es el producto de matrices triangulares superiores (ver ejercicio 2 de la sección 752) Entonces L 1 2 L 1 = I, de esto se sigue que L 2 = L 1 y por ende, U 1 = U 2 En el ejemplo 715 consideramos una matriz no invertible, que posee innitas descomposiciones LU Ejemplo Considere la matriz 3 3, A = Apliquemos operaciones elementales, sin intercambio, para llevar a A a una forma escalonada F1+F2 3F 1+F 3 2F 2+F = U

186 71 Descomposición LU Factorización de matrices Si denotamos entonces con E 1, E 2 y E 3 las matrices elementales provenientes de las operaciones elementales 2F 1 + F 2, 3F 1 + F 3 y 2F 2 + F 3 respectivamente, entonces obtenemos E 3 E 2 E 1 A = U A = (E 3 E 2 E 1 ) 1 U = E 1 1 E 1 2 E 1 3 U = = En este caso esta factorización es única = LU 713 Observación Como sólo efectuamos operaciones del tipo αf i +F j con i < j, (αf i + F j ) 1 = ( α)f i +F j y L es triangular inferior con unos (1's) en su diagonal principal La información sobre L se puede almacenar en aquellas posiciones donde se obtienen los ceros (0's) de U, simplemente colocando los opuestos de los multiplicadores α en las operaciones elementales aplicadas del tipo αf i + F j con i < j En nuestro ejemplo anterior F1+F2 3F 1+F 3 2F 2+F 3 de donde obtenemos que L = y U = son tales que A = LU U

187 Factorización de matrices 71 Descomposición LU 714 Ejemplo Considere la matriz A = Apliquemos operaciones elementales, sin intercambio, para llevar la matriz A a una forma escalonada ( 2)F 1+F 2 (3/2)F 1+F 3 (1)F 1+F 4 ( 5/8)F 2+F 3 ( 7/4)F 2+F 4 ( 20/3)F 3+F /2 5/ /2 5/ / /2 5/ /4 20/3 49, de donde obtenemos que L = /2 5/ /4 20/3 1 y U = , son matrices tales que A = LU, siendo esta factorización única Ejemplo Considere la matriz A = Apliquemos operaciones elementales, sin intercambio, para llevar la matriz A a 183

188 71 Descomposición LU Factorización de matrices una forma escalonada (1)F 1 + F 2 ( 2)F 1 + F de donde obtenemos que U = y L = con x arbitrario x 1 En este caso A = LU, donde L no es única Consideremos ahora el caso en que se necesitan intercambio de las para poder reducir una matriz Existe en este caso un procedimiento que permite extender la factorización LU, el cual hace uso de matrices permutación Como se recordará, el intercambio de dos las de una matriz A se puede expresar como P i A, siendo P i la matriz permutación correspondiente a las las de A que deseamos intercambiar Ahora bien Si durante la reducción de A a una forma escalón necesitamos realizar P 1,, P k permutaciones de las, éstas puede hacerse al comienzo de todo el procedimiento y producir así la matriz P = P 1 P k El paso siguiente consiste entonces en aplicar la factorización LU a la matriz P A en lugar de la matriz A Es decir, nosotros buscamos ahora matrices L (triangular inferior) y U (triangular superior) tales que P A = LU 716 Ejemplo Hallemos la descomposición para la matriz A = En este caso, para reducir A a una matriz triangular superior U es necesario primero una o varias operaciones elementales del tipo permutación de las (también es posible usar operaciones del tipo αf i + F j con i > j) Una de tales operaciones de intercambio puede ser F 12 Si llamamos P a la correspondiente matriz permutación obtenemos entonces P A =

189 Factorización de matrices 71 Descomposición LU A esta nueva matriz le aplicamos los pasos descritos en los ejemplos anteriores y obtenemos (1/2)F 1 + F /2 0 3/5 de donde obtenemos que L = y U = / /5 son matrices tales que P A = LU Λ 717 Teorema Sea A una matriz invertible n n Entonces existe una matriz de permutación P tal que P A = LU donde L es una matriz triangular inferior y U es una matriz triangular superior Se tiene además, que para cada matriz P, L y U son únicas El siguiente teorema recoge ahora la formulación para la descomposición LU para matrices A rectangulares m n 718 Teorema Sea A una matriz rectangular m n que se puede reducir a una forma escalonada efectuando únicamente operaciones elementales de eliminación (operaciones del tipo αf i + F j con i < j) Entonces existe una matriz m m triangular inferior L con unos en la diagonal principal y una matriz m n, U con u ij = 0, si i > j tales que A = LU 719 Ejemplo Encontremos la descomposición LU para la matriz A =

190 71 Descomposición LU Factorización de matrices Apliquemos para ello, operaciones elementales, sin intercambio, para llevar a la matriz A a una forma escalonada ( 2)F 1 + F ( 3)F 1 + F ( 2)F 1 + F 2 de donde obtenemos que L = y U = son tales que A = LU En general, el esquema para una factorización LU para una matriz que se puede reducir a una forma escalonada únicamente usando operaciones elementales de eliminación está dado por la gráca 71 A = L 0 0 U A = L 0 0 U A = L 0 0 U Figura 71 Esquema de la factorización LU 186

191 Factorización de matrices 71 Descomposición LU El siguiente ejemplo, nos ilustra cómo hacer uso de la descomposición LU en el proceso de resolver resolver sistemas lineales de ecuaciones 7110 Ejemplo Considere el sistema de ecuaciones x 1 + 4x 2 + 7x 3 = 1 2x 1 + 5x 2 + 8x 3 = 2 3x 1 + 6x x 3 = 4 cuya matriz de coecientes corresponde a la matriz A del ejemplo 712 y cuyo término independiente es b T = [ De acuerdo con dicho ejemplo se tiene A = = = LU Ahora bien planteamos el sistema Lz = b, esto es z 1 = 1 2z 1 + z 2 = 2, 3z 1 + 2z 2 + z 3 = 4 cuya solución es z = Con esta solución planeamos el sistema Ux = z, esto es el sistema x 1 + 4x 2 + 7x 3 = 1 3x 2 6x 3 = 0, 3x 3 = 1 y cuya solución es x 1 = 4/3; x 2 = 2/3 x 3 = 1/3 187

192 72 Descomposición QR Factorización de matrices 72 Descomposición QR En esta sección hablaremos de la descomposición QR de una matriz, donde Q es una matriz con columnas ortogonales (ortonormales) y R es una matriz triangular inferior Dicha descomposición es de gran importancia para resolver problemas de mínimos cuadrados y tiene una estrecha relación con el cálculo de la inversa generalizada de una matriz En el caso de matrices cuadradas, dicha descomposición es la base de un algoritmo para determinar numéricamente y de forma iterativa, los valores propios de la matriz A (ver capítulo 8 de [8) En primer lugar haremos aquí la discusión de la descomposición QR para una matriz A de rango columna completo En este caso, la factorización se basa en el proceso de ortogonalización de Gram-Schmidt descrito en teorema 1224 El siguiente teorema nos garantiza la existencia de una tal factorización en dicho caso y su demostración resume el proceso para encontrarla 721 Teorema (Factorización QR (Parte I)) Sea A M m n una matriz de rango columna completo n Entonces existen matrices Q M m n con columnas ortogonales (ortonormales) y R M n n triangular superior e invertible tales que A = QR Demostración Consideremos la matriz A particionada por sus columnas, ésto es, A = [ A 1 A 2 A n, la cual por hipótesis es de rango columna completo n De aquí se tiene que el conjunto B = { A 1, A 2,, A n} es una base de C(A) (el espacio columna de A) Aplicando el proceso de ortogonalización de Gram-Schmidt 188

193 Factorización de matrices 72 Descomposición QR (teorema 1224) a esta base se obtiene v 1 = A 1 A 2 ; v 1 v 2 = A 2 v 1 ; v 1 v 1 A 3 ; v 1 v 3 = A 3 v n = A n v 1 ; v 1 v 1 n 1 i=1 A n ; v i v i ; v i v i A 3 ; v 2 v 2 ; v 2 v 2 Despejando de aquí cada vector columna A j obtenemos: A 1 = v 1 A 2 ; v 1 A 2 = v 2 + v 1 ; v 1 v 1 A 3 ; v 1 A 3 = v 3 + A n = v n + v 1 ; v 1 v 1 + n 1 i=1 A n ; v i v i ; v i v i A 3 ; v 2 v 2 ; v 2 v 2 Así que podemos escribir: 189

194 72 Descomposición QR Factorización de matrices A = [ A 1 A 2 A n A = [ v 1 v 2 v n A = Q 0 R 0, 1 A 2 ; v 1 v 1 ; v A 3 ; v 1 v 1 ; v 1 A 2 ; v 2 v 2 ; v A n ; v 1 v 1 ; v 1 A n ; v 2 v 2 ; v 2 A n ; v 3 v 3 ; v A n ; v n 1 v n 1 ; v n que corresponde a la descomposición QR no normalizada de la matriz A Usamos ahora los módulos de las columnas de la matriz Q 0 para denir la matriz diagonal invertible D = diag( v 1, v 2,, v n ) De esta forma, podemos reescribir la igualdad A = Q 0 R 0 como sigue: A = Q 0 R 0 = Q 0 D 1 DR 0 = [ v 1 v 1 = QR, v 2 v 2 v n v n A 2 ; v 1 v 1 v 1 v 1 An ; v 1 v 1 ; v 1 v 1 ; v 1 0 v 2 v 2 An ; v 2 v 2 ; v 2 0 v n que corresponde a la descomposición QR normalizada de la matriz A 190

195 Factorización de matrices 72 Descomposición QR 722 Ejemplo Encontremos la descomposición QR para la matriz A = = [ A 1 A 2 A 3 Aplicando el proceso de ortogonalización de Gram-Schmidt obtenemos v 1 = A 1 = v 2 = A 2 v 3 = A 3 = ; A 2 ; v 1 v 1 ; v 1 v 1 = A 3 ; v A 3 ; v v 1 ; v 1 v 1 v 2 ; v 2 v = = ; De aquí se tiene que A 1 = v 1 A 2 = 1 4 v 1 + v 2 A 3 = 1 2 v v 2 + v 3 Siguiendo ahora los delineamientos de la demostración del teorema anterior obtenemos: 191

196 72 Descomposición QR Factorización de matrices A = [ A 1 A 2 A 3 = [v 1 v 2 v 3 = 1 9/ / / / /4 1/ / /4 1/ / = Q 0 R 0 (Descomposicón no normalizada) En este caso, la matriz D está dada por D = diag ( 2, 3 2 3, 6 ) Entonces podemos escribir A = [ A 1 A 2 A 3 = Q 0 D 1 DR 0 1/2 3/ /2 1/2 3 1/ 2 1/2 1 6 = 1/2 1/2 3 1/ 0 3 3/ /2 1/2 3 2/ = QR (Descomposición normalizada) Supongamos ahora que la matriz m n, A no tiene rango columna no completo, esto es, ρ(a) = r con 0 < r < n En este caso se tiene, que también existe una descomposición QR pero la matriz Q en la factorización no normalizada contiene columnas nulas, como lo establece el siguiente corolario 723 Teorema (Factorización QR (Parte II)) Sea la matriz A M m n tal que ρ(a) = r con 0 < r < n Entonces existen una matriz Q 0 M m n con r columnas ortogonales no nulas y el resto nulas, y una matriz R 0 M n n triangular superior invertible tales que A = Q 0 R 0 (Descomposición no normalizada) La matriz A también se puede descomponer de manera normalizada en la forma A = QR r 192

197 Factorización de matrices 72 Descomposición QR donde Q M m r tiene columnas ortogonales (ortonormales) no nulas y R r M r n es "triangular" superior de orden r Las r columnas no nulas de Q 0, respectivamente las r columnas de Q, conforman una base para C(A) Demostración Si seguimos los pasos de la demostración del teorema 721 obtenemos la descomposición QR no normalizada para A Ésto es, A = Q 0 R 0 En este caso sin embargo, Q 0 tendrá r columnas ortogonales no nulas y n r columnas nulas Ahora, para denir matriz diagonal D usamos los módulos de la columnas no nulas Q 0 respetando sus posiciones y unos (1's) en el resto de componentes de la diagonal de D La matriz Q buscada corresponde entonces a la matriz formada por las columnas no nulas de Q 0 D 1, igualmente R r se obtiene eliminado de la matriz DR 0, las las con índices iguales a las columnas nulas de Q 0 El siguiente ejemplo nos ilustra el proceso para calcular la descomposición QR en el caso de matrices que no son de rango columna completo 724 Ejemplo Encontrar la descomposición QR para la matriz A = = [ A 1 A 2 A 3 A Procedamos ahora a aplicar los pasos del método de ortogonalización de Gram-Schmidt con las columnas de A, esto es: 1 v 1 = A 1 = 1 1 ; 1 v 2 = A 2 A 2 ; v 1 v 1 ; v 1 v 1 = A v 1 = ; 193

198 72 Descomposición QR Factorización de matrices v 3 = A 3 A 3 ; v 1 v 1 ; v 1 v 1 A 3 ; v 2 v 4 = A v v 2 0v 3 = v 2 ; v 2 v 2 = A v 1 + v 2 = Despejando los vectores A j 's, en términos de los vectores v j 's, como en el ejemplo 722 obtenemos entonces A = [ A 1 A 2 A 3 A ; = 1 9/ / / / /4 9/4 1/ / = Q 0 R 0 Tomamos ahora la matriz diagonal D, cuyos elementos D ii corresponden a los a los módulos de las i-ésimas columnas no nulas de Q 0 TPara las columnas nulas de Q 0 tomamos D ii = 1 En nuestro ejemplo, entonces [ tenemos, D = diag 2, 3 2 3, 1, 6 Ahora bien, escribimos A = [ A 1 A 2 A 3 A 4 = Q 0 R 0 = Q 0 D 1 DR 0 = 1/2 3/ /2 1/ / 6 1/2 1/ / 6 1/2 1/ / 6 2 1/2 9/ / Esto es, 194

199 Factorización de matrices 72 Descomposición QR A = = 1/2 3/ /2 9/2 1 1/2 3/6 0 6/ / /2 3/6 0 6/ /2 3/6 0 6/ /2 3/2 0 1/2 2 1/2 9/2 1 3/6 6/6 1/ / /6 6/ /2 3/6 6/3 = QR La matriz Q se obtiene al eliminar la tercera columna (columna nula) de Q 0 D 1, mientras que R se obtiene al eliminar la correspondiente tercera la de DR 0 En este punto de la discusión, invitamos al lector a recordar los conceptos dados en el capítulo 6 sobre inversas condicionales (A c ), inversa generalizada (A + ), mejor solución aproximada (MSA) y solución mínima cuadrada (SMC) El siguiente resultado presenta la relación existente entre la descomposición QR y la inversa generalizada de una matriz A 725 Teorema Sea A M m n una matriz real 1 Si ρ(a) = n entonces existe una matriz Q, m n, con columnas ortogonales (ortonormales) y una matriz R triangular superior e invertible n n tales que además se tiene que A = QR, A + = R 1 Q T 195

200 72 Descomposición QR Factorización de matrices 2 Si ρ(a) = r < n entonces existe una matriz Q, m n, con las primeras r columnas no nulas ortogonales (ortonormales) y una matriz R triangular superior n n, ambas de rango r tales que además se tiene que A = QR, A + = R T (RR T ) 1 Q T Demostración Supongamos que A es una matriz m n de rango columna completo Según lo establece el teorema 721, existen matrices Q M m n y R M n n con las condiciones citadas tales que A = QR De otra parte, sabemos que A + = (A T A) 1 A T (teorema 621(1)) De aquí se sigue que: Lo que demuestra el inciso 1 A + = (A T A) 1 A T = (R T Q T QR) 1 R T Q T = R 1 (R T ) 1 R T Q T = R 1 Q T Supongamos ahora, que A no tiene rango columna completo, es decir, supongamos, que ρ(a) = r; 0 < r < n Según el teorema 723 existen matrices Q M r n y R M r n con las condiciones requeridas tales que A = QR Ahora, aplicando el teorema 621 (con B = Q y C = R), así como el literal (iv) del teorema 621, obtenemos entonces A + = R T (RR T ) 1 (Q T Q) 1 Q T = R T (RR T ) 1 Q, (porque (Q T Q) 1 = I r ) 726 Nota Con respecto a los resultados anteriores podemos anotar que: 1 Si A M m n es una matriz de rango r < n se tiene, usando la notación del teorema anterior, que A + A = R T ( RR T ) 1 R 196

201 Factorización de matrices 72 Descomposición QR 2 De acuerdo con el teorema 648, todo sistema de ecuaciones Ax = y tiene una única MSA dada por x = A + y Puesto que el conjunto de todas la soluciones mínimas cuadradas del sistema Ax = y están dadas por (ver capítulo 6) x = A + y + (I A + A)h; h R n Del literal anterior se sigue: x = R T (RR T ) 1 Q T y + (I R T (RR T ) 1 R)h; h R n, y de aquí, que el conjunto de todas la soluciones mínimas cuadradas del sistema Ax = y está dada por las soluciones Rx = Q T y 727 Ejemplo Considere el sistema de ecuaciones lineales Ax = y, siendo A = y y = De acuerdo con el ejemplo 724 ρ(a) = 2 y las matrices Q = 1/2 3/2 0 1/2 2 1/2 9/2 1 3/6 6/6 1/2 y R = 0 3 3/ /6 6/ /2 3/6 6/3 son tales que A = QR 197

202 73 Descomposición de Cholesky Factorización de matrices Entonces A + = R t (RR t ) 1 Q, (ver teorema 725), es decir, A = , y el conjunto de todas las SMC (ver nota 726) está dada por las soluciones del sistema es decir por la expresión x = Rx = Q T y = 1/6 2/3 0 1/2 + h 1/2 3/2 6/ En particular, si h = 1/18, obtenemos las MSA 5 x = A + y = ,, h R 73 Descomposición de Cholesky A diferencia de las factorizaciones vistas hasta ahora, la factorización o descomposición de Cholesky se aplica sólo a matrices simétricas positivas denidas y ésta consiste en expresar una tal matriz como producto de una matriz triangular superior y por su transpuesta En forma más precisa tenemos 198

203 Factorización de matrices 73 Descomposición de Cholesky 731 Teorema (Factorización de Cholesky) Si A M n n es una matriz simétrica positiva denida, entonces existe una única matriz real T = [t ij n n triangular superior con t ii > 0 (i = 1,, n), tal que Además, A = T T T A = T 2 = [Π n i=1 t ii 2 Demostración La demostración la haremos haciendo inducción sobre el orden de la matriz Primero lo demostraremos para n = 2: [ α β Sea A = una matriz 2 2 simétrica positiva denida, entonces β θ se tiene que α > 0 y A = αθ β > 0 (teorema 436) Necesitamos [ a b mostrar que existe una única matriz triangular superior T =, 0 c con elementos de la diagonal positivos, tal que A = T T T, esto es: [ [ [ [ α β a 0 a b a 2 ab = = β θ b c 0 c ab b 2 + c 2 De ésto se tiene que a 2 = α de donde, a = α (a > 0) ab = β de donde, b = β y α αθ β b 2 + c 2 2 = θ de donde, c = (c > 0) α Ésto es, [ α β A = β θ = α 0 β α αθ β 2 α α 0 β α αθ β 2 α = T T T, además, se tiene que A = (t 11 t 22 ) 2 Supongamos ahora que la armación es cierta para n = k, ésto es, sea B M k k una simétrica positiva denida Supongamos que existe una única matriz triangular superior U M k k tal que A = U T U y que A = U 2 = [ Π k i=1 u 2 ii (hipótesis de inducción) 199

204 73 Descomposición de Cholesky Factorización de matrices Demostremos ahora que la armación es cierta para n = k + 1 Consideremos entonces una matriz A M (k+1) (k+1) simétrica positiva denida Podemos escribir la matriz A por bloques en la forma [ à a A = a t, con θ à M k k, a M k 1 y θ R La matriz à es simétrica positiva denida (teorema 436), entonces por hipótesis de inducción, existe una única matriz triangular superior U M k k tal que à = U T U y à = U 2 = [ Π k i=1 u 2 ii Consideremos ahora la matriz triangular superior T de tamaño (k + 1) (k + 1), con elementos de la diagonal principal positivos y escrita por bloques en la forma [ U y T =, 0 z donde y M k 1 y z R + deben ser escogidos adecuadamente tales que, A = T t T; ésto es, tales que: [ [ [ à a U T 0 U y A = a T = θ y T z 0 z [ U = T U Uy y T U y T y + z 2 Igualando término a término debemos tener que U T y = a, lo que implica y = (U T ) 1 a y T y + z 2 = θ, lo que implica z = (θ y T y) 1/2 Además se tiene que A = T 2 = U 2 z 2 = [ Π k i=1 u ii 2 z 2 = [ Π k+1 i=1 t ii 2 Veremos a continuación dos procesos para calcular la factorización de Cholesky El primero se basa en la denición propia de la factorización de Cholesky, mientras que el segundo usa resultados del capítulo sobre diagonalización de matrices positivas denidas 200

205 Factorización de matrices 73 Descomposición de Cholesky Proceso A (cálculo de la factorización de Cholesky): Sea A una matriz simétrica n n positiva denida Puesto que A = T T T con T una matriz triangular superior con elementos positivos en su diagonal principal, se debe tener que: A = a 11 a 12 a 13 a 1n a 12 a 22 a 23 a 2n a 13 a 23 a 33 a 3n a 1n a 2n a 3n a nn t t 12 t t 13 t 23 t 33 0 t 11 t 12 t 13 t 1n 0 t 22 t 23 t 2n = 0 0 t 33 t 3n t 1n t 2n t 3n t nn t nn Cálculos directos muestran entonces que se debe cumplir que: 1 t 11 = a 11 2 t 1j = a 1j = t 11 3 t ii = 4 t ij = 1 t ii a 1j a11 ; j = 1,, n ( a ii 1/2 i 1 k=1 ki) t2 ; i = 2,, n [ i 1 a ij t ki t kj ; j > i, i = 2,, n 1 k=1 5 t ij = 0; j < i, i = 2,, n Observación Con respecto a este método y al cálculo de los elementos elementos no nulos t ij de la matriz triangular T podemos decir que: 1 t 2 ii es igual al elemento a ii menos la suma de los cuadrados de los elementos ya calculados de la i-ésima columna de T Es decir, i 1 t 2 ii = a ii t 2 ki, i = 1,, n k=1 201

206 73 Descomposición de Cholesky Factorización de matrices 2 El producto t ii t ij es igual a a ij menos la suma del producto de los elementos ya calculados de las i-ésima y j-ésima columnas de T Es decir, i 1 t ij t ii = a ij t ki t kj ; i, j = 1,, n k=1 732 Ejemplo Siguiendo el esquema anterior, encuentre la descomposición de Cholesky para la matriz simétrica positiva denida A = Cálculos directos muestran que: 1 t 11 = a 11 = 2; t 12 = a 12 2 = 1; t 13 = a 13 2 = 0; t 14 = a 14 2 = 1 2 t 22 = a 22 t 2 12 = 2 1 = 1; t 23 = a 23 t 12 t 13 = 3 ( 1) 0 = 3 t 22 1 t 24 = a 24 t 12 t 14 2 ( 1) 1 = = 1 t t 33 = a 33 t 2 13 t2 23 = = 3; t 34 = a 33 t 13 t 14 t 23 t 24 t 33 = ( 1) 3 = 1 4 t 44 = a 44 t 2 14 t2 24 t2 34 = ( 1) = 1 Es decir, T = , es la matriz triangular superior tal que A = T T T 202

207 Factorización de matrices 73 Descomposición de Cholesky 733 Ejemplo Siguiendo con el esquema anterior, encuentre la descomposición de Cholesky para la matriz simétrica positiva denida A = , Cálculos directos muestran que: 1 t 11 = a 11 = 2; t 12 = a 12 t 11 = 1; t 13 = a 13 2 = 2 2 t 22 = a 22 t 2 12 = 10 1 = 3; t 23 = a 23 t 12 t 13 t 22 2 = 4 (1)( 2) 3 = 3 t 33 = a 33 t 2 13 t2 23 = 9 ( 2) 2 (2) 2 = 1 Es decir, T = , es la matriz triangular superior tal que A = T T T Proceso B (cálculo de la factorización de Cholesky): De acuerdo con los resultados presentados en el capítulo 4 se tiene que una matriz simétrica A, es positiva denida, si existe una matriz triangular superior P, tal que P T AP = I (ver también el teorema 512) De aquí que A = (P T ) 1 P 1 = (P 1 ) T P 1 Así las cosas, nosotros podemos encontrar la matriz P T usando los pasos ilustrados en el ejemplo 3315, es decir, planteando la matriz [ A I y realizando de manera adecuada y simultáneamente operaciones elementales en las las y columnas de A y en las las de I (sin hacer intercambios de las) Nota Existe una relación entre la factorización LU para matrices positivas denidas y la descomposición de Cholesky En efecto, si A es simétrica positiva denida entonces A se puede expresar mediante A = T T T con T una matriz triangular superior con elementos positivos en la diagonal principal 203

208 73 Descomposición de Cholesky Factorización de matrices Ahora bien, sea D = diag (t 11, t 22,, t nn ) entonces se tiene que: A = T T T = T T D 1 DT = (T T D 1 )(DT ) = LU 734 Ejemplo Consideremos la matriz simétrica positiva denida A = Del ejemplo 733 se tiene que A = = Tomando D = , se tiene que A = = = / /3 1 1/ / = LU = T T T Ahora bien, supongamos que deseamos resolver el sistema de ecuaciones lineales Ax = y, siendo A una matriz simétrica y positiva denida Sea T triangular positiva tal que A = T T T, entonces Ax = y T T T x = y T x = (T T ) 1 y := z, es decir, si se conoce la factorización de Cholesky para una matriz A = T T T, la solución del sistema Ax = y se reduce a encontrar la solución del sistema triangular superior T x = z, con z = (T T ) 1 y 204

209 Factorización de matrices 74 Descomposición en valores singulares 735 Ejemplo Consideremos el sistema de ecuaciones lineales 4x 1 + 2x 2 4x 3 = 12 2x x 2 + 4x 3 = 6 4x 1 + 4x 2 + 9x 3 = 3 Puesto que la matriz de coecientes es justo la matriz del ejemplo 733, la matriz aumentada del sistema se puede reducir mediante multiplicación del sistema por la matriz T T (ver ejemplo), para obtener: [ A y = = De esto último se sigue que x 3 = 3, x 2 = 2x = 6 3 = 2, x 1 = 6 + 2x 3 + x 2 2 = = [ T z = 1 74 Descomposición en valores singulares (SVD) En esta sección abordaremos el estudio de la descomposición de una matriz rectangular A la cual involucra los valores y vectores propios de la matrices simétricas AA T y A T A Como se recordará dichas matrices son positivas semidenidas y por ello sus valores propios son no negativos 741 Teorema Para toda matriz A M m n se tiene que existen matrices ortogonales U M m m y V M n n y una matriz diagonal Σ M m n, con elementos Σ ij = 0, si i j y Σ ii =: σ i 0, y σ 1 σ 2 σ s, en donde s = mín {m, n} tales que A m n = U m m Σ m n V T n n Los números σ 2 1, σ 2 2,, σ 2 s son los valores propios de A T A (quizás agregando algunos ceros) y los vectores propios asociados son las columnas de la matriz V = [ v 1 v 2 v n Además, lo números σ 2 1, σ 2 2, 205

210 74 Descomposición en valores singulares Factorización de matrices, σ 2 s son igualmente los valores propios de AA T (quizás agregando algunos ceros) y los vectores propios asociados son las columnas de U = [ u1 u 2 u m Además de tiene las siguientes relaciones entre estos vectores Av i = σ i u i i = 1, 2,, s u T i A = σ i v T i Demostración Supongamos que A M m n tiene rango r con 0 < r < s La matriz simétrica S = AA T M m m es no negativa y por tanto existe una matriz ortogonal U M m m tal que σ U T AA T U = D 2 0 σ2 2 0 = 0 0 σm 2 donde σ1 2 σ2 2 σm 2 0 son los valores propios de S = AA T y las columnas de U = [u 1 u 2 u m son vectores propios de S correpondientes a dichos valores propios: AA T u i = Su i = σ 2 i u i ; i = 1, 2,, m Como r = ρ(a) = ρ(aa T ), entonces σ1 2 σ2 2 σr 2 > 0 Particionemos ahora la matriz U como U = [ U 1 U 2 con U1 M m r Luego U U T AA T 1 T U = AA T [ U 1 U 2 = = U T 2 U1 T AA T U 1 U1 T AA T U 2 U2 T AA T U 1 U2 T AA T U 2 [ D 2 r es decir, 206

211 Factorización de matrices 74 Descomposición en valores singulares U t AA t U = Esto implica que σ σ σ U T 2 AA T U 2 = (A T U 2 ) T (A T U 2 ) = 0, de donde U T 2 A = 0 y A T U 2 = 0 También se tiene que U T 1 AA T U 1 = D 2 r, o sea: Dr 1 U1 T AA T U 1 Dr 1 Ésto signica que la matriz = I = (A T U 1 Dr 1 ) T (A T U 1 Dr 1 ) V 1 = A T U 1 D 1 r M n r tiene columnas ortogonales (V T 1 V 1 = I) Sea V 2 M n (n r) tal que la matriz V = [ V 1 V 2 Mn n es ortogonal Veamos ahora que U T 2 U t AV = Σ = [ Dr En efecto, de una parte: U T U T 1 AV = A [ U1 T AV 1 U1 T AV 2 V 1 V 2 =, U2 T AV 1 U2 T AV 2 y de otra parte, U2 T A = 0 Así mismo, V 1 T [ V 1 V 2 = V 1 T V 1 V1 T V 2 V T V = I = = [ I 0 0 I V2 T, 207 V T 2 V 1 V T 2 V 2

212 74 Descomposición en valores singulares Factorización de matrices lo que implica que V1 T V 2 = 0 = (A T U 1 Dr 1 ) T V 2 de donde y nalmente, En consecuencia, Nota Observe que U T 1 AV 2 = 0 U1 T AV 1 = U1 T AA T U 1 Dr 1 = DrD 2 r 1 = D r σ σ 2 0 = 0 0 σ m U T AV = Σ = [ Dr AV 1 = AA T U 1 Dr 1 Av i = σ i u i i = 1, 2,, r igualmente, A T U 1 = V 1 D r A T u i = σ i v i u T i A = v T i σ i i = 1, 2,, r El siguiente proceso nos ilustra cómo calcular la descomposición en valores singulares de una matriz A M m n Supondremos en este caso, que m n 742 Algoritmo 1 Formule S = AA T M m m 2 Encuentre los valores propios de S : σ1 2 σ2 2 σm Encuentre un conjunto ortonormal u 1, u 2,, u m de vectores propios de S y construya la matriz U = [ u 1 u 2 u m (ortogonal) y la matriz diagonal D = diag {σ 1, σ 2,, σ m } 4 Si r = ρ(a); D r = diag {σ 1, σ 2,, σ r } 5 Haga V 1 = A T U 1 Dr 1, siendo U 1 = [ u 1 u 2 u r, las primeras r columnas de U Encuentre una matriz V 2 M n (n r) tal que la matriz V = [ V 1 V 2 Mn n sea ortogonal 5* Otra forma de (5) es trabajar con la matriz A T A 208

213 Factorización de matrices 74 Descomposición en valores singulares [ Ejemplo Considere la matriz A = ; ρ(a) = 2, calculemos la descomposición en valores singulares usando el proceso esbozado anteriormente Calculando directamente obtenemos la matriz S = AA T = cuyos valores propios son: σ 2 1 = 36 y σ 2 2 = 9 (σ 2 1 σ 2 2) [ , Calculemos ahora los vectores propios asociados a estos valores propios: Para σ1 2 = 36 tenemos el sistema (S 36 I)X = 0, es decir el sistema [ [ [ 25 0 x1 0 =, 0 0 x 2 0 cuyo conjunto solución es de la forma {[ 0 B = x2 } : x 2 0 [ 0 Como σ1-vector 2 propio podemos tomar entonces u 1 = Análogamente podemos tomar a u 2 = como σ 1 [ vector 2 propio Ahora consideramos las matriz ortogonal U = [ [ 0 1 u 1 u 2 = 1 0 y la matriz diagonal D = diag {σ 1, σ 2 } = [ Puesto que r = ρ(a) = 2 tenemos que D r = diag {σ 1, σ 2 } = 209 [

214 74 Descomposición en valores singulares Factorización de matrices Con las matrices denidas hasta ahora se tiene que V 1 = A T U 1 Dr [ [ = / / [ = /3 1/ = Consideramos ahora la matriz ortogonal V = = [ V 1 V Columnas ortonormales con V 2 = 1 3 Nosotros tenemos entonces que: [ U T AV = = Σ Λ Ejemplo Consideremos la matriz A = ; ρ(a) = 3, calculemos ahora la descomposición en valores singulares: De nuevo calculamos la matriz S = AA T S = AA T = cuyos valores propios los calculamos de manera usual, es decir, resolviendo la ecuación S λi = 0, esto es, 0 = S λi 2 λ 1 1 = 1 2 λ λ = (λ 4)(λ 1)

215 Factorización de matrices 74 Descomposición en valores singulares Los valores propios de S son entonces σ1 2 = 4, σ2 2 = 1 y σ3 2 = 1 Algunos cálculos usuales nos permiten elegir a los vectores u 1 = ; u 2 = y u 3 = 1 0 1, como vectores propios ortonormales asociados a σ1, 2 σ2 2 y σ3 2 respectivamente Consideramos ahora la matriz ortogonal 1/ 3 2/ 6 0 U = [ u 1 u 2 u 3 = 1/ 3 1/ 6 1/ 2 y las matrices diagonales (ρ(a) = 3) D = diag {σ 1, σ 2, σ 3 } = 1/ 3 1/ 6 1/ = D r Denimos ahora la matriz V 1 = A T U 1 Dr 1 V 1 = = = / 3 1/ 6 1/ 2 1/ 3 1/ 6 1/ 2 1/ 3 2/ 6 0 Nosotros tenemos entonces que:, esto es, 1/ 3 2/ 6 0 1/ 3 1/ 6 1/ 2 1/ 3 1/ 6 1/ 2 1/2 3 2/ 6 0 1/2 3 1/ 6 1/ 2 1/2 3 1/ 6 1/ 2 U T AV = = V = Σ Λ 1/

216 75 Ejercicios Factorización de matrices 75 Ejercicios 751 Responda falso o verdadero justicando su respuesta 1 Las operaciones elementales en las las del tipo αf i + F j con i < j, producen matrices elementales triangulares inferiores 2 Las operaciones elementales en las columnas del tipo αc i + C j con i < j, producen matrices elementales triangulares inferiores 3 El producto de dos matrices elementales del mismo tamaño, es una matriz elemental 4 La descomposición LU para cualquier matriz A es única 5 Si Q es una matriz rectangular cuyas columnas son orgonormales entre, entonces Q T Q = I 752 Demuestre que: 1 Suponga que L i, (i = 1, 2), son matrices triangulares inferiores: a) Muestre que el producto L 1 L 2 es una matriz triangular inferior b) Mueste que si L 1 es invertible, entonces su inversa L 1 1 es también una matriz triangular inferior (Sug: use inducción matemática) c) Muestre que si los elementos de la diagonal principal de L 1 y L 2 son tosdo iguales a 1 (uno), entonces las matrices L 1 L 2, L 1 1 y L 1 2 también tienen unos en su diagonal principal (Sug: use inducción matemática) 2 Use el ejercicio anterior para demostrar que las armaciones son igualmente válidas para matrices triangulares superiores 3 Demuestre que si A M m n tiene rango n y A = QR, donde Q tiene columnas ortogonales y Res una matriz triangular superior con unos en su diagonal principal, entonces Q y R son únicas 755 Calcule 212

217 Factorización de matrices 75 Ejercicios 1 Use la factorización LU dada para resolver el sistema de ecuaciones[ lineales [ [ [ [ a) x = b) c) x = 7 d) Calcule la descomposición LU de la matriz A = [ Use dicha descomposición para resolver el sistema Ax = y, y T = Encuentre la matriz triangular R tal que A = QR en cada uno de los siguientes casos a) A = 1 1, Q = Considere la matriz simétrica positiva denida S = x = b) A = 0 1 1, Q = a) Calcule su descomposición LU b) Calcule sus descomposición de Cholesky 5 Calcule la descomposición en valores singulares de la matriz [ A = Calcule la descomposición QR de la matriz A =

218

219 CAPÍTULO 8 Rectas e hiperplanos Conjuntos convexos Este capítulo consta de dos secciones En la primera daremos las deniciones de recta, segmento de recta e hiperplanos en R n En la segunda veremos algunos resultados sobre conjuntos convexos Quien desee estudiar un poco más sobre estos tópicos puede consultar el capítulo 6 de [5 81 Rectas Segmentos de recta Hiperplanos Los conceptos de recta, segmento de recta e hiperplanos en R n son útiles en programación lineal (véase el capítulo 6 de [10) Antes de proseguir con nuestra discusión, haremos una pequeña aclaración sobre la notación y haremos una diferencia entre lo que es un punto P en el espacio R n y el segmento de recta dirigido (vector coordenado o simplemente vector), que tiene como extremo inicial el origen de coordenadas O y como extremo nal al punto P Éste lo denotaremos por OP o simplemente p Al punto P R n le asignaremos las coordenadas (x 1, x 2,, x n ) y escribiremos P (x 1, x 2,, x n ), mientras que al vector OP también le asignaremos las coordenadas (x 1, x 2,, x n ), pero escribiremos OP = (x 1, x 2,, x 3 ) o simplemente, p = (x 1, x 2,, x 3 ) (ver gura 81 en el caso de R 3 ) 215

220 81 Rectas y planos Hiperplanos x 3 IR 3 x 3 P(x, x, x ) P p = 0P =(x 1, x 2, x 3 ) O(0, 0, 0) x 2 O(0, 0, 0) x 2 x 1 x 1 Figura 81 Puntos y vectores en R 3 Nota Dados dos puntos P (x 1, x 2,, x n ) y Q(x 1, x 2,, x n) en R n, el segmento de recta dirigido o vector, que tiene como punto inicial a P y como punto nal Q, lo denotaremos por P Q y le asignamos las coordenadas (x 1 x 1, x 2 x 2,, x n x n ) En tal sentido, y dado que OQ OP = (x 1, x 2,, x n) (x 1, x 2,, x n ) = (x 1 x 1, x 2 x 2,, x n x n ), escribiremos P Q = (x 1 x 1, x 2 x 2,, x n x n ) 811 Denición (Rectas) En R n, la recta que pasa por el punto P en la dirección del vector d 0 se dene como el conjunto de puntos: { (81) l = X R n : OX = } OP + λd, λ R Se dice además, que el vector d es un vector director de la recta l Según la denición anterior, un punto X 0 R n pertenece a la recta l dada por (81) sii existe un λ 0 R tal que OX 0 = OP + λ0 d 216

221 Hiperplanos 81 Rectas y planos y IR 2 P OX=OP+ λ d d λ d x Figura 82 Una recta en R Ejemplo En R 3, la recta que pasa por el punto P (1, 2, 3) en la dirección del vector d = (1, 0, 5), es el conjunto de puntos: l = { X(x 1, x 2, x 3 ) R 3 : (x 1, x 2, x 3 ) = (1, 2, 3) + λ(1, 0, 5), λ R } El punto X 0 ( 1, 2, 7) pertenece a dicha recta, pues: OX 0 = ( 1, 2, 7) = (1, 2, 3) + ( 2)(1, 0, 5) Sin embargo, el punto X (2, 3, 2) no pertenece a la recta l, pues no existe λ R tal que : (2, 3, 2) = (1, 2, 3) + λ (1, 0, 5) = (1 + λ, 2, 3 + 5λ ) Λ Ahora bien, si el punto Q de R n está sobre la recta (81) y Q P, entonces existe un λ 0 R tal que OQ = OP + λ0 d De aquí que d = 1 P Q, y por λ 0 lo tanto: l = = { X R n : OX = } OP + λd, λ R { X R n : OX = } λ OP + P Q, λ R λ 0 217

222 81 Rectas y planos Hiperplanos En consecuencia, podemos decir que la recta que pasa por los puntos P y Q (P Q) de R n es el conjunto de puntos: { (82) l = X R n : OX = } OP + t P Q, t R 2 IR y P t PQ Q OX=OP+t PQ PQ = 0Q OP x Figura 83 Gráca de una recta que pasa por los puntos P y Q 813 Ejemplo La recta que pasa por los puntos P = (1, 2, 3) y Q = (4, 1, 1) de R 3, es el conjunto de puntos: l = { X(x 1, x 2, x 3 ) R 3 : (x 1, x 2, x 3 ) = (1, 2, 3) + t(3, 1, 2), t R } 814 Denición (Segmento de recta) El segmento de recta que une los puntos P y Q de R n, se denota por P Q y se dene así: { P Q = X R n : OX = } OP + t P Q, para 0 t 1 { = X R n : OX = t } OP + (1 t) OQ, para 0 t 1 Según la denición anterior, un punto X 0 R n pertenece a P Q sii existe 0 t 0 1 tal que OX 0 = OP + t0 P Q 218

223 Hiperplanos 81 Rectas y planos y IR 2 Q P OX = OP + t PQ 0 PQ = OQ OP t 0PQ x Figura 84 Segmento de recta que une los puntos P y Q 815 Ejemplo El segmento de recta que un al punto P (1, 2, 3, 4) con el punto Q(0, 1, 0, 2), es el conjunto de puntos X(x 1, x 2, x 3, x 4 ) R 4 : P Q = { X R 4 : (x 1, x 2, x 3, x 4 ) = (1, 2, 3, 4) + t( 1, 1, 3, 2) }, El punto X 0 ( 1 2, 3 2, 3, 3) pertenece a P Q, pues 2 ( 1 2, 3 2, 3 2, 3) = (1, 2, 3, 4) + 1 ( 1, 1, 3, 2) 2 Sin embargo, el punto X ( 1, 0, 3, 0) no pertenece a P Q, pues no existe t con 0 t 1 tal que ( 1, 0, 3, 0) = (1, 2, 3, 4) + t ( 1, 1, 3, 2) = (1 t, 2 t, 3 3t, 4 2t ) 816 Denición (Hiperplano) En R n, el hiperplano que pasa por el punto P y que es normal al vector n 0, se dene como el conjunto de puntos: { H = X R n : ( OX } OP ) n = 0, o lo que es lo mismo, { H = X R n : OX n = } OP n = cte, 219

224 81 Rectas y planos Hiperplanos IR 3 x3 n H P X x 2 x 1 Figura 85 Gráca de un plano en R 3 donde es el producto interno usual en R n (véase apartado 123 1) 817 Observación En R 2 y en R 3 los hiperplanos tienen una estructura muy particular En efecto, 1 En R 2, un hiperplano es una recta Así por ejemplo, el hiperplano (recta) que pasa por el punto P (4, 3) y que es normal al vector n = ( 5, 2), es el conjunto de puntos X(x 1, x 2 ) de R 2 que satisfacen la ecuación: OX n = 5x 1 + 2x 2 = 20 6 = 26 = OP n, o sea, 5x 1 + 2x 2 = 26 2 En R 3, un hiperplano es un plano Así por ejemplo, el hiperplano (plano) que pasa por el punto P (2, 1, 1) y que es normal al vector n = ( 1, 1, 3), es el conjunto de puntos X(x 1, x 2, x 3 ) de R 3 que satisfacen la ecuación: OX n = x 1 + x 2 + 3x 3 = = 0 = OP n, o sea, x 1 + x 2 + 3x 3 = 0 220

225 Hiperplanos 81 Rectas y planos 818 Ejemplo Dados los puntos Q(1, 1, 1), P (1, 1, 2) y el vector n = (1, 2, 3), encuentre el punto de intersección, si lo hay, de la recta que pasa por el punto P en la dirección del vector n y del hiperplano (plano) que pasa por Q y es normal al vector n La recta que pasa por P en la dirección del vector n, es el conjunto de puntos de X(x 1, x 2, x 3 ) de R 3 tales que: (x 1, x 2, x 3 ) = 0X = 0P + λn = (1, 1, 2) + λ(1, 2, 3) λ R El hiperplano (plano) que pasa por Q y que es normal al vector n, es el conjunto de puntos de X(x 1, x 2, x 3 ) de R 3 para los cuales se satisfacen la ecuación: OX n = x 1 + 2x 2 + 3x 3 = 6 = OQ n Ahora bien, si denotamos por I al punto de intersección entre la recta y el plano, entonces: OI = OP + λ n para algún λ R, y también OI n = OP n De esto se sigue que: OP + λ n = OQ n Utilizando las propiedades del producto interno encontramos que: λ P Q n = n 2 = 1 14 En consecuencia, las coordenadas del punto buscado están dadas por: OI = OP + λ n = (1, 1, 2) + 1 (1, 2, 3) 14 = ( 15 14, 12 14, ) La gura 86 ilustra la situación de la intersección entre una recta y un plano 221

226 81 Rectas y planos Hiperplanos n P 3 IR x 3 x Q x 2 x 1 Figura 86 Grácas de un plano y una recta en R Denición Sea H el hiperplano de R n descrito por la ecuación OX n = OP n = c Los conjuntos S 1 = S 2 = { X R n : } OX n c { X R n : } OX n c se denominan los semiespacios cerrados con frontera H y, Los conjuntos S 1 = S 2 = { X R n : { X R n : } OX n < c } OX n > c se denominan semiespacios abiertos con frontera H y, Nota Los semiespacios abiertos no incluyen la frontera H, mientras que los semiespacios cerrados si la incluyen 222

227 Hiperplanos 82 Conjuntos convexos IR 2 x n > c y x n= c x n < c x Figura 87 Ilustración de semiespacios abiertos 82 Conjuntos convexos Los conjuntos convexos juegan un papel importante en la programación lineal En particular se tiene que la llamada región factible de un problema de programación lineal es un conjunto convexo (vea el teorema 66(iii) de [10) 821 Denición Sea C un subconjunto de R n Se dice que C es convexo, si para dos puntos cualesquiera P y Q de C, el segmento de recta P Q está contenido en C En la gura 81 los conjuntos C 1 y C 2 son convexos, mientras que los conjuntos C 3 y C 4 no son convexos 822 Teorema Todo hiperplano de R n es un conjunto convexo Demostración Sea H el hiperplano de R n descrito por la ecuación OX n = OP n = c y sean Q 1 y Q 2 puntos de H Ahora, si X es un punto de R 3 cuyas coordenadas satisfacen: OX = OQ 1 + t( Q 2 Q 1 ), 0 t 1, 223

228 82 Conjuntos convexos Hiperplanos y P C 1 y C3 Q Q P Q C 2 C 4 P P Q x x (a) (b) Figura 81 Conjuntos convexos y no convexos entonces X es un punto del segmento de recta Q 1 Q 2 y se tiene que: [ OX n = OQ 1 + t( Q 2 Q 1 ) n [ = OQ 1 + t( 0Q 2 OQ 1 ) n = OQ 1 + t 0Q 2 n t OQ 1 n = (1 t) OQ 1 n + t OQ 2 n = (1 t)c + t c = c, es decir, X H Por lo tanto H es un conjunto convexo 823 Teorema Sea H el hiperplano de R n Todo semiespacio cerrado o abierto con frontera H es un conjunto convexo Demostración Sea H el hiperplano de R n descrito por la ecuación OX n = OP n = c Demostremos únicamente que el semiespacio abierto con frontera H { S = X R n } : OX n < c es un conjunto convexo En el caso de semiespacio cerrados con frontera H se procede de manera análoga 224

229 Hiperplanos 82 Conjuntos convexos Sean pues Q 1 y Q 2 puntos del conjunto S y sea X un punto del segmento de recta Q 1 Q 2 Puesto que Q 1 S y Q 2 S, entonces OQ 1 n < c y OQ 2 n < c, de aquí que: [ OX n = OQ 1 + t( Q 2 Q 1 ) n [ = OQ 1 + t( 0Q 2 OQ 1 ) n = OQ 1 + t 0Q 2 n t OQ 1 n = (1 t) OQ 1 n + t OQ 2 n < (1 t)c + t c = c, esto es, X S Por lo tanto S es un conjunto convexo 824 Teorema La intersección de dos conjuntos convexos de R n es un conjunto convexo de R n Demostración Sean C 1 y C 2 dos conjuntos convexos de R n y sea C 3 = C 1 C 2 Si C 3 tiene solamente un punto, entonces C 3 es automáticamente convexo Sean Q 1 y Q 2 dos puntos distintos de S 3, ya que C 1 y C 2 son conjuntos convexos de R n, entonces: OQ 1 + t( OQ 2 OQ 1 ) C 1 Para todo t tal que 0 t 1 y OQ 1 + t( OQ 2 OQ 1 ) C 2 Para todo t tal que 0 t 1 En consecuencia OQ 1 + t( OQ 2 OQ 1 ) C 3 = C 1 C 2 para todo t tal que 0 t 1 y por lo tanto C 3 es un conjunto convexo de R n La prueba del siguiente corolario se puede obtener aplicando el principio de inducción matemática y se propone como un ejercicio 825 Corolario La intersección de un número nito de conjuntos convexos de R n es un conjunto conexo de R n 826 Teorema (Envolvente convexa) Sean X 1, X 2,, X m puntos de R n El conjunto: { } C = X R n : m m OX = α ioxi ; α i 0, i = 1,, m, α i = 1 i=1 es un conjunto convexo y es llamado la Envolvente convexa de los puntos X 1, X 2,, X m 225 i=1

230 83 Ejercicios Hiperplanos Demostración Sean P y Q dos puntos de C; entonces existen escalares α 1, α 2,, α m y β 1, β 2,, β m no negativos, tales que: m m OP = α i OXi, α i = 1 y OQ = i=1 m i=1 β i OXi, i=1 m β i = 1 Sea ahora X un punto en el segmento de recta P Q, esto es, un X para el cual se satisface Puesto que: OX = i=1 i=1 OX = OP + t( OQ OP ), 0 t 1 = m i=1 m i=1 [ m α i OXi + t i=1 β i OXi [(1 t)α i + tβ i OX i, donde (1 t)α i + tβ i 0 para i = 1,, m, y m m m [(1 t)α i + tβ i = (1 t) α i + t i=1 m i=1 α i OXi i=1 β i = (1 t) + t = 1, entonces X C En consecuencia, C es un conjunto convexo 83 Ejercicios 831 Responda verdadero o falso, justicando su respuesta 1 El punto X (4, 5, 0) pertenece a la recta que pasa por el punto P (1, 2, 3) en la dirección del vector d = (1, 1, 1) 2 El punto X (0, 1, 2) pertenece al segmento de recta que une a los puntos P (1, 2, 3) y Q (4, 5, 6) 226

231 Hiperplanos 83 Ejercicios 3 Sean Q (1, 2, 3), P (0, 1, 2) y n = (1, 1, 1) El punto de intersección de la recta que pasa por P en la dirección del vector n y de hiperplano que pasa por Q y que es normal al vector n, es M (2, 0, 1) 4 La unión de dos conjuntos convexos de R n es un conjunto convexo de R n 5 El conjunto de todas las soluciones x = [ x 1 x 2 x n t de un sistema de ecuaciones lineales Ax = y, tales que x i 0, i = 1,, n es un conjunto convexo 832 Calcule { 1 Sea H = X R n : OX n = c} un hiperplano de R n a) Muestre que si X = 0 / H, entonces existe un vector n 0 tal que: { H = X R n } : OX n = 1 b) Demuestre que si X = 0 / H, entonces existen n puntos b 1, b 2,, b n de H, que como vectores son linealmente independientes c) Demuestre que si X = 0 / H, entonces { } n n H = X R n : X = λ i b i, λ i = 1, i=1 donde b 1, b 2,, b n son puntos de H, que como vectores son linealmente independientes 2 Encuentre b 1, b 2 y b 3 tales que H = { X R 3 : X (2, 1, 1) = 1 } { } 3 3 = X R 3 : X = λ i b i, λ i = 1 i=1 3 Sean b 1 = (1, 0, 0), b 2 = (1, 1, 0) y b 3 = (1, 1, 1) a) Demuestre que b 1, b 2 y b 3 son linealmente independientes b) Encuentre un vector n 0 tal que: H = = { X R 3 : OX = 3 λ i b i, i=1 { X R 3 : } OX n = i=1 i=1 } 3 λ i = 1 i=1

232 83 Ejercicios Hiperplanos 4 Sea H = {X R n : X N = C} un hiperplano de R n a) Muestre que si X = 0 H sii C = 0 b) Demuestre que si X = 0 H, entonces existen n 1 puntos a 1, a 2,, a n 1 de H, que como vectores son linealmente independientes c) Demuestre que si X = 0 H, entonces { } H = X R n : n 1 OX = λ i a i donde a 1, a 2,, a n 1 son n 1 puntos de H, que como vectores son linealmente independientes 5 Encuentre a 1 y a 2 tales que { H = X R 3 : } OX (2, 1, 1) = 0 { = X R 3 : } OX = λ 1 a 1 + λ 2 a 2 6 Sean a 1 = (1, 1, 1) y a 2 = (1, 0, 1) a) Muestre que a 1 y a 2 son linealmente independientes b) Encuentre un vector n 0 tal que: { H = X R 3 : } OX = λ 1 a 1 + λ 2 a 2 i=1 = { X R 3 : v N = 0 } 7 Demuestre que todo hiperplano de R n es una variedad lineal de dimensión n 1 (véase el apartado 121) 8 Demuestre que si T : R n R m es una transformación lineal, entonces envía conjuntos convexos en conjuntos convexos 9 Demuestre que si T : R 2 R 2 es una transformación lineal biyectiva, entonces T envía triángulos en triángulos 228

233 Índice alfabético Base, 11 cambio de, 20 canónica de R n, 14 ortogonal, 16, 66 ortonormal, 16 c-inversa de una matriz, 152 Cholesky descomposición, 198 Conjuntos convexos, 223 Descomposición de Cholesky, 198 en valores singulares, 205 LU, 179 QR, 188 Desigualdad de Schwarz, 15 Determinante, matriz, 4 Diagonal principal, matriz, 2 Diagonal, matriz, 2 Diagonalización de matrices simétricas, 64 de una forma cuadrática, 103 ortogonal, 70 simultánea de formas cuadráticas, 105 de matrices, 82 Diagonalización de matrices, 53 Eigenvalores, eigenvectores; vea valores (vectores) propios, 44 Espacio columna, matriz, 21 Espacio la, matriz, 21 Espacio generado, 10 Espacio nulo, matriz, 21 Espacio vectorial, 8 base, 11 base ordenada, 13 de transformaciones lineales, 19 dimensión, 11 subespacio, 9 suma directa, 13 Espacios fundamentales, matriz, 20 Factorización de matrices; ver descompisición de matrices, 179 Forma cuadrática, 97 cambio de variables, 101 clasicación, 99 diagonalización de una, 103 indenida, 99, 110 negaitivamente denida, 110 negativamente denida, 99 negativamente semidenida, 110 negitivamente semidenida, 99 no negaitiva, 99 no posiitiva, 99 positivamente denida, 99, 110 positivamente semidenida, 99, 110 Forma escalonada reducuda, 6 g-inversa de una matriz, 137, 143 Gauss-Jordan, método, 23 Gram-Schmidt, proceso, 191 Gram-Schmidt, proceso de, 16 Hermite 229

234 Índice alfabético matriz superior, 156 Idéntica, matriz, 2 Identidad, matriz, 2 Imagen de una transformación lineal, 17 Inversa condicional, 152 generalizada, 137, 143, 195 cálculo de, 147 propiedades, 145 LU descomposición, 179 Mínimos cuadrados, 162 Matrices Diagonalización de, 53 factorización, 179 no negativas, 123 semejantes polinomios característicos de, 52 simétricas diagonalización, 64 Matrices elementales, 6 Matriz, 1 adjunta, 4 cambio de base, 20 cofactor ij, 4 de cofactores, 4 de una forma cuadrática, 98 de una transformación lineal, 18 determinante, 4, 5 propiedades, 5 diagonal, 2 ecuación característica de una, 48 espacio columna de una, 21 espacio la de una, 21 espacio nulo de una, 21 espacios fundamentales de una, 20 forma escalonada reducida, 6 hermite superior, 156 idéntica, 2 idempotente, 129 inversa, 3, 23 propiedades, 3 menor ij, 4 operaciones elmentales, particionada, 26 determinante, 30, 32, 33 inversas, 34, 35 operaciones con, 27 polinomio característico de una, 48 rango de una, 20, 22 semejante, 20 submatriz, 25 transpuesta, 3 propiedades, 3 traza de una, 37 valor propio de una, 47 vector propio de una, 47 Mejor solución aproximada, 165 Núcleo de una transformación lineal, 17 Operaciones elmentales en una matriz, 5 Producto interno, 14 QR descomposición, 188 Rango de una matriz, 20 Rectas, planos e hiperplanos, 215 Sistemas de ecuaciones, 23 c-inversas,g-inversa, 160 Gauss-Jordan, 23 mínimos cuadrados, 160 mejor solución aproximada, 165 solución mínima cuadrada, 165 Solución mínima cuadrada, 165 Transformación lineal álgebra de, 19 imagen, 17 inversa de una, 20 matriz de una, 18 núcleo, 17 transformación inyectica, 17 transformación sobreyectiva, 17 valores propios, 44 vectores propios, 44 Transformaciones lineales, 16 Transpuesta, matriz, 3

235 Índice alfabético Valor propio, 44 espacio asociado a un, 46 multiplicidad algebraica de un, 48 multiplicidad geométrica de un, 46 Valores (vectores) característicos; vea valores (vectores) propios, 44 Valores singulares descomposición, 205 Variedad lineal, 23 Vector propio, 44 Vectores, 8, 215 coordenadas resp a una base, 13 linealmente dependientes, 10 linealmente independiente, 56 linealmente independientes, 10, 22, 24 ortogonales, 15 ortonormales, 15 proceso de Gram-Schmidt, 16 propios ortogonales,

236

237 Bibliografía [1 ANTON, H Introducción al álgebra lineal Limusa, México, 1981, [2 FLOREY, FG Fundamentos de álgebra lineal y aplicaciones Prentice Hall internacional, Colombia, 1980 [3 GRAYBILL, FA Introduction to matrices with applications in statistic Wadsworth Publishing Company Inc Belnont, California, 1969 [4 GRAYBILL, FA Theory and applications of linear model Duxbury Presss, Massachusetts, 1976 [5 HADLEY, G A Álgebra lineal, Fondo Educativo Interamericano SA, Estados Unidos 1969 [6 LIPSCHUTZ, S Álgebra lineal, McGraw Hill, México, 1979 [7 MARMOLEJO, MA Inversa condicional e inversa generalizada de una matriz: esquema geométrico Lecturas Matemáticas, Soc Col Matemat, Pág , Vol IX, 1988 [8 Nakos, G, Joyner, D, Álegebra lineal con aplicaciones, Thonsom editores, México, 1998 [9 Nering, ED Álegebra lineal y teoría de matrices Limusa, México, 1977 [10 NOBLE, B Applied linear algebra Prentice Hall, Inc London, 1969 [11 RORRES, C y ANTON, H, Aplicaciones del álgebra lineal Limusa, México 1979 [12 STRANG, G, Álgebra lineal y sus aplicaciones Fondo educativo interamericano,

Definición 1.1.1. Dados dos números naturales m y n, una matriz de orden o dimensión m n es una tabla numérica rectangular con m filas y n columnas.

Definición 1.1.1. Dados dos números naturales m y n, una matriz de orden o dimensión m n es una tabla numérica rectangular con m filas y n columnas. Tema 1 Matrices Estructura del tema. Conceptos básicos y ejemplos Operaciones básicas con matrices Método de Gauss Rango de una matriz Concepto de matriz regular y propiedades Determinante asociado a una

Más detalles

Tema 3. Espacios vectoriales

Tema 3. Espacios vectoriales Tema 3. Espacios vectoriales Estructura del tema. Definición y propiedades. Ejemplos. Dependencia e independencia lineal. Conceptos de base y dimensión. Coordenadas Subespacios vectoriales. 0.1. Definición

Más detalles

Tema 2. Espacios Vectoriales. 2.1. Introducción

Tema 2. Espacios Vectoriales. 2.1. Introducción Tema 2 Espacios Vectoriales 2.1. Introducción Estamos habituados en diferentes cursos a trabajar con el concepto de vector. Concretamente sabemos que un vector es un segmento orientado caracterizado por

Más detalles

Anexo 1: Demostraciones

Anexo 1: Demostraciones 75 Matemáticas I : Álgebra Lineal Anexo 1: Demostraciones Espacios vectoriales Demostración de: Propiedades 89 de la página 41 Propiedades 89- Algunas propiedades que se deducen de las anteriores son:

Más detalles

Subespacios vectoriales en R n

Subespacios vectoriales en R n Subespacios vectoriales en R n Víctor Domínguez Octubre 2011 1. Introducción Con estas notas resumimos los conceptos fundamentales del tema 3 que, en pocas palabras, se puede resumir en técnicas de manejo

Más detalles

Curso de Procesamiento Digital de Imágenes

Curso de Procesamiento Digital de Imágenes Curso de Procesamiento Digital de Imágenes Impartido por: Elena Martínez Departamento de Ciencias de la Computación IIMAS, UNAM, cubículo 408 http://turing.iimas.unam.mx/~elena/teaching/pdi-lic.html [email protected]

Más detalles

1. ESPACIOS VECTORIALES

1. ESPACIOS VECTORIALES 1 1. ESPACIOS VECTORIALES 1.1. ESPACIOS VECTORIALES. SUBESPACIOS VECTORIALES Denición 1. (Espacio vectorial) Decimos que un conjunto no vacío V es un espacio vectorial sobre un cuerpo K, o K-espacio vectorial,

Más detalles

1 v 1 v 2. = u 1v 1 + u 2 v 2 +... u n v n. v n. y v = u u = u 2 1 + u2 2 + + u2 n.

1 v 1 v 2. = u 1v 1 + u 2 v 2 +... u n v n. v n. y v = u u = u 2 1 + u2 2 + + u2 n. Ortogonalidad Producto interior Longitud y ortogonalidad Definición Sean u y v vectores de R n Se define el producto escalar o producto interior) de u y v como u v = u T v = u, u,, u n ) Ejemplo Calcular

Más detalles

Nota 1. Los determinantes de orden superior a 3 se calculan aplicando las siguientes propiedades:

Nota 1. Los determinantes de orden superior a 3 se calculan aplicando las siguientes propiedades: Capítulo 1 DETERMINANTES Definición 1 (Matriz traspuesta) Llamaremos matriz traspuesta de A = (a ij ) a la matriz A t = (a ji ); es decir la matriz que consiste en poner las filas de A como columnas Definición

Más detalles

Tema 1. VECTORES (EN EL PLANO Y EN EL ESPACIO)

Tema 1. VECTORES (EN EL PLANO Y EN EL ESPACIO) Vectores Tema. VECTORES (EN EL PLANO Y EN EL ESPACIO Definición de espacio vectorial Un conjunto E es un espacio vectorial si en él se definen dos operaciones, una interna (suma y otra externa (producto

Más detalles

Estructuras algebraicas

Estructuras algebraicas Tema 2 Estructuras algebraicas básicas 2.1. Operación interna Definición 29. Dados tres conjuntos A, B y C, se llama ley de composición en los conjuntos A y B y resultado en el conjunto C, y se denota

Más detalles

4 APLICACIONES LINEALES. DIAGONALIZACIÓN

4 APLICACIONES LINEALES. DIAGONALIZACIÓN 4 APLICACIONES LINEALES DIAGONALIZACIÓN DE MATRICES En ocasiones, y con objeto de simplificar ciertos cálculos, es conveniente poder transformar una matriz en otra matriz lo más sencilla posible Esto nos

Más detalles

Matrices equivalentes. El método de Gauss

Matrices equivalentes. El método de Gauss Matrices equivalentes. El método de Gauss Dada una matriz A cualquiera decimos que B es equivalente a A si podemos transformar A en B mediante una combinación de las siguientes operaciones: Multiplicar

Más detalles

E 1 E 2 E 2 E 3 E 4 E 5 2E 4

E 1 E 2 E 2 E 3 E 4 E 5 2E 4 Problemas resueltos de Espacios Vectoriales: 1- Para cada uno de los conjuntos de vectores que se dan a continuación estudia si son linealmente independientes, sistema generador o base: a) (2, 1, 1, 1),

Más detalles

Espacios vectoriales y Aplicaciones lineales

Espacios vectoriales y Aplicaciones lineales Espacios vectoriales y Aplicaciones lineales Espacios vectoriales. Subespacios vectoriales Espacios vectoriales Definición Sea V un conjunto dotado de una operación interna + que llamaremos suma, y sea

Más detalles

CURSO CERO. Departamento de Matemáticas. Profesor: Raúl Martín Martín Sesiones 18 y 19 de Septiembre

CURSO CERO. Departamento de Matemáticas. Profesor: Raúl Martín Martín Sesiones 18 y 19 de Septiembre CURSO CERO Departamento de Matemáticas Profesor: Raúl Martín Martín Sesiones 18 y 19 de Septiembre Capítulo 1 La demostración matemática Demostración por inducción El razonamiento por inducción es una

Más detalles

Apuntes de Matemática Discreta 9. Funciones

Apuntes de Matemática Discreta 9. Funciones Apuntes de Matemática Discreta 9. Funciones Francisco José González Gutiérrez Cádiz, Octubre de 004 Universidad de Cádiz Departamento de Matemáticas ii Lección 9 Funciones Contenido 9.1 Definiciones y

Más detalles

Espacios generados, dependencia lineal y bases

Espacios generados, dependencia lineal y bases Espacios generados dependencia lineal y bases Departamento de Matemáticas CCIR/ITESM 14 de enero de 2011 Índice 14.1. Introducción............................................... 1 14.2. Espacio Generado............................................

Más detalles

Apéndice A. Repaso de Matrices

Apéndice A. Repaso de Matrices Apéndice A. Repaso de Matrices.-Definición: Una matriz es una arreglo rectangular de números reales dispuestos en filas y columnas. Una matriz com m filas y n columnas se dice que es de orden m x n de

Más detalles

Clase 15 Espacios vectoriales Álgebra Lineal

Clase 15 Espacios vectoriales Álgebra Lineal Espacios vectoriales Clase 5 Espacios vectoriales Álgebra Lineal Código Escuela de Matemáticas - Facultad de Ciencias Universidad Nacional de Colombia En esta sección estudiaremos uno de los conceptos

Más detalles

BASES Y DIMENSIÓN. Propiedades de las bases. Ejemplos de bases.

BASES Y DIMENSIÓN. Propiedades de las bases. Ejemplos de bases. BASES Y DIMENSIÓN Definición: Base. Se llama base de un espacio (o subespacio) vectorial a un sistema generador de dicho espacio o subespacio, que sea a la vez linealmente independiente. β Propiedades

Más detalles

Comenzaremos recordando algunas definiciones y propiedades estudiadas en el capítulo anterior.

Comenzaremos recordando algunas definiciones y propiedades estudiadas en el capítulo anterior. Capítulo 2 Matrices En el capítulo anterior hemos utilizado matrices para la resolución de sistemas de ecuaciones lineales y hemos visto que, para n, m N, el conjunto de las matrices de n filas y m columnas

Más detalles

UNIDAD 4: PLANO CARTESIANO, RELACIONES Y FUNCIONES. OBJETIVO DE APRENDIZAJE: Representar gráficamente relaciones y funciones en el plano cartesiano.

UNIDAD 4: PLANO CARTESIANO, RELACIONES Y FUNCIONES. OBJETIVO DE APRENDIZAJE: Representar gráficamente relaciones y funciones en el plano cartesiano. UNIDAD 4: PLANO CARTESIANO, RELACIONES Y FUNCIONES OBJETIVO DE APRENDIZAJE: Representar gráficamente relaciones y funciones en el plano cartesiano. EL PLANO CARTESIANO. El plano cartesiano está formado

Más detalles

Ejemplo 1.2 En el capitulo anterior se demostró que el conjunto. V = IR 2 = {(x, y) : x, y IR}

Ejemplo 1.2 En el capitulo anterior se demostró que el conjunto. V = IR 2 = {(x, y) : x, y IR} Subespacios Capítulo 1 Definición 1.1 Subespacio Sea H un subconjunto no vacio de un espacio vectorial V K. Si H es un espacio vectorial sobre K bajo las operaciones de suma y multiplicación por escalar

Más detalles

Cómo?: Resolviendo el sistema lineal homógeneo que satisfacen las componentes de cualquier vector de S. x4 = x 1 x 3 = x 2 x 1

Cómo?: Resolviendo el sistema lineal homógeneo que satisfacen las componentes de cualquier vector de S. x4 = x 1 x 3 = x 2 x 1 . ESPACIOS VECTORIALES Consideremos el siguiente subconjunto de R 4 : S = {(x, x 2, x 3, x 4 )/x x 4 = 0 x 2 x 4 = x 3 a. Comprobar que S es subespacio vectorial de R 4. Para demostrar que S es un subespacio

Más detalles

Espacios vectoriales y aplicaciones lineales

Espacios vectoriales y aplicaciones lineales Capítulo 3 Espacios vectoriales y aplicaciones lineales 3.1 Espacios vectoriales. Aplicaciones lineales Definición 3.1 Sea V un conjunto dotado de una operación interna + que llamaremos suma, y sea K un

Más detalles

1 Espacios y subespacios vectoriales.

1 Espacios y subespacios vectoriales. UNIVERSIDAD POLITÉCNICA DE CARTAGENA Departamento de Matemática Aplicada y Estadística Espacios vectoriales y sistemas de ecuaciones 1 Espacios y subespacios vectoriales Definición 1 Sea V un conjunto

Más detalles

Álgebra Lineal. Miguel A. Marmolejo L. & Manuel M. Villegas L. Departamento de Matemáticas Universidad del Valle

Álgebra Lineal. Miguel A. Marmolejo L. & Manuel M. Villegas L. Departamento de Matemáticas Universidad del Valle Álgebra Lineal Miguel A Marmolejo L & Manuel M Villegas L Departamento de Matemáticas Universidad del Valle Índice general Introducción Índice de figuras iii Capítulo Preliminares Matrices Espacios vectoriales

Más detalles

Capitán de fragata ingeniero AGUSTÍN E. GONZÁLEZ MORALES ÁLGEBRA PARA INGENIEROS

Capitán de fragata ingeniero AGUSTÍN E. GONZÁLEZ MORALES ÁLGEBRA PARA INGENIEROS Capitán de fragata ingeniero AGUSTÍN E. GONZÁLEZ MORALES ÁLGEBRA PARA INGENIEROS 2 Í N D I C E CAPÍTULO MATRICES, DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES MATRICES. MATRIZ. DEFINICIÓN 2. ALGUNOS

Más detalles

Matrices invertibles. La inversa de una matriz

Matrices invertibles. La inversa de una matriz Matrices invertibles. La inversa de una matriz Objetivos. Estudiar la definición y las propiedades básicas de la matriz inversa. Más adelante en este curso vamos a estudiar criterios de invertibilidad

Más detalles

1. SOLUCIONES A LOS EJERCICIOS PROPUESTOS

1. SOLUCIONES A LOS EJERCICIOS PROPUESTOS 1 1. SOLUCIONES A LOS EJERCICIOS PROPUESTOS 1.1. ESPACIOS VECTORIALES 1. Analizar cuáles de los siguientes subconjuntos de R 3 son subespacios vectoriales. a) A = {(2x, x, 7x)/x R} El conjunto A es una

Más detalles

1. Números Reales 1.1 Clasificación y propiedades

1. Números Reales 1.1 Clasificación y propiedades 1. Números Reales 1.1 Clasificación y propiedades 1.1.1 Definición Número real, cualquier número racional o irracional. Los números reales pueden expresarse en forma decimal mediante un número entero,

Más detalles

5.1Definición transformación lineal de núcleo ó kernel, e imagen de una transformación lineal y sus propiedades

5.1Definición transformación lineal de núcleo ó kernel, e imagen de una transformación lineal y sus propiedades 5- ransformaciones Lineales 5Definición transformación lineal de núcleo ó kernel, e imagen de una transformación lineal sus propiedades Se denomina transformación lineal a toda función,, cuo dominio codominio

Más detalles

Universidad de Costa Rica Escuela de Matemática ALGEBRA LINEAL. x x1 n. θ y. 1 n x1 n ȳ1 n. Carlos Arce S. William Castillo E. Jorge González V.

Universidad de Costa Rica Escuela de Matemática ALGEBRA LINEAL. x x1 n. θ y. 1 n x1 n ȳ1 n. Carlos Arce S. William Castillo E. Jorge González V. Universidad de Costa Rica Escuela de Matemática ALGEBRA LINEAL x x x1 n θ y y ȳ1 n 1 n x1 n ȳ1 n Carlos Arce S. William Castillo E. Jorge González V. 2003 Algebra Lineal Carlos Arce S., William Castillo

Más detalles

VII. Estructuras Algebraicas

VII. Estructuras Algebraicas VII. Estructuras Algebraicas Objetivo Se analizarán las operaciones binarias y sus propiedades dentro de una estructura algebraica. Definición de operación binaria Operaciones como la suma, resta, multiplicación

Más detalles

ALGEBRA LINEAL. Héctor Jairo Martínez R. Ana María Sanabria R.

ALGEBRA LINEAL. Héctor Jairo Martínez R. Ana María Sanabria R. ALGEBRA LINEAL Héctor Jairo Martínez R. Ana María Sanabria R. SEGUNDO SEMESTRE 8 Índice general. SISTEMAS DE ECUACIONES LINEALES.. Introducción................................................ Conceptos

Más detalles

Tema 2. Aplicaciones lineales y matrices.

Tema 2. Aplicaciones lineales y matrices. Tema 2 Aplicaciones lineales y matrices. 1 Índice general 2. Aplicaciones lineales y matrices. 1 2.1. Introducción....................................... 2 2.2. Espacio Vectorial.....................................

Más detalles

Matrices. Definiciones básicas de matrices. www.math.com.mx. José de Jesús Angel Angel. [email protected]

Matrices. Definiciones básicas de matrices. www.math.com.mx. José de Jesús Angel Angel. jjaa@math.com.mx Matrices Definiciones básicas de matrices wwwmathcommx José de Jesús Angel Angel jjaa@mathcommx MathCon c 2007-2008 Contenido 1 Matrices 2 11 Matrices cuadradas 3 12 Matriz transpuesta 4 13 Matriz identidad

Más detalles

Tema III. Capítulo 2. Sistemas generadores. Sistemas libres. Bases.

Tema III. Capítulo 2. Sistemas generadores. Sistemas libres. Bases. Tema III Capítulo 2 Sistemas generadores Sistemas libres Bases Álgebra Lineal I Departamento de Métodos Matemáticos y de Representación UDC 2 Sistemas generadores Sistemas libres Bases 1 Combinación lineal

Más detalles

Álgebra lineal y matricial

Álgebra lineal y matricial Capítulo Álgebra lineal y matricial.. Vectores y álgebra lineal Unconjuntodennúmerosreales(a,,a n )sepuederepresentar: como un punto en el espacio n-dimensional; como un vector con punto inicial el origen

Más detalles

CAPÍTULO II. 4 El grupo afín

CAPÍTULO II. 4 El grupo afín CAPÍTULO II 4 El grupo afín En geometría clásica, antes de la aparición de los espacios vectoriales, se hablaba de puntos en lugar de vectores. Para nosotros serán términos sinónimos salvo que, cuando

Más detalles

Tema 3. Aplicaciones lineales. 3.1. Introducción

Tema 3. Aplicaciones lineales. 3.1. Introducción Tema 3 Aplicaciones lineales 3.1. Introducción Una vez que sabemos lo que es un espacio vectorial y un subespacio, vamos a estudiar en este tema un tipo especial de funciones (a las que llamaremos aplicaciones

Más detalles

Definición de vectores

Definición de vectores Definición de vectores Un vector es todo segmento de recta dirigido en el espacio. Cada vector posee unas características que son: Origen: O también denominado Punto de aplicación. Es el punto exacto sobre

Más detalles

Aplicaciones Lineales

Aplicaciones Lineales Tema 3 Aplicaciones Lineales 3.1 Introducción Se presentan en este tema las aplicaciones entre espacios vectoriales, particularmente las aplicaciones lineales, que de una manera informal pueden definirse

Más detalles

Capitán de fragata ingeniero AGUSTÍN E. GONZÁLEZ MORALES. ÁLGEBRA PARA INGENIEROS (Solucionario)

Capitán de fragata ingeniero AGUSTÍN E. GONZÁLEZ MORALES. ÁLGEBRA PARA INGENIEROS (Solucionario) Capitán de fragata ingeniero AGUSTÍN E. GONZÁLEZ MORALES ÁLGEBRA PARA INGENIEROS (Solucionario) 2 Í N D I C E CAPÍTULO : MATRICES, DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES CAPÍTULO 2: ESPACIOS VECTORIALES

Más detalles

1. Producto escalar, métrica y norma asociada

1. Producto escalar, métrica y norma asociada 1. asociada Consideramos el espacio vectorial R n sobre el cuerpo R; escribimos los vectores o puntos de R n, indistintamente, como x = (x 1,..., x n ) = n x i e i i=1 donde e i son los vectores de la

Más detalles

MATEMÁTICAS I TEMA 1: Espacios Vectoriales. 1 Definición de espacio vectorial. Subespacios

MATEMÁTICAS I TEMA 1: Espacios Vectoriales. 1 Definición de espacio vectorial. Subespacios Sonia L. Rueda ETS Arquitectura. UPM Curso 2007-2008. 1 MATEMÁTICAS I TEMA 1: Espacios Vectoriales 1 Definición de espacio vectorial. Subespacios Dados dos conjuntos V y K se llama ley de composición externa

Más detalles

21.1.2. TEOREMA DE DETERMINACIÓN DE APLICACIONES LINEALES

21.1.2. TEOREMA DE DETERMINACIÓN DE APLICACIONES LINEALES Aplicaciones lineales. Matriz de una aplicación lineal 2 2. APLICACIONES LINEALES. MATRIZ DE UNA APLICACIÓN LINEAL El efecto que produce el cambio de coordenadas sobre una imagen situada en el plano sugiere

Más detalles

Matrices Particionadas Traza de una Matriz

Matrices Particionadas Traza de una Matriz CAPÍTULO Matrices Particionadas Traza de una Matriz Este capítulo consta de tres secciones Las dos primeras versan sobre matrices particionadas La tercera sección trata sobre la traza de una matriz En

Más detalles

Diagonalización de matrices

Diagonalización de matrices diagonalizacion.nb Diagonalización de matrices Práctica de Álgebra Lineal, E.U.A.T., Grupos ºA y ºB, 2005 Algo de teoría Qué es diagonalizar una matriz? Para estudiar una matriz suele ser conveniente expresarla

Más detalles

Características de funciones que son inversas de otras

Características de funciones que son inversas de otras Características de funciones que son inversas de otras Si f es una función inyectiva, llamamos función inversa de f y se representa por f 1 al conjunto. f 1 = a, b b, a f} Es decir, f 1 (x, y) = { x =

Más detalles

Espacios Vectoriales

Espacios Vectoriales Espacios Vectoriales Departamento de Matemáticas, CCIR/ITESM 4 de enero de 2 Índice 3.. Objetivos................................................ 3.2. Motivación...............................................

Más detalles

Aplicaciones Lineales

Aplicaciones Lineales Aplicaciones Lineales Concepto de aplicación lineal T : V W Definición: Si V y W son espacios vectoriales con los mismos escalares (por ejemplo, ambos espacios vectoriales reales o ambos espacios vectoriales

Más detalles

Matemáticas I: Hoja 4 Aplicaciones lineales y diagonalización

Matemáticas I: Hoja 4 Aplicaciones lineales y diagonalización Matemáticas I: Hoja 4 Aplicaciones lineales y diagonalización Ejercicio. Decidir cuáles de las siguientes aplicaciones son lineales. Cuál es la dimensión del espacio imagen? a f(x, x 2, x 3 = (x 2 + x

Más detalles

4 Aplicaciones Lineales

4 Aplicaciones Lineales Prof Susana López 41 4 Aplicaciones Lineales 41 Definición de aplicación lineal Definición 23 Sean V y W dos espacios vectoriales; una aplicación lineal f de V a W es una aplicación f : V W tal que: 1

Más detalles

Aplicaciones Lineales

Aplicaciones Lineales Aplicaciones Lineales Primeras definiciones Una aplicación lineal de un K-ev de salida E a un K-ev de llegada F es una aplicación f : E F tal que f(u + v) = f(u) + f(v) para todos u v E f(λ u) = λ f(u)

Más detalles

VECTORES. Abel Moreno Lorente. February 3, 2015

VECTORES. Abel Moreno Lorente. February 3, 2015 VECTORES Abel Moreno Lorente February 3, 015 1 Aspectos grácos. 1.1 Deniciones. Un vector entre dos puntos A y B es el segmento de recta orientado que tiene su origen en A y su extremo en B. A este vector

Más detalles

I. RELACIONES Y FUNCIONES 1.1. PRODUCTO CARTESIANO { }

I. RELACIONES Y FUNCIONES 1.1. PRODUCTO CARTESIANO { } I. RELACIONES Y FUNCIONES PAREJAS ORDENADAS Una pareja ordenada se compone de dos elementos x y y, escribiéndose ( x, y ) donde x es el primer elemento y y el segundo elemento. Teniéndose que dos parejas

Más detalles

a < b y se lee "a es menor que b" (desigualdad estricta) a > b y se lee "a es mayor que b" (desigualdad estricta)

a < b y se lee a es menor que b (desigualdad estricta) a > b y se lee a es mayor que b (desigualdad estricta) Desigualdades Dadas dos rectas que se cortan, llamadas ejes (rectangulares si son perpendiculares, y oblicuos en caso contrario), un punto puede situarse conociendo las distancias del mismo a los ejes,

Más detalles

Relaciones binarias. ( a, b) = ( c, d) si y solamente si a = c y b = d

Relaciones binarias. ( a, b) = ( c, d) si y solamente si a = c y b = d Relaciones binarias En esta sección estudiaremos formalmente las parejas de objetos que comparten algunas características o propiedades en común. La estructura matemática para agrupar estas parejas en

Más detalles

Clasificación de métricas.

Clasificación de métricas. Clasificación de métricas. 1. El problema de clasificación. Como bien sabemos, el par formado por una métrica T 2 (esto es, un tensor 2-covariante simétrico) sobre un espacio vectorial E, (E, T 2 ), constituye

Más detalles

Tema 7: Valores y vectores propios

Tema 7: Valores y vectores propios Tema 7: es y clausura s Espacios y Permutaciones es y clausura Una permutación p = {p 1, p 2,..., p n } de los números {1, 2,..., n} es una nueva ordenación de los elementos {1, 2,..., n}, es decir, un

Más detalles

1.4.- D E S I G U A L D A D E S

1.4.- D E S I G U A L D A D E S 1.4.- D E S I G U A L D A D E S OBJETIVO: Que el alumno conozca y maneje las reglas empleadas en la resolución de desigualdades y las use para determinar el conjunto solución de una desigualdad dada y

Más detalles

1. Cambios de base en R n.

1. Cambios de base en R n. er Curso de Ingeniero de Telecomunicación. Álgebra. Curso 8-9. Departamento de Matemática Aplicada II. Universidad de Sevilla. Tema 5. Cambios de Base. Aplicaciones Lineales. Teoría y Ejercicios Resueltos..

Más detalles

Espacios vectoriales con producto interno

Espacios vectoriales con producto interno Capítulo 8 Espacios vectoriales con producto interno En este capítulo, se generalizarán las nociones geométricas de distancia y perpendicularidad, conocidas en R y en R 3, a otros espacios vectoriales.

Más detalles

3.1 DEFINICIÓN. Figura Nº 1. Vector

3.1 DEFINICIÓN. Figura Nº 1. Vector 3.1 DEFINICIÓN Un vector (A) una magnitud física caracterizable mediante un módulo y una dirección (u orientación) en el espacio. Todo vector debe tener un origen marcado (M) con un punto y un final marcado

Más detalles

Matemáticas I: Hoja 3 Espacios vectoriales y subespacios vectoriales

Matemáticas I: Hoja 3 Espacios vectoriales y subespacios vectoriales Matemáticas I: Hoa 3 Espacios vectoriales y subespacios vectoriales Eercicio 1. Demostrar que los vectores v 1, v 2, v 3, v 4 expresados en la base canónica forman una base. Dar las coordenadas del vector

Más detalles

Tema 3 Resolución de Sistemas de Ecuaciones Lineales

Tema 3 Resolución de Sistemas de Ecuaciones Lineales Tema Resolución de Sistemas de Ecuaciones Lineales Índice Introducción 2 Método de Gauss 2 Resolución de sistemas triangulares 22 Triangulación por el método de Gauss 2 Variante Gauss-Jordan 24 Comentarios

Más detalles

Matrices: Conceptos y Operaciones Básicas

Matrices: Conceptos y Operaciones Básicas Matrices: Conceptos y Operaciones Básicas Departamento de Matemáticas, CCIR/ITESM 8 de septiembre de 010 Índice 111 Introducción 1 11 Matriz 1 113 Igualdad entre matrices 11 Matrices especiales 3 115 Suma

Más detalles

Construcción de bases en el núcleo e imagen de una transformación lineal

Construcción de bases en el núcleo e imagen de una transformación lineal Construcción de bases en el núcleo e imagen de una transformación lineal Objetivos. Estudiar el algoritmo para construir una base del núcleo y una base de la imagen de una transformación lineal. Requisitos.

Más detalles

(Ec.1) 2α + β = b (Ec.4) (Ec.3)

(Ec.1) 2α + β = b (Ec.4) (Ec.3) Problema 1. Hallar t R para que el vector x = (3, 8, t) pertenezca al subespacio engendrado por los vectores u = (1, 2, 3) y v = (1, 3, 1). Solución del problema 1. x L{ u, v} si, y sólo si, existen α,

Más detalles

PROBLEMA 1. 1. [1.5 puntos] Obtener la ecuación de la recta tangente en el punto ( 2, 1) a la curva dada implícitamente por y 3 +3y 2 = x 4 3x 2.

PROBLEMA 1. 1. [1.5 puntos] Obtener la ecuación de la recta tangente en el punto ( 2, 1) a la curva dada implícitamente por y 3 +3y 2 = x 4 3x 2. PROBLEMA. ESCUELA UNIVERSITARIA POLITÉCNICA DE SEVILLA Ingeniería Técnica en Diseño Industrial Fundamentos Matemáticos de la Ingeniería Soluciones correspondientes a los problemas del Primer Parcial 7/8.

Más detalles

Aplicaciones lineales

Aplicaciones lineales Capítulo 4 Aplicaciones lineales 4.1. Introduccción a las aplicaciones lineales En el capítulo anterior encontramos la aplicación de coordenadas x [x] B que asignaba, dada una base del espacio vectorial,

Más detalles

Matrices Invertibles y Elementos de Álgebra Matricial

Matrices Invertibles y Elementos de Álgebra Matricial Matrices Invertibles y Elementos de Álgebra Matricial Departamento de Matemáticas, CCIR/ITESM 12 de enero de 2011 Índice 91 Introducción 1 92 Transpuesta 1 93 Propiedades de la transpuesta 2 94 Matrices

Más detalles

Variedades Diferenciables. Extremos Condicionados

Variedades Diferenciables. Extremos Condicionados Capítulo 16 Variedades Diferenciables. Extremos Condicionados Vamos a completar lo visto en los capítulos anteriores sobre el teorema de las Funciones Implícitas y Funciones Inversas con un tema de iniciación

Más detalles

Espacios vectoriales. Bases. Coordenadas

Espacios vectoriales. Bases. Coordenadas Capítulo 5 Espacios vectoriales. Bases. Coordenadas OPERACIONES ENR n Recordemos que el producto cartesiano de dos conjuntos A y B consiste en los pares ordenados (a,b) tales que a A y b B. Cuando consideramos

Más detalles

Repaso de matrices, determinantes y sistemas de ecuaciones lineales

Repaso de matrices, determinantes y sistemas de ecuaciones lineales Tema 1 Repaso de matrices, determinantes y sistemas de ecuaciones lineales Comenzamos este primer tema con un problema de motivación. Problema: El aire puro está compuesto esencialmente por un 78 por ciento

Más detalles

TEMA 6. EIGENVALORES Y EIGENVECTORES

TEMA 6. EIGENVALORES Y EIGENVECTORES TEMA 6. EIGENVALORES Y EIGENVECTORES M. C. Roberto Rosales Flores INSTITUTO TECNOLÓGICO SUPERIOR DE TLAXCO Ingeniería en Logística M. C. Roberto Rosales Flores (ITST TEMA 6. EIGENVALORES Y EIGENVECTORES

Más detalles

3.- DETERMINANTES. a 11 a 22 a 12 a 21

3.- DETERMINANTES. a 11 a 22 a 12 a 21 3.- DETERMINANTES. 3.1. -DEFINICIÓN Dada una matriz cuadrada de orden n, se llama determinante de esta matriz (y se representa por A o deta al polinomio cuyos términos son todos los productos posibles

Más detalles

Vectores: Producto escalar y vectorial

Vectores: Producto escalar y vectorial Nivelación de Matemática MTHA UNLP 1 Vectores: Producto escalar y vectorial Versores fundamentales Dado un sistema de coordenadas ortogonales, se considera sobre cada uno de los ejes y coincidiendo con

Más detalles

Transformaciones Lineales. Definiciones básicas de Transformaciones Lineales. www.math.com.mx. José de Jesús Angel Angel. [email protected].

Transformaciones Lineales. Definiciones básicas de Transformaciones Lineales. www.math.com.mx. José de Jesús Angel Angel. jjaa@math.com. Transformaciones Lineales Definiciones básicas de Transformaciones Lineales wwwmathcommx José de Jesús Angel Angel jjaa@mathcommx MathCon c 007-009 Contenido 1 Transformaciones Lineales 11 Núcleo e imagen

Más detalles

Espacios vectoriales y aplicaciones lineales.

Espacios vectoriales y aplicaciones lineales. Práctica 2 Espacios vectoriales y aplicaciones lineales. Contenido: Localizar bases de espacios vectoriales. Suma directa. Bases y dimensiones. Cambio de base. Aplicaciones lineales. Matriz asociada en

Más detalles

Fascículo 2. Álgebra Lineal. Cursos de grado. Gabriela Jeronimo Juan Sabia Susana Tesauri. Universidad de Buenos Aires

Fascículo 2. Álgebra Lineal. Cursos de grado. Gabriela Jeronimo Juan Sabia Susana Tesauri. Universidad de Buenos Aires Fascículo 2 Cursos de grado ISSN 1851-1317 Gabriela Jeronimo Juan Sabia Susana Tesauri Álgebra Lineal Departamento de Matemática Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires 2008

Más detalles

Listas de vectores y conjuntos de vectores

Listas de vectores y conjuntos de vectores Listas de vectores y conjuntos de vectores La explicación de los temas Dependencia lineal y Bases en el curso de Álgebra Lineal se puede basar en uno de los siguientes dos conceptos (o en ambos): ) listas

Más detalles

1. Vectores 1.1. Definición de un vector en R2, R3 (Interpretación geométrica), y su generalización en Rn.

1. Vectores 1.1. Definición de un vector en R2, R3 (Interpretación geométrica), y su generalización en Rn. 1. VECTORES INDICE 1.1. Definición de un vector en R 2, R 3 (Interpretación geométrica), y su generalización en R n...2 1.2. Operaciones con vectores y sus propiedades...6 1.3. Producto escalar y vectorial

Más detalles

y λu = Idea. Podemos sumar vectores y multiplicar por un escalar. El resultado vuelve a ser un vector Definición de espacio vectorial.

y λu = Idea. Podemos sumar vectores y multiplicar por un escalar. El resultado vuelve a ser un vector Definición de espacio vectorial. Espacios vectoriales Espacios y subespacios R n es el conjunto de todos los vectores columna con n componentes. Además R n es un espacio vectorial. Ejemplo Dados dos vectores de R por ejemplo u = 5 v =

Más detalles

EJERCICIOS DE MATEMÁTICAS I HOJA 4. Ejercicio 1. Se consideran los vectores

EJERCICIOS DE MATEMÁTICAS I HOJA 4. Ejercicio 1. Se consideran los vectores EJERCICIOS DE MATEMÁTICAS I HOJA 4 Ejercicio 1. Se consideran los vectores u 1 = (1, 1, 0, 1), u 2 = (0, 2, 1, 0), u 3 = ( 1, 1, 1, 1), u 4 = (2, 2, 1, 0) de R 4. Expresa, si es posible, los vectores u

Más detalles

Formas bilineales y cuadráticas.

Formas bilineales y cuadráticas. Tema 4 Formas bilineales y cuadráticas. 4.1. Introducción. Conocidas las nociones de espacio vectorial, aplicación lineal, matriz de una aplicación lineal y diagonalización, estudiaremos en este tema dos

Más detalles

Objetivos: Al inalizar la unidad, el alumno:

Objetivos: Al inalizar la unidad, el alumno: Unidad 3 espacios vectoriales Objetivos: Al inalizar la unidad, el alumno: Describirá las características de un espacio vectorial. Identiicará las propiedades de los subespacios vectoriales. Ejempliicará

Más detalles

OPERACIONES ELEMENTALES CON VECTORES

OPERACIONES ELEMENTALES CON VECTORES VECTORES EN 3D (O EN R 3) Presentación: este apunte te servirá para repasar y asimilar que son los vectores en un espacio tridimensional, sólo hablamos de los vectores como se utilizan en Álgebra, para

Más detalles

Grupos. Subgrupos. Teorema de Lagrange. Operaciones.

Grupos. Subgrupos. Teorema de Lagrange. Operaciones. 1 Tema 1.-. Grupos. Subgrupos. Teorema de Lagrange. Operaciones. 1.1. Primeras definiciones Definición 1.1.1. Una operación binaria en un conjunto A es una aplicación α : A A A. En un lenguaje más coloquial

Más detalles

Estructuras Algebraicas Una estructura algebraica es un objeto matemático consistente en un conjunto no vacío, con por lo menos una operación binaria.

Estructuras Algebraicas Una estructura algebraica es un objeto matemático consistente en un conjunto no vacío, con por lo menos una operación binaria. Estructuras Algebraicas Una estructura algebraica es un objeto matemático consistente en un conjunto no vacío, con por lo menos una operación binaria. Operación Binaria Se conoce una operación binaria

Más detalles

Apuntes de Álgebra Lineal

Apuntes de Álgebra Lineal Apuntes de Álgebra Lineal Mariano Echeverría Introducción al Curso El álgebra lineal se caracteriza por estudiar estructuras matemáticas en las que es posible tomar sumas entre distintos elementos de cierto

Más detalles

Matemáticas I: Hoja 2 Cálculo matricial y sistemas de ecuaciones lineales

Matemáticas I: Hoja 2 Cálculo matricial y sistemas de ecuaciones lineales Matemáticas I: Hoja 2 Cálculo matricial y sistemas de ecuaciones lineales Ejercicio 1 Escribe las siguientes matrices en forma normal de Hermite: 2 4 3 1 2 3 2 4 3 1 2 3 1. 1 2 3 2. 2 1 1 3. 1 2 3 4. 2

Más detalles

Tema 4: Aplicaciones lineales

Tema 4: Aplicaciones lineales Tema 4: Aplicaciones lineales Definición, primeras propiedades y ejemplos Definición. Sean V y W dos espacios vectoriales sobre un cuerpo K. Una función f : V W se dice que es una aplicación lineal si

Más detalles

Matrices y sus operaciones

Matrices y sus operaciones Capítulo 1 Matrices y sus operaciones 1.1. Definiciones Dados dos enteros m, n 1 y un cuerpo conmutativo IK, llamamos matriz de m filas y n columnas con coeficientes en IK a un conjunto ordenado de n vectores

Más detalles

Profr. Efraín Soto Apolinar. Función Inversa

Profr. Efraín Soto Apolinar. Función Inversa Función Inversa Una función es una relación entre dos variables, de manera que para cada valor de la variable independiente eiste a lo más un único valor asignado a la variable independiente por la función.

Más detalles

Espacios vectoriales

Espacios vectoriales Espacios vectoriales Problemas teóricos Muchos de estos problemas me los han enseñado mis colegas: profesores Flor de María Correa Romero, Carlos Domínguez Albino, Sergio González Govea, Myriam Rosalía

Más detalles

Universidad de Costa Rica Escuela de Matemática CONARE-PROYECTO RAMA. Funciones

Universidad de Costa Rica Escuela de Matemática CONARE-PROYECTO RAMA. Funciones Universidad de Costa Rica Escuela de Matemática CONARE-PROYECTO RAMA Funciones José R. Jiménez F. Temas de pre-cálculo I ciclo 007 Funciones 1 Índice 1. Funciones 3 1.1. Introducción...................................

Más detalles

Geometría Tridimensional

Geometría Tridimensional Capítulo 4 Geometría Tridimensional En dos dimensiones trabajamos en el plano mientras que en tres dimensiones trabajaremos en el espacio, también provisto de un sistema de coordenadas. En el espacio,

Más detalles