Física, Matemáticas y Estadística Primer Curso ÁLGEBRA LINEAL I Juan A. Navarro González 26 de noviembre de 2015
2
Índice General 1 Preliminares 1 1.1 Relaciones de Equivalencia............................ 1 1.2 Números Complejos................................ 2 1.3 Permutaciones................................... 4 1.4 Matrices....................................... 6 2 Espacios Vectoriales 9 2.1 Espacios Vectoriales y Subespacios Vectoriales.................. 9 2.2 Teoría de la Dimensión............................... 11 2.3 Suma Directa.................................... 16 3 Aplicaciones Lineales 17 3.1 Aplicaciones Lineales................................ 17 3.2 Teorema de Isomorfía............................... 19 3.3 Cambio de Base................................... 22 4 Geometría Euclídea 23 4.1 Producto Escalar.................................. 23 4.2 Espacios Vectoriales Euclídeos........................... 25 4.3 Bases Ortonormales................................ 27 5 Endomorfismos 29 5.1 Polinomios..................................... 29 5.2 Valores y Vectores Propios............................. 30 5.3 Diagonalización de Endomorfismos........................ 31 3
4 ÍNDICE GENERAL
Capítulo 1 Preliminares 1.1 Relaciones de Equivalencia Definición: Dar una relación en un conjunto X es dar una familia de parejas ordenadas de X, y pondremos x y cuando la pareja (x, y) esté en tal familia. Diremos que es una relación de equivalencia si tiene las siguientes propiedades: 1. Reflexiva: x x, x X. 2. Simétrica: x, y X, x y y x. 3. Transitiva: x, y, z X, x y, y z x z. Ejemplo: Sea n un número natural, n 2. Diremos que dos números enteros a, b Z son congruentes módulo n cuando b a es múltiplo de n: a b (mód. n) cuando b a = cn para algún c Z. La relación de congruencia módulo n es una relación de equivalencia en el conjunto Z: Reflexiva: Si a Z, entonces a a (mód. n) porque a a = 0 n. Simétrica: Si a b (mód. n), entonces b a = cn, donde c Z; luego a b = ( c)n, y por tanto b a (mód. n). Transitiva: Si a b y b c (mód. n), entonces b a = xn y c b = yn, donde x, y Z; luego c a = (c b) + (b a) = yn + xn = (y + x)n, y por tanto a c (mód. n). Esta relación de equivalencia tiene además la siguiente propiedad: a b (mód. n) a + c b + c y ac bc (mód. n) c Z pues si b = a + xn, donde x Z, entonces b + c = a + c + xn y bc = (a + xn)c = ac + xcn. Definición: Dada una relación de equivalencia en un conjunto X, llamaremos clase de equivalencia de un elemento x X al subconjunto de X formado por todos los elementos relacionados con x. Se denota x = [x] = {y X : x y}. Diremos que un subconjunto C X es una clase de equivalencia de la relación si es la clase de equivalencia de algún elemento x X; es decir, C = x para algún x X. El conjunto cociente de X por es el conjunto formado por las clases de equivalencia de, y se denota X/. 1
2 CAPÍTULO 1. PRELIMINARES Teorema 1.1.1 Si es una relación de equivalencia en un conjunto X, en el conjunto cociente X/ sólo se identifican los elementos equivalentes: [x] = [y] x y ; x, y X. Demostración: Si [x] = [y], entonces y [y] = [x]; luego x y. Recíprocamente, si x y, veamos que [y] [x]. En efecto, si z [y], entonces y z, y por la propiedad transitiva x z; luego z [x]. Ahora bien, si x y, entonces y x; luego también [x] [y], y [x] = [y]. Corolario 1.1.2 Cada elemento x X está en una única clase de equivalencia de. Demostración: x está en [x], porque x x, y si x [y], entonces y x; luego [y] = [x]. Ejemplo: Cuando en Z consideramos la relación de congruencia módulo n, la clase de equivalencia de a Z es [a] = a + nz = {a + cn: c Z}, y coincide con la clase [r] del resto de la división de a por n, pues a = cn + r. Por tanto el conjunto cociente, que se denota Z/nZ, tiene n elementos: Z/nZ = {[1], [2],..., [n] = [0]}. 1.2 Números Complejos Definición: Los números complejos son las parejas de números reales z = x + yi (donde x R se llama parte real de z e y R se llama parte imaginaria) que se suman y multiplican con las siguientes reglas (i 2 = 1): (x 1 + y 1 i)+(x 2 + y 2 i) = (x 1 + x 2 ) + (y 1 + y 2 )i (x 1 + y 1 i) (x 2 + y 2 i) = (x 1 x 2 y 1 y 2 ) + (x 1 y 2 + x 2 y 1 )i El conjunto de todos los números complejos se denota C. El conjugado de un número complejo z = x + yi es el número complejo z = x yi, y el módulo de z es el número real z = z z = x 2 + y 2 0. Las siguientes propiedades son de comprobación sencilla: z + u = z + ū zu = zū z = z z = z z = 0 z = 0 zu = z u z + z 2 z z + u z + u excepto la última. Para demostrarla bastará ver que z + u 2 ( z + u ) 2 : z + u 2 = (z + u)(z + u) = (z + u)( z + ū) = z 2 + u 2 + zū + zu = z 2 + u 2 + zū + zū z 2 + u 2 + 2 zū = z 2 + u 2 + 2 z ū = z 2 + u 2 + 2 z u = ( z + u ) 2. Si un número complejo z = x + yi no es nulo, tenemos que z z = z 2 = x 2 + y 2 > 0, así que su inverso z 1 existe, es de módulo z 1 = z 1, y es 1 z = z z 2 = z z z = x x 2 + y 2 y x 2 + y 2 i.
1.2. NÚMEROS COMPLEJOS 3 Exponencial Compleja Definición: Si t R, pondremos e ti = cos t + i sen t, donde el seno y coseno se consideran en radianes para que d dt (eit ) = ie it. Tenemos la fórmula de Euler (1707-1783) e 2πi = 1 y en general e 2πni = 1 para todo número entero n. El número complejo e ti es de módulo e ti = cos 2 t + sen 2 t = 1, y todo número complejo de módulo 1 es e θi para algún número real θ. Si z C es de módulo ρ 0, el módulo de z/ρ es 1, así que z/ρ = e θi y z = ρe θi = ρ(cos θ + i sen θ) para algún número real θ = arg z que llamamos argumento de z (bien definido salvo la adición de un múltiplo entero de 2π). Cuando z = x + yi; x, y R, tenemos que cos θ = x/ρ, sen θ = y/ρ, tan θ = y/x. Ejemplos: Si ρ es un número real positivo, arg ρ = 0, arg (ρi) = π/2, arg ( ρ) = π y arg ( ρi) = 3π/2 porque ρ = ρe 0, ρi = ρe π 2 i, ρ = ρe πi, ρi = ρe 3π 2 i. Por otra parte, las fórmulas del seno y coseno de una suma expresan que e ti e t i = e (t+t )i e ti e t i = (cos t + i sen t)(cos t + i sen t ) = = ( (cos t)(cos t ) (sen t)(sen t ) ) + i ( (cos t)(sen t ) + (sen t)(cos t ) ) = cos(t + t ) + i sen (t + t ) = e (t+t )i ; y la igualdad (ρe θi )(ρ e θ i ) = ρρ e (θ+θ )i muestra que arg (z z ) = (arg z) + (arg z ) de modo que arg (z 1 ) = arg z, al ser arg z 1 + arg z = arg (z 1 z) = arg 1 = 0. Ahora, si u C y u n = z = ρe iθ, entonces u n = u n = z = ρ narg (u) = arg (u n ) = arg z = θ + 2πk, k Z Luego u = n ρ y arg (u) = θ n + 2kπ n, y claramente basta tomar k = 0,..., n 1. Así, todo número complejo no nulo z = ρe iθ tiene n raíces n-ésimas complejas, que son: n ρ e ( θ+2kπ n )i = n ρ e θ n i e 2kπ n i En particular, las raíces n-ésimas de la unidad complejas son e 2kπ n i ; k = 1,..., n, y vemos que las raíces n-ésimas de un número complejo no nulo se obtienen multiplicando una de ellas por las raíces n-ésimas de la unidad.
4 CAPÍTULO 1. PRELIMINARES Ejemplos: Veamos las raíces n-ésimas de la unidad complejas cuando n = 2, 3, 4, 6, 8: n = 2; e 2π 2 i = e πi = 1, e 4π 2 i = e 2πi = 1. n = 3; e 2π 3 i = 1 2 + 3 2 i, e 4π 3 i = 1 2 3 2 i, e 6π 3 i = 1. n = 4; e 2π 4 i = i, e 4π 4 i = 1, e 6π 4 i = i, e 8π 4 i = 1. n = 6; e 2π 6 i = 1 2 + 3 2 i, e 4π 6 i = 1 2 + 3 2 i, e 6π 6 i = 1, e 8π 6 i = 1 2 3 10π 2 i, e 6 i = 1 2 3 12π 2 i, e 6 i = 1. n = 8; e 2π 8 i = 1 2 + 1 2 i, e 4π 8 i = i, e 6π 8 i = 1 2 + 1 2 i, e 8π 8 i = 1, e 10π 8 i = 1 2 1 2 i, e 12π 8 i = i, e 14π 8 i = 1 2 1 2 i, e 16π 8 i = 1. Por último, si z = x + yi pondremos e z = e x e yi = e x (cos y + i sen y), de modo que e z +z = e z e z para cualesquiera números complejos z, z. Cuando e u = z, decimos que u es el logaritmo neperiano de z. Así, el logaritmo neperiano de z = ρe iθ = e ln ρ e iθ = e ln ρ+iθ es ln z = ln ρ + i(θ + 2kπ). 1.3 Permutaciones Definición: Sean X e Y dos conjuntos. Dar una aplicación f : X Y es asignar a cada elemento x X un único elemento f(x) Y, llamado imagen de x por la aplicación f. Si g : Y Z es otra aplicación, llamaremos composición de g y f a la aplicación g f : X Z, (g f)(x) = g ( f(x) ). La identidad de un conjunto X es la aplicación Id X : X X, Id X (x) = x. Sea f : X Y una aplicación. Si A X, pondremos f(a) = {f(x): x A} y es un subconjunto de Y. Si B Y, pondremos f 1 (B) = {x X : f(x) B} y es un subconjunto de X. Si y Y, puede ocurrir que f 1 (y) no tenga ningún elemento o tenga más de uno, de modo que, en general, f 1 no es una aplicación de Y en X. Diremos que una aplicación f : X Y es inyectiva si elementos distintos tienen imágenes distintas: x, y X, f(x) = f(y) x = y (i.e., cuando, para cada y Y se tiene que f 1 (y) tiene un elemento o ninguno) y diremos que f es epiyectiva si todo elemento de Y es imagen de algún elemento de X: y Y y = f(x) para algún x X, es decir, cuando f(x) = Y o, lo que es igual, cuando, para cada y Y se tiene que f 1 (y) tiene al menos un elemento. Diremos que una aplicación f : X Y es biyectiva cuando es inyectiva y epiyectiva; es decir, cuando cada elemento y Y es imagen de un único elemento de X, de modo que f 1 (y) tiene un único elemento, y en tal caso f 1 : Y X sí es una aplicación, llamada aplicación inversa de f porque f 1 f = Id X y f f 1 = Id Y. Definición: Las permutaciones de n elementos son las aplicaciones biyectivas σ : {1,..., n} {1,..., n}. El conjunto de todas las permutaciones de n elementos se denota S n, y está claro que su cardinal es n! = n (n 1)... 2 1. El producto de permutaciones es la composición de
1.3. PERMUTACIONES 5 aplicaciones, y como son aplicaciones biyectivas, toda permutación σ tienen una permutación inversa σ 1, de modo que σ 1 (j ) = i cuando σ(i) = j. Además, (στ) 1 = τ 1 σ 1. Definición: Si d 2, dados a 1,..., a d {1,..., n} distintos, denotaremos (a 1... a d ) la permutación σ S n tal que σ(a i ) = a i+1, entendiendo que σ(a d ) = a 1, y deja fijos los restantes elementos. Diremos que tal permutación (a 1... a d ) es un ciclo de longitud d. Los ciclos (a 1 a 2 ) de longitud 2 se llaman trasposiciones. Diremos que dos ciclos (a 1... a d ) y (b 1... b k ) son disjuntos cuando a i b j para todo par de índices i, j; en cuyo caso conmutan: (a 1... a d )(b 1... b k ) = (b 1... b k )(a 1... a d ). El inverso de un ciclo σ = (a 1... a d ) es σ 1 = (a d... a 1 ). Toda permutación σ descompone claramente en producto de ciclos disjuntos, y también en producto de trasposiciones, porque todo ciclo es producto de trasposiciones: (a 1 a 2 a 3... a d ) = (a 1 a 2 )(a 2 a 3 ) (a d 1 a d ). (1.1) Signo de una permutación Definición: Consideremos el siguiente polinomio con coeficientes enteros: (x 1,..., x n ) = 1 i<j n (x j x i ) Dada una permutación σ S n, los factores de (x σ(1),..., x σ(n) ) = i<j (x σ(j) x σ(i) ) coinciden, eventualmente salvo el signo, con los de (x 1,..., x n ). Luego ambos polinomios coinciden o difieren en un signo, (x σ(1),..., x σ(n) ) = ± (x 1,..., x n ), y llamaremos signo de σ al número entero sgn(σ) = ±1 tal que (x σ(1),..., x σ(n) ) = sgn(σ) (x 1,..., x n ). (1.2) Llamaremos pares a las permutaciones de signo 1, e impares a las de signo 1. Teorema 1.3.1 El signo de cualquier producto de permutaciones es el producto de los signos de los factores: sgn(τσ) = (sgn τ)(sgn σ). El signo de las trasposiciones es 1, y el signo de los ciclos de longitud d es ( 1) d 1. Demostración: Sean σ, τ S n. Aplicando τ a los índices de las indeterminadas x 1,..., x n en la igualdad 1.2, obtenemos que (x (τσ)(1),..., x (τσ)(n) ) = (sgn σ) (x τ(1),..., x τ(n) ) = (sgn σ)(sgn τ) (x 1,..., x n ). Luego sgn(τσ) = (sgn σ)(sgn τ) = (sgn τ)(sgn σ). Como el signo de la identidad es 1, se sigue que sgn(τ 1 ) = (sgn τ) 1. Un cálculo directo demuestra que el signo de la trasposición (12) es 1. Si (ij) es otra trasposición, tomamos una permutación τ tal que τ(1) = i, τ(2) = j, de modo que (ij) = τ (12) τ 1, y concluimos que sgn(ij) = sgn(τ) sgn(12) sgn(τ 1 ) = sgn(τ) sgn(τ 1 ) = sgn(τ τ 1 ) = 1. Por último, cuando σ = (a 1... a d ) es un ciclo de longitud d, se sigue directamente de 1.1 que sgn(σ) = ( 1) d 1, porque todas las trasposiciones tienen signo 1.
6 CAPÍTULO 1. PRELIMINARES 1.4 Matrices En adelante pondremos K = Q, R ó C, y llamemos escalares a los elementos de K. Dada una matriz A = (a ij ) de m filas y n columnas (donde el subíndice i indica la fila y el subíndice j la columna), su matriz traspuesta es A t = (a ji ), que tiene n filas y m columnas. Si B = (b jk ) es otra matriz de n filas y r columnas, su producto AB es una matriz m r cuyo coeficiente c ik de la fila i y columna k es c ik = n j=1 a ijb jk = a i1 b 1k + a i2 b 2k +... + a in b nk. El, producto de matrices es asociativo, aunque no conmutativo, y (AB) t = B t A t. La matriz unidad I n es la matriz n n con todos sus coeficientes nulos, salvo los de la diagonal, que son la unidad. Si A es una matriz m n, entonces I m A = A y AI n = A. Una matriz cuadrada A de n columnas se dice que es invertible si existe otra matriz cuadrada B de n columnas tal que AB = I n = BA, en cuyo caso tal matriz B es única y se pone B = A 1. Si A y B son matrices invertibles n n, entonces (AB) 1 = B 1 A 1. Determinantes Definición: El determinante de una matriz cuadrada A = (a ij ) de n filas y columnas es A = (sgn σ)a 1σ(1)... a nσ(n) σ S n y tiene las siguientes propiedades (que se probarán en el curso de Álgebra Lineal II): 1. A = A t. 2. Es lineal en cada columna (y por tanto en cada fila): A 1,..., A i + B i,..., A n = A 1,..., A i,..., A n + A 1,..., B i,..., A n, A 1,..., λa i,..., A n = λ A 1,..., A i,..., A n. 3. A σ(1),..., A σ(n) = (sgn σ) A 1,..., A n. a 1 0... 0 4. 0 a 2... 0............ = a 1... a n, I = 1. 0 0... a n 5. AB = A B, A 1 = A 1. Luego el determinante es 0 cuando dos columnas (o dos filas) son iguales y A 1,..., A i,..., A n = A 1,..., A i + λa j,..., A n, i j. Definición: El adjunto A ij de una matriz A es ( 1) i+j por el determinante de la matriz que se obtiene eliminando la fila i y la columna j de la matriz A. El determinante de A puede calcularse desarrollando por cualquier fila: o por cualquier columna: A = a i1 A i1 +... + a in A in, A = a 1j A 1j +... + a nj A nj. Si el determinante de una matriz A no es nulo, entonces A es invertible, y su inversa es A 1 = 1 A 11... A n1......... A A 1n... A nn
1.4. MATRICES 7 (Nótese que el coeficiente de la fila i y columna j es el adjunto A ji, no A ij ). Por tanto, una matriz cuadrada A es invertible si y sólo si su determinante no es nulo. Definición: El rango (por columnas) de una matriz A es el máximo número de columnas de A linealmente independientes, y se denota rg A. El rango por filas de una matriz A es el rango (por columnas) de su traspuesta A t. Los menores de orden r de una matriz A son los determinantes de las matrices formadas con los coeficientes de r filas y r columnas de A (obviamente r no ha de superar el número de columnas ni de filas de A). Teorema del Rango: El rango de una matriz es el orden del mayor menor no nulo. Como los menores de A y A t son los mismos, el rango por filas de cualquier matriz A coincide con su rango por columnas. Sistemas de Ecuaciones Lineales Regla de Crámer (1704-1752): Si A es una matriz cuadrada invertible, el sistema de ecuaciones lineales AX = B tiene una única solución, que es x i = A 1,..., B,..., A n A 1,..., A i,..., A n donde A 1,..., A n denotan las columnas de la matriz A. Demostración: Si A es invertible, la única solución de AX = B es X = A 1 B. Además, si x 1,..., x n es la solución del sistema, entonces x 1 A 1 +... + x n A n = B y por tanto: A 1,..., B,..., A n = j x j A 1,..., A j,..., A n = x i A 1,..., A i,..., A n porque la matriz (A 1,..., A j,..., A n ) tiene dos columnas iguales (las columnas i y j) cuando i j. Luego x i = A 1,..., B,..., A n / A 1,..., A i,..., A n es la única solución del sistema. Teorema de Rouché-Frobënius (1832-1910, 1849-1917): Un sistema de ecuaciones lineales AX = B es compatible si y sólo si rga = rg(a B). Si un sistema de ecuaciones lineales AX = B es compatible y X 0 es una solución particular, AX 0 = B, entonces todas las soluciones se obtienen sumándole las soluciones del sistema homogéneo AY = 0; es decir, las soluciones son X = X 0 + Y, donde AY = 0.
8 CAPÍTULO 1. PRELIMINARES
Capítulo 2 Espacios Vectoriales 2.1 Espacios Vectoriales y Subespacios Vectoriales En adelante pondremos K = Q, R ó C, y llamemos escalares a los elementos de K. Definición: Dar una estructura de K-espacio vectorial en un conjunto E (cuyos elementos llamaremos vectores o puntos indistintamente) es asignar a cada par de vectores e 1, e 2 E otro vector e 1 + e 2 E, y a cada escalar λ K y cada vector e E, otro vector λe E, de modo que: Axioma 1: e 1 + (e 2 + e 3 ) = (e 1 + e 2 ) + e 3 para cualesquiera vectores e 1, e 2, e 3 E. Axioma 2: e 1 + e 2 = e 2 + e 1 para cualesquiera vectores e 1, e 2 E. Axioma 3: Existe un vector 0 E tal que e + 0 = e para todo vector e E. Axioma 4: Para cada vector e E existe un vector e tal que e + ( e) = 0. Axioma 5: λ(e 1 + e 2 ) = λe 1 + λe 2 para todo λ K, e 1, e 2 E. Axioma 6: (λ 1 + λ 2 )e = λ 1 e + λ 2 e para todo λ 1, λ 2 K, e E. Axioma 7: (λµ)e = λ(µe) para todo λ, µ K, e E. Axioma 8: 1 e = e para todo vector e E. Dados vectores e, v E, pondremos v e = v + ( e), y diremos que e es el opuesto del vector e. En los espacios vectoriales son válidas las reglas usuales del cálculo vectorial: e + v = e + v e = e e + v = v e = 0 e + v = 0 v = e 0 e = 0, λ 0 = 0 λ ( e) = ( λ)e = (λe) λ(e v) = λe λv λe = 0 λ = 0 ó e = 0 Definición: Un subconjunto V de un espacio vectorial E es un subespacio vectorial de E cuando la suma de vectores y el producto por escalares de E definan también en V una estructura de K-espacio vectorial; es decir, cuando 1. v 1 + v 2 V, para todo v 1, v 2 V. 2. λv V, para todo λ K y v V. 3. 0 V. 9
10 CAPÍTULO 2. ESPACIOS VECTORIALES Ejemplos: 1. En la Geometría euclídea, los segmentos orientados con origen en un punto prefijado O forman un espacio vectorial real. Éste es el ejemplo paradigmático de espacio vectorial, que motiva los nombres de los conceptos que iremos introduciendo. 2. K n = K. n.. K = {(λ 1,..., λ n ): λ 1,..., λ n K} es un K-espacio vectorial. Si A es una matriz m n con coeficientes en K, las soluciones del sistema de ecuaciones lineales homogéneo AX = 0 forman un subespacio vectorial de K n. 3. Fijados dos números naturales positivos m y n, la suma de matrices y el producto de matrices por escalares definen una estructura de K-espacio vectorial en el conjunto M m n (K) de todas las matrices de m filas y n columnas con coeficientes en K. 4. C es un C-espacio vectorial, y también es un R-espacio vectorial y un Q-espacio vectorial. Estas tres estructuras de espacio vectorial sobre C son bien distintas, porque en cada caso los escalares son diferentes. 5. Un espacio vectorial E nunca puede ser el conjunto vacío, porque el axioma 3 impone la existencia del vector nulo. El espacio vectorial que tiene un único vector (que necesariamente ha de ser el vector nulo) se denota 0. 6. Todo espacio vectorial E admite los subespacios vectoriales triviales 0 y E. 7. Si e 1,..., e n son vectores de un espacio vectorial E, entonces Ke 1 +... + Ke n = {λ 1 e 1 +... + λ n e n ; λ 1,..., λ n K} es un subespacio vectorial de E que contiene a los vectores e 1,..., e n, y diremos que es el subespacio vectorial de E generado por e 1,..., e n. También se denota e 1,..., e n, y si un subespacio vectorial V de E contiene a los vectores e 1,..., e n, entonces Ke 1 +... + Ke n V. 8. Si V y W son dos subespacios vectoriales de un espacio vectorial E, entonces su intersección V W y su suma V + W = {v + w; v V y w W } también son subespacios vectoriales de E. 9. Si E y F son dos K-espacios vectoriales, su producto directo E F es un K-espacio vectorial cuando la suma y el producto por escalares se definen del siguiente modo: (e, f) + (e, f ) = (e + e, f + f ), λ(e, f) = (λe, λf). 10. Diremos que un subconjunto X de un espacio vectorial E es una subvariedad lineal si existe un subespacio vectorial V de E y algún punto p E tales que X = p + V = {p + v; v V }. En tal caso diremos que V es la dirección de X, y que X es la subvariedad lineal que pasa por p con dirección V. Diremos que dos subvariedades lineales p + V y q + W son paralelas si sus direcciones V y W son incidentes (V W ó W V ). 11. Espacio Vectorial Cociente: Cada subespacio vectorial V de un K-espacio vectorial E define una relación de equivalencia en E (llamada congruencia módulo V ): e e (módulo V ) cuando e e V ; es decir e e + V.
2.2. TEORÍA DE LA DIMENSIÓN 11 i) e e para todo vector e E, porque e e = 0 V. ii) Si e e, entonces e e V ; luego e e = (e e) V y e e. iii) e e, e e e e, e e V ; e e = (e e ) + (e e) V y e e. La clase de equivalencia [p] = p + V de p E es la subvariedad lineal de dirección V que pasa por p. Por tanto, si una subvariedad lineal X = p + V de dirección V pasa por un punto q, entonces p q (mód. V ) y por tanto también X = q + V. El conjunto cociente (que se denota E/V ) es el conjunto de todas las subvariedades lineales de E de dirección V, y las siguientes operaciones definen en el conjunto E/V una estructura de K-espacio vectorial (compruébense los 8 axiomas) y diremos que es el espacio vectorial cociente de E por V : [e 1 ] + [e 2 ] = [e 1 + e 2 ] λ [e ] = [λe ] Veamos que estas definiciones no dependen de los vectores elegidos en las clases: Si [e 1 ] = [e 1] y [e 2 ] = [e 2], entonces e 1 e 1, e 2 e 2 V ; luego e 1 + e 2 (e 1 + e 2 ) V y por tanto [e 1 + e 2 ] = [e 1 + e 2]. Si [e] = [e ], entonces e e V ; luego λe λe = λ(e e) V y por tanto [λe] = [λe ]. Con esta estructura de espacio vectorial que hemos de definido en E/V, el opuesto de un vector ē E/V es [ e], y el vector nulo de E/V es precisamente la clase de 0 E, de modo que ē = 0 precisamente cuando e 0 (módulo V ): [e] = 0 e V (2.1) Nota 2.1.1 Si e Ke 1 +... + Ke n, entonces ē Kē 1 +... + Kē n. En efecto, si e = λ 1 e 1 +... + λ n e n, entonces ē = [λ 1 e 1 +... + λ n e n ] = λ 1 ē 1 +... + λ n ē n. 2.2 Teoría de la Dimensión Definición: Diremos que unos vectores e 1,..., e n de un espacio vectorial E lo generan, o que forman un sistema de generadores de E cuando todo vector de E es una combinación lineal de e 1,..., e n con coeficientes en K: Ke 1 +... + Ke n = E. Diremos que e 1,..., e n son linealmente dependientes si existen escalares λ 1,..., λ n tales que λ 1 e 1 +... + λ n e n = 0 y algún λ i 0, de modo que e i es combinación lineal de los restantes vectores. En caso contrario diremos que son linealmente independientes. Es decir, e 1,..., e n son linealmente independientes cuando la única combinación lineal nula es la que tiene todos los coeficientes nulos: λ 1,..., λ n K y λ 1 e 1 +... + λ n e n = 0 λ 1 =... = λ n = 0. Diremos que una sucesión de vectores e 1,..., e n de un espacio vectorial E es una base de E cuando tales vectores sean linealmente independientes y generen E. En tal caso, cada vector e E se escribe de modo único como combinación lineal con coeficientes en K e = x 1 e 1 +... + x n e n,
12 CAPÍTULO 2. ESPACIOS VECTORIALES y diremos que (x 1,..., x n ) K n son las coordenadas del vector e en la base e 1,..., e n. En efecto, si e = x 1 e 1 +... + x n e n = y 1 e 1 +... + y n e n, entonces (x 1 y 1 )e 1 +... + (x n y n )e n = x 1 e 1 +... + x n e n (y 1 e 1 +... + y n e n ) = e e = 0 ; luego y i x i = 0 para todo índice i, porque e 1,..., e n son linealmente independientes. Ejemplos 2.2.1 1. Sea e un vector no nulo. Como λe = 0 λ = 0; tenemos que e es linealmente independiente, y por tanto define una base del subespacio vectorial Ke = e. Además, si otro vector v no está en Ke, entonces e, v son linealmente independientes, de modo que forman una base del subespacio vectorial Ke + Kv = e, v. 2. Los vectores e 1 = (1, 0,..., 0), e 2 = (0, 1,..., 0),..., e n = (0,..., 0, 1) forman una base de K n, llamada base usual de K n. Las coordenadas de un vector e = (a 1,..., a n ) de K n en esta base son precisamente (a 1,..., a n ), porque e = a 1 e 1 +... + a n e n. 3. Las matrices m n que tienen todos sus coeficientes nulos, excepto uno que es la unidad, definen una base de M m n (K), base que está formada por mn matrices. Las coordenadas de una matriz en tal base son precisamente los coeficientes de la matriz. Lema Fundamental: Sean e 1,..., e n vectores de un K-espacio vectorial E. Si tenemos que v 1,..., v r Ke 1 +... + Ke n y r > n, entonces los vectores v 1,..., v r son linealmente dependientes. Demostración: Si v r = 0 es obvio: 0 v 1 + 0 v 2 +... + 0 v r 1 + 1 v r = 0. Si v r 0, procedemos por inducción sobre n. Si n = 1, entonces v 1, v r Ke 1, así que v 1 = λ 1 e 1, v r = λ r e 1 y λ r 0 porque v r 0. Luego v 1,..., v r son linealmente dependientes: λ r v 1 λ 1 v r = λ r λ 1 e 1 λ 1 λ r e 1 = 0. Si n > 1, reordenando los vectores e 1,... e n si es preciso, tendremos v r = n i=1 λ ie i con λ n 0. Despejando, obtenemos que e n Ke 1 +... + Ke n 1 + Kv r, y por tanto v 1,..., v r 1 Ke 1 +... + Ke n Ke 1 +... + Ke n 1 + Kv r. De acuerdo con 2.1.1, en el espacio vectorial cociente E/(Kv r ) tendremos que v 1,..., v r 1 Kē 1 +... + Kē n 1 + K v r = Kē 1 +... + Kē n 1, donde r 1 > n 1, y por hipótesis de inducción existen escalares λ 1,..., λ r 1, alguno no nulo, tales que 0 = λ 1 v 1 +... + λ r 1 v r 1 = [λ 1 v 1 +... + λ r 1 v r 1 ]. Luego r 1 i=1 λ iv i Kv r según 2.1, y concluimos que r 1 i=1 λ iv i = λ r v r para algún escalar λ r ; es decir, los vectores v 1,..., v r son linealmente dependientes. Teorema 2.2.2 Todas las bases de un espacio vectorial tienen igual número de vectores. Demostración: Si e 1,..., e n y v 1,..., v r son dos bases de un espacio vectorial E, como los vectores e 1,..., e n E = Kv 1 +... + Kv r son linealmente independientes, por el lema fundamental tenemos que n r. Como los vectores v 1,..., v r E = Ke 1 +... + Ke n son linealmente independientes, también tenemos que r n; luego n = r.
2.2. TEORÍA DE LA DIMENSIÓN 13 Definición: Si un espacio vectorial E 0 admite una base, llamaremos dimensión de E al número de vectores de cualquier base de E, y lo denotaremos dim K E; o sencillamente dim E cuando no induzca a confusión. También diremos que el espacio vectorial E = 0 tiene dimensión 0 y que su base es el vacío. Diremos que un espacio vectorial E tiene dimensión infinita cuando ninguna familia finita de vectores de E sea una base de E. La dimensión de una subvariedad lineal X = p + V es la de su dirección V. Las subvariedades lineales de dimensión 1 y 2 se llaman rectas y planos respectivamente. Ejemplos 2.2.3 1. Según los ejemplos 2.2.1, para todo vector no nulo e tenemos que dim K (Ke) = 1; y si además v / Ke, entonces dim K (Ke + Kv) = 2. También, dim K K n = n y dim K M m n (K) = mn. 2. En particular dim C C = 1; aunque dim R C = 2, porque 1, i forman una base de C = R + Ri como R-espacio vectorial. 3. Si E es un Q-espacio vectorial de dimensión finita n, cada base e 1,..., e n define una biyección K n E, (λ 1,..., λ n ) i λ ie i, y por tanto el conjunto E es numerable. Como R y C no son numerables, dim Q R = dim Q C =. 4. El K-espacio vectorial K[x] = {a 0 + a 1 x + a 2 x 2 +... ; a 0, a 1... K}, formado por todos los polinomios con coeficientes en K en una indeterminada x, con la suma y el producto por escalares usuales, tiene dimensión infinita. En efecto, el subespacio vectorial P n = {a 0 +a 1 x+...+a n x n : a 0,..., a n K} formado por todos los polinomios de grado n es de dimensión n + 1, porque claramente los polinomios 1, x,..., x n forman una base de P n. 5. Por dos puntos distintos p y q = p + e pasa una única recta p + Ke, formada por los puntos p + te = tq + (1 t)p, donde t K. El punto p + 1 2 e = p+q 2 recibe el nombre de punto medio entre p y q. 6. Dados tres puntos distintos no alineados a, b = a + e y c = a + v, tenemos que v / Ke, porque c no está en la recta a + Ke que pasa por a y b. Luego 1 = dim Ke < dim (Ke + Kv) 2, y vemos que a + Ke + Kv es un plano que pasa por a, b, c. Y es el único, si otro plano P = p+v pasase por ellos, tendremos que b, c P = a+v ; luego e = b a, v = c a V y se sigue que Ke + Kv = V porque ambos subespacios vectoriales son de dimensión 2. 7. Consideremos un cuadrilátero (la figura formada por cuatro puntos ordenados abcd en los que no hay 3 alineados) y pongamos e = b a, v = c a. La condición de que sea un paralelogramo (los lados opuestos son paralelos) es que c d = λe y c b = µv para ciertos escalares λ, µ; luego c a = e + µv = λe + v. v d λe µv c a e b Como los vectores e, v son linealmente independientes, porque los puntos cab no están alineados, se sigue que λ = µ = 1, de modo que los lados opuestos son iguales, d c = b a y d b = c a, y las dos diagonales se bisecan mutuamente: a + d 2 = b + c 2 = a + b + c + d 4.
14 CAPÍTULO 2. ESPACIOS VECTORIALES Proposición 2.2.4 Todo sistema finito de generadores {e 1,..., e n } de un espacio vectorial E 0 contiene una base de E, y por tanto n dim E. Si además n = dim E, entonces los vectores e 1,..., e n ya forman una base de E. Demostración: Para ver que {e 1,..., e n } contiene una base de E procedemos por inducción sobre n. Si n = 1, e 1 0 porque Ke 1 = E 0; luego e 1 es ya una base de E = Ke 1. Si n > 1, y los vectores e 1,..., e n son linealmente independientes, forman ya una base de E. Si son linealmente dependientes, tendremos alguna relación n i=1 λ ie i = 0 con algún coeficiente λ i no nulo. Reordenando los vectores e 1,..., e n podemos suponer que λ n 0. Despejando e n tenemos que e n Ke 1 +... + Ke n 1. Luego E = Ke 1 +... + Ke n 1, y por hipótesis de inducción {e 1,..., e n 1 } contiene una base de E. Por último, si n = dim E, entonces los vectores e 1,..., e n ya forman una base de E; porque una base de E no puede tener menos de n vectores según 2.2.2. Lema 2.2.5 Si e 1,..., e m E son linealmente independientes, y no se pueden ampliar con un vector de E de modo que lo sigan siendo, entonces ya forman una base de E. Demostración: Para todo vector e E tenemos que e 1,..., e m, e son linealmente dependientes: λ 1 e 1 +... + λ m e m + λe = 0 y algún coeficiente no es nulo. Si λ = 0, entonces e 1,..., e r serían linealmente dependientes, en contra de la hipótesis. Luego λ 0 y despejando vemos que e Ke 1 +... + Ke m. Luego los vectores e 1,..., e m generan E, y como son linealmente independientes por hipótesis, forman una base de E. Proposición 2.2.6 Sea E un espacio vectorial de dimensión finita. Toda familia {e 1,..., e r } de vectores de E linealmente independiente se puede ampliar hasta obtener una base de E, y por tanto r dim E. Si además r = dim E, entonces los vectores e 1,..., e r ya forman una base de E. Demostración: Añadimos vectores de E hasta obtener una familia linealmente independiente e 1,..., e r, e 1,..., e s que ya no pueda ampliarse de modo que lo siga siendo (el proceso termina porque, si n = dim E, en virtud el lema fundamental en E no puede haber más de n vectores linealmente independientes, así que siempre r + s n). Ahora e 1,..., e r, e 1,..., e s ya es base de E por el lema anterior. Por último, si r = dim E, entonces s = 0 y los vectores e 1,..., e r ya forman una base de E; porque una base de E no puede tener más de r vectores según 2.2.2. Teorema 2.2.7 Sea V subespacio vectorial de un espacio vectorial de dimensión finita E. 1. dim V dim E y sólo se da la igualdad cuando V = E. 2. dim (E/V ) = dim E dim V.
2.2. TEORÍA DE LA DIMENSIÓN 15 Demostración: Veamos primero que la dimensión de V también es finita. Tomemos en V una familia {v 1,..., v r } linealmente independiente que ya no pueda ampliarse con un vector de V de modo que lo siga siendo (existe porque, si n = dim E, por el lema fundamental en E no puede haber más de n vectores linealmente independientes). Por el lema anterior v 1,..., v r forman una base de V, de modo que r = dim V. Ahora 2.2.6 permite ampliarla hasta obtener una base v 1,..., v r, e 1,..., e s de E. Luego dim V = r r + s = dim E; y si se da la igualdad, entonces s = 0 y v 1,..., v r ya es base de E, de modo que E = Kv 1 +... + Kv r = V. En cuanto a la segunda afirmación, basta probar que ē 1,..., ē s es una base de E/V. Como v 1,..., v r, e 1,..., e s generan E, y en E/V tenemos que v 1 =... = v r = 0, se sigue que E/V = Kē 1 +... + Kē s. Veamos por último que ē 1,..., ē s son linealmente independientes: Si 0 = s i=1 λ iē i = [ s i=1 λ ie i ], entonces s i=1 λ ie i V de acuerdo con 2.1, así que λ 1 e 1 +... + λ s e e = µ 1 v 1 +... + µ r v r para ciertos escalares µ 1,..., µ r. Luego s i=1 λ ie i r j=1 µ jv j = 0, y como los vectores v 1,..., v r, e 1,..., e s son linealmente independientes, concluimos que λ 1 =... = λ s = 0. Corolario 2.2.8 Sea e 1,..., e n una base de un espacio vectorial E. Si A es la matriz que tiene por columnas las coordenadas de v 1,..., v m E en tal base de E, entonces dim (Kv 1 +... + Kv m ) = rg A. Demostración: Pongamos r = rg A y d = dim (Kv 1 +... + Kv m ). Como {v 1,..., v m } genera Kv 1 +... + Kv m, de acuerdo con 2.2.2 contiene una base v i1,..., v id de Kv 1 +... + Kv m, así que las columnas i 1,..., i d de la matriz A son linealmente independientes y por tanto d r (pues unos vectores son linealmente independientes precisamente cuando sus coordenadas son linealmente independientes en K n ). Por otra parte, como la matriz A tiene r columnas linealmente independientes, hay r vectores v j1,..., v jr linealmente independientes en Kv 1 +... + Kv m, y de acuerdo con 2.2.6 concluimos que r d. Ejemplos: 1. Con las notaciones del corolario anterior, tenemos que v 1,..., v m son linealmente independientes rg A = m. v 1,..., v m generan E rg A = dim E. 2. Dados n vectores v 1 = (a 11,..., a n1 ),..., v n = (a 1n,..., a nn ) en K n, la condición necesaria y suficiente para que formen una base de K n es que el determinante de la matriz A = (a ij ) no sea nulo. 3. Sean X = p + V, Y = q + W dos subvariedades lineales paralelas de igual dimensión. Como dim V = dim W, y además V W ó W V, 2.2.7.1 afirma que V = W : dos subvariedades lineales paralelas de igual dimensión tienen la misma dirección. Teorema de Rouché-Frobënius (1832-1910, 1849-1917): Un sistema de ecuaciones lineales AX = B es compatible si y sólo si rga = rg(a B). Demostración: Sean A 1,..., A n las columnas de A, de modo que el sistema AX = B puede escribirse x 1 A 1 +... + x n A n = B, y la condición de que sea compatible significa que en K m tenemos que B A 1,..., A n ; es decir, que A 1,..., A n = A 1,..., A n, B. Ahora bien, el teorema 2.2.7.1 afirma que A 1,..., A n = A 1,..., A n, B dim A 1,..., A n = dim A 1,..., A n, B y, de acuerdo con 2.2.8, esta última condición significa que rg A = rg (A B).
16 CAPÍTULO 2. ESPACIOS VECTORIALES 2.3 Suma Directa Definición: Diremos que la suma V 1 +... + V r de unos subespacios vectoriales V 1,..., V r de un espacio vectorial E es directa si cada vector e V 1 +... + V r descompone de modo único en la forma e = v 1 +... + v r, donde v i V i ; es decir, si la aplicación s: V 1... V r V 1 +... + V r, s(v 1,..., v r ) = v 1 +... + v r, (que siempre es epiyectiva, por definición de suma de subespacios vectoriales) también es inyectiva. En tal caso, el subespacio vectorial V 1 +... + V r se denota V 1... V r. Teorema 2.3.1 La condición necesaria y suficiente para que la suma de dos subespacios vectoriales V y W de un espacio vectorial E sea directa es que V W = 0. Demostración: Si la suma de V y W es directa y e V W, entonces 0 = 0 + 0 = e + ( e), donde 0, e V y 0, e W. La unicidad de la descomposición del vector 0 en suma de un vector de V y otro de W implica que e = 0. Luego V W = 0. Recíprocamente, si V W = 0 y un vector e V + W admite dos descomposiciones e = v + w = v + w ; v, v V, w, w W entonces v v = w w W. Como v v V, se sigue que v v V W = 0. Luego 0 = v v = w w, y concluimos que v = v y w = w. Es decir, tal descomposición es única, así que la suma de V y W es directa. Definición: Diremos que dos subespacios vectoriales V y W de un espacio vectorial E son suplementarios (o que W es un suplementario de V en E, o que V es un suplementario de W en E) cuando E = V W ; i.e., cuando cada vector de E descompone, y de modo único, en suma de un vector de V y otro de W ; es decir, cuando V + W = E y V W = 0. Ejemplos: 1. Si e 1,..., e n es una base de un espacio vectorial E, entonces cada vector e E descompone de modo único como combinación lineal e = λ 1 e 1 +... + λ n e n ; luego E = Ke 1... Ke n y vemos así que un suplementario de V = Ke 1... Ke r en E es el subespacio vectorial W = Ke r+1... +Ke n. 2. Para hallar un suplementario de un subespacio vectorial V de E basta ampliar una base v 1,..., v r de V hasta obtener una base v 1,..., v r, w 1,..., w s de E, porque en tal caso W = Kw 1 +... + Kw s es un suplementario de V en E. 3. Sean p+v y q +W dos subvariedades lineales de un espacio vectorial E. Dar un punto de corte es dar vectores v V, w W tales que p + v = q + w; es decir, q p = v w. Por tanto, la condición necesaria y suficiente para que se corten es que q p V + W, y el punto de corte es único cuando la suma V W es directa.
Capítulo 3 Aplicaciones Lineales 3.1 Aplicaciones Lineales Definición: Diremos que una aplicación f : E E entre dos K-espacios vectoriales es K-lineal, (o simplemente lineal, si K se sobrentiende) cuando f(e + v) = f(e) + f(v) para todo e, v E f(λ e) = λ f(e) para todo λ K, e E Toda aplicación lineal f : E E verifica que f(0) = 0, que f( e) = f(e), y también que f(λ 1 e 1 +... + λ n e n ) = λ 1 f(e 1 ) +... + λ n f(e n ). En efecto, f(0) = f(0 0) = 0 f(0) = 0, f( e) = f ( ( 1)e ) = ( 1)f(e) = f(e) y f(λ 1 e 1 +... + λ n e n ) = f(λ 1 e 1 ) +... + f(λ n e n ) = λ 1 f(e 1 ) +... + λ n f(e n ). Proposición 3.1.1 Si dos aplicaciones f : E E y h: E E son K-lineales, entonces su composición hf : E E, (hf)(e) = h ( f(e) ), también es K-lineal. Demostración: Para todo λ K y todo e, v E tenemos que (hf)(e + v) = h ( f(e + v) ) = h ( f(e) + f(v) ) = h(f(e)) + h(f(v)) = (hf)(e) + (hf)(v) (hf)(λe) = h ( f(λe) ) = h ( λ f(e) ) = λ h(f(e)) = λ (hf)(e) Proposición 3.1.2 Si f : E E es una aplicación lineal, entonces su núcleo Ker f = f 1 (0) = {e E : f(e) = 0} es un subespacio vectorial de E, y su imagen Im f = f(e) = {f(e); e E} es un subespacio vectorial de E. Demostración: Veamos que Ker f es un subespacio vectorial de E. Tenemos que 0 Ker f porque f(0) = 0. Ahora, si e 1, e 2 Ker f, por definición f(e 1 ) = f(e 2 ) = 0, así que f(e 1 + e 2 ) = f(e 1 ) + f(e 2 ) = 0 f(λe 1 ) = λf(e 1 ) = 0 Luego e 1 + e 2 Ker f y λe 1 Ker f, así que Ker f es un subespacio vectorial de E. Veamos que Im f es un subespacio vectorial de E : Tenemos que 0 Im f porque 0 = f(0). Ahora, si e 1, e 2 Im f, por definición existen vectores e 1, e 2 E tales que e 1 = f(e 1 ) y e 2 = f(e 2 ), así que e 1 + e 2 = f(e 1 ) + f(e 2 ) = f(e 1 + e 2 ) Im f λe 1 = λf(e 1 ) = f(λe 1 ) Im f y concluimos que Im f es un subespacio vectorial de E. 17
18 CAPÍTULO 3. APLICACIONES LINEALES Proposición 3.1.3 Una aplicación lineal f : E E es inyectiva si y sólo si Ker f = 0. Demostración: Si f es inyectiva y e Ker f, entonces f(e) = 0 = f(0); luego e = 0. Recíprocamente, supongamos que Ker f = 0. Si f(e) = f(v), donde e, v E, entonces f(v e) = f(v) f(e) = 0; luego v e Ker f = 0 y por tanto e = v; i.e., f es inyectiva. Ejemplos: 1. Sea V un subespacio vectorial de un espacio vectorial E. La inclusión i: V E, i(v) = v, es una aplicación lineal inyectiva y su imagen es Im i = V. La proyección canónica π : E E/V, π(e) = [e], es una aplicación lineal epiyectiva y su núcleo es Ker π = V de acuerdo con 2.1 (v. página 11). 2. Cada matriz A M m n (K) define una aplicación lineal f : K n K m, f(x) = AX, cuyo núcleo Ker f está formado por todas las soluciones de la ecuación homogénea AX = 0. Por otra parte, la condición B Im f significa que el sistema de m ecuaciones lineales con n incógnitas AX = B es compatible. 3. Cada familia {e 1,..., e n } de vectores de un K-espacio vectorial E define una aplicación f : K n E, f(λ 1,..., λ n ) = λ 1 e 1 +... + λ n e n, que siempre es K-lineal. La imagen de esta aplicación lineal es Im f = Ke 1 +...+Ke n, así que f es epiyectiva cuando e 1,..., e n generan E. Además la condición de que e 1,..., e n sean linealmente independientes significa que Ker f = 0, de modo que en tal caso la aplicación lineal f es inyectiva. Por tanto, cuando e 1,..., e n forman una base de E, esta aplicación lineal f es biyectiva. Matriz de una Aplicación Lineal Definición: Sea f : E E una aplicación lineal entre dos espacios vectoriales de dimensión finita. Si fijamos una base e 1,..., e n de E y una base e 1,..., e m de E, tendremos que f(e j ) = a 1j e 1 +... + a mj e m, 1 j n (3.1) para ciertos escalares a ij K, y diremos que A = (a ij ) es la matriz de la aplicación lineal f en las bases e 1,..., e n de E y e 1,..., e m de E. Por definición, la columna j-ésima de la matriz A está formada por las coordenadas del vector f(e j ) en la base e 1,..., e m de E. Ahora, para cada vector e = x 1 e 1 +... + x n e n E tendremos que su imagen f(e) es f(e) = n x j f(e j ) = n m x j a ij e i = m ( n a ij x j )e i. j=1 j=1 i=1 Es decir, si X denota las coordenadas del vector e en la base e 1,..., e n, puestas en columna, entonces las coordenadas X de f(e) en la base e 1,..., e m se obtienen multiplicando X por la matriz A de f en las bases consideradas: i=1 j=1 X = AX (3.2) Proposición 3.1.4 Si A es la matriz de una aplicación lineal f : E E, entonces dim (Im f) = rg A Demostración: Sea e 1,..., e n una base de E. Como f( i λ ie i ) = i λ if(e i ), la imagen de f está generada por los vectores f(e 1 ),..., f(e n ): Im f = f(e 1 ),..., f(e n ), y tenemos que dim f(e 1 ),..., f(e n ) = rg A de acuerdo con 2.2.8 y 3.1.
3.2. TEOREMA DE ISOMORFÍA 19 3.2 Teorema de Isomorfía Definición: Diremos que una aplicación K-lineal f : E E es un isomorfismo cuando es biyectiva, y en tal caso la aplicación inversa f 1 : E E también es K-lineal (y por supuesto biyectiva, así que f 1 también es un isomorfismo). En efecto, si e, v E, entonces e = f(e) y v = f(v), donde e, v E, de modo que f 1 (e + v ) = f 1( f(e) + f(v) ) = f 1( f(e + v) ) = e + v = f 1 (e ) + f 1 (v ) f 1 (λe ) = f 1( λf(e) ) = f 1( f(λe) ) = λe = λ f 1 (e ). Diremos que dos K-espacios vectoriales E y E son isomorfos si existe algún isomorfismo K-lineal f : E E, en cuyo caso pondremos E E. Ejemplos: 1. Si una matriz A M n n (K) es invertible, la aplicación que induce f : K n K n, f(x) = AX, es un isomorfismo, y el isomorfismo inverso f 1 : K n K n es precisamente el que define la matriz inversa A 1 ; es decir, f 1 (X) = A 1 X. 2. Si V 1,..., V n son subespacios vectoriales de un espacio vectorial E, la aplicación s: V 1... V n V 1 +... + V n, s(v 1,..., v n ) = v 1 +... + v n, es lineal y epiyectiva. Además esta aplicación lineal s es inyectiva precisamente cuando la suma es directa, de modo que en tal caso V 1... V n V 1... V n. 3. Si e 1,..., e n es una base de un K-espacio vectorial E, entonces la aplicación lineal f : K n E, f(x 1,..., x n ) = x 1 e 1 +... + x n e n, es un isomorfismo. El isomorfismo inverso f 1 : E K n asigna a cada vector e E sus coordenadas (x 1,..., x n ) en la base e 1,..., e n. Por tanto, todo espacio vectorial de dimensión n es isomorfo a K n. 4. Los isomorfismos transforman vectores linealmente independientes en vectores linealmente independientes, y sistemas de generadores en sistemas de generadores (compruébese); luego bases en bases. Por tanto, si E E, entonces dim E = dim E. Teorema de Isomorfía: Si f : E E es una aplicación lineal, entonces la aplicación lineal φ: E/Ker f Im f, φ(ē) = f(e), es un isomorfismo: E/Ker f Im f Demostración: Veamos primero que φ es una aplicación bien definida, que φ(ē) no depende del representante elegido, que si ē = v, entonces f(e) = f(v). Ahora bien, si ē = v, entonces e v (módulo Ker f); luego v e Ker f, 0 = f(v e) = f(v) f(e) y f(e) = f(v). Veamos ahora que tal aplicación φ es lineal: φ(ē + v) = φ([e + v]) = f(e + v) = f(e) + f(v) = φ(ē) + φ( v) φ(λē) = φ([λe]) = f(λe) = λf(e) = λφ(ē). φ es inyectiva: Si 0 = φ(ē) = f(e), entonces e Ker f, luego ē = 0 por 2.1. φ es epiyectiva: Si e Im f, entonces existe e E tal que e = f(e) = φ(ē).
20 CAPÍTULO 3. APLICACIONES LINEALES Corolario 3.2.1 Para toda aplicación lineal f : E E tenemos que dim (Ker f) + dim (Im f) = dim E Demostración: dim (Im f) = dim (E/Ker f) 2.2.7.2 = dim E dim (Ker f). Corolario 3.2.2 Si A es la matriz de una aplicación lineal f : E E, entonces dim (Ker f) = (n o de columnas) rg A Demostración: dim (Ker f) 3.2.1 = dim E dim (Im f) 3.1.4 = dim E rg A. Corolario 3.2.3 Las soluciones de un sistema homogéneo AX = 0 de m ecuaciones lineales con n incógnitas y coeficientes en K forman un subespacio vectorial de K n de dimensión n rg A; y las soluciones de un sistema no homogéneo compatible AX = B forman una subvariedad lineal de K n de dirección AX = 0 y dimensión n rg A. Demostración: Sea V = {X K n : AX = 0} el conjunto de soluciones del sistema homogéneo AX = 0. La matriz A M m n (K) define una aplicación lineal f : K n K m, f(x) = AX, y V es precisamente el núcleo de f. La matriz de f en las bases usuales de K n y K m (ver 2.2.1) es A, así que 3.2.2 afirma que la dimensión de V es n rg A. Por último, si un sistema AX = B es compatible, las soluciones se obtienen sumando a una solución particular X 0 las soluciones de la ecuación homogénea AX = 0; luego forman la subvariedad lineal X 0 + V y, por tanto, su dimensión también es n rg A. Definición: Fijada una base de un espacio vectorial de dimensión finita E, dar ecuaciones paramétricas de un subespacio vectorial V de E es dar las coordenadas de un sistema de generadores de V (mejor si forman una base de V ), y dar ecuaciones implícitas de V es dar un sistema homogéneo de ecuaciones lineales (mejor si son independientes) cuyas soluciones sean las coordenadas de los vectores de V. Dar ecuaciones paramétricas de una subvariedad lineal X de E es dar las coordenadas de un punto de X y de un sistema de generadores de la dirección de X, y dar ecuaciones implícitas de X es dar un sistema de ecuaciones lineales cuyas soluciones sean las coordenadas de los puntos de X. Ejemplo: Fijada una base (e 1, e 2, e 3, e 4 ) de un espacio vectorial E, consideremos la subvariedad lineal X de ecuaciones paramétricas x 1 = λ 1 + 4λ 2 + 2 x 2 = 2λ 1 + 3λ 2 + 1 x 3 = 3λ 1 + 2λ 2 + 1 x 4 = 4λ 1 + λ 2 + 3, x 1 2 1 4 x 2 x 3 = 1 1 + λ 2 1 3 + λ 3 2 2 x 4 3 4 1 cuya dirección V admite como base los vectores de coordenadas (1, 2, 3, 4) y (4, 3, 2, 1), de modo que dim V = 2. Hallemos primero ecuaciones implícitas de la dirección V.
3.2. TEOREMA DE ISOMORFÍA 21 Si (x 1, x 2, x 3, x 4 ) son las coordenadas de un vector de V, entonces 1 4 x 1 2 = rg 2 3 x 2 3 2 x 3 4 1 x 4 1 4 x 1 0 = 2 3 x 2 3 2 x 3 = 5x 1 + 10x 2 5x 3 1 4 x 1 0 = 2 3 x 2 4 1 x 4 = 10x 1 + 15x 2 5x 4 Vemos así que las coordenadas de los vectores de V son soluciones del sitema de ecuaciones lineales homogéneo } x 1 2x 2 + x 3 = 0 (3.3) 2x 1 3x 2 + x 4 = 0 Como ambos subespacios vectoriales de K 4 tienen dimensión 2, coinciden, de modo que unas ecuaciones implícitas de V vienen dadas por 3.3. Ahora, como la subvariedad lineal X pasa por el punto de coordenadas (2, 1, 1, 3), unas ecuaciones implícitas de X son x 1 2x 2 + x 3 = 1 2x 1 3x 2 + x 4 = 4 Teorema 3.2.4 Si V y W son dos subespacios vectoriales de un espacio vectorial de dimensión finita E, entonces dim (V + W ) = dim V + dim W dim (V W ) Demostración: Consideremos la aplicación lineal f : V (V + W )/W, f(v) = [v], que es epiyectiva, pues para toda clase [v + w] (V + W )/W tenemos que [v + w] = [v] + [w] = [v] + 0 = f(v), y su núcleo es Ker f = {v V : [v] = 0} = V W. Terminamos por 2.2.7 y 3.2.1: dim V = dim (V W ) + dim (V + W )/W = dim (V W ) + dim (V + W ) dim W. Corolario 3.2.5 Sean V y W dos subespacios vectoriales de un espacio vectorial de dimensión finita E. Si la suma de V y W es directa, entonces } dim (V W ) = dim V + dim W Demostración: De acuerdo con 2.3.1 tenemos que V W = 0, así que dim (V + W ) = dim V + dim W dim (V W ) = dim V + dim W. Corolario 3.2.6 Si E y F son dos K-espacios vectoriales de dimensión finita, dim (E F ) = dim E + dim F. Demostración: La aplicación lineal p: E F E, p(e, v) = e, es epiyectiva, y su núcleo 0 F es claramente isomorfo a F ; luego dim (E F ) = dim E + dim (0 F ) = dim E + dim F.
22 CAPÍTULO 3. APLICACIONES LINEALES 3.3 Cambio de Base Definición: Sea e 1,..., e n una base de un espacio vectorial E. Si consideramos una nueva base v 1,..., v n de E, tendremos escalares b ij K tales que v j = b 1j e 1 +... + b nj e n, 1 j n (3.4) y diremos que B = (b ij ) M n n (K) es la matriz de cambio de base. Las columnas de la matriz de cambio de base B están formadas por las coordenadas de los vectores de la nueva base en la antigua. Es decir, B es la matriz de la identidad Id: E E cuando en el espacio de salida se considera la nueva base v 1,..., v n y en el de llegada la base antigua e 1,..., e n. Por tanto, de acuerdo con 3.2, si X son las coordenadas de un vector e E en la nueva base, y X son las coordenadas de Id(e) = e en la base antigua, tendremos que X = B X. Por otra parte, también tenemos una matriz de cambio de base C M n n (K) cuando se considera que v 1,..., v n es la base inicial de E y que e 1,..., e n es la nueva base, de modo que X = CX. Luego X = BCX y X = CB X, y como estas igualdades son válidas para cualesquiera columnas X, X, se concluye que BC = CB = I. Es decir, la matriz B es invertible, y su inversa es la matriz C. En resumen, la relación entre las coordenadas X y X de un mismo vector e E en las bases e 1,..., e n y v 1,..., v n respectivamente es Aplicaciones Lineales X = B X, X = B 1 X (3.5) Sea f : E E una aplicación lineal y sea A M m n (K) la matriz de f en ciertas bases e 1,..., e n y e 1,..., e m de E y E respectivamente. Consideremos nuevas bases v 1,..., v n y v 1,..., v m de E y E respectivamente, las correspondientes matrices de cambio de base B M n n (K) y C M m m (K), y sea Ā M m n (K) la matriz de f en estas nuevas bases de E y E. Vamos a determinar la nueva matriz Ā de f en términos de la matriz A y las matrices de cambio de base B y C Sean X y X las coordenadas de un vector e E en las bases e 1,..., e n y v 1,..., v n respectivamente, y sean X e X las coordenadas de f(e) E en las bases e 1,..., e m y v 1,..., v m respectivamente. De acuerdo con 3.2 tendremos que X = AX, X = Ā X y de acuerdo con 3.5 tendremos que X = B 1 X, X = C X ; luego AX = X = C X = CĀ X = CĀB 1 X. Como esta igualdad es válida para cualquier columna X, concluimos que A = CĀB 1, Ā = C 1 AB (3.6)